Oratie hoogleraar Natasha Alechina over veilig maken AI

AI-assistenten zoals ChatGPT maken ondanks hun indrukwekkende prestaties af en toe heel basale fouten. Dat kan schade kunnen toebrengen aan mensen. Natasha Alechina, hoogleraar Safe and Responsible AI bij de faculteit Bètawetenschappen van de Open Universiteit onderzoekt in haar oratie de vraag: ‘Wat kunnen we doen om AI veiliger te maken?

Prof. dr. Natasha Alechina is sinds 1 september 2023 hoogleraar Safe and Responsible AI aan de faculteit Bètawetenschappen van de Open Universiteit. ze spreekt haar oratie uit op vrijdag 1 november 2024 om 16.00 uur aan de Open Universiteit in Heerlen.

Hallucinaties

De meeste vorderingen die artificial intelligence de laatste jaren heeft behaald, zijn te danken aan de ontwikkeling van deep learning en de toenemende beschikbaarheid van enorme hoeveelheden data en rekenkracht. Eerdere benaderingen van AI maakten veel meer gebruik van symbolische benaderingen, waarbij code werd geschreven door menselijke programmeurs. ‘Dit is moeilijk voor complexe taken, maar dit maakt het makkelijker om aan te tonen dat het AI-systeem veilig is’, zegt Alechina.

Maar de toepassing van machine learning-technieken loopt volgens haar vast rond veiligheid. ‘Robotvoertuigen hebben een onaanvaardbaar ongevallenpercentage en menselijke piloten zijn nog niet te vervangen door zelfvliegende vliegtuigen. Het probleem is dat we niet weten wat systemen die gebaseerd zijn op leren, hebben geleerd.’

Language Learning Models (LLM’s), waarvan ChatGPT een voorbeeld is, hebben de neiging om dingen te verzinnen. Dit worden ook wel hallucinaties genoemd. ‘De oorzaak hiervan is dat LLM’s niet factive zijn, met andere woorden, ze weten het verschil niet tussen waarheid en onwaarheid.’

AI veiliger maken

ChatGPT is een voorbeeld van een generatieve AI. Dit is een vorm van artificial intelligence die geautomatiseerd content creëert, op basis van ‘prompts’. Generatieve AI is moeilijker van tevoren te beperken, tijdens de training. ‘Het is wel mogelijk om formele verificatietechnieken toe te passen óp de gegenereerde content. Als generatieve AI bijvoorbeeld een medisch behandelplan produceert, is het mogelijk om te verifiëren of het voldoet aan de richtlijnen die zijn voorgeschreven.’

Toekomst

In haar toekomstige onderzoek is Alechina van plan om veilige generatieve AI te ontwikkelen. Ze kijkt hierbij naar de flexibiliteit en het gemak van het genereren van inhoud met generatieve AI en leren in het algemeen. Dat wil ze combineren met de nauwkeurige formele garanties die door symbolische benaderingen worden geboden. De hoogleraar hoopt door deze twee verschillende benaderingen samen te brengen, dat een meer robuust, betrouwbaar, veilig en vertrouwd AI gaat ontstaan.