‘ChatGPT kan moreel oordeel van mensen beïnvloeden’

Onderzoekers hebben geconstateerd dat ontwikkelingen zoals ChatGPT invloed hebben op het moreel oordeel van mensen. Daarbij maakt het niet uit of ze weten dat een advies afkomstig is van een mens of van een bot. Dat is een gevaarlijke ontwikkeling als ChatGPT een alternatief wordt voor Google Search.

Het doel van OpenAI met ChatGPT is de hegemonie van Google in het zoeken op internet aan te vallen. In plaats van reeksen verwijzingen naar internetpagina’s te tonen zoals Google doet, wil OpenAI met AI de informatie ophalen uit die links en deze in de vorm van een goed leesbaar verhaal presenteren. Dat maakt het internetgebruikers gemakkelijker, omdat ze niet zelf de informatie uit verschillende sites hoeven te halen. Keerzijde is dat de mogelijkheid om te beoordelen welke sites betrouwbaarder zijn dan andere daarmee vervalt. Bovendien blijken mensen geneigd de informatie die ze wordt voorgeschoteld door ChatGPT voor waar aan te nemen, zo blijkt uit het wetenschappelijke artikel The moral authority of ChatGPT van een Deens-Duitse onderzoeksgroep. Ook vonden de onderzoekers uit dat ChatGPT inconsistent is in het geven van adviezen waarin een morele afweging is gemaakt, aldus een bericht op AG Connect.

Bewustmaken van fouten AI

Volgens een van de auteurs van het onderzoeksrapport, Andreas Ostermaier, is het heel waarschijnlijk dat mensen advies gaan vragen aan ChatGPT. ‘Ze doen dat eigenlijk nu al. Mensen vertrouwen op AI-gebaseerde systemen als Siri en Alexa, praten tegen chatbots op websites om hulp te krijgen en gebruiken AI-gebaseerde software om voor hen de beste route te vinden.’

De onderzoekers concluderen dat veelgehoorde methoden om de nadelige effecten van de inzet van AI tegen te gaan, zoals het verbeteren van transparantie of het blokkeren van bepaalde vragen, mogelijk niet voldoende zijn met het oog op de mogelijkheden van ChatGPT om invloed uit te oefenen. Ze adviseren daarom om mensen beter bewust te maken van de fouten die AI-gebaseerde systemen maken. Hun ervaring uit andere onderzoeken is dat mensen kritischer gaan kijken naar algoritmische systemen als zij zien dat deze niet foutloos zijn.