AI-assistenten worden steeds vaker gebruikt om vragen over nieuws te beantwoorden, maar ze blijven grote fouten maken. Dat blijkt uit het grootschalige Europese onderzoek News Integrity in AI Assistants. Gemini presteert het slechtst.
Uit een grootschalig internationaal onderzoek in achttien landen, gecoördineerd door de European Broadcasting Union (EBU) en geleid door de BBC, blijkt dat 45 procent van de antwoorden rond nieuws grote fouten bevat.
Journalisten analyseerden meer dan drieduizend antwoorden van ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) en Perplexity in veertien verschillende talen. De antwoorden werden getoetst aan criteria als nauwkeurigheid, correcte bronvermelding, het onderscheid tussen feit en mening, en het bieden van de benodigde context.
In maar liefst 45 procent van alle geanalyseerde antwoorden werd minstens een belangrijk probleem vastgesteld. Vooral de bronvermelding blijkt een probleem. Bij 31 procent van de antwoorden waren ontbrekende, misleidende of niet-correcte bronnen. Daarnaast bevatte 20 procent van de antwoorden grote onnauwkeurigheden, waaronder verzonnen details en verouderde informatie.
Gemini presteert het slechtst
Gemini blijkt aanzienlijk slechter te presteren dan de concurrentie. Maar liefst 76 procent van de antwoorden van deze tool vertoonde belangrijke problemen. Dat is grotendeels te wijten aan de zeer slechte bronvermelding.
Ernstige gevolgen
De EBU benadrukt dat de grote fouten die AI-assistenten maken ernstige gevolgen kunnen hebben. De AI-chatbots worden steeds vaker gebruikt voor nieuwsgaring. Volgens het Digital News Report 2025 van het Reuters Institute gebruikt 7 procent van de online nieuwsconsumenten AI voor nieuws, een percentage dat stijgt tot zelfs al 15 procent bij jongeren onder de 25 jaar. De EBU roept op tot regulering en monitoring.