Met AI gegenereerde gezichten ogen vaak zo realistisch dat mensen het verschil tussen kunstmatige en echte foto’s niet meer zien. Bovendien worden de deepfakebeelden iets vaker als ‘betrouwbaar’ bestempeld dan het origineel. Dit blijkt uit onderzoek van de Universiteit van Texas.
De wetenschappers begonnen hun onderzoek met het genereren van vierhonderd foto’s met behulp van open source AI van chipfabrikant Nvidia. Daarbij zorgden ze ervoor dat er zo veel mogelijk diversiteit in de gezichten zat. Vervolgens voegden ze vierhonderd echte foto’s toe aan de database. Daarna moest elke deelnemer aan het onderzoek van 128 foto’s aangeven of deze echt of nep zijn. In slechts 48 procent van de gevallen hadden ze het juist. Dat is volgens de onderzoekers minder dan wanneer ze gewoon zouden hebben gegokt.
Tijdens een tweede experiment werden nieuwe participanten op voorhand getraind om AI-gezichten te herkennen. Na elke poging zouden zij ook te weten komen of ze het antwoord goed of fout hadden. Deze groep deed het iets beter met een slagingspercentage van 59 procent. Daarbij valt vooral op dat alleen de herkenningstraining een effect had. Deelnemers deden het zelfs iets slechter naarmate ze meer feedback kregen over hun antwoorden, zo schrijft RTL.
Gevaarlijke technologie
Verder moesten de deelnemers aangeven hoe betrouwbaar ze de 128 gezichten vonden. Daar kwam uit dat ze de door AI gegenereerde gezichten gemiddeld zo’n 7,7 procent betrouwbaarder achtten dan de echte gezichten.
De wetenschappers concluderen dat ‘door AI gesynthetiseerde gezichten niet te onderscheiden vallen van echte gezichten’. De onderzoekers benadrukken hoe gevaarlijk de technologie kan zijn: ‘We moedigen de grafische en visuele gemeenschap aan om richtlijnen te ontwikkelen voor de creatie en distributie van synthetische mediatechnieken. Die moeten ethische richtlijnen bevatten voor onderzoekers, uitgevers en mediabedrijven.’