Het Nederlands Forensisch Instituut (NFI) en de Universiteit van Amsterdam (UvA) gaan samen onderzoek doen naar computermodellen om deepfakes en verborgen berichten te helpen herkennen. Dat onderzoek zal plaatsvinden in een onderzoekslab bij het ICAI.
Het gezamenlijk onderzoek richt zich op de toepassing van artificial intelligence (AI) in forensische bewijsvoering, zoals het ontwikkelen van computermodellen voor het herkennen van deepfakes en het doen van onderzoek naar de toepassing van AI bij het herkennen van verborgen berichten (steganography). Of de toepassing van AI bij spraakherkenning of het uitlezen van data uit auto’s. De samenwerking wordt de komende tijd verder uitgebouwd naar een zelfstandig forensisch onderzoekslab binnen het ICAI – Innovation Center for Artificial Intelligence.
Deepfakes in kinderporno
Criminelen maken steeds vaker gebruik van deepfakes, signaleert prof. dr. Zeno Geradts, onderzoeker bij het NFI, bijzonder hoogleraar Forensic Data Science aan de UvA en één van de initiatiefnemers van het lab. ‘Het wordt bijvoorbeeld toegepast om volwassenen in kinderpornofilms onherkenbaar te maken. Of om meningen te beïnvloeden met door de computer gecreëerde personen. Het is bijna onmogelijk om echte en deepfakevideo’s met het blote oog van elkaar te onderscheiden.’ De huidige computermodellen kunnen deepfake in ongeveer acht op de tien video’s herkennen, weet hij. ‘Dat is nog altijd in twee op de tien video’s niet, terwijl je eigenlijk zou willen dat minstens 99,5 procent van de deepfakes eruit wordt gehaald.’
‘Meer onderzoek naar deepfakes nodig’
‘Er is meer onderzoek nodig om deepfakevideo’s te kunnen onderscheiden van echte video’s’, vult Marcel Worring, hoogleraar Multimedia Analytics aan de UvA aan. ‘Negentig procent van alle investeringen in deepfakes gaat naar het verbeteren van de techniek. Slechts 10 procent gaat naar onderzoek om deepfakes te herkennen en dan wordt er slechts heel beperkt gekeken naar de forensische bewijswaarde. Dat is echt veel te weinig.’
Herkennen verborgen boodschappen
Er is naast meer onderzoek naar deepfakes ook meer onderzoek nodig naar steganography: het verbergen van boodschappen in foto’s en video’s. Criminelen kunnen gebruikmaken van steganography, bijvoorbeeld over wanneer en waar een lading drugs aankomt. ‘Een ouderwets voorbeeld van een verborgen boodschap kan zijn dat de eerste letter van woorden in een zin gezamenlijk een nieuw woord vormen, maar tegenwoordig maken ze ook video’s waar boodschappen digitaal in zijn verborgen’, zegt Geradts. ‘Met AI kun je computers leren om dit soort verborgen berichten te herkennen door ze te trainen op bepaalde afwijkingen.’
Spraak, auto’s en mobiele telefoons
Een derde project gaat zich richten op het verbeteren van de bewijsvoering bij spraakherkenning door het combineren van de herkenning met bijvoorbeeld locatiegegevens op de mobiele telefoon. Het NFI en de UvA richten zich verder op het ontwikkelen van tools om nog beter informatie op telefoons te kunnen doorzoeken. Daarnaast wordt er een promovendus aangesteld die in samenwerking met de politie onderzoek gaat doen naar informatie die auto’s kunnen opleveren. Auto’s bevatten bijvoorbeeld steeds meer sensoren die interessante data kunnen opleveren voor bewijsvoering in strafzaken.