Door: Mette van Essen
Over een paar jaar neemt kunstmatige intelligentie (AI) allerlei belangrijke beslissingen bij overheids- en archiefinstellingen. Niet mensen maar machines bepalen dan bijvoorbeeld welke informatie wel of niet gearchiveerd of openbaar gemaakt moet worden.
Toekomstmuziek? Niet echt. Instellingen passen al lang eenvoudige algoritmen toe in de vorm van beslisbomen, zoals voor het verlenen van vergunningen of het toekennen van uitkeringen. Het wordt spannender als we zelflerende algoritmen gaan gebruiken, bijvoorbeeld om fraude te detecteren of een misdaad te voorspellen. Dit roept talloze vragen op. Weten we als instellingen hoe we AI optimaal kunnen inzetten? Wat als de beslissingen ervan verkeerd zijn? En misschien nog belangrijker: hoe krijgen we vertrouwen in de – ogenschijnlijk ondoorzichtige – beslissingen die zelflerende systemen voor ons nemen?
In een experiment bij het Nationaal Archief hebben we gekeken naar vertrouwen. Een groep medewerkers heeft enkele maanden een zelflerend classificatiesysteem getraind. Dit systeem bepaalde of binnenkomende e-mailberichten tot de klasse ruis (‘mag weg’) of de klasse functioneel (‘moet blijven’) behoorden. Medewerkers controleerden de beslissingen door aan te geven of deze juist of onjuist waren. Deze input werd gebruikt om het systeem verder te trainen.
Vertrouwen in het systeem werkt anders dan we in eerste instantie dachten. Het blijkt dat medewerkers het belangrijk vinden om controle, of het gevoel van controle, te hebben over het systeem. Dit is belangrijker dan inzicht in het feitelijk functioneren van de algoritmen. Bovendien voelen medewerkers zich verantwoordelijk voor de werking van het systeem: zij zijn de trainers en willen het zo goed mogelijk ontwikkelen. Deze interactie maakt de menselijke consequenties én inconsequenties veel zichtbaarder (‘hoe had ik dat bericht gisteren ook al weer beoordeeld?’). Medewerkers zijn zich ervan bewust dat een perfect systeem niet bestaat en ook niet nodig is, zolang de uitkomsten gecorrigeerd kunnen worden.
Dit experiment toont voor mij aan dat het toepassen van AI niet in een vacuüm kan plaatsvinden. Er is een wisselwerking nodig tussen gegevens, systemen en bovenal gebruikers. Om dit voor elkaar te krijgen moeten gebruikers deze systemen gaan begrijpen en vertrouwen. Met vertrouwen kunnen we beter nadenken over goede toepassingen. De kracht van AI zit niet in zelflerende algoritmen en het gebruik van veel gegevens. Wel in de samenwerking tussen mensen en machines, waarbij we allebei fouten kunnen en mogen maken.
Mette van Essen is adviseur Digitale Innovatie bij het Nationaal Archief
Deze bijdrage komt uit IP nr. 2 / 2019. Het gehele nummer kun je hier lezen.