Overheidsorganisaties gebruiken zeker 120 systemen op basis van kunstmatige intelligentie (AI). In bijna de helft van de gevallen hebben de organisaties voor zover bekend geen afweging gemaakt over de risico’s van zulke systemen.
Dat meldt de Algemene Rekenkamer. Systemen met kunstmatige intelligentie zijn niet met de hand geprogrammeerd. In plaats daarvan hebben ze met behulp van grote hoeveelheden data geleerd taken uit te voeren. Volgens Rekenkamer-collegelid Ewout Irrgang kleven daar risico’s aan, zoals privacyschendingen en discriminatie. ‘Je kunt de risico’s alleen beheersen als je ze kent’, zegt hij tegen persbureau ANP.
UWV en politie
De meeste overheidsorganisaties gebruiken niet meer dan drie AI-systemen. Uitschieters zijn uitkeringsinstantie UWV, dat er tien in gebruik heeft, en de politie, met 23. Het UWV gebruikt AI onder meer om te voorspellen wie na afloop van een uitkering geen inkomsten heeft. ‘Op basis daarvan biedt de uitkeringsinstantie ondersteuning. ‘Als systemen impact hebben op burgers, heb je eerder risico’s’, zegt Irrgang.
In gevallen waar overheidsorganisaties de risico’s wel hebben ingeschat, vinden ze meestal dat die minimaal zijn. Maar ook dan is er kans op bijvoorbeeld privacyschendingen, merkt de Rekenkamer op. De organisaties hebben een kleiner deel van de projecten ingeschat als ‘hoog risico’.
Kabinet wil samenhang verbeteren
Hoe het risico precies wordt bepaald, verschilt van geval tot geval. Het kabinet zegt in een reactie de samenhang te willen verbeteren.
Het is de eerste keer dat de Rekenkamer AI-systemen onderzoekt. De controleur vroeg zeventig overheidsorganisaties hun AI-gebruik in kaart te brengen, zoals het ministerie van Financiën, de douane en de NPO.