De Algemene Rekenkamer stelt in haar gisteren verschenen rapport Aandacht voor algoritmes dat er met betrekking tot het gebruik van algoritmes door de overheid betere kwaliteitscontroles en meer inzicht voor de burgers nodig zijn. De Rekenkamer wijst er tevens op dat er te weinig aandacht is voor de ethische kanten, zoals het aspect van discriminatie en profilering bij het gebruik van algoritmes door de overheid, dat ze rekening houden met de diversiteit van de bevolking en controleerbaar zijn door menselijke tussenkomst.
Het rapport Aandacht voor algoritmes maakt inzichtelijk voor welke processen algoritmes worden toegepast bij de rijksoverheid en wat de risico’s zijn. Uitvoeringsinstanties als de Belastingdienst, de Sociale Verzekeringsbank en het UWV, maar bijvoorbeeld ook opsporingsdiensten, maken steeds meer gebruik van algoritmes bij bijvoorbeeld de toekenning van toeslagen en bij fraudebestrijding. De Algemene Rekenkamer inventariseerde het gebruik van 86 algoritmes bij onder meer ministeries en uitvoeringsinstanties, die deze algoritmes zelf hebben aangedragen. Daarbij is vooral gekeken naar risico’s en gevolgen van het gebruik in het algemeen.
Zorgen burgers serieus nemen
De Algemene Rekenkamer stelt vast dat bij algoritmes niet de burger, maar de overheid centraal staat. ‘Er is bij de overheid oog voor de privacy van burgers, maar ethische aspecten krijgen weinig aandacht. Daartoe behoren dat algoritmes niet discrimineren, rekening houden met diversiteit van de bevolking en controleerbaar zijn door menselijke tussenkomst. Burgers moeten het gebruik en de werking van een algoritme kunnen begrijpen. Ook moeten zij weten waar zij terecht kunnen met vragen of bezwaren. Zorgen of twijfels over algoritmes verdienen serieuze aandacht’, aldus de Algemene Rekenkamer. Verkeerd gebruik van een dataverzameling kan volgens de Rekenkamer een discriminerende werking hebben als deze vooroordelen bevat. Zo vonniste vorig jaar een rechter dat het door overheden voor uitkeringsdoelen gebruikte systeem Syri discriminerend werkt, waarop het gebruik werd stopgezet. Vragen van bezorgde burgers over de toepassing van algoritmes verdienen meer aandacht.
Verder wijst de Rekenkamer erop dat de overheid bij de inzet van algoritmes afhankelijk kan worden van externe leveranciers (eigendomsrecht, verwerking persoonsgegevens). De overheid dient data voldoende te beveiligen (sabotage, spionage en criminaliteit voorkomen); beheer en onderhoud van algoritmes moeten op orde zijn.
Toetsingskader ontwikkeld
De Rekenkamer stelt vast dat de overheid nu nog vooral gebruikmaakt van eenvoudige algoritmes in processen voor bedrijfsvoering of dienstverlening. Volledig zelflerende algoritmes (die beleid uitvoeren zonder tussenkomst van een mens) heeft de Algemene Rekenkamer niet aangetroffen. Een verantwoorde ontwikkeling naar complexere geautomatiseerde toepassingen vereist echter beter overzicht – dat hebben ministers nu niet, zo blijkt volgens de Rekenkamer uit haar onderzoek – en betere kwaliteitscontrole. Hiervoor heeft de Algemene Rekenkamer een toetsingskader ontwikkeld om de kwaliteit en verantwoorde inzet van algoritmes in de praktijk te kunnen beoordelen. Deze toets test een algoritme op aspecten van sturing en verantwoording, model en data, privacywaarborgen, kwaliteit van de IT general controls (ITGC, zoals wie heeft toegang en hoe wordt met back-ups omgegaan) en ethische vragen. Bij ethische vragen staat de menselijke maat centraal. Doel van deze toets is het opsporen van mogelijke zwakheden bij het gebruik van algoritmes. De Rekenkamer nodigt de overheid uit dit toetsingskader, tot stand gekomen met inbreng van experts van binnen en buiten de rijksoverheid, ook als basis te gebruiken bij de ontwikkeling van nieuwe algoritmes.
Kritisch
Overigens toont Marlies van Eck, adviseur en docent vakgroep Belastingrecht Radboud Universiteit, zich in Trouw kritisch over de claim van de Rekenkamer dat algoritmes door de overheid nu nog alleen worden ingezet voor eenvoudige administratieve processen die geen noemenswaardige gevolgen voor de burger hebben. ‘Ik viel echt van mijn stoel. We weten dat bij uitvoeringsinstanties als CJIB, de Belastingdienst en Duo 90 procent is geautomatiseerd. Dat kan niet zonder algoritmes. Het feit dat de onderzoekers blind hebben gevaren op wat die overheden aandroegen, zegt al genoeg. Dan krijg je geen volledig beeld’, aldus Van Eck.
Hanteerbare kwaliteitseisen
Verantwoordelijk staatssecretaris Knops van Binnenlandse Zaken en Koninkrijksrelaties (coördinerend bewindsman voor IT-beheer) stelt in een reactie op het rapport onder andere dat aan eenduidige gemeenschappelijke taal en concrete kwaliteitseisen voor algoritmes wordt gewerkt via onder meer de kennisbundeling en het gestructureerde overleg van de Nederlandse Digitaliseringstrategie (NDS). In samenwerking met de Algemene Rekenkamer en de Auditdienst Rijk wordt het toetsingskader vertaald naar hanteerbare kwaliteitseisen voor algoritmes. Over het beter inzicht bieden aan de burgers schrijft de staatssecretaris: ‘De opgestelde richtlijnen voor het gebruik van algoritmes door overheden worden verder aangescherpt en geëvalueerd. Daarnaast wordt een model ontwikkeld voor een impact assessment met betrekking tot algoritmes en mensenrechten. Zowel nationale als Europese wetgeving geeft inzicht in de toegepaste voorspellende of voorschrijvende algoritmes.’
Op donderdag 28 januari 2021 organiseert de Algemene Rekenkamer een digitaal event in het kader van het rapport Aandacht voor algoritmes. Tijdens dit event zullen de belangrijkste bevindingen uit het rapport worden toegelicht en zal hierover met diverse betrokken partijen van gedachten worden gewisseld. Het programma bestaat mede uit een rondetafelgesprek met onder anderen Kees Verhoeven (Tweede Kamerlid D66), Bart de Jongh (Auditdienst Rijk, waarnemend directeur Kennis & Ontwikkeling) en Mona de Boer (partner PwC). Het digitale event vindt plaats van 13:15 tot 16:30 uur.