New Yorkers die in gebieden wonen met een groter risico op stop-and-frisk door de politie, worden ook meer blootgesteld aan gezichtsherkenningstechnologie, zo blijkt uit recent onderzoek van Amnesty International en partners. Nieuwe analyse als onderdeel van de wereldwijde Ban the Scan-campagne toont aan hoe de enorme surveillanceoperatie van het New York City Police Department (NYPD) vooral mensen treft die al het doelwit zijn van stop-and-frisk in alle vijf stadsdelen van New York City. Voor de Bronx, Brooklyn en Queens geldt zelfs: hoe hoger het aandeel niet-blanke inwoners, hoe hoger de concentratie van met gezichtsherkenning compatibele closed-circuit television (CCTV)-camera’s. ‘We weten al langer dat stop-and-frisk in New York een racistische politietactiek is, maar het is nu ook duidelijk dat de gemeenschappen die het vaakst doelwit hiervan zijn, een groter risico lopen op discriminerend politiewerk door middel van invasieve surveillance’, aldus Matt Mahmoudi, onderzoeker Artificiële Intelligentie en Mensenrechten bij Amnesty International.
De bevindingen zijn gebaseerd op crowdsourced data: duizenden digitale vrijwilligers brachten, als onderdeel van het Decode Surveillance NYC-project, ruim 25.000 CCTV-camera’s in New York City in kaart. Amnesty werkte samen met data scientists om deze data te vergelijken met statistieken over stop-and-frisk en demografische data.
Datavisualisatieplatform
Tegelijk met het onderzoek lanceerde Amnesty International een interactief datavisualisatieplatform – naam: Inside the NYPD’s surveillance machine, maker: de Nederlandse studio Superposition – waarmee gebruikers kunnen ontdekken hoe vaak zij tijdens een potentiële wandelroute tussen twee locaties in New York City aan gezichtsherkenningstechnologie worden blootgesteld. Amnesty deed zelf een check op de Black Lives Matter-protesten van medio 2020. Mahmoudi: ‘Toen we keken naar routes die mensen mogelijk hadden gelopen om van en naar protesten te komen vanaf nabijgelegen metrostations, vonden we bijna overal volledige dekking door openbare CCTV-camera’s, voornamelijk NYPD Argus-camera’s. Deze surveillancetechnologie wordt op protestsites gebruikt om mensen te identificeren die gewoon hun mensenrechten uitoefenen. Dit is een opzettelijke schriktactiek van het NYPD die geen plaats heeft in een vrije samenleving en die onmiddellijk moet worden gestopt.’
Protestbrief en petitie
Het datavisualisatieplatform stelt gebruikers ook in staat om bij te houden hoeveel gezichtsherkenningstechnologie wordt gebruikt rondom de belangrijkste toeristische attracties in New York City door de afstand en de mogelijke route in te voeren.
Daarnaast moedigt Amnesty New Yorkers aan om actie te ondernemen door een protestbrief te sturen naar hun raadslid, en wereldwijd kan de petitie worden ondertekend met een oproep tot regulering van openbare gezichtsherkenningstechnologie.
Het onderzoek en het platform markeren de laatste fase van de Ban the Scan-campagne, na eerder onderzoek naar surveillance in New York en in Hyderabad in India vorig jaar.
‘Schending van recht op privacy’
De New Yorkse politie gebruikte tussen 2016 en 2019 in minstens 22.000 gevallen gezichtsherkenningstechnologie. Data over stop-and-frisk-incidenten door het NYPD sinds 2002 laten zien dat vooral zwarte en latino-gemeenschappen het doelwit van dergelijke tactieken zijn geweest. Vorig jaar daagde Amnesty International het NYPD voor de rechternadat het weigerde ‘public records’ openbaar te maken met betrekking tot de acquisitie van gezichtsherkenningstechnologie en andere surveillancetools. De zaak loopt nog.
Facial recognition technology (FRT) of gezichtsherkenningstechnologie is een systeem van massale surveillance die het recht op privacy schendt en een bedreiging vormt voor het recht op vrijheid van vergadering, gelijkheid en non-discriminatie, aldus Amnesty. Ze roept op tot een totaalverbod op het gebruik, de ontwikkeling, de productie, de verkoop en de export ervan.
Deze bijdrage komt uit het digitale magazine IP #3/2022. Klik op de onderstaande button om het hele nummer te lezen.