Door Anne van den Dool
Suggesties voor playlists en voor boeken ‘die je misschien ook leuk vindt’ – we krijgen de hele dag van alles aanbevolen, vaak gebaseerd op allerlei data. Is dat een vloek of juist een zegen? Hoogleraar Nava Tintarev vertelt er meer over in aanloop naar de keynote die ze zal verzorgen tijdens de VOGIN-IP-lezing op 16 maart.
Aanbevelingssystemen zijn een hot item, merkt ook Nava Tintarev, hoogleraar Explainable Artificial Intelligence aan de Universiteit Maastricht. Haar cursussen over dit onderwerp trekken zeer geïnteresseerde studenten. Ook neemt ze deel aan verschillende netwerken en werkgroepen die onderzoek doen naar de werking van aanbevelingssystemen en hun invloed op ons dagelijks leven.
Vaak is het onderwerp daarbij onderdeel van de bredere onderzoeksvraag hoe betrouwbare kunstmatige intelligentie eruit zou kunnen zien – een vraag die met de dag relevanter wordt. AI beïnvloedt ons gedrag meer dan we beseffen, benadrukt Tintarev, bijvoorbeeld als het gaat om de aanbevelingen die we de hele dag door krijgen. Denk aan de Google Shopping-resultaten die in je zoekmachine verschijnen wanneer je op zoek bent naar een nieuwe gieter, de producten die je worden aanbevolen wanneer je aan het shoppen bent op Bol.com, of de manier waarop Spotify speciaal voor jou een Discover Weekly-playlist samenstelt.
Goed of slecht?
Het gaat om gepersonaliseerde online content die onze besluitvorming beïnvloedt – soms bij iets weinig belangrijks als het afspelen van een liedje, soms bij het lezen van een boek dat onze gedachten voorgoed kan veranderen. Dit fenomeen fascineert Tintarev al jaren: ook haar promotieonderzoek ging al over de manier waarop aanbevelingssystemen onze levens beïnvloeden, en hoe we de gebruiker meer transparantie over en controle in het gebruik kunnen geven.
Is dat per se goed of slecht? Het antwoord is volgens Tintarev tweeledig. ‘Het is fijn dat we aanbod kunnen afstemmen op individuele personen. Wanneer die individuen niet weten op basis van welke informatie dat aanbod aan hen wordt aanbevolen, wordt het echter riskant. Na de toeslagenaffaire zijn meer Nederlanders bang geworden voor zulke systemen, vooral als er geen mens tussen zit die de uitslag controleert. In mijn colleges probeer ik studenten ervan bewust te maken hoe groot de verantwoordelijkheid van de techniek én van de mens is.’
Angst voor filterbubbels
Aanbevelingssystemen scherpen Tintarevs angst voor filterbubbels. ‘Dat geldt natuurlijk voor de boeken die Bol.com ons aanraadt en de films die Netflix ons aanbeveelt, maar het gaat ook over crucialere momenten, zoals die waarop we proberen een mening over iets te vormen. Bijvoorbeeld als het gaat om politiek of gezondheid. Ook rijst de vraag of iedereen wel dezelfde kwaliteit content krijgt voorgeschoteld of dat er juist ongelijke informatiestromen ontstaan waarbij een deel van de bevolking toegang krijgt tot kwalitatief mindere informatie. Tegelijk roept het onzekerheid op aan de kant van de aanbieders. Worden vrouwelijke artiesten op Spotify bijvoorbeeld wel net zo vaak aanbevolen als mannelijke? Voor hen hangen daar hun inkomsten vanaf.’
We zijn het er allemaal over eens dat het goed is dat in bepaalde situaties aanbevelingssystemen bestaan, ziet Tintarev, maar de vraag is wanneer we ze precies nodig hebben. ‘Het zijn complexe systemen waarmee vaak veel data zijn gemoeid. Daardoor ontstaat een vertrouwenskwestie: hoe worden die data precies omgezet in een aanbeveling? Hoe beter het systeem ons helpt, hoe meer we het in de loop der tijd gaan vertrouwen. Blind vertrouwen helpt daarbij alleen niet: zowel mensen als systemen maken wel eens fouten, en je hoeft ze niet direct terzijde te schuiven als ze een keer een fout maken.’
Betere interfaces
Het is belangrijk om ons ervan bewust te zijn dat algoritmes ons vormen en soms misschien zelfs manipuleren. Waar ligt het onderscheid? ‘Als een algoritme wil leren van je gedrag, is dat niet per se schadelijk’, vindt Tintarev. ‘Maar als je bewust om de tuin wordt geleid, is het een ander verhaal.’
Wanneer aanbevelingssystemen goed werken, kunnen ze werelden voor ons openen, zegt ze. ‘Denk bijvoorbeeld aan de catalogi van openbare bibliotheken. Natuurlijk blijft er altijd een longtail bestaan van items die nauwelijks worden geleend. Goede aanbevelingssystemen kunnen die longtail echter wel verkleinen. Nu maken die systemen het vaak juist moeilijker om de diversiteit van collecties te verkennen: populaire boeken worden vaker aanbevolen en minder populaire boeken verdwijnen naar de achtergrond.’ Betere interfaces kunnen hier volgens Tintarev een belangrijke rol in spelen. ‘Wanneer we meer zoekmogelijkheden toevoegen, bijvoorbeeld met meer eigenschappen die een boek kan hebben, helpt dat om uit te komen bij iets wat je anders niet had gevonden. Onderzoek laat wel zien dat dit alleen werkt als je al vrij goed weet wat je zoekt. Wanneer je geen idee hebt wat al die verschillende genres waaruit je kunt kiezen betekenen, schiet het weinig op.’
Meer transparantie nodig
Tintarev pleit al sinds haar promotieonderzoek in 2006 voor meer transparantie in hoe al die aanbevelingen in ons leven tot stand komen. ‘We moeten meer uitleg krijgen over alles wat we door algoritmes krijgen voorgeschoteld. Waarom zien we wat we zien? Op welke data zijn die keuzes gebaseerd? Welke eigenschappen hebben de producten die ons worden aanbevolen, en waarom zouden die aansluiten bij onze wensen? De volgende stap is om die informatie zelf te kunnen aanpassen, zodat we meer controle uitoefenen op wat we te zien krijgen. Wanneer je bijvoorbeeld op zoek bent naar meubels en continu Scandinavische stoelen en tafels krijgt aangereikt, wil je kunnen aangeven of je het daarmee eens bent of misschien toch iets anders zoekt.’
Daardoor ontstaat hopelijk ook meer ruimte voor een multidimensionale smaak. ‘We willen nu eenmaal niet altijd precies hetzelfde’, betoogt Tintarev. ‘Denk bijvoorbeeld aan het nieuws: soms willen we diepgravende artikelen lezen, soms willen we oppervlakkige roddels. Die variatie begrijpen de algoritmes van platforms nu nog lang niet altijd: je moet één specifieke smaak hebben, en wanneer je daarvan afwijkt, raakt het systeem in de war. Wanneer we zelf meer invloed kunnen uitoefenen op wat informatiesystemen van ons bewaren en gebruiken, kunnen we ook hier verandering in brengen.’
In opstand tegen Twitter
Soms komen we in het verweer tegen de beïnvloeding door al die algoritmes. Een tijd geleden kwamen gebruikers van Twitter in opstand tegen hun gepersonaliseerde tijdlijn: ze wilden dat de tweets weer aan hen zouden worden gepresenteerd op volgorde van publicatie, en niet volgens een door Twitter bedacht algoritme van belangrijkheid. Toch is het maar de vraag of we daar werkelijk zo blij van zouden worden, zegt Tintarev. ‘Wil je een heel interessante tweet echt niet bovenaan zien in plaats van recente tweets die niet per se relevant zijn? We willen toch juist zo snel mogelijk op de hoogte zijn van de belangrijkste gebeurtenissen? Daar past zo’n gepersonaliseerde tijdlijn tot op zekere hoogte wel bij. We willen dat onze blik wordt verbreed, maar tegelijkertijd genieten we ook van hoe goed we worden bediend.’
Blik achter de schermen
Kunnen we ooit nog terug naar een wereld zonder algoritmes? Dat betwijfelt Tintarev. ‘De wereld waarin we leven is als geheel veranderd. Eerst was onze leefwereld kleiner, met meer gelijksoortige vrienden en minder contact met de rest van de planeet. Nu kennen we weliswaar filterbubbels, maar misschien is het contact dat we met iedereen op de aarde kunnen aangaan nog steeds diverser dan vroeger. De vraag is vooral: wat is de winst van personalisatie en wanneer willen we dat liever niet? Laten we mensen de vrijheid geven om te bepalen of ze algoritmes willen laten toepassen op wat ze zien, en zo ja, op welke manier. We weten te weinig over wat er achter de schermen gebeurt, en dat moet veranderen.’
De elfde editie van de VOGIN-IP-lezing vindt plaats op 16 maart in de Openbare Bibliotheek Amsterdam (OBA). Het programma biedt naast acht lezingen twaalf workshops om uit te kiezen.
> Het volledige programmaoverzicht vind je hier.
> Inschrijven is mogelijk op de website.
De VOGIN-IP-lezing is het gezamenlijke evenement van Stichting VOGIN en IP. De vorige editie vond plaats op 11 mei vorig jaar.
Anne van den Dool is tekstschrijver, auteur en cultureel journalist.
Deze bijdrage komt uit het digitale magazine IP #1-2023. Klik op de onderstaande button om het hele nummer te lezen.