‘Conversational agents kunnen als poortwachters informatie controleren die het publiek bereikt’

Wat gebeurt er als technologie – zoals Google Assistant en Alexavoor ons beslist wat we over de wereld horen en het nieuws kiest dat we wel en niet zien? Valeria Resendez onderzocht deze vraag tijdens haar promotieonderzoek. Ze verdedigt haar proefschrift op 25 oktober aan de Universiteit van Amsterdam.

Conversational agents (CA’s) als Google Assistant en Alexa brengen steeds vaker nieuws rechtstreeks naar gebruikers. Door de dialoog aan te gaan met gebruikers kunnen CA’s de gebruikerservaring persoonlijker, meer privé en interactiever maken. Resendez stelt in haar onderzoek de informatie die ze doorgeven aan de kaak. ‘Ons vertrouwen in technologie was altijd gebaseerd op de functionaliteit en betrouwbaarheid van een product. Nu relaties met technologie persoonlijker worden, wordt de vraag wat dit vertrouwen betekent steeds ingewikkelder’, licht ze toe.

Vertrouwen of niet vertrouwen 

Als voorbeeld geeft ze een CA die je elke dag wakker maakt met het weerbericht, de vergaderingen van die dag en het belangrijkste nieuws. ‘En dan beweert de CA op een ochtend dat door fraude bij recente verkiezingen de verkiezingsuitslagen niet kloppen. Hierdoor raak je in de war en maak je je zorgen. Is het waar? Waar komt de informatie vandaan? We weten niet altijd waar CA’s hun nieuws vandaan halen. Maar als we CA’s vertrouwen, dan is de kans groter dat we gewoon accepteren wat ze zeggen.’  

Door op te treden als poortwachters kunnen CA’s de informatiestroom controleren die het publiek bereikt. Toegang tot informatie kan op natuurlijke wijze vormgeven aan de zogenaamde ‘public issue salience’ (de mate waarin iemand zich zorgen maakt over een kwestie). Hoe groter het vertrouwen van gebruikers in dat of diegene die informatie levert, hoe waarschijnlijker het is dat ze de aanbevelingen accepteren en hoe meer hun mening over een bepaald onderwerp kan worden gevormd.

Het onderzoek van Resendez toont dat dit al op kleine schaal gebeurt. Er moet snel meer werk worden verricht om de onderliggende mechanismen te begrijpen, gezien de potentiële impact op het democratisch functioneren van de samenleving. 

Cognitieve taken

Resendez ontdekte ook dat het vertrouwen in CA’s beperkt wordt door factoren die onlosmakelijk verbonden zijn met technologie. Het dialoogonderdeel van een interactie met een CA leidt bijvoorbeeld zelfs tot een lichte daling van het vertrouwen, omdat gebruikers het ontvangen van nieuws via dialoog als minder plezierig ervaren dan het lezen van nieuws op een conventionele website. Resendez: ‘CA’s kunnen nog geen interactie aangaan zoals een ander mens dat zou doen, hoewel dat kan veranderen naarmate de technologie steeds krachtiger wordt.’ 

‘Door technologie te laten beslissen over de juiste koers en timing van verschillende acties, leggen we cognitieve taken bij CA’s neer’, zegt Resendez. ‘We weten allemaal dat de huidige nieuwsomgeving vol zit met valkuilen voor gebruikers. We dragen zeer gevoelige taken over aan deze technologie en dit vereist meer vertrouwen in het vermogen van de CA’s om aan onze verwachtingen te voldoen. Weten we zeker dat ze op dit moment ons vertrouwen waard zijn?’