Onlangs verscheen de paperbackeditie van Artificial Unintelligence, geschreven door datajournalist en onderzoeker Meredith Broussard. In een interview gaat zij in op technochauvinism en de rol van bibliotheken bij het dichten van de datakloof.
Door: Rob Feenstra
In haar boek Artificial Unintelligence: How Computers Misunderstand the World beschrijft Meredith Broussard hoe kunstmatige intelligentie werkt en geeft ze aan waarom het in haar visie niet terecht is dat veel mensen er zo’n blind vertrouwen in hebben. Het begrip dat ze daarvoor introduceert is technochauvinism, de overtuiging dat techniek, en dan met name kunstmatige intelligentie, voor ieder probleem de beste oplossing biedt.
Broussard is vertrouwd met de materie. Ze doceert aan het Arthur L. Carter Journalism Institute van de Universiteit van New York en werkte als softwareontwikkelaar onder meer bij AT&T Bell Labs en MIT Media Lab. Daarnaast is ze actief als datajournalist. We spreken haar aan de vooravond van een congres over kunstmatige intelligentie in bibliotheken, waar zij een lezing houdt over haar onderzoek.
In 2018 ging de ontwikkeling van kunstmatige intelligentie minder snel dan verwacht. Ziet u een verandering ontstaan in de manier waarop kunstmatige intelligentie wordt beoordeeld?
‘Er is een terugval in de ontwikkeling van de technologie en dat is logisch, want er heerste jarenlang een euforische stemming. Technochauvinists domineerden lang het culturele debat over technologie en nu beginnen mensen zich te realiseren dat ze op een andere manier over de ontwikkeling ervan moeten denken. Je kunt mensen lang voor de gek houden, maar op een gegeven moment komen ze erachter dat de beloften niet uitkomen. Dat zien we nu met de zelfrijdende auto’s. Al sinds de jaren tachtig krijgen we te horen dat we ze snel op onze wegen zouden kunnen bewonderen. De afgelopen jaren zijn er wat doorbraken geweest en waren de geluiden nog enthousiaster. Maar in werkelijkheid komen die auto’s er voorlopig nog lang niet.’
Denkt u dat die voorgespiegelde ontwikkelingen, zoals de zelfrijdende auto’s, illusies blijken te zijn? Of gaan de ontwikkelingen gewoon in een wat langzamer tempo?
‘Als het om zelfrijdende auto’s gaat: het is onmogelijk dat er een zelfrijdende auto komt die veiliger is dan een door een mens bestuurde auto. Machines zijn immers fundamenteel anders dan mensen. Wie in een auto rijdt, maakt bewust of onbewust heel veel beslissingen. In een machine moeten die expliciet geprogrammeerd worden. Daarbij gaat het vaak om ethische zaken. Moeten we een programmeur in extremis verantwoordelijk maken voor beslissingen over leven en dood?’
Een deel van het technochauvinism wordt volgens u veroorzaakt doordat de ontwikkeling van kunstmatige intelligentie wordt gedomineerd door een kleine, uniforme groep van voornamelijk blanke mannen. Denkt u dat het anders zou zijn als deze groep meer pluriform zou zijn? Is die monomane gerichtheid op techniek niet onontkoombaar in deze tak van wetenschap?
‘Een van de redenen dat diversiteit belangrijk is in groepen, is dat het je een ander perspectief geeft. Neem het voorbeeld van de “racistische” automatische zeepdispenser. Wanneer iemand met een lichte huid zijn hand eronder houdt, komt er zeep uit, terwijl er bij mensen met een donkere huid niets gebeurt. Het is een fenomeen dat veel publiciteit kreeg, maar het is vooral bekend bij gekleurde mensen. Als er niet-blanke ontwikkelaars in het team hadden gezeten, was het niet gebeurd. Het is goed om een brede input te hebben wanneer je dingen gaat ontwikkelen. Zo voorkom je fouten in het ontwerp.’
Maar dat gaat toch niet alleen op voor IT?
‘Computerwetenschappers hebben veel vooroordelen geërfd van wiskundigen die ervan uitgaan dat de universele wiskundige wetten ook toegepast kunnen worden op sociale problemen. Toch zijn dat problemen van heel andere aard. Wiskundigen werken meer alleen. Ze krijgen bij het bedenken van oplossingen veel minder input uit hun omgeving dan hun collega’s uit andere wetenschapsgebieden. De technochauvinist bekijkt een probleem, bepaalt een pijnpunt en schrijft een programma dat dat pijnpunt opheft. Maar sociale problemen moeten vanuit verschillende ooghoeken benaderd worden. Zo is sociale vooruitgang ook iets heel anders dan technologische vooruitgang. We krijgen geen betere wereld met betere technologie. Technologie en vooruitgang worden vaak met elkaar verward.’
In uw boek Artificial Unintelligence schrijft u dat een computer uiteindelijk niet meer is dan een geavanceerde rekenmachine die vooral kijkt naar getalsmatige populariteit, terwijl een mens betere afwegingen maakt omdat hij kan beredeneren wat goed of fout is. Daar zou je tegenover kunnen stellen dat een mens subjectieve beslissingen neemt.
‘Ik vind het niet erg om persoonlijke beoordelingen te maken. Maar onze wereld is niet zo ingericht dat één persoon beslist voor iedereen. We bestaan uit kleine en grotere sociale gemeenschappen en iedere organisatie maakt haar eigen beslissingen. Het probleem ontstaat wanneer iemand zegt: “Ik maak een algoritme die iets beslist voor iedereen.” Dat is in conflict met de sociale normen die we hebben en dáár ontstaan de problemen. Universele wetten gelden wel in de wiskunde, maar ze kunnen niet toegepast worden op iets als de nieuwsfeeds van Facebook.’
U gaat spreken voor een zaal met bibliothecarissen. Kunt u uw ideeën toepassen op bibliotheken?
‘Digitale objecten zijn vergankelijk. Ik heb alles wat ik heb geschreven als journalist op papier in archiefdozen op mijn kantoor. De digitale objecten zijn allemaal weg. Ik heb wel materiaal op disk, maar ik heb geen diskdrive meer. Ik heb een hele stapel materiaal op laser minidisc, maar ik heb geen laser minidisc player. We laten historische data verloren gaan als we doorgaan met het opslaan van informatie op digitale dragers.’
‘Je kunt alles lezen wat is gepubliceerd in de Boston Globe in 1907 en dat kun je niet zeggen van wat er digitaal is gepubliceerd in de Boston Globe in 2007. Veel digitaal materiaal wordt niet bewaard. Internet is niet voor eeuwig. Bibliothecarissen zijn belangrijk omdat zij zich bezighouden met het conserveren van digitaal materiaal.’
‘Datajournalisten gebruiken, het woord zegt het al, veel data. Bibliothecarissen helpen ons onderzoeksteam om tools te maken waarmee we die onderzoeksgegevens kunnen onderbrengen in scholarly repositories. We gebruiken daarbij software die is gemaakt voor reproduceerbare wetenschappelijke data. Die reproduceerbaarheid is ook voor datajournalisten erg belangrijk. In de journalistiek is daarvoor minder geld beschikbaar dan in de wetenschappelijke wereld.’
Om wat voor soort data gaat het dan?
‘De opzet van datajournalistiek lijkt erg op die van wetenschappelijk onderzoek. We willen onderzoeken of iets waar is. Soms maken we onze data ook openbaar. Mijn onderzoeksteam werkt samen met ProPublica [een Amerikaanse non-profitorganisatie die onafhankelijke onderzoeksjournalistiek produceert, RF] aan een van hun projecten met een nieuwsapp. Je moet daarbij niet denken aan een nieuwsapp in traditionele zin, maar aan een app die een verhaal vertelt dat ondersteund wordt door data. We proberen zo’n nieuwsapp onder te brengen in een scholarly repository. Als we weten hoe we dat voor één app moeten doen, is het eenvoudiger om het voor meer apps toe te passen, al wordt het wel een kwestie van lange adem.’
‘We maken in dit project gebruik van de metadataschema’s die bibliotheken toepassen, maar we merken hoe lastig het is om alles aan elkaar te koppelen. Bibliotheeksystemen zijn gebaseerd op menselijke taal en niet op computertaal (die veel minder rijk is). Bibliotheken proberen die rijke menselijke taal in systemen te krijgen. Dat werkt niet altijd. Dat neemt niet weg dat bibliotheken interessant voor ons zijn omdat ze nadenken over hoe we balanceren op het snijvlak van het digitale, fysieke en sociale. Ze spelen een belangrijke rol bij het dichten van de datakloof.’
Rob Feenstra is projectleider/consultant bij de Universitaire Bibliotheken Leiden en heeft als aandachtsgebied bibliotheeksystemen en de digitale bibliotheek
Deze bijdrage komt uit IP nr. 1 / 2019. Het gehele nummer kun je hier lezen.