Onderzoekers van de Universiteit van Amsterdam presenteren in een nieuwe studie een manier om te achterhalen welke stereotypen zitten ingebakken in AI-taalmodellen. Ook laten ze zien dat die stereotypen snel kunnen verschuiven als je de AI nieuwe data voedt.
Datatrainen
AI-modellen zijn zo goed als de data waarmee ze getraind zijn. Het is vrijwel onvermijdelijk dat de teksten waarmee AI-taalmodellen zijn gevoed stereotypen bevatten. Zowel positieve als negatieve. Denk aan het stereotype beeld dat stiefmoeders gemeen zijn, wetenschappers arrogant, Aziaten goed zijn in wiskunde en Nederlanders gek zijn op kaas. Die stereotypen komen dan ook in de taalmodellen terecht. En zo worden ze mogelijk verder verspreid en in stand gehouden. Het liefst wil je op z’n minst weten welke stereotypen een taalmodel bevat. Maar: hoe kom je daarachter?
Experimenten
Drie wetenschappers van de Universiteit van Amsterdam bedachten hier een reeks experimenten voor. Rochelle Choenni, Ekaterina Shutova en Robert van Rooij presenteerden hun werk op 7 november tijdens de internationale conferentie EMNLP 2021. Lees meer op de website van de Universiteit van Amsterdam.