Wikipedia stort zich op semantisch web

Uniforme updates leiden tot meer consistentie, maar zijn ook gevaarlijk voor de diversiteit van kennis.

Wikipedia heeft een initiatief gelanceerd om informatie-updates te automatiseren. Wikidata, zoals het project heet, moet ervoor zorgen dat veranderingen automatisch in alle lemma’s en categorieën waarop ze betrekking hebben, worden doorgevoerd. Nu moeten veranderingen nog handmatig ingevoerd worden.

Een voorbeeld. Toen Mario Monti Silvio Berlusconi opvolgde als premier van Italië, moesten verschillende artikelen worden aangepast. Niet alleen de artikelen over Monti, Berlusconi en Italië, maar alle artikelen waarin aan deze twee politici gerefereerd wordt. En de updates moeten in alle 280 versies van Wikipedia worden doorgevoerd. Nu doen de 90.000 vrijwillige redacteuren van Wikipedia dit, maar in de toekomst zal dit automatisch gebeuren. Tenminste, als het aan de iniatiefnemers van Wikidata ligt.

Het is de bedoeling dat via Wikidata stukjes data aan elkaar worden gelinkt, zodat er minder handmatige updates hoeven worden ingevoerd. De linked data is open en kan ook voor andere websites en databases worden gebruikt.

Voor het project heeft Google een subsidie beschikbaar gesteld. Ook het Allen Institute for Artificial Intelligence, opgericht door Paul Allen van Microsoft, en de Gordon and Betty Moore Foundation leveren een financiële bijdrage. In totaal hebben de liefdadigheidsorganisaties van de technologiegiganten 1,3 miljoen euro gedoneerd aan Wikidata. Voorstanders van Wikidata zeggen dat de nieuwe semantische technologie Wikipedia actueler en accurater maakt, en daarmee betrouwbaarder. Ook zouden de verschillende talenversies uniformer worden. Nu kan het gebeuren dat de Duitse versie van Wikipedia pas dagen of weken later wordt aangepast dan bijvoorbeeld de Engelse of Italiaanse.

Tegenstanders van Wikidata vrezen dat de automatische aanpassingen culturele verschillen teniet zullen doen. Mark Graham, onderzoeker bij het Oxford Internet Institute en deskundige op het gebied van virtuele geografie, spreekt in The Atlantic zijn vrees uit voor de culturele gelijkschakeling waarvoor Wikidata in zijn ogen zal zorgen. De verschillende taalversies van Wikipedia zijn een afspiegeling van de geschiedenis en cultuur van het land waar de editie van het naslagwerk is ontstaan. Die verschillen zijn volgens Graham waardevol omdat er niet één waarheid bestaat. Het linked data-initiatief van Wikipedia leidt volgens Graham tot gestructureerde kennis die de meningen van gemarginaliseerde groepen niet weerspiegelt. Hij geeft een voorbeeld. Dat Tokio de hoofdstad van Japan is, zal niemand bestrijden. Maar hoe zit het met de bevolkingsgrootte van Israël? Tel je de inwoners van de bezette en bestreden gebieden wel of niet mee? Hoe je die berekening maakt, hangt af van je positie in de wereld. Als Wikidata een standaardgetal produceert en daarmee alle Wikipedia-sites actualiseert, gaat er een dimensie verloren, betoogt Graham.

Omdat Wikidata open data zijn, zullen talloze bronnen de gegevens overnemen. Google, een van de sponsors van het project, verwijst nu al vaak naar Wikipedia bij de eerste drie zoekresultaten. In de nabije toekomst wil Google in plaats van een zoekmachine een antwoordmachine worden. Net als Wikipedia investeert het zoekbedrijf in het semantische web. De dataset die Wikidata oplevert zal hoogstwaarschijnlijk door Google gebruikt worden voor het vinden van antwoorden. Dat kan volgens Graham leiden tot een gevaarlijke afname van diversiteit van informatie en kennis.

tinyurl.com/wikidatainfo

tinyurl.com/wikidatainfo02

Deze bijdrage komt uit IP nr. 5 / 2012. Het gehele nummer kun je hier lezen

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *