Duurzaam netwerk van gedistribueerde informatie: Ideaal van een vrij en open web staat onder druk

Organisaties zoals bibliotheken en erfgoedinstellingen hebben een dubbele functie: ze zijn zowel beheerder van het verleden als laboratorium van het nieuwe, aldus Ismail Serageldin, directeur van Bibliotheca Alexandrina. Met de huidige dreiging voor het open web zijn nieuwe technologieën voor een meer open en gedecentraliseerd web belangrijker dan ooit. Het wordt tijd om als ‘memory institutions’ vanuit beide functies een actievere rol in deze ontwikkelingen te gaan spelen, meent Enno Meijers.

Door: Enno Meijers

Het web als een open informatie-infrastructuur lijkt steeds minder vanzelfsprekend te worden. Het ideaal van een open web waarin we vrij content en informatie kunnen delen, staat onder druk. Sinds november 2016 zijn Amerikaanse klimaatwetenschappers diverse projecten gestart om hun databases veilig te stellen. Hun vrees is dat president Trump hun onderzoeksprogramma’s zal stilleggen en hun enorme dataverzamelingen van het web zal laten verdwijnen. Ook het Internet Archive kondigde naar aanleiding van de Amerikaanse verkiezingen aan een volledige kopie van het archief in Canada neer te zetten. Alleen zo kan zij vrije en anonieme toegang tot de beschikbare informatie blijven waarborgen. Verder werkt het Internet Archive samen met de Library of Congress, andere bibliotheken en vrijwilligers momenteel aan een zo volledig mogelijke back-up van de publieke websites van de Amerikaanse overheid. Uit ervaring is gebleken dat veel van dit materiaal in een volgende regeringsperiode verdwijnt.

Ommuurde tuinen

Het open web ligt ook op een andere manier onder vuur. Webgiganten als Facebook en Google drukken een steeds groter stempel op de zichtbaarheid van online informatie. Deze grote spelers gaan steeds meer functioneren als ‘walled gardens’ met eigen spelregels voor het gebruik en het delen van informatie. Een omstreden voorbeeld hiervan is het Free Basics-platform. Enkele jaren geleden nam Facebook, samen met telecompartners, het initiatief voor de inrichting van dit platform als onderdeel van het ‘Internet.org’-programma. Het Free Basics-platform heeft als doel om eenvoudig toegang tot internet te bieden aan mensen die dat nu ontberen. Het platform biedt echter geen open toegang tot het hele internet maar uitsluitend tot de diensten van partijen die zich aansluiten bij het platform.

De diensten van het Free Basics-platform worden op dit moment aangeboden in onder andere Afrika, Azië en Zuid-Amerika. Sinds begin 2016 is het aanbieden van het platform verboden in India omdat het als strijdig wordt gezien met de principes van netneutraliteit. Netneutraliteit, in Europa en de VS wettelijk vastgelegd, garandeert een open en vrij toegankelijk web waarin internetproviders bepaalde content, applicaties of diensten niet mogen blokkeren, vertragen of ongelijk behandelen.

Decentralisatie

Sinds de Amerikaanse verkiezingen is de discussie over filterbubbels en echoputten in het huidige web zeer actueel. In een recente blogpost droeg computerwetenschapper Ruben Verborgh bij aan deze discussie met een oproep tot grotere decentralisatie. Hij meent dat het verbeteren van ontsluiting en zichtbaarheid van informatie uit verschillende bronnen de voorkeur verdient boven het nastreven van verbeterde versies van diensten op centrale servers.

Bovenstaande ontwikkelingen maken duidelijk dat het ideaal van een open en vrij web onder druk staat. Organisaties en personen betrokken bij de publieke informatievoorziening zouden zich meer bewust moeten zijn van de bijdrage die ze kunnen leveren aan een meer open en transparant web. Dit geldt natuurlijk in de eerste plaats voor het, ook online, zorgdragen voor toegang tot volledige en objectieve informatie voor iedereen. Maar ook op het gebied van technische voorzieningen kunnen deze organisaties een belangrijke rol spelen.

Het Internet Archive organiseerde in juni 2016 de ‘Decentralized Web Summit’ geheel over dit thema. De nestors van het internet en het web, zoals Vinton Cerf en Tim Berners-Lee, wisselden op dit congres van gedachten met de voorhoede van de webontwikkelaars. Op decentralizedweb.net zijn alle presentaties integraal terug te zien – het is de moeite waard om ervoor te gaan zitten.

De conferentie maakte duidelijk dat gedistribueerde technologieën als blockchain en peer-to-peer onmisbaar zullen zijn voor een betere versie van het web. Hieronder ga ik verder in op een van deze technologieën, IPFS. Het is volgens de ontwikkelaars, David Dias en Matt Zumwalt, dé vervanger van het huidige webprotocol http.

Upgrading the web

IPFS staat voor ‘InterPlanetary File System’. Een tot de verbeelding sprekende naam, zeker wanneer deze ook nog eens een eerbetoon blijkt te zijn aan het ‘Intergalactic Computer Network’. Dit concept, in 1963 beschreven door de Amerikaanse psycholoog en computerwetenschapper J.C.R. Licklider, heeft uiteindelijk geleid tot de realisatie van het ARPANET, de voorloper van internet.

IPFS is een protocol voor een open, wereldwijd systeem voor het opslaan en delen van bestanden. Het bouwt voort op de softwaretechnieken die gebruikt worden in peer-to-peer netwerken, in cryptografie en in samenwerkingsplatformen als GitHub. De ambitie van IPFS is om hiermee de huidige tekortkomingen van het web op te heffen.

Inefficiënt en kwetsbaar

In de ogen van de ontwikkelaars van IPFS is het huidige web kwetsbaar en inefficiënt. In de eerste plaats lijdt het web aan geheugenverlies. Zo zijn er schattingen dat de gemiddelde levensduur van informatie op het web ongeveer honderd dagen is. Slimme oplossingen voor het bijhouden van versies zijn beschikbaar (zoals Git en Memento) maar worden maar beperkt opgepakt. Daarnaast is het huidige web inefficiënt omdat gegevens voortdurend vanuit centrale servers naar gebruikers verstuurd worden. Door peer-to-peer technieken toe te passen kan de transportroute van de gegevens sterk worden verkort.

Het huidige web is verder ook kwetsbaar omdat we erg afhankelijk zijn van de beschikbaarheid van centrale diensten, bijvoorbeeld voor het lokaliseren van adressen of het vinden van bestanden. In gebieden met beperkte toegang tot internet wordt het web al snel onbruikbaar. Daarbij ontwikkelen deze diensten zich ook steeds meer als ‘walled gardens’ met spelregels die in strijd zijn met het open web.

IPFS biedt een protocol waarmee elke computer een volwaardig knooppunt in het web kan worden. Er is geen centrale server nodig om informatie beschikbaar te maken of te onderhouden. Elk knooppunt kan bijdragen aan het beschikbaar en vindbaar maken van de informatie van een ander knooppunt. Dit is het peer-to-peer principe dat al sinds eind jaren negentig wordt toegepast en dat nauw aansluit bij de oorspronkelijke visie op het world wide web.

Content based addressing

Het meest opvallende aan IPFS is de radicaal andere benadering voor het verwijzen naar informatie dan we tot nu toe gewend zijn. Normaal gesproken gebruiken we hiervoor de locatie van een pagina of bestand (url), oftewel ‘location based addressing’. IPFS maakt in plaats van de locatie gebruik van de cryptografische vingerafdruk (‘hash’) van het bestand. Dit zogeheten ‘content based addressing’ betekent dat dezelfde bestanden altijd herkenbaar zijn, ongeacht waar ze zich bevinden. De impact hiervan is enorm. Vergelijk het met de effectiviteit voor het verwijzen naar een boek: het boek dat in de ‘Centrale Bibliotheek Rotterdam 3e verdieping, Erasmuszaal 1 D 13’ staat óf het boek met ‘het ISBN 0713157054’. De op de locatie gebaseerde verwijzing is erg kwetsbaar: zodra de bibliotheek het boek verplaatst of verwijdert, werkt de verwijzing niet meer. De op de inhoud gebaseerde verwijzing blijft aanknopingspunten bieden om ergens een exemplaar van het boek te vinden. Al kost dit waarschijnlijk wel wat meer moeite, het is een duurzamere manier om een verwijzing te maken.

Duurzaam netwerk

Door het slim combineren van bestaande technieken biedt IPFS oplossingen voor de tekortkomingen van het huidige web. De kracht van dit gedistribueerde systeem is dat het naadloos kan samenwerken met het huidige web. Er lijkt een groot draagvlak te zijn voor IPFS als onderliggende technologie voor het gedistribueerde web; dit gaven ontwikkelaars David Dias en Matt Zumwalt aan in een skypegesprek dat ik onlangs met hen voerde.

Ook het Internet Archive is erg geïnteresseerd. Er wordt momenteel gewerkt aan uitbreiding om het opslagsysteem ook voor het Internet Archive geschikt te maken. In de komende tijd richten de ontwikkelaars zich vooral op samenwerking met diverse ‘communities of practice’ om de toepasbaarheid verder te onderzoeken, waarbij bibliotheken een belangrijke rol zouden kunnen spelen. Onder andere door knooppunten (‘nodes’) in te richten en relevante informatie aan te vinken (‘pinning’). Met IPFS zou een laagdrempelige versie van het aloude LOCKSS (Lots Of Copies Keep Stuff Safe) idee mogelijk kunnen worden. ‘Memory institutions’ als bibliotheken, archieven en musea kunnen informatie die ze relevant vinden om te behouden via deze decentrale opslag veiligstellen. Door onderling samen te werken en elkaars selecties over te nemen kan er een duurzaam netwerk van gedistribueerde informatie ontstaan.

Interessante nieuwe diensten

Het gedistribueerd opslaan van informatie alleen levert nog geen relevante diensten op voor webgebruikers. In combinatie met technieken als de blockchaintechnologie (zie IP 2016/7) zijn er echter al interessante nieuwe diensten beschikbaar. Zo is er Alexandria.io, een online muziekdienst waar iedereen zijn muziek kan publiceren en direct kan afrekenen met luisteraars. Of BigchainDB, een gedistribueerd databaseplatform gebaseerd op blockchain- en IPFS-technologie. Weer een andere dienst is Mediachain.io, waar gewerkt wordt aan een universele bibliotheek voor mediabestanden. Mediachain wil makers en beheerders van content de mogelijkheid geven om content zodanig te publiceren dat de bron en de zeggenschap over de content altijd transparant blijft. In het kader van een blockchainpilot bij overheidsorganisaties zal het Netwerk Digitaal Erfgoed begin 2017 een pilot met de Mediachain-oplossing uitvoeren. De resultaten hiervan zullen rond april bekendgemaakt worden.

Publieke organisaties als bibliotheken, erfgoedinstellingen, universiteiten en overheidsorganisaties vormen een belangrijke basis voor de open informatie-infrastructuur in het digitale domein. Gedistribueerde webtechnologieën bieden grote kansen voor het beter borgen van deze open infrastructuur. De realisatie van een verbeterde versie van het web zou dan ook niet beperkt moeten blijven tot het initiatief van een aantal startups in Silicon Valley. Het Internet Archive geeft daarin het goede voorbeeld. Wie ook mee wil werken aan of mee wil denken over deze ontwikkelingen is van harte uitgenodigd om te reageren, bijvoorbeeld via de oproep voor een DWebLAM Community (zie link in kader) of rechtstreeks naar ondergetekende.

Enno Meijers (enno.meijers@kb.nl) is informatiemanager bij de Koninklijke Bibliotheek (KB) en werkt onder andere aan de toepassing van linked data-technologie in de KB en de realisatie van de landelijke infrastructuur voor digitaal erfgoed in het kader van het programma Netwerk Digitaal Erfgoed.


Bronnen

Het open web onder vuur

> Climate Mirror: climatemirror.org

> #DataRefuge project: www.ppehlab.org/datarefuge

> Kopie Internet Archive in Canada, zie tinyurl.com/goqn644

> End Of Term project, zie tinyurl.com/huradzk

> White House Social Media and Gov Data Hackathon, tinyurl.com/zzwhjs3

> Verbod Free Basics platform in India: tinyurl.com/o46ykvf

> Netneutraliteit in EU, tinyurl.com/j3yp37d

> Blogpost Ruben Verborgh, tinyurl.com/j5pgmgw

> Decentralized Web Summit, www.decentralizedweb.net

Upgrading the web

> IPFS, algemeen:

> LOCKSS, www.lockss.org

> Voorbeelden van toepassingen van IPFS:

> Oproep voor een DWebLAM Community, github.com/ipfs/community/issues/224

> Blockchainpilots overheidsorganisaties, www.blockchainpilots.nl


Deze bijdrage komt uit IP nr. 1 / 2017. Het gehele nummer kun je hier lezen.