VOGIN-IP-lezing 2024: LLM’s, HI, AI en IE uitgelicht 

Door Cindy Lammers

Bijna 250 vakgenoten waren erbij op 18 april in de Openbare Bibliotheek Amsterdam (OBA), waar de twaalfde editie van de VOGIN-IP-lezing plaatsvond. Een dag met zeven lezingen, tien workshops en een ‘prompt battle’ als afsluiter. En veel informatie over de nieuwste ontwikkelingen in het vak, waaronder die in AI – hoe kon het ook anders. Omdat er veel interessants voorbijkwam, trappen we in deze IP af met twee lezingen: over LLM’s en HI (hybrid intelligence), en over AI en IE (intellectueel eigendom). In het volgende magazine volgt er meer.


De VOGIN-IP-lezing lijkt er de afgelopen jaren een traditie van te hebben gemaakt om de dag te starten met een ‘wake-uplezing’. Dat wil zeggen: een die meteen de diepte induikt en het wakkere in de aanwezigen aanspreekt. De jonge Michiel van der Meer verzorgt zijn keynote over ‘hybride intelligentie’ (HI), een nieuwe term, maar met wenselijke inhoud, zo zal later blijken. Voordat de promovendus aan het Leiden Institute of Advanced Computer Science (LIACS) ingaat op HI, wil hij eerst inzoomen op ‘het hoe en wat’ van AI en large language models (LLM’s), en op hun rol in de informatieverwerking. ‘Kort hoor’, sust hij. Maar handig, want het legt meteen een basis voor de rest van de dag, als AI nog menigmaal de revue zal passeren.

Verschillende soorten AI-systemen 

Kunstmatige intelligentie is een vakgebied dat al bijna honderd jaar oud is, als je kijkt naar de geschiedenis van de computerwetenschappen, zo begint Van der Meer. ‘Van het eind van de negentiende eeuw, met de eerste programmeur Ada Lovelace, naar de jaren vijftig en zestig toen de term artificial intelligence in zwang raakte. Nu zie je AI in veel dingen terug, zoals in zoekmachines, streamingdiensten, IBM Watson, schaakcomputers en computervision (het herkennen en identificeren van objecten en mensen in plaatjes). En in taal; daar houd ik mij voornamelijk mee bezig. Dat AI vrij recentelijk uit de doos lijkt te zijn gesprongen, komt door de lancering van ChatGPT eind 2022. Daarmee werd het voor het eerst breed toepasbaar.’

Er zijn verschillende soorten AI-systemen die wisselend populair waren de afgelopen jaren, vervolgt hij (zie figuur 1). Ten eerste de kennisgebaseerde systemen: deze zijn gericht op het automatisch trekken van conclusies op basis van zo veel mogelijk informatie in het systeem. ‘Hier liep men al snel tegen de limiet aan van hoeveel informatie je aan een computer kunt voeren. Als tegengeluid hierop kwamen de zelflerende systemen – weer onder te verdelen in klassieke machine learning en deep learning. Ofwel het doen van voorspellingen uit data met statistische modellen. Bij zelflerende systemen moet je in het achterhoofd houden dat het om kansberekening gaat.’

Machine learning en deep learning 

Voor zelflerende systemen heb je volgens Van der Meer grof gezegd vier dingen nodig: trainingsdata, een trainingsalgoritme dat een AI-model genereert en een voorspelling die door het AI-model wordt gemaakt. Hij legt het uit aan de hand van appels en bananen: de trainingsdata (zie figuur 2). ‘Laat hier een zelflerend algoritme op los dat kan herkennen wat een appel een appel maakt en een banaan een banaan. Dat algoritme genereert vervolgens een AI-model. Voeg je nu een nieuw plaatje toe van een banaan, dan zou het model moeten kunnen aangeven: dit is een banaan.’

Leuk, maar wat als ik er een peer tegenaan gooi?, vraagt hij retorisch. ‘Daar kan het model niet mee overweg. Het heeft niet meer data tot zijn beschikking dan de data die jij het hebt gevoerd tijdens de training. Dit is een limitatie van wat AI-modellen kunnen. Kijk je nu naar de varianten van zelflerende systemen, klassieke machine learning en deep learning, dan zit het verschil tussen beide in het definiëren van welke aspecten belangrijk zijn voor, zeg, het herkennen van appels en bananen. Of denk aan de risico-indicaties die de Belastingdienst heeft gebruikt waarbij expliciet aan het systeem werd meegegeven welke features van belang zijn om in te schatten of iemand fraudeert.’

Wel/niet stuurbaar en uitlegbaar 

‘Een kenmerkend aspect van klassieke machine learning is dat je in de ontwikkeling van het AI-model een rol meeneemt voor de mens, die kan aangeven: dit zijn belangrijke features. In het voorbeeld van de appels en bananen zijn dat waarschijnlijk kleur en vorm, maar de tafel waarop ze liggen, is dat niet. Bij deep learning is deze menselijke stap weggehaald en bepaalt de machine zelf welke features van belang zijn. Gezichtsherkenning voor risicoclassificatie bijvoorbeeld – welke features worden daarbij gebruikt: huidskleur, haardracht, hoofddoek? Bij deep learning kun je dit niet sturen, dus dit kan maatschappelijke implicaties hebben. Het “ouderwetse” kennisgebaseerde systeem is wel stuurbaar, controleerbaar en uitlegbaar (zie figuur 1). Naarmate de technologie voortschrijdt, verliezen we dus grip op deze zaken.’

LLM’s ofwel taalmodellen zijn een voorbeeld van deze deep learning-technologie, weet Van der Meer: ‘Gigantische modellen, met miljarden aan parameters, die we niet kunnen sturen of uitleggen, maar die desondanks behoorlijk interessant zijn. De onderliggende taak die de machine probeert op te lossen heeft nog steeds te maken met kansberekening. Daar komt geen taal aan te pas. Computers kennen alleen nummers; ze zetten woorden om in getallen. Omdat er antwoord moet worden gegeven op een slimme vraag die is gesteld (prompt), gaat de machine rekenen met getallen, met als doel om de meest waarschijnlijke volgorde van woorden (getallen) te produceren, gebaseerd op de tekst die eraan vooraf is gegaan.’

Zwaktes taalmodellen

Je kunt veel met taalmodellen, maar er zijn ook zwaktes om rekening mee te houden, weet hij. ‘Hallucinaties bijvoorbeeld: taalmodellen voorspellen de meest waarschijnlijke volgorde van woorden op basis van een prompt, maar wat ze genereren hoeft niet per se waar te zijn. Waar de mens probeert uit bronnen informatie samen te stellen of te checken of iets waar is, doet een taalmodel dat niet. Juist over onderwerpen waarbij een correct antwoord van belang is, zoals bij gezondheid, of als het gaat om samenzweringstheorieën, is veel onjuiste informatie te vinden op het internet, en hiermee zijn taalmodellen vaak getraind. Een soort circulair probleem: de beschikbaarheid van de hoeveelheid foute informatie die vervolgens weer door het taalmodel wordt aangeleerd. Dan krijg je nonsensantwoorden als “koffie kan helpen om een hartaanval te stoppen”.’

Schadelijke content

En zo zijn er nog meer zwaktes. Hij somt er een paar op: ‘Het maken van denkfouten die mensen niet zouden hebben gemaakt, en het missen van recente en domeinspecifieke kennis – een taalmodel weet niet wat vorige week is gebeurd, het is veelal getraind tot datum x. Idem voor domeinen waar geen of weinig digitale tekst over beschikbaar is. Denk aan heel oude boeken die nooit zijn gedigitaliseerd. Hoewel AI-ontwikkelaars dit proberen te voorkomen, blijft er ook nog steeds schadelijke content beschikbaar. Instructies voor het maken van een bom bijvoorbeeld, of haatdragende of gewelddadige inhoud. Verder kan er sprake zijn van bias, zoals het versterken van stereotypen. Dit geeft een verdraaide blik op de werkelijkheid en kan grote gevolgen hebben bij het inzetten van modellen.’

Zijn lijstje eindigt met puntjes … want het is veel langer dan dit. Moet je een taalmodel dan wel willen inzetten? Ja, maar: ‘Let goed op de limieten en laat het zeker niet zomaar los in het wild’, waarschuwt de promovendus. ‘Kijk naar hoe mensen het gebruiken en leer van de fouten die het model maakt.’

Hybrid intelligence

Hoe beter we weten wat een model of systeem wel en niet kan, hoe beter we ermee kunnen omgaan als mens. Het is in feite een wisselwerking tussen mens en machine, ook als we van taalmodellen weer even uitzoomen naar AI. ‘AI kan nuttig zijn bij met name grote problemen waar we moeilijk een overzicht kunnen hebben van wat er aan de hand is, zoals bij een pandemie, of bij klimaatverandering en sociale ongelijkheid. Mensen zijn bijvoorbeeld slecht in statistiek; als je daar een AI tussen zet, kan het helpen om genuanceerder te kijken. Ze kan dit echter niet alleen. AI begrijpt soms dingen niet, denk aan sarcasme; ze heeft een beperkte blik op context en moeite met impliciete sociale normen, en ze faalt op momenten waar we niet vanaf weten. AI heeft mensen nodig om beter te worden. We moeten dus toe naar hybrid intelligence.’

Hoe we dat doen? ‘Met augmenting human intellect: de mens een integraal onderdeel laten zijn bij het gebruik van computers. En met collaboration en cooperation tussen en met AI. We moeten AI zien als een gereedschap dat op de juiste manier wordt ingezet: mee leren omgaan in plaats van ad hoc gebruiken.’


Hybrid intelligence
Bij hybrid intelligence worden vier onderzoekslijnen onderscheiden die samen het acroniem CARE vormen:

  • Collaborative (samen problemen oplossen, mens-mens en mens-AI)
  • Adaptive (AI aanpassen aan specifieke gebruikers)
  • Responsible (ethisch verantwoord gebruik van AI binnen specifieke contexten)
  • Explainable (uitlegbaarheid van AI-modellen)

Fulco Blokhuis, partner/advocaat bij Boekx, gespecialiseerd in mediarecht en intellectueel eigendom, kan zijn hart ophalen de laatste anderhalf jaar. De stroomversnelling waarin AI verkeert is woelig. Op There’s an AI for that (theresanaiforthat.com) zijn meer dan 12.000 AI-apps te vinden – still counting. Hij gaat specifiek in op de generatieve kant ervan. ‘Wat er uit een AI-systeem komt, kan een plaatje zijn, maar ook tekst, video, software, muziek en deepfakes. Dat laatste met het nodige gevaar, zie de waarschuwing voor Russische inmenging in de Europese verkiezingen.’ Hij laat ook een beeld zien van een grote rookwolk bij een statig gebouw, het Pentagon zo blijkt, alleen is het nep. ‘Het heeft even geleid tot een kleine crash op de financiële markten; een deepfake kan het nieuws snel beïnvloeden.’

Positieve ontwikkelingen zijn er ook, al is het maar vanaf welke kant je het bekijkt. Er wordt momenteel veel softwarecode geschreven met AI. En muziek ermee (af)gemaakt. Zo hebben de nog levende Beatles John Lennon weer tot ‘leven’ kunnen wekken en de leden van Abba zichzelf – als avatars op het podium. Blokhuis heeft dit optreden in Londen bijgewoond, en wat hem daarbij opviel was dat de Abba-supportband, mensen van vlees en bloed, meer applaus kreeg dan de avatars. ‘Zo zie je maar weer.’ Intussen maken tools als Udio veel los bij artiesten …

Data scrapen

Vanuit auteursrechtperspectief zijn twee vragen van belang, weet Blokhuis: is het trainen van een AI-tool (input) een inbreuk? En: kan de AI-tool-output worden beschermd door een IE-recht? Te beginnen bij de eerste vraag. Hij laat ter ondersteuning een plaatje zien (figuur 3): appels, bananen en iets wat lijkt op peren. ‘Ik heb dit niet afgesproken met Michiel, maar ook ik ben dol op fruit’, lacht hij. ‘De ruwe data zijn hier van belang, want die zijn gescraped; niet altijd door de AI-developers zelf, er zijn heel grote databanken beschikbaar die vaak worden gebruikt. Hierbij zijn twee auteursrechtelijke begrippen belangrijk: verveelvoudigen en openbaar maken. Neem Midjourney en de data die deze tool gebruikt; daarvan weten we in feite niet welke dat zijn, daar is geen transparantie over – al moet dat straks wel als de AI Act in werking treedt. Op basis van de output kun je er wel achter komen. Bijvoorbeeld als het gegenereerde beeld (op basis van film x) heel erg lijkt op het origineel (film x). Dan moet er getraind zijn met het originele beeld. Midjourney neemt het wat dit betreft niet zo nauw. De vraag is dan: bij het scrapen wordt er gekopieerd, maar is dat in het trainingsproces ook het geval? Of worden er “tijdelijke kopieën” gemaakt?’

Pending legislation 

Is er sprake van verveelvoudiging, dan heb je toestemming nodig, vervolgt Blokhuis. ‘Tenzij er een uitzondering van toepassing is. In de Verenigde Staten heet dat fair use. Dit heeft al gespeeld bij Google Books, dat boeken scande om er online snippets van te laten zien. Dat werd toegestaan, want het bedrijf bood geen bibliotheekdiensten aan en was daarmee geen concurrent voor de bibliotheek. Op de vraag of er bij het trainen van een AI-tool sprake is van fair use … Er lopen in de VS momenteel twintig rechtszaken, waaronder Getty Images (US) versus Stability (beeld), Universal versus Anthropic (muziek), Doe 1 versus Github (software) en New York Times versus Microsoft en OpenAI (nieuwsberichten).’ Wie dit wil bijhouden, moet kijken op chatgptiseatingtheworld.com, tipt Blokhuis. Hij raadt het aan om dit te volgen, want stel dat er wordt gezegd: dit is niet toegestaan? ‘Wat moet er dan met die getrainde datasets gebeuren? Volgens mij kun je een dataset niet “ontleren”, dus moet die dan worden vernietigd?’ Of het trainen van een AI-tool een inbreuk is, daarop kan hij dus geen antwoord geven. ‘Het is pending legislation. Wachten op jurisprudentie die uit de lopende zaken gaat komen.’

Maker = mens

De tweede vraag dan, of de AI-tool-output auteursrechtelijk is beschermd. Blokhuis gebruikt hier de werktoets voor om punten af te vinken: het werk is de eigen intellectuele schepping van de auteur; het gaat om vrije en creatieve keuzes van de auteur die tot uitdrukking zijn gebracht in het werk; en die auteur is mens. ‘Dit laatste staat niet expliciet in de Europese wetgeving, maar iedereen is het daar wel over eens. De vraag of dit belangrijk is, is al een keer gesteld in de zaak David Slater versus dierenrechtenorganisatie PETA over de selfie die een makaak nam met de camera van de natuurfotograaf. Lag het auteursrecht bij Slater (vond Slater) of bij de makaak (vond PETA)?’ De rechtbank oordeelde in eerste instantie in het voordeel van Slater, ‘een makaak is geen mens’, maar de zaak kreeg nog een behoorlijk juridisch staartje. Uiteindelijk troffen de partijen een schikking.

Een zaak waar AI bij betrokken was, is die van Zarya of the Dawn uit februari 2023. Kris Kashtanova had deze comic gemaakt met Midjourney en geregistreerd bij het US Copyright Office (USCO). Deze organisatie wist in eerste instantie niets van Midjourney af en stond het werk toe, tot via sociale media duidelijk werd hoe het zat. Uiteindelijk werden tekst, selectie, coördinatie en rangschikking van de geschreven en visuele elementen beschermd, maar de afbeeldingen met Midjourney niet.

624 prompts 

Een zaak later in 2023 kwam van Stephen Thaler, een computerscientist die zelf een AI-tool had gefabriceerd, daarmee een afbeelding had gegenereerd, en zei: deze AI-tool moet hier de rechten van krijgen. USCO is hierop gaan broeden: was hier menselijke input voor nodig, en zo ja, hoeveel dan? Het antwoord luidde: geen menselijke input, geen bescherming. Een zaak in de VS die in datzelfde jaar nogal wat stof deed opwaaien, was het digitale kunstwerk van Jason Michael Allen: Théâtre D’opéra Spatial. Hij won er een belangrijke kunstprijs mee, maar het leverde vooral juridische discussies op. ‘Interessant is dat de maker 624(!) prompts heeft gegeven en daarna Photoshop en Gigapixel AI heeft gebruikt voor bewerking, maar hij heeft alleen auteursrecht gekregen op wat hij zelf heeft gedaan, niet op de hele afbeelding.’

Aan de andere kant van de wereld, in Zuid-Korea, hebben ze ook een soort USCO, en daar werd een complete door AI gegenereerde film (Suro’s Wife) auteursrechtelijk beschermd. ‘Met dank aan het kunnen aantonen van het aantal stappen van het maakproces waarbij ook eigen input een rol speelt, zoals in editing en consistente prompt engineering, en de ontwikkeling van een eigen small language model. Dit geeft meteen aan hoe arbitrair het eigenlijk is’, aldus Blokhuis.

Creatieve proces documenteren

In China waren ze zelfs iets eerder, zo kwam vrij recent aan het licht. In 2018 en 2019 waren er al zaken, en daaruit blijkt onder meer dat een uitspraak kan afhangen van de rechter die je zaak behandelt en hoezeer je de stappen in het creatieve proces kunt laten zien. ‘Dat geldt overigens ook voor niet-AI-gegenereerde creatieve uitingen’, stelt Blokhuis. ‘Vroeger hoefde je je niet eens af te vragen wie wat had gemaakt en of het auteursrechtelijk was beschermd, nu is dat echt anders. Zelfs kleding kun je met AI ontwerpen. De creatieve processen voorafgaand aan een werk worden reuzebelangrijk.’

Zijn advies aan makers in deze kunstmatige tijden: documenteer je creatieve proces, anders kun je later een bewijsprobleem hebben en geen auteursrecht claimen. ‘Er lopen (nog) geen procedures over in Nederland, maar het wordt heel interessant om te zien hoe dit zich gaat ontwikkelen.’

Eerder in IP
IP publiceerde al interviews met twee sprekers als voorproefje van de VOGIN-IP-lezing:
> Jantien Borsboom: samen werken aan een veilige online publieke ruimte
> Pieter Woltjer: zoektocht naar voorouders door linked data steeds makkelijker

Terugblikpagina
De organisatie van de VOGIN-IP-lezing heeft op haar website een terugblikpagina gemaakt, met onder meer de presentaties van de sprekers, foto’s van het evenement en tweets over de lezing die op 18 april zijn verschenen.


Cindy Lammers is hoofdredacteur van IP.

Deze bijdrage komt uit de papieren IP #4-2024. Het hele nummer kun je hieronder lezen of downloaden.