OpenAI heeft gisteren de nieuwste versie van zijn GPT-taalmodel aangekondigd, GPT-4, dat niet alleen tekst maar ook beeld als input kan gebruiken. Het GPT-taalmodel vormt de basis voor AI-chatbots als ChatGPT en zoekmachine Bing.
In tegenstelling tot voorganger GPT-3.5, die alleen tekst als input accepteert, genereert GPT-4 tekst op basis van tekst én afbeeldingen. Volgens OpenAI is het nieuwe model ‘minder capabel dan mensen in veel situaties in de echte wereld, maar vertoont GPT-4 prestaties op menselijk niveau bij verschillende professionele en academische benchmarks’. In een normaal, informeel gesprek kunnen de verschillen tussen GPT-3.5 en GPT-4 subtiel zijn, stelt het bedrijf, maar de verschillen komen pas goed naar voren als de taak een bepaalde mate van complexiteit heeft of overschrijdt.
Betrouwbaarder maar ook beperkingen
OpenAI heeft de afgelopen maanden, mede op basis van feedback van de miljoenen gebruikers van ChatGPT, verbeteringen doorgevoerd in zijn taalmodellen en AI-systemen. GPT-4 is volgens het bedrijf in vergelijking met GPT-3.5 betrouwbaarder en creatiever. Zo moet de AI beter zijn in het componeren van liedjes, schrijven van scenario’s en leren van de schrijfstijl van de gebruiker. Ook kan GPT-4 acht keer langere teksten genereren: 25.000 woorden is nu het maximum. Bovendien reageert GPT-4 volgens OpenAI ‘82 procent minder snel’ op verzoeken die gericht zijn op ‘niet-toegestane zaken’ en produceert het ‘40 procent meer feitelijke antwoorden’ dan GPT-3.5.
Tegelijk heeft GPT-4 ‘nog altijd beperkingen die we proberen aan te pakken, zoals sociale vooroordelen, hallucinaties en vijandige reacties’, aldus OpenAI.
Test met Be My Eyes
Gebruikers kunnen beelden naar GPT-4 sturen, zoals foto’s, scans of screenshots. ChatGPT kan daar dan op reageren, bijvoorbeeld door uit te leggen wat er grappig aan een plaatje is of door informatie uit de beelden te omschrijven of samen te vatten. OpenAI test deze functies in eerste instantie in samenwerking met Be My Eyes, een app om de wereld beter toegankelijk te maken voor blinden en slechtzienden.
OpenAI zegt dat de verbeterde tekstfuncties van GPT-4 eerst beschikbaar komen via het betaalde abonnement ChatGPT Plus en via de API, waar een wachtlijst voor is.