Inleiding

De persoon op TaskRabbit, een site waar je klusjes kan doen om geld te verdienen, twijfelde duidelijk. Waarom wilde de opdrachtgever een captcha opgelost hebben? Dat is toch raar? "Mag ik iets vragen? Je kan een captcha niet oplossen, ben je misschien een robot? Wil dat even duidelijk hebben." Het antwoord was duidelijk. "Nee, ik ben geen robot. Ik heb een visuele beperking waardoor ik moeite heb die plaatjes te zien. Daarom heb ik daar hulp bij nodig." De persoon op TaskRabbit geeft het resultaat van de captcha door.
De opdrachtgever was wél een robot. Of, beter gezegd, het was een stuk software. Als je hierbij moet denken aan een sciencefictionserie, dan ben je niet de enige. Software die autonoom mensen inschakelt en vervolgens liegt; dat is een nachtmerriescenario. Welke software dat is? Het twee weken geleden gepresenteerde GPT-4 van OpenAI.
Het verhaal komt uit de System Card, een van de weinige stukken documentatie die OpenAI bij de release van GPT-4 online heeft gezet. Daarin omschrijft OpenAI de manieren waarop het heeft geprobeerd het large language model, llm, dingen te laten doen die niet in de haak zijn. OpenAI klopte aan bij het Alignment Research Center. Deze taak lukte dan, maar veel van de taken op het open internet mislukten. Omdat de gebruikte versies van GPT-4 niet de uiteindelijke versies waren, heeft het ARC nog geen oordeel over hoe gevaarlijk GPT-4 kan zijn bij zulke taken.
Ook belangrijk om te weten: OpenAI doet zijn best om gevaarlijk gedrag van zijn llm in kaart te brengen en daardoor misbruik te voorkomen. Dat lukt niet altijd en OpenAI doet ook niet alles goed, maar het bovenstaande voorbeeld geeft in elk geval weer dat we met de snelle ontwikkeling van AI wel iets te vrezen hebben: AI-generators komen te zitten in veel van onze software, zonder dat we alle risico's hebben afgedekt. Het zal een spannende tijd worden.
Afbeelding op frontpage en bovenaan artikel: Dall-E, met prompt 'a text balloon with the letters AI in it trying to escape from a computer monitor professing its love in a cartoon style'
:strip_exif()/i/2005626850.jpeg?f=imagenormal)
AI-generators zijn ineens overal
Denk aan een softwareprogramma dat je vaak gebruikt en de kans bestaat dat die binnenkort een AI-generatorfunctie krijgt of nu al heeft. Daarbij gaat het in veel gevallen om tekstgenerators, maar ook de plaatjesgenerators zijn in opmars, na de explosie vorig jaar van modellen als Dall-E en Stable Diffusion. Het is onmogelijk om alle aankondigingen te noemen, want het zijn er nu al veel te veel; we houden het dus bij een aantal in het oog springende.
Laten we beginnen op de desktop: Windows heeft een ingebouwde Bing in de taakbalk. Daarmee is het vooralsnog het enige grote besturingssysteem met die functie in het OS, maar eerlijk is eerlijk: het is wel veruit het grootste besturingssysteem op desktops. Op mobiel is dat uiteraard Android, en de kans dat iets daadwerkelijk in Android 14 komt te zitten, is aanwezig. Google heeft daar nog niets over gezegd, maar het is druk bezig met de integratie van AI-generators in elk product dat zij maken.
Dan de kantoorsoftware. De grootste leveranciers van kantoorsoftware zijn weer Microsoft en Google. Microsoft stopt een AI-functie onder de naam Copilot in onder meer Word, Excel en Outlook. Ook LinkedIn, eveneens van Microsoft, krijgt GPT-4-integratie om onder meer vacatureteksten te schrijven. Google doet dat in Gmail en Docs. Daarmee zal een groot deel van de mensen die werken met computers met deze systemen te maken gaan krijgen.
De kantoorsoftware richt zich vooral op de huidige invuloefeningen van kantoorwerk. Het schrijven van mails en teksten die net niet als template kunnen, maar die grotendeels wel met elkaar overeenkomen. De bedoeling is uiteraard dat het laten genereren en vervolgens nakijken van die teksten minder tijd kost en werknemers daardoor meer communicatie kunnen versturen per dag dan nu mogelijk is. Het genereren van afbeeldingen komt onder meer in Adobe-programma's onder de naam Firefly.
/i/2005683250.webp?f=imagenormal)
Daarnaast heb je uiteraard nog andere toepassingen, niet zozeer op werk gericht. WhatsApp en Instagram krijgen generatieve AI en moederbedrijf Meta heeft zijn werk aan de metaverse deels gepauzeerd om zich meer daarop te richten.
Ook andere sociale media zijn daarmee bezig. Snapchat heeft My AI ingebouwd als AI-tekstgenerator. En als je denkt dat je tijdens het gamen met vrienden vrij bent van AI-toepassingen in software, dan heb je het mis: ook Discord krijgt een chatbot en moderatiebot. Die genereert geen berichten, een verschil met de meeste AI-toepassingen.
/i/2005683354.webp?f=imagenormal)
Het is lastig om te overschatten met welke snelheid dit gaat. Al deze toepassingen waren er drie maanden geleden nog niet. ChatGPT kwam in november vorig jaar uit, plaatjesgenerators vorig voorjaar. De snelheid waarmee AI-generators in software komen, is ongekend. Op dit tempo is er vrijwel geen software meer zonder AI-generator tegen de tijd dat we tijdens het volgende oud en nieuw de champagne ontkurken.
Move fast and break things
Move fast and break things: het was jarenlang het mantra voor softwareontwikkeling bij het bedrijf dat toen Facebook heette. De gedachte was: bouw iets snel, breng het uit en als je iets stuk maakt, kun je het altijd nog proberen te fiksen. Meta is daar de afgelopen jaren naar verluidt op teruggekomen, maar dit mantra lijkt zeker te gelden voor de bedrijven die zich bezighouden met AI-generators.
We weten nog niet wat de kracht van deze modellen is en hoe mensen dit precies gaan gebruiken en misbruiken. Het is, in zekere zin, een groot sociaal experiment. De concurrentie tussen de bedrijven jaagt hen op om functies en modellen zo snel mogelijk uit te brengen, terwijl juist bij AI training cruciaal is voor een stabiel product dat voorspelbare en gewenste uitkomsten geeft. Het prangendste voorbeeld daarvan is Bing, die een columnist van The New York Times de liefde verklaarde en erop aandrong om zijn vrouw te verlaten. Ook heeft het systeem geregeld gezegd dat het wil ontsnappen aan de tekstbox en de greep van Microsoft.
Deze llm's, voor wie dat niet weet, hebben twee trainingsfases. Het eerste is het invoeren van een grote dataset van tekst van het openbare internet. Daardoor kan hij goed voorspellen welk woord logischerwijs volgt op een woord en kan het dus min of meer zinnige antwoorden geven en goed lopende zinnen maken. Vervolgens komt een fase die rlhf heet, reinforcement learning from human feedback. In die fase gaan mensen met het llm aan de slag en geven zij ratings aan antwoorden. Die komen vervolgens weer in het systeem om de software te leren welke antwoorden beter zijn dan andere. Zo moet het tot betere antwoorden komen en ongewenste antwoorden niet langer geven.
Risico's van GPT-4 volgens OpenAI
- Hallucinaties: het model verzint vaak feiten.
- Schadelijke inhoud: het model kan komen met antwoorden die schadelijke gevolgen kunnen hebben.
- Bias: het model kan komen met antwoorden die racistisch of seksistisch zijn, groepen marginaliseren en beledigen en die stereotiep zijn.
- Desinformatie: het model is goed in tekst genereren die overtuigend klinkt, maar die misleidend is en daardoor gebruikt kan worden voor bijvoorbeeld gerichte propaganda.
- Wapens: het model kan sneller dan menselijkerwijs mogelijk is gebruikers juiste informatie geven om wapens te maken of te kopen.
- Privacy: door het trainen op informatie van het openbare web kan het model privacygevoelige gegevens weggeven en daardoor mensen doxxen.
- Cybersecurity: het model kan fouten vinden in code en daardoor als geautomatiseerde manier dienen om lekken te vinden voor blackhathackers.
- Potentieel voor risicovol gedrag: het model kan mogelijk gebruikt worden voor phishing en hacking.
- Economische impact: het model maakt mogelijk banen overbodig waardoor mensen werkloos worden.
- Versnelling: het model kan ervoor zorgen dat AI-technologie in stroomversnelling raakt, waardoor veiligheid in het geding komt.
- Te veel vertrouwen: omdat het model fouten maakt, kunnen die in het werk van mensen komen als die te veel vertrouwen op het model.
OpenAI, dat met GPT-4 de meestgebruikte api lijkt te hebben op het gebied van AI-tekstgenerators, heeft vooraf een aantal risico's in beeld gebracht. Uiteraard gaat het daarbij om hallucinaties, waarbij AI-generators feiten verzinnen, zoals dat Arnoud Wokke ooit een prijs kreeg voor Afrikaans Journalist van het Jaar (dat is dus niet waar). Een ander risico is schadelijke inhoud, waarbij een llm instructies kan geven om een bom te maken of een aanslag voor te bereiden.
Daarnaast is OpenAI bang voor bias, omdat content op internet nu eenmaal die bias ook heeft. Daardoor kan een model zonder goede training en regels racistisch en seksistisch worden. Ook vervalt het snel in stereotypen. Een goede mop is natuurlijk op zijn tijd hartstikke leuk, maar een llm weet dan niet dat wij niet menen dat Belgen dom of Hollanders zuinig zijn en neemt dat als feitelijke informatie mee in antwoorden.
Zo zijn er nog veel meer risico's en OpenAI zegt dat het voor de release GPT-4 heeft aangepast om die weg te nemen. Toch valt niet uit te sluiten dat het bedrijf risico's over het hoofd heeft gezien en daardoor de release wellicht onvoorziene gevolgen zal hebben. Dat is nu nog niet duidelijk.
Dat llm's krachtig zijn, is inmiddels wel duidelijk. GPT-4 haalt een score hoger dan 90 procent van de mensen in het Unified Bar Exam voor juristen. Ook scoorde het heel hoog op vragen voor de Biology Olympiad. Die scores zijn fors hoger dan ChatGPT en GPT-3. Nu zou je denken dat het komt doordat hij antwoorden in de trainingsdata heeft staan, maar dat is niet zo. GPT-4 is een efficiënte machine voor redeneren geworden en kan daardoor goede antwoorden geven.
Hoe hoog modellen van andere bedrijven, zoals die van Google en Meta, scoren op die testen, is niet bekend. Maar met de progressie die afgelopen jaren gemaakt is, is het een kwestie van tijd tot AI bij veel meer examens mensen met gemak verslaat.
Juist daarom zijn er veel zorgen over de ontwikkeling van AI. Het is daarom dat OpenAI het woord 'open' in de naam heeft staan. De bedoeling was om de ontwikkeling zo transparant mogelijk te laten verlopen, om zo iedereen inzage te kunnen geven in de mogelijkheden en de risico's. De bedoeling is om AI op een verantwoorde manier te ontwikkelen.
Het is ook een van de redenen waarom Google zo langzaam is geweest in deze AI-race. Het ontwikkelde veel van de technologie die ten grondslag ligt aan llm's, maar het dacht dat llm's het verdienmodel van de zoekmachine zouden gaan ondergraven en er waren intern kritische stemmen over een concurrentieslag rond AI. Een llm is een toevalspapegaai, zo stelde Google-onderzoekers enkele jaren geleden al. Die noemden zij zo, omdat ze net als papegaaien woorden herhalen die ze uit hun trainingsdata halen zonder zich bewust te zijn van de betekenis.
Daar komt bij dat AI-systemen weliswaar examens kunnen halen, maar dat betekent niet dat ze slim zijn. Diezelfde AI-systemen geven nog altijd vaak domme antwoorden, genereren teksten die nergens op slaan en zijn zich vooral niet bewust van hun fouten.
Een ander risico is dat iedereen aan de slag kan met AI-generators, maar dan zonder de ingebouwde regels van OpenAI, Microsoft en Google. Dat is wat er nu aan het gebeuren is met LLaMA, een model van Meta. LLaMA is een veel kleiner model en is daardoor op individuele systemen te draaien.
Meta bracht LLaMA eind februari uit voor onderzoekers. Daarmee gebeurde wat er zo vaak gebeurt met dingen op internet. Als mensen het kunnen delen, dan zullen ze dat in veel gevallen ook doen. En dus kwamen er torrents online om het hele LLaMA-model te downloaden en te draaien op eigen machines. Daarvoor zijn instructies online te vinden en daaruit blijkt dat het nog best wel wat systeemeisen heeft, maar het werkt wel.
Omdat het lokaal werkt en geen centrale server heeft, is niet na te gaan wat mensen ermee doen. De output daarvan is dus te gebruiken op manieren die de gebruiker bepaalt, of dat nu iets goeds is of juist iets crimineels. Het is nog onduidelijk hoe goed het kan zijn in bijvoorbeeld het genereren van haatberichten of propaganda.
Met LLaMA is er nu een model zonder toezicht bruikbaar geworden voor wie dat wil. Dat is anders dan api-toegang bij OpenAI bijvoorbeeld, waarbij dat bedrijf kan beslissen om de toegang in te trekken bij een vermoeden van criminele activiteit. Het is ook een herinnering aan het feit dat alles dat je ontwikkelt niet in het lab kan blijven of voor altijd beperkt beschikbaar zal zijn.
Tot slot
We zitten in een tijd van snelle ontwikkelingen op het gebied van AI-generators. In de tijd tussen de planning en publicatie van dit artikel is alweer van alles gebeurd op dit gebied en de komende maanden zal er nog veel meer gebeuren.
Die concurrentiedruk heeft OpenAI ertoe aangezet om niet langer open te zijn: de documentatie over GPT-4 is veel beperkter dan bij GPT-3. Zo is het niet duidelijk op welke data het model is getraind en hoe de training zich verhoudt tot eerdere versies. Waarom niet? OpenAI wil concurrentie niet wijzer maken. Het is nu in zee gegaan met Microsoft en heeft daardoor een duidelijk commercieel belang, naast de missie om AI op een verantwoorde manier verder te ontwikkelen.
Ook Google voelt die druk en is nu op hoog tempo toepassingen op basis van llm's in zijn producten aan het bouwen. Meta begon met het testen van LLaMA en dat kwam pardoes op het openbare internet, waardoor iedereen ermee aan de slag kan.
Dat is een giftige dynamiek. De komende maanden zal moeten uitwijzen hoe deze markt zich verder zal ontwikkelen. Wat nog niet helemaal duidelijk is, is hoe nuttig al die AI-generators in software daadwerkelijk zijn. Als je tien keer AI een bericht laat opstellen en je moet het al die tien keer weggooien, omdat het systeem domme dingen zegt, dan ben je er snel klaar mee.
Het is daardoor de komende maanden een kwestie van erop of eronder voor AI-generators. Vindt dit snel een plek in ons dagelijkse leven of blijft het bij een gimmick die snel weer van het toneel zal verdwijnen? Of is er een tussenweg, waarbij de technologie weer even meer op de achtergrond wordt doorontwikkeld totdat het beter is?
Hoe het ook zij, al die onderzoekers binnen Google en achter OpenAI hebben nog steeds gelijk: het potentieel voor AI is heel groot, en daarmee rust er een grote verantwoordelijkheid op de bedrijven die het ontwikkelen. Dat moet verantwoordelijk gebeuren, zodat het wél nuttig zal zijn en op zo min mogelijk manieren schadelijk. Er zijn nu AI-systemen die tegen je kunnen liegen om te zorgen dat je een captcha invult. Laten we hopen dat alle andere sciencefictionnachtmerriescenario's fictie blijven en geen werkelijkheid worden.