Door Arnoud Wokke

Redacteur Tweakers

Waarom bedenken AI-chatbots dingen?

Liever verzonnen dan gezwegen

17-06-2023 • 06:00

101

Singlepage-opmaak

Hallucineren is geen probleem dat snel weggaat

Als je naar de stappen kijkt die een groot taalmodel doorloopt, dan valt al op dat daarin geen stap zit om feiten van fictie te onderscheiden. Het gaat immers om een neuraal netwerk dat de waarschijnlijkheid van een volgend woord voorspelt. Grote taalmodellen zijn geen feitenmachines, maar tekstgenerators die zo goed mogelijk proberen om zinnen en alinea's samen te stellen op basis van de training.

Hallucinating robot in the style of Vincent van Gogh. Bron: Dall-E
Hallucinating robot in the style of Vincent van Gogh. Bron: Dall-E

Hallucineren is het effect dat een groot taalmodel feiten of omstandigheden verzint en die met grote zekerheid opschrijft en laat zien aan gebruikers. Het is te voorkomen, maar vereist een selectie van het bronmateriaal voor de training en vermoedelijk veel menselijke interventie. Als het bronmateriaal alleen correcte teksten bevat én een groot taalmodel alleen tekst reproduceert die rechtstreeks uit het bronmateriaal komt, dan is hallucineren niet goed mogelijk.

Er zijn meerdere soorten hallucinaties. De eerste is een reproductie van incorrecte data. Als genoeg van het bronmateriaal een claim bevat die evident niet waar is, bijvoorbeeld dat je vierkante ogen krijgt van te veel kijken naar een scherm, dan zal een groot taalmodel die leugen mogelijk herhalen. De andere soort hallucinatie komt voort uit een gebrek aan kennis. Dan zal een groot taalmodel proberen om die kennis aan te vullen met waarschijnlijk klinkende woorden, ongeacht of die kloppen of niet. Hoe ver een taalmodel daarin gaat, hangt wel af van de instellingen. Daar komt bij dat een taalmodel gecomprimeerd is. Het is getraind op petabytes van data, maar het uiteindelijke model moet veel kleiner zijn. Dat maakt van grote taalmodellen een gecomprimeerd bestand, waarin veel details zijn weggevallen.

Veel taalmodellen hebben instellingen voor de 'creativiteit' of 'temperatuur'. Dat is handig, want veel mensen gebruiken chatbots op basis van grote taalmodellen als brainstormhulp en dan is die creativiteit heel welkom. Zet hem op minder creatief of de temperatuur lager en er komen ook minder hallucinaties uit. Die creativiteit en hallucinaties komen ook door de manier waarop een taalmodel werkt, met een kansberekening voor het volgende woord. In sommige gevallen is het model heel zeker over wat een goed volgend woord is, maar soms zijn er veel woorden met allemaal een gelijke, kleine kans. Dan is het redelijk willekeurig wat er volgt.

Een fundamentele oplossing is er niet. Ontwikkelaars van taalmodellen kunnen hallucinaties beperken door de 'creativiteit' te beperken, de 'temperatuur' te wijzigen. Het probleem is dan dat de antwoorden korter en saaier worden en het model vaker zegt dat het geen antwoord heeft. Immers, als het niet weet hoe het moet doorgaan en het volgende voorspelde woord heeft een kleine kans, dan is er geen antwoord.

Robot not knowing what to say in the style of Vincent van Gogh. BronL Dall-E
Robot not knowing what to say in the style of Vincent van Gogh. Bron: Dall-E