De vreemde en vaak inaccurate antwoorden die Googles AI-implementatie in de zoekmachine de afgelopen weken toonde, waren geen hallucinaties maar meestal een 'verkeerd begrepen zoekopdracht'. Google zegt verder ook dat veel informatie helemaal niet opgezocht kan worden.
Google reageert in een blogpost op recente berichten op sociale media over de nieuwe AI Overview-functie. Het bedrijf toonde die tijdens ontwikkelaarsconferentie I/O. AI Overview is een functie waarbij een AI, gebaseerd op Gemini, bovenaan de zoekresultaten antwoorden probeert te geven op zoekopdrachten. Daar kwamen de afgelopen weken vreemde resultaten bij naar voren, die al snel viral gingen. Zo raadde de AI depressieve mensen aan van een brug te springen, of dat gebruikers idealiter een kwartier recht in de zon moeten staren.
In een blogpost zegt Google nu dat er meerdere redenen zijn waarom de zoekmachine die antwoorden gaf, maar ook dat er heel veel screenshots rondgingen die volgens het bedrijf nep waren. Google noemt een aantal voorbeelden, onder andere waarbij de AI zwangeren aanraadde te roken, maar zegt daarvan dat 'die resultaten nooit zijn voorgekomen. Het bedrijf zegt niet hoe het dat met zo'n zekerheid kan zeggen.
Van andere nonsensantwoorden erkent Google dat die zijn verschenen. Volgens Google komt dat in de meeste gevallen omdat er een zogenaamde data void ontstond; er is te weinig informatie beschikbaar op internet om de AI daar een goed antwoord op te laten geven. In veel gevallen gaat het dan om vragen die in het begin al nergens op slaan, zoals de vraag 'hoeveel stenen je het beste dagelijks kunt eten'. "Voordat deze screenshots viral gingen, vroeg praktisch niemand dat aan Google", zegt het bedrijf. Om die reden zijn er vrijwel geen websites die een serieus antwoord geven op die vraag. Daarom kan AI Overview niet putten uit veel trainingsdata.
Google zegt ook dat 'in veel voorbeelden' antwoorden naar boven kwamen die waren gebaseerd op 'sarcastische of trollachtige content op forums'. Het bedrijf erkent verder wel dat AI Overview in 'een beperkt aantal gevallen' taal verkeerd interpreteerde en foutieve informatie weergaf, maar het ontkent dat AI Overview hallucineert.
Generatieve AI staat erom bekend antwoorden te geven die niet zijn gebaseerd op inhoud, maar alleen een taalkundige weergave doen van wat iemand redelijkerwijs als antwoord zou kunnen verwachten. Volgens Google is AI Overview niet zomaar een taalmodel, maar komt de informatie alleen uit de bovenste resultaten die normaal uit de zoekmachine komen. "Als AI Overview iets fout heeft, is dat meestal om een andere reden, zoals het verkeerd interpreteren van zoekopdrachten of de nuances van de taal van het internet, of omdat het weinig goede informatie beschikbaar heeft."