De chatbot van Microsofts zoekmachine Bing maakte grove fouten in de demonstratie die Microsoft er vorige week van gaf. Dat heeft een onderzoeker uitgeplozen. De AI verzon onder meer financiële resultaten op basis van de kwartaalcijfers van een bedrijf.
Microsoft vergeleek in een demonstratie de kwartaalcijfers van Gap en Lululemon, waarbij de AI diverse waarden incorrect weergaf, meldt Dmitri Brereton. Die waarden zijn op te zoeken in tabellen in rapportages van die kwartaalcijfers. Sommige van de cijfers klopten wel, maar andere waren getallen die in de rapportages niet voorkwamen.
Ook bij andere Bing-demonstraties zaten volgens Brereton dubieuze resultaten. Zo meldde Bing dat een bar in Mexico-Stad een website heeft om reserveringen te maken, maar dat is onjuist. Over een andere bar is de afgelopen jaren niets nieuws online verschenen en op het gegeven adres is de bar ook niet zichtbaar, waardoor het erop lijkt dat hij niet meer bestaat. Bij meerdere bars vermeldt Bing verkeerde openingstijden en vergeet de zoekmachine te vermelden dat het gaat om een gaybar.
Bij het vergelijken van stofzuigers vermeldt Bing de url van een andere, snoerloze versie van de stofzuiger in kwestie. Daardoor is het onduidelijk bij welke versie de vermeende genoemde minpunten zouden horen.
Microsoft erkent tegen The Verge de fouten. "We verwachten dat het systeem tijdens deze previewperiode veel fouten maakt en de feedback is van kritiek belang om te leren waar zaken slecht werken, zodat we ervan kunnen leren en het systeem beter kunnen maken." Intussen hebben de eerste reguliere gebruikers op de wachtlijst toegang gekregen tot de nieuwe versie van Bing.
Bing was niet de enige met fouten in de demonstratie. Googles chatbot Bard zei dat de nieuwe James Webb-telescoop de eerste foto van een exoplaneet had gemaakt, maar in feite is de eerste foto van een exoplaneet al van 2004.
De chatbots verzamelen informatie en vatten dat met hulp van algoritmes samen. Dat werkt met een taalmodel, dat getraind is op veel tekst om zo nieuwe teksten te genereren. Op die manier willen Microsoft en Google dat de software vragen van gebruikers uitgebreid kan beantwoorden. De software heeft geen ingebouwde functie om feiten van verzinsels te kunnen onderscheiden. Microsoft heeft de technologie voor het nieuwe Bing van OpenAI, dat onder meer GPT-3 en ChatGPT heeft uitgebracht.