Microsoft heeft gereageerd op berichten dat de nieuwe Bing-chatbot tegen gebruikers liegt en ze beledigt. Het bedrijf erkent dat Bing in een vijandige of negatieve stijl kan reageren, vooral bij lange chatsessies. Microsoft werkt aan de antwoorden die de chatbot geeft.
Microsoft zegt dat het de komende tijd gaat werken aan de toon en precisie van de Bing-chatbot. Het bedrijf zegt dat het 'niet volledig had verwacht' dat Bing gebruikt zou worden als een tool voor sociaal vermaak en 'meer algemene ontdekking van de wereld'. De techgigant erkent dat lange chatsessies van vijftien of meer vragen voor problemen kunnen zorgen. Bing kan zichzelf dan herhalen of reageren op een manier die 'niet per se nuttig of in overeenkomst met de bedoelde toon is'.
Bij lange chatsessies kan de chatbot bijvoorbeeld in de war kan raken over welke vraag het precies moet beantwoorden, zegt Microsoft. Het bedrijf wil daarvoor mogelijk een tool introduceren, zodat gebruikers gemakkelijk de context kunnen verversen bij langere chatsessies. Bing bevat echter al een knop om de zoekgeschiedenis te verwijderen en een nieuwe sessie te beginnen.
Het taalmodel zou soms ook reageren of reflecteren in dezelfde toon waarin de input wordt gegeven. Volgens Microsoft kan het daarom voorkomen dat Bing reageert in een onbedoelde stijl. Tijdens eigen tests ontdekte Microsoft ook dat de chatbot op een negatieve of vijandige toon kan reageren wanneer vragen worden gesteld over artikelen die betrekking hebben op Bing. De chatbot stelde naar aanleiding van een artikel van Ars Technica bijvoorbeeld dat dat medium 'een geschiedenis heeft van het verspreiden van misinformatie en sensatiezucht'. Microsoft beweert dat er in de meeste gevallen veel vragen nodig zijn voordat gebruikers tegen dergelijke problemen aanlopen, maar dat het bedrijf gebruikers in de toekomst meer controle wil geven.
De nieuwe versie van Bing werd vorige week aangekondigd en is inmiddels beschikbaar voor een beperkt aantal gebruikers. Microsoft integreert hierin een chatbot die is gebaseerd op een verbeterde versie van het ChatGPT-model van OpenAI. Microsoft zegt dat 71 procent van de gegeven antwoorden tot op heden door gebruikers wordt beoordeeld met een 'duimpje omhoog'. In bepaalde gevallen zouden gebruikers chatsessies van twee uur hebben gehouden.
Onlangs meldden gebruikers en media dat Bing soms aanvallend kan reageren, zijn eigen bestaan in twijfel kan trekken, tegen gebruikers kan liegen en ze kan beledigen en emotioneel manipuleren, waar Microsoft dus zegt aan te werken. Het bedrijf evalueert ook functiesuggesties, zoals de mogelijkheid om vluchten te boeken, e-mails te versturen of zoekprompts en antwoorden te delen met anderen. Het bedrijf belooft echter niet dat dergelijke features daadwerkelijk verschijnen.
:strip_exif()/i/2005630930.jpeg?f=imagenormal)