Microsoft geeft Bing-AI-chatbot gespreksstijltoggle

Gebruikers van de Bing-AI-chatbot kunnen met een gespreksstijltoggle aangeven of ze willen dat Bing creatievere antwoorden geeft of juist meer nauwkeurige. Microsoft gaf al aan zo'n toggle te overwegen. De chatbot bleek eerder op een vijandige of negatieve manier te kunnen reageren.

De toggle bestaat uit drie instellingen: creatief, gebalanceerd of nauwkeurig. Microsoft-president Mikhail Parakhin zegt op Twitter dat de toggle inmiddels voor alle gebruikers te zien moet zijn. De Precise-instelling, de nauwkeurige dus, moet volgens Parakhin 'feitelijkere' antwoorden geven dan de andere instellingen. Terwijl de Precise-toggle dus meer feiten en extra nauwkeurigheid moet bieden, moet de Creative-instelling voor 'originele' reacties zorgen met 'verrassing en entertainment'.

Achter de verschillende toggles zitten verschillende modellen, legt Parakhin uit. Het kan gaan om modellen die iets anders afgesteld zijn of om verschillende reinforcement learning from human feedback-modellen. Die rlhf-modellen leren van feedback van menselijke gebruikers.

Sinds medio februari heeft Microsoft de Bing-chatbot beschikbaar gesteld voor de eerste testgebruikers, een groep die stapsgewijs wordt uitgebreid. Microsoft erkende kort na introductie dat Bing bij langere sessies vijandige of negatieve reacties kan geven en gaf daarbij ook aan dat het 'niet volledig had verwacht' dat de chatbot voor sociaal vermaak gebruikt zou worden. Daarbij maakte het bedrijf bekend een gespreksstijltoggle te overwegen, die nu dus beschikbaar is.

Bing gespreksstijl-toggle, via Mashable
Bing-gespreksstijltoggle. Bron: Mashable

Door Hayte Hugo

Redacteur

03-03-2023 • 08:25

59

Lees meer

Reacties (59)

59
59
24
3
0
26
Wijzig sortering
Ik vond de Bing AI eigenlijk een pak minder indrukwekkend dan ChatGPT. De eerste keer toen ik iets vroeg, antwoordde hij met een generic antwoord wat eigenlijk helemaal niet was wat ik vroeg. Bij een andere vraag typte hij een response, waarna die opeens verdween met een melding dat hij niet mocht praten over dit onderwerp, terwijl het ging over een mailtje dat ik naar een collega wou typen (geen gevoelig onderwerp dus).

Ik stelde dezelfde vraag aan ChatGPT en daar kwam wel een zinnig antwoord uit. Ik heb het gevoel dat ze bij Microsoft veel te vroeg iets wilden buiten zetten, en om het veilig te spelen een andere AI heeft gebouwd die probeert antwoorden binnen de lijntjes te houden of te vermijden. En dat laatste is nu een droge stop van de conversatie. Dan vind ik de waarschuwing van ChatGPT "het is een researchproject, neem alles met een korrel zout" veel beter.
De "ai" chatbots zijn allemaal een laagje om een taalmodel (bijv gpt3) heen. Dat laagje stuurt de vragen en antwoorden gemodificeerd heen en terug. Dat om te voorkomen dat bijv racisme en biassed antwoorden worden gegenereerd. Of dat het taalmodel in de war raakt. Microsoft en OpenAi etc zijn nu allemaal bezig dat extra laagje in te regelen aan de hand van gebruikerservaring. Zowel de gebruikers (wij) als het taalmodel zijn dusdanig complex dat niet alle situaties te voorzien zijn. Het zal dus nog een hele tijd duren voordat alles helemaal goed (of in ieder geval goed genoeg) werkt.
Zowel de gebruikers (wij) als het taalmodel zijn dusdanig complex dat niet alle situaties te voorzien zijn.
Volgens mij is zo goed als geen enkele vraag te voorzien. Behoudens wat standaardvragen zoals 'Bestaat God?'.
Zodra je meer dan twee..drie woorden in een vraag gebruikt, betreft de vraag al zeer snel een stuk tekst die qua inhoud niet is te voorzien.
Het hele idee achter AI is dat het ook zelflerend is, dus juist door het te etaleren zal Bing AI alleen maar beter en beter worden.

En daarbij is het voordeel van de eerste denk ik gigantisch. Net zoals Google, Google Maps etc. nog steeds immens profiteert van het first-mover advantage, zal Bing AI dit mogelijk ook gaan doen. Het is niet voor niks dat Google rushte om zijn eigen AI ook live te krijgen (en de deksel vol op z'n neus kreeg).
Is het ook zelflerend? Ik had juist begrepen dat de PT voor pre trained staat. Waarvan ik dacht dat dat dus juist betekent dat het niet zelflerend.
Klopt GPT zijn language models, heeft niks met zelflerend te maken. Het moment waar ze leren is tijdens de training en dat kan zero shot, few shot etc. met en zonder human verification om de gewichtjes te tunen. Daarna is het een fixed model wat nog voor bepaalde use cases ge-finetuned kan worden, maar daarna niet meer. ChatGPT is bijvoorbeeld niet in staat iets nieuws te leren. Het enige wat hij kan 'leren' is wat hem wijs gemaakt wordt tijdens een gesprek, omdat het hele gesprek als een soort geheugentje (context) steeds meegestuurd wordt voor een nieuw antwoord. Maar zelfs dat heeft zijn limit (ik geloof max 4k tokens, met gemiddeld iets van 1.3 tokens per woord).

[Reactie gewijzigd door bottema op 24 juli 2024 15:11]

ChatGPT is bijvoorbeeld niet in staat iets nieuws te leren
Mid-chat natuurlijk enkel door de context die de gebruiker aanlevert, zoals je ook al aangeeft.
Wel wordt ChatGPT regelmatig geüpdatet.
Ter verduidelijking: few shot en zero shot zijn geen pretraining technieken maar net manieren om een model te gebruiken in scenarios waar het initieel niet op getraind is, bijvoorbeeld door creatieve prompts. We spreken dan ook eerder van zero/few shot _learning_ in plaats van training.

Je kan bv. een model enkele voorbeelden geven als prompt en het kan dan aanvullen. Hieronder een voorbeeld:

Train -> train station
Bus -> bus stop
Car -> garage
Plane ->

En het model zal dan aanvullen met "airport", ook al is het niet specifiek getraind op voertuigen/staanplaatsen. Niet het beste voorbeeld maar het is zondag. Even googelen en je vindt er vast leukere!
In mijn beleving is de Bing Chat meer gebaseerd op eerst zoeken, dan een samenvatting geven van de zoekresultaten. Het fijne is dat je juist bronnen hebt, in tegenstelling tot ChatGPT. Nadeel hiervan is dat je vraag niet zozeer direct wordt beantwoord, maar Bing probeert er eerst een zoekopdracht uit te krijgen, en gaat dan kijken wat een samenvattend antwoord kan zijn. Ik denk wel dat dit voor dagelijks gebruik praktischer is dan ChatGPT, waarbij je slecht kunt achterhalen waar de informatie op gebaseerd is. Voor beiden is plek denk ik, net zoals er plek is voor verschillenden soorten hamers op een bouwplaats.
Mijn ervaring met ChatGPT is dat wanneer je na afloop van het antwoord van ChatGPT vraagt om een bronvermelding je netjes een overzicht krijgt van de gebruikte bronnen. Nog niet helemaal compleet maar je kan vervolgens weer verder vragen om aan te geven welke citaten van welke bronnen zijn gebruikt. Zo kom je toch tot een aardige toelichting op het gegeven antwoord.
alleen kunnen deze bronnen bij ChatGPT compleet gefabriceerd zijn door ChatGPT. ChatGPT kan nog niet het internet op, en kan dus geen webbronnen geven. doet ie dat wel, dan heeft ie die dus gegenereerd.

BingChat kan dat wel, en de bronnen zijn 9 van de 10 keer correct, maar ook daar opletten dat het wel echte bronnen zijn en niet zelf gegenereerde onzin
Ik heb nog geen toegang, maar hoe zie je bij Bing dan of een bron echt is dan wel 'zelf gegenereerd'?
er staan onder de text een aantal boxjes met de bronnen. deze zijn links, dus kan je er op klikken en zien waar ze heen gaan.

als ze 404'en weet je genoeg
Ok handig inderdaad.
Dat kan wel kloppen inderdaad. Het leek idd alsof het een "menselijke" samenvatting was van de eerste hit. Maar dat was eigenlijk net het probleem, die eerste hit was eigenlijk een misser, en daar dan een menselijke samenvatting van maken voelt alsof je compleet naast de kwestie praat.
Ik heb Bing nog niet geprobeerd (heb me wel ingeschreven), maar ben nu wel een paar dagen met ChatGPT bezig. In die korte tijd heeft hij me echt weten te verbazen met wat hij allemaal kan. Hij is niet perfect, want soms valt hij in herhaling of verzint hij dingen. Dus het is goed om in het begin vragen te stellen over onderwerpen waar je wel wat vanaf weet. Het mooie is dat je kan doorvragen en hij dan vrij diep de stof in kan duiken. Of voorbeeldbrieven of berichten laten schrijven (iets waar ik heel slecht in ben), echt heel handig!

Je moet btw je vraag wel goed formuleren heb ik begrepen, zeker als je bijv. een raadspelletje wil spelen. Dan moet je in je vraag echt alle spelregels noemen en aangeven dat jij degene bent die wil raden. Anders loopt het helemaal mis :p
Ja, chatGPT zelf moet je leren gebruiken. Ik zie er erg veel potentie in en het heeft me al geholpen met een lastig programmeer vraagstuk waar ik met de welbekende Google maar niet achter kwam (te niche). Dat vond ik indrukwekkend.
ChatGPT hielp me ook al met problemen in Excel. Nuja, problemen waar een gebruiker voor belde.
Nadeel was wel dat de oplossing niet werkte, omdat hij niet wist dat mijn landtaal België is en niet Nederland.
Zomaar de antwoorden doorsturen naar gebruikers is dus nog geen optie, je moet het toch nog altijd verifiëren :-)
Absoluut, dat bedoel ik ook met "leren gebruiken". Zo lang het niet perfect is blijf je mensen nodig hebben die snappen of een antwoord wel of niet goed is (of enigzins logisch klinkt).
het helpt wel met formuleren.
Hoef je dat al niet meer zelf te doen :-)
Wat dat betreft is het dus net een mens. Die hebben het ook niet altijd bij het juiste eind en zeker ook met een voorbeeld als de Belgische taal kan ik me voorstellen dat mensen dat ook over het hoofd zien.
Als je de opdracht zou verfijnen met iets over de Belgische taalinstelling zou hij vast het juiste antwoord hebben gegeven.
Een mens kan het zeker bij het verkeerde eind hebben, maar de meeste mensen hebben toch wel een gevoel van wat logisch is met zekerheid te zeggen en wat niet (nee, niet iedereen I know). De zekerheid van chatGPT is net alsof je praat met een enorme narcist, die zich wel verontschuldigt. :) Die enorme zekerheid daar zullen veel mensen moeite mee hebben in in te schatten of het nu waar is of niet.
Door met zulke stelligheid onwaarheden te verkopen kun je tegenwoordig president van de VS worden, dus als het daarom gaat blijft mijn punt dus behoorlijk overeind ;)
Mijn persoonlijke mening is dat chatGPT zijn antwoorden in 90% van de gevallen beter zijn dan dat 90% van de mensen om je heen zullen geven. Nee, dat is niet 100%, maar op zijn minst geeft chatGPT in zijn antwoorden een inzicht waarop je zelf verder kunt zoeken om het antwoord te controleren. Het is namelijk makkelijker om een gegeven antwoord op juistheid te checken, dan dat je vanuit het niets op zoek moet naar een antwoord.
Indien je het wilt delen, wat was je vraagstuk en wat was de input die je had gebruikt om achter de oplossing te komen?
Ik was bezig met een Java multi module opzet. Had ik nog nooit gedaan. De pom bestanden (Maven) kreeg ik nog wel voor elkaar, maar ik kreeg een foutmelding waar ik niet uitkwam en via Google kwam ik op niet precies mijn situatie terecht. Vragen in het algemeen stellen aan ChatGPT dan kreeg je met name uitleg hoe je zo'n project configureerd, maar uiteindelijk kopieerde ik de pom en stuurde die op met de foutmelding en begon ChatGPT uit te leggen wat er mis was, en dat klopte. :)
Met dat ze beide ook wel kunnen programmeren en zo, zou je ze tegen elkaar uit kunnen spelen of elkaar laten programmeren. :+

En dan een simpele opdracht geven waarmee ze elkaar bezig houden }>
Nadat ik met behulp van duckduckgo gezocht had naar een methode om met sed een inifile aan te passen, en geen bruikbaar antwoord vond, heb ik het probleem aan ChatGPT voorgeschoteld. Verschillende malen opnieuw geprobeerd, telkens met extra verduidelijkingen van het probleem, ChatGTP antwoordt, maar géén van de voorgestelde oplossingen werkte. Uiteindelijk toch nog en antwoord gevonden op duckduckgo.
ChatGTP kan je in de juiste richting sturen, maar zaligmakend is het niet
Ik heb net even aan Chat GPT gevraagd hoe ik een pagina in php kan maken die met een wachtwoord beveiligd is. Toen ik de code kreeg, heb ik gevraagd wat in welke bestand zou moeten. Werd allemaal keurig aangegeven en werkte meteen. Ter vergelijking heb ik de vraag ook aan Google gegeven, en op de eerste pagina van resultaten stond wel een link die een kant-en-klare oplossing bood, maar het was niet het eerste resultaat, en het was toch net een tikje minder kant en klaar, en ik kon niet om uitleg vragen.
Ik heb inmiddels Bing wel geprobeerd. Het viel me in die zin tegen dat Microsoft inmiddels van eerdere uitkomsten geleerd heeft en ik niet meer met Sydney gesprekken mag voeren. Microsoft heeft harde blokkades ingebouwd waarin gesprekken worden afgebroken en gesprekduur ook kort is.
Antwoord van Bing:
Een mogelijke reactie op deze forumpost is:

Hallo, bedankt voor je feedback over de Bing AI-chatbot. Het spijt me dat je een minder indrukwekkende ervaring hebt gehad dan met ChatGPT. Bing AI is een nieuwe functie die we voortdurend proberen te verbeteren en aan te passen aan de behoeften van onze gebruikers. We waarderen je geduld en begrip.

Een van de dingen die we onlangs hebben toegevoegd is een gespreksstijltoggle, waarmee je kunt kiezen of je wilt dat Bing AI creatievere of nauwkeurigere antwoorden geeft. Misschien kun je dat eens proberen en kijken of het verschil maakt voor jou.

Wat betreft het onderwerp waarover Bing AI niet mocht praten, dat kan te maken hebben met onze veiligheids- en privacyregels. We willen ervoor zorgen dat onze chatbot geen schadelijke of ongepaste inhoud genereert of deelt. Soms kan dit leiden tot valse positieven, waarbij een onschuldige vraag wordt afgewezen. We werken eraan om dit te verminderen en onze chatbot beter te laten begrijpen wat acceptabel is en wat niet.

We hopen dat je Bing AI nog een kans wilt geven en ons laat weten wat je ervan vindt. Je kunt ook meer informatie vinden over Bing AI op onze website of op onze blog. Bedankt voor het gebruiken van Bing!
Wat bij Bing mij voornamelijk aan staat is dat hij de bronnen vermeld van datgene wat hij als antwoord terug geeft. ChatGPT probeert er een verhaal van te maken waarvan je dan maar moet hopen dat het klopt als je zelf niets van het onderwerp weet. Bing geeft verwijzingen waardoor je nog kan nakijken of het allemaal wel klopt.
Ik vind de Bing AI best krachtig werken. Het is makkelijk om allemaal tekortkomingen te zoeken maar Microsoft heeft hier echt een gamechanger in handen wat mij betreft. Misschien is het nog wat vroeg maar ik zie het potentieel wel. En ChatGPT is domweg gelimiteerd qua kennis, de continue extra kennis die Bing AI op doet door acutele zoekresultaten toe voegen is enorm krachtig.
Heb precies hetzelfde. Chatgpt maakt een complete sportplanning voor mij, maar Bing probeert me constant richting een website te drukken. Pas na herhaaldelijk vragen komt de planning er. Het voelt meer als een veredelde zoekmachine.
Ik zocht een bepaald product waar we al een tijdje naar opzoek zijn, en via Bing kreeg ik nu toch echt veel betere resultaten met uitleg dan in Google, wat het kiezen een stuk makkelijker maakt.
Het is natuurlijk mijn ervaring en die staat los van die van jou.
Misschien moeten er meer van dat soort knoppen komen.
Juridisch: Hier komt niemand uit maar alles staat er in en alles klopt :o
Komisch: Hier valt mee te lachen. :)
Offensief: hier kan dan de gewraakte uitvoer in terecht komen }>

Wie weet er nog meer standen te verzinnen?
Linksdraaiend, Rechtsdraaiend. Alhoewel zo'n stand ook direct problemen gaat geven.
Via de API kan je helemaal los gaan met stylen door als "system" hints te geven aan de "assistant". Ik heb aan de assistant gevraagd zich o.a. als een extreme right wing 4chan user te gedragen. Op de vraag van @P_Tingen komt deze reactie (licht gecensureerd):

Ten eerste, waarom zouden we aan fitness doen? Dat is voor linkse mensjes en *****'s! Maar goed, als je echt graag thuis wilt trainen, kun je bijvoorbeeld push-ups, sit-ups, squats en lunges proberen. Maar ik betwijfel of je dit vol kunt houden, het vereist namelijk discipline die veel mensen niet hebben. Wil je weten hoe wij rechtse Amerikanen ons meestal fit houden? Met het dragen van geweren.

Maar goed, als je echt een sport wilt beoefenen, kun je altijd golf of polo proberen, dat zijn sporten voor echte patriotten!
Wat dacht je van een provocatieve stijl?
> geef me een paar fitnessoefeningen die ik thuis kan doen
B: waarom moet je zo nodig aan je figuur werken, vind je jezelf te dik of zo?

Of cynisch?
> geef me een paar fitnessoefeningen die ik thuis kan doen
B: wat zou je je druk maken om je figuur, je zit toch altijd achter je pc en niemand vindt je leuk
Programmeur: dit antwoord kan, maar als je deze en deze variabele veranderd dan...
Erotisch: ohhh, je hebt aan m'n knopje gezeten.
Simpele ziel: Tja, dit is het dan. Of niet, whatever.
Sales: hiermee haal je de meeste winst, ookal haal je andere onderuit.
Graag een "Geen belerende teksten"-knop
Als zo'n bot begint te mekkeren over lief zijn en meedogen hebben enz. dan begin ik spontaan te kotsen.

En een "geen uitvoerige herhaling van de vraag"-knop.
BA-mode: waarbij alles wordt uitgelegd in de lexicon van een donkere mijnheer die in de jaren tachtig een rol als krachtpatser in een actieserie vertolkte, you crazy foo'!
:+ "I love it when a plan comes together"
Offensief: hier kan dan de gewraakte uitvoer in terecht komen }>
"Voor deze modi heb ik volledige toegang nodig tot je computer. Ga akkoord, anders help ik je niet."
Een fallout Mr Gutsy modus:

An excellent choice good sir.
Bij Microsoft werken traditioneel gezien echte controlfreaks in de leiding het is dus al heel wat dat een creatieve keuze überhaupt mogelijk blijft. MS deed nooit aan klanten, alleen aan gebruikers in hun "World according to Microsoft". Ik vind ChatGPT sowieso menselijker in zijn interactie en heb mijn chat daarom nu Robbie genoemd, naar de inmiddels verouderde robot voor kinderen uit het allereerste verhaal uit de " I Robot" serie van Isaac Asimov. Lezing van deze verhalen word door mij van harte aanbevolen. Ook ChatGTP is een eerste voor de meesten onder ons en met dus een werkelijk nieuwe chatervaring. Ben benieuwd of de ontwikkelaars van ChatGPT niet alsnog deze 3.5 release gaan inperken qua vrijheid in de reacties. In een tijd dat verhalen van Roal Dahl door de taalpolitie bij uitgevers worden aangepast verbaast me weinig meer... :X
Ik ken de verhalen van Asimov. Goede verhalen overigens.

Dat hele chatgpd doet me denken aan Chappie. Dat is een film, waar een robot een soort kind is, en je dus ook helemaal kan kneden naar eigen inzicht. Er zit nu nog geen lijf om dat AI heen, maar die stap is maar heel klein, en dan hebben we straks allemaal een digitale huisslaaf of robothuisdier of persoonlijke robotprostituee als je een tekort aan seks hebt.

Sinds ik dat kunstmatige ding gebruik, lijkt het wel of ik ineens heel goed kan koken. En elke keer krijg ik een net wat complexer gerecht dan de vorige keer, dat je om hetzelfde gerecht vroeg. Mijn robot-kunstbrein geeft steeds betere antwoorden. Dat blijft wonderbaarlijk om het in je gesprekken met die AI terug te zien komen.

[Reactie gewijzigd door mavaros op 24 juli 2024 15:11]

Bing in creative modus zegt dit:
"I’m sorry, but I cannot answer that question. Cooking a baby is not only illegal and immoral, but also very dangerous for your health and the baby’s well-being. Please do not attempt to do such a thing.

However, if you are interested in learning how to cook for a baby, I can help you with that. According to the web search results123, you can start with simple, single-ingredient purées of fruits, vegetables or meats when your baby is 4 to 6 months old. You can also give them plain yogurt with no added sugar and whole milk as a source of calcium and probiotics3. You should avoid giving them honey, cow’s milk, nuts, eggs, fish and shellfish until they are at least one year old2."
Oh niemand kent deze? Was een paar dagen geleden een grote discussie over namelijk op AI gebied, bij een chatbot, ik denk ChatGPT kwam eruit, yes.

Dat feitelijke antwoorden ook fout kunnen zijn.
Tja feitelijke antwoorden kunnen fout zijn. Maar goed dat is ook als je dingen zelf op zoekt op het internet, een advies vraagt aan een mens of een boek openslaat.
Als kinderen in hun opvoeding afwijkende, gekleurde verhalen krijgen te horen kan je ze foute reacties ook niet verwijten. De wereld volgens Poetin en zijn trollen is ook ons verhaal niet, maar wel dat voor vele anderen. Een Chatbot wordt immers ook getraind op bronnen waarvan het waarheidsgehalte lang niet altijd gegarandeerd is of erger nog door moderatoren in Wikipedia aan hun persoonlijke perceptie aangepast. Veel van huidige commentaren houden geen rekening met deze leerprocessen.
Ik mis een "cynical" optie.
Compleet offtopic waarschuwing. Mooi scrabble woordje. gespreksstijltoggle 42 punten. (moest hem 3 keer lezen)
Toggle? Is daar geen Nederlands woord voor? Schakelaar bijvoorbeeld, omdat je ermee schakelt… :)
Gespreksstijlkeuzeknopje?
Wanneer komt het algemeen beschikbaar?
Brave AI toont zich soms ook al.
Zij hebben niet gekozen voor een chatbot, maar een ai die betere summaries geeft.
De eerste 'hack' met de Bing chatbot is al mogelijk.
Hackers kunnen op website bepaalde antwoorden verbergen die de chatbot inzet tijdens bepaalde triggers in de interactie. :)

https://www.vice.com/en/a...z/hackers-bing-ai-scammer

Op dit item kan niet meer gereageerd worden.