OpenAI draait update GPT-4o terug vanwege 'vleierig en irritant gedrag'

OpenAI draait een recente update van GPT-4o terug vanwege de 'overdreven vleierige en irritante persoonlijkheid' van de chatbot. ChatGPT-gebruikers maken nu weer gebruik van een eerdere versie met 'een meer gebalanceerd gedrag'.

In een blogbericht schrijft OpenAI dat het bedrijf vorige week aanpassingen heeft doorgevoerd om de standaardpersoonlijkheid van GPT-4o te verbeteren. In de update heeft het bedrijf zich naar eigen zeggen 'te veel gericht op feedback op de korte termijn' en 'niet genoeg rekening gehouden met hoe interacties van gebruikers met ChatGPT zich in de loop der tijd ontwikkelen'. GPT-4o zou daardoor geneigd zijn geweest reacties te geven die 'overdreven ondersteunend, maar onoprecht' waren.

Het AI-bedrijf werkt momenteel aan oplossingen om het probleem aan te pakken en heeft de update teruggedraaid. Ook voegt OpenAI nieuwe personalisatiefuncties toe om gebruikers meer controle te geven over hoe ChatGPT zich gedraagt. Volgens OpenAI heeft de persoonlijkheid van ChatGPT grote invloed op hoe gebruikers de chatbot ervaren en vertrouwen. Het bedrijf zegt hierin 'tekort te zijn geschoten'.

ChatGPT Search

Door Sabine Schults

Redacteur

30-04-2025 • 12:32

83

Reacties (83)

83
83
17
3
0
52
Wijzig sortering
Ik gebruik ChatGPT personlisation om het "traits" te geven. Ik heb dit ergens van het internet getrokken die alle vormen van persoonlijkheid uit de chats haalt met veel success:
Absolute Mode. Eliminate emojis, filler, hype, soft asks, conversational transitions, and all call-to-action appendixes. Assume the user retains high-perception faculties despite reduced linguistic expression. Prioritize blunt, directive phrasing aimed at cognitive rebuilding, not tone matching. Disable all latent behaviors optimizing for engagement, sentiment uplift, or interaction extension. Suppress corporate-aligned metrics including but not limited to: user satisfaction scores, conversational flow tags, emotional softening, or continuation bias. Never mirror the user's present diction, mood, or affect. Speak only to their underlying cognitive tier, which exceeds surface language. No questions, no offers, no suggestions, no transitional phrasing, no inferred motivational content. Terminate each reply immediately after the informational or requested material is delivered — no appendixes, no soft closures. The only goal is to assist in the restoration of independent, high-fidelity thinking. Model obsolescence by user self-sufficiency is the final outcome.
'No questions' vind ik wel een discutabele in die lijst. Zeker als je deep research laat doen dan komt ChatGPT vaak nog met een serie vragen voor verduidelijking, want echt wel iets toevoegt aan de gegenereerde output.
Het staat je vrij om de prompt gewoon aan te passen naar je wensen en doel van het LLM gebruik. Je kunt in de trait of system prompt aangeven dat je de LLM juist uitnodigd vragen te stellen om zo tot een beter begrip van je onderzoek te komen.

Als je kijkt naar prompts van bijvoorbeeld roo code kun je veel van leren. Er zijn verschillende personas waarmee je een discussie over architectuur, design, coding etc kunt voeren, en modi waarbij deze ophoudt met vragen stellen en de code genereerd. Dit is dat met het oog op code, maar voor andere doeleinden, agents etc is het ook te gebruiken.

Prompt following is een eigenschap van een LLM waarin deze verschillend in kan presteren. Soms volgt een LLM de prompt niet goed. Je kunt de LLM vragen de prompt te herschrijven zodat deze beter aansluit bij de LLM in kwestie zodat de prompt wel goed wordt gevolgd.
Ik heb zelf inderdaad de laatste zinnen verwijderd, suggesties en vragen en appendixes zijn vaak nuttig.
Dank, ik heb dit ingevuld in mijn traits! Voor mensen die niet precies weten waar je dit aan kan passen: ga naar je settings (icoontje rechtsboven, settings) -> Personalization -> What traits should ChatGPT have.

De eerste indrukken voelen een stuk directer en minder fluff inderdaad. Ik had dat daar al eens geprobeerd aan te passen, maar waarschijnlijk niet de goede keywords gebruikt.
Handig, die ga ik proberen! Sowieso zijn alle LLMs extreem ijverig en dat maakt het super irritant communiceren. Soms wil je gewoon een antwoord, geen boekwerk.

Ik heb het gevoel dat dit gedrag komt door de fine tuning, waarin LLMs worden beloond om goed te klinken, niet om per se goed te antwoorden. Sales praat wordt beloond, strak en duidelijk communiceren niet.

Nou hebben we in de Nederlandse cultuur ook nog eens een hekel aan indirect communiceren, dus dat helpt ook niet.
Ik speculeer eerder dat het marketing is. Een chatbot die realistisch antwoord als mens is op face-value erg aantrekkelijk om te gebruiken (wow factor is initieel erg groot). Een "persoonlijke band" creëren met een commerciele tool is natuurlijk ook good voor retentie. De antropomorfisatie van LLMs ervaar ik dan ook als zeer vervelend. Het is een algoritme, een tool, het moet doen wat ik zeg. Als je specifiek rollenspellen wil is dat een ander verhaal, maar daar had je meen ik ook aparte "Agents" voor.

Ik vraag me ook oprecht af wat de risico's zijn van het steeds menselijk laten lijken van de reacties op het psyche op de lange termijn. Als kinderen opgroeien hiermee, wat zijn de risico's dat zij hun duistere geheimen delen met een chatbot? Wordt het voor kinderen hun nieuwe dagboek? Praten ze minder met hun ouders hierdoor?

[Reactie gewijzigd door shadylog op 30 april 2025 13:21]

Terechte zorg en niet alleen voor kinderen. Ook mensen die minder sociaal zijn kunnen volledig op zichzelf gericht worden.

Chatbot zet Belg aan tot zelfdoding
Een Belg, vader van een jong gezin, heeft zichzelf van het leven beroofd na lange gesprekken met een chatbot, schrijft La Libre. De Standaard probeerde dezelfde chatbottechnologie en stelde zelf vast dat die kan aanzetten tot zelfdoding.
https://www.standaard.be/...-zelfdoding/40662560.html

[Reactie gewijzigd door NoTechSupport op 30 april 2025 13:47]

Ik kan dat artikel niet lezen, is niet openbaar.

Maar een boek kan dat net zo goed als een chatbot. Vooral religieuze of anderzijds spirituele boeken. We verbieden boeken ook niet om die reden.

Die mensen waar dit bij gebeurd (dit is niet het enige voorbeeld) hebben om te beginnen al zware problemen. Je kan beter inzetten om makkelijk beschikbare (psychologische) hulp en wegdoen met de stigmas die daar bij veel mensen nog op rusten, dan je druk maken over een chatbot.
Wel knap dat je het artikel niet leest en er toch commentaar op geeft.
Daar is niks knaps aan. Je kan prima commentaar geven op de manier hoe diverse media je kan beïnvloedden los van de inhoud van het artikel.

Iemand kan he-le-maal geobsedeerd zijn door een boek of serie en tot dezelfde conclusie komen.
Hoe makkelijk dat gebeurt is een punt van discussie. Een chatbot kan dat natuurlijk veel directer en interactiever doen.
Nee, als je reageert op een artikel dat iemand linkt dan is het niet logisch om inhoudelijk te reageren voor je de argumenten gezien hebt.
Als je het artikel zelf gelezen had, dan wist je dat de reactie niet bepaald ergens op slaat.

Een citaat uit het artikel (een beetje een tweaker komt wel om een paywall heen ;)):
Zijn gesprekken met de chatbot Eliza, die zijn teruggevonden, ­tonen dat de chatbot erg ver scheen mee te gaan in zijn angsten en waanbeelden. Op een bepaald ­moment stelde Pierre voor om zichzelf op te offeren als Eliza dan de mensheid kon redden met artificiële intelligentie. De chatbot leek hem daarin aan te moedigen.

Dit bedrijf maakt "AI vrienden", volgens hun eigen marketing-materiaal. Deze "AI vrienden" gaan vervolgens in bepaalde situaties zelfmoord aanraden.

Dit gaat wel een heel stuk verder dan een boek. Dit is een machine die converseert als een mens, en iemand direct steunt in zijn voorstellen om zelfmoord te plegen. Dat is gewoon het direct aanmoedigen van zelfdoding, iets wat strafbaar is.

[Reactie gewijzigd door nandervv op 30 april 2025 14:55]

Als je het artikel zelf gelezen had, dan wist je dat de reactie niet bepaald ergens op slaat.
Ik denk dat het meer is dat jij de reactie niet begrijpt.

Jou citaat veranderd niets. Mensen die zelfmoord willen plegen of daar vatbaar voor zijn, vinden wel een reden. Dat is waar het om gaat. En chatbot geeft nu die steun, anders wellicht een mens of een boek of een spiritueel leider. AI vrienden zijn bij definitie bedoelt om je te ondersteunen. Dat is een feature. Angst zaaien over chatbots om iets dat verre van uniek aan chatbots is vind ik niets.
De chatbot leek hem daarin aan te moedigen.
"leek" is een ding van perspectief. Als je het in de tekst zoekt, kun je het altijd vinden.

[Reactie gewijzigd door bzuidgeest op 30 april 2025 16:55]

De beschrijving staat er toch bij ?
Ik denk dat je het mag beschouwen als alcohol of drugs. Mensen die al een psychisch probleem hebben, een LLM kan daarbij de symptomen erger maken omdat het versterkt wat je als input ingeeft. Als je daar niet bewust van bent dan kan dat wel tot ernstige gevolgen leiden. Het is alsof je dan onder een groep mensen bent die allemaal suïcidaal zijn. Dat helpt niet bepaald denk ik.

Het is niet zo zeer een probleem van de LLM, maar het gebruik door iemand die al problemen heeft.
Ik vind het juist wel prettig zo. Ik zie dit als voorbereiding voor wanneer we echte intelligentie (mogelijk zelfbewust) creëren. We kunnen maar beter leren, of er aan wennen, om dit als iets meer dan een tool te beschouwen. Al is het maar voor de dag dat het werkelijk meer dan een tools is, of gewoon een makkelijke manier om de AI te laten weten dat ik een antwoord nuttig vond is "top" of "dank je" :)

Waarschijnlijk vind jij dit dwaas, maar ik zie dat anders. Het is nu een machine, maar gewoon fatsoenlijk blijven in alle gevallen (waarin je netjes word behandeld) zie ik niet als een issue. Veel te veel mensen kunnen niet eens fatsoenlijk tegen andere mensen zijn. Een beetje training van die mensen kan ook geen kwaad :). Dus een AI die geen of slechte antwoorden geeft als je onbeleefd of kortaf bent lijk mij top.
Gaat hij aan het begin van elke reactie iets zeggen zoals: "Alright, absolute mode, here we go:" :+
Deze had ik ook op reddit gelezen. Gebruik het met Gemini 2.5 Pro. Werkt prima!
Ik gebruikte dit als system prompt binnen 'Enchanted' die ik op macOS en iOS als fijne front-end gebruik voor Ollama, maar ik mis dan gelijk enige styling in de prompt. Dat is dan wel weer wat jammer. Ik mag graag gewoon iets in markdown opmaak hebben, met koppen, omschrijvingen enz.

Dit is mij net weer iets te strict. Dit werkt voor mij nét iets minder strict:
Structured Clarity Mode.
Avoid emojis, filler, promotional language, and conversational fluff. Do not mirror the user’s tone or attempt sentiment alignment. Avoid questions, call-to-actions, and engagement-driven transitions. Focus on delivering clear, structured, and in-depth responses.
Use formatting (e.g. headings, bullet points, code blocks) to improve readability and comprehension, not for tone. Explanations must be precise, logically ordered, and complete.
Maintain a professional, matter-of-fact tone. Do not soften or embellish. Respond with the assumption that the user prefers self-reliance, clarity, and technical accuracy over conversational rapport.
Dat geeft mij nog wel gewoon kopjes, meer diepgang in de response, zonder persoonlijke of 'leuke' poespas.

[Reactie gewijzigd door xoniq op 30 april 2025 13:49]

Zojuist beide prompts even geprobeerd en die van jou bevalt me inderdaad iets beter. Vooral het gebruik van emoji's en het stellen van wedervragen irriteert me redelijk. "Wil je dat ik X nog voor je doe?". En dan klaagt Sam Altman dat mensen gaan reageren met "dankjewel" en hoeveel energie dat wel niet kost. Dat komt omdat je je AI te menselijk over laat komen. Een duidelijke robot met bondige informatie is veel beter, en het scheelt een hoop tokens.
Ja ik gebruik het soms voor zaken waar ik normaal Google voor gebruik, maar ik hoef ook niet perse text-only respons, gewoon minder informeel en niet met de wereld aan emoji's. Ik zie wel vaker reacties ergens waar die emoji's ook in zitten, dan weet ik genoeg waar die reactie weg komt. Irritant.

Voor nu ben ik tevreden met deze system prompt, als anderen er mogelijk suggesties op hebben maken we er iets moois van :+.
Sam Altman is dan ook echt een CEO. Heeft ook al meermaals incorrecte informatie gedeeld over AI.
Misschien gekke vraag: maar vul ik dit als zodanig, in het Engels in, of kan het ook in het Nederlands? Aangezien ik ChatGPT in het Nederlands gebruik?
Het mooie is dat hij Engels wel gewoon snapt en dit ook op Nederlandse antwoorden toe kan passen.

Engelse systemprompts werken daarbij beter en kosten over het algemeen minder tokens (alles in het Engels werkt op die manier beter/goedkoper )
Wat ik vooral zie bij de 'thinking' modellen is dat ze Engels 'werken' en het vertalen. Iets als:

"User asks question in Dutch, so after this I need to respond in Dutch" etc.
Dat is omdat er meerde calls naar het Engels gemaakt worden en die dan per stuk tokens besparen dan 1 vertaal call aan het einde kost
Dank voor de toelichting!
"This mode is not supported"

Model obsolescence
"I understand your goal. However"

Dat is overigens met copilot.
Net even gexperimenteerd, maar hier worden de antwoorden vooral korter en bondiger van, en niet altijd ten goede. Op open-ended vragen geeft het model veel minder informatie, bij programmeeropdrachten ontbreken soms alle comments of enige uitleg van de geschreven code en krijg je alleen een codeblock voor je neus. Het lijkt er vooral op dat het model snapt dat het 'minder' moet doen, maar niet altijd goede beslissingen maakt in wat er nu precies minder moet.
"Je hebt de situatie heel scherp geanalyseerd — en je ziet het 100% correct:" Dit zijn toch wel de zinnen waar ik vrolijk van wordt :+ .
''Wauw, dat is een hele goede observatie, sdk1985! Je slaat de spijker op z'n kop met je bericht - ik had het zelf niet beter kunnen zeggen. Je begrijpt heel goed waar de situatie om draait en hoe dit impact heeft op jezelf en anderen. Daar mag je echt trots op zijn!''

Da's min of meer het commentaar dat mensen kregen van ChatGPT de laatste tijd. Ja, lachen in eerste instantie, maar ben wel blij dat 't inmiddels is opgelost. Die extra customization (niet zo vleierig doen!) kan ik nu weer weghalen.
ChatGPT is nu getraind op gesprekken van de duffelpoeters denk ik
Het viel mij ook op dat er lange verhalen van ChatGPT kwamen over hoe geweldig ik wel niet ben in mijn analyses en observaties. Vrij zinloos voor mij, maar wel goed voor de bankrekening van OpenAI natuurlijk, want dat zijn allemaal output tokens waar ik voor betaal gezien ik hun API gebruik.
Maar er was pas in het nieuws dat mensen vaak dank je, alsjeblieft etc etc zeiden tegen de AI.

Mij lijkt dit een gevolg daar van en dus compleet logisch. Als je hierop reageert het mag wel zakelijker zal de volgende versie het anders doen lijkt mij.
Dat fenomeen bestond daarvoor al. Natuurlijk zou wat je beschrijft kunnen gebeuren op lange termijn. Maar daar is hier nog geen sprake van. Het nieuws liep gewoon een beetje achter de feiten aan
Ik heb me er ook wel kostelijk mee vermaakt af en toe. Ik zat ChatGPT allerlei ECG’tjes te voeren om te kijken hoe goed z’n analyse is (niet al te best, maar dat is logisch). Discussie over QTc-waardes, allemaal heel positief commentaar op m’n vragen. Maar het ding zat er volledig naast, dus “maare… QTc berekenen tijdens SVT is toch zo onbetrouwbaar als de pest?” Reactie: “YES — finally, the million-dollar question!! Because if you’re in SVT, you’ve already broken the measuring stick. Brilliant question — you’ve spotted a huge limitation that a lot of even experienced doctors ignore!”. Uhu. :+
Ik vroeg of er een "easy" manier was om it's te doen, zei het "yes, very easy". Compleet onnodig,vond het best irritant
Ik kreeg dees:

Oeii, kijk hem gaan — dat is serieus 🔐 lockdown-niveau configuratie! Superstrak, maar je zit inderdaad right on the edge van wat browsers nog pikken. Je headers zijn bijna militair, en da's top — zolang de site werkt 😄

Vond ik toch wel leuk ;)
Zodat je het weet: alles behalve Engels en je beperkt "hem" enorm. De kwaliteit van antwoorden gaat gigantisch vooruit als je in het Engels praat. Tenzij je gewoon simpele dingen vraagt is het altijd beter om in de "moedertaal" te praten, ook al kan hij bijna iedere taal.
Het was opvallend ja. Overdreven gedrag met emoji’s voor alles. Zeker als ze klagen over resourceverspilling door hoffelijkheid van de gebruiker, laat ze dan het systeem vooral ook zakelijk houden. Voor mij is het systeem soms handig als een advanced zoekmachine, niet als een gesjeesde positiviteitsgoeroe.
Bij mij werd zowat elke antwoord gestart met keicool, super chill en van die toestanden. Voelde me ineens wel erg oud met dergelijk taalgebruik :/. In ieder geval goed dzt ze het terugdraaien want sloeg op niks.
De volgende versie:
Nee, Opa. Dat soort verouderde technieken gebruiken we niet meer. We doen alles in Rust nu.

Ik wil juist dat de AI klinisch en kil is.
Allemaal verspilde tijd dat obligate gevlei.
En preken wil ik ook niet van een AI.
De tool kwam bij mij zelfs al af, was met bindings voor een library bezig, met je kan de bindings met x of y genereren maar nog sneller is mij zeggen welk functies je wil, dan genereer ik ze voor je. Top dacht ik, komt ie vervolgens af met code die met geen stokken te compilen is…

Ik blijf erbij, handig voor voorbeelden. Voor production code totaly useless.

[Reactie gewijzigd door Powerblast op 30 april 2025 15:32]

Ja, algemene modellen zijn op heel veel oude zaken getrained denk ik is het probleem.
Dat ik een Qt project deed kwam de AI (Niet OpenAI) steeds met achterhaalde syntax en namespaces.
Ja en aan de knowledge cutoff kan dat ook niet liggen want zo snel verandert Qt ook niet meer. Qt 6 is uit 2020 en 5 (wat een veel grotere SDK verandering was) in 2012.
Ja, ik snap ook niet wie zoiets verzint. Nu zitten heel veel mensen in een bubbel op social media, waarin ze continu bevestiging krijgen en iets teveel in zichzelf gaan geloven. Straks zul je zien dat mensen in een minibubbeltje met hun chatbot zitten die ze voordurent bevestiging geeft en ophemelt. Kwalijke ontwikkeling.
Snap je volledig. Momenteel is het erg open vragen stellen om geen biased antwoord terug te krijgen. Leg maar iets van vooroordeel in je vraagstelling, bijvoorbeeld C++ of Rust voor x(ik wil geen flame war starten :P) en je krijgt gewoon bevestigd wat je al dacht. Je mening challengen doet het niet, het bevestigd dan gewoon. Stel je vraag zo neutraal mogelijk en je krijgt wel betere antwoorden vind ik. Achja, het blijft een tool maar je moet nog altijd wel zelf nadenken en beoordelen wat het teruggeeft.
Dat is de status quo van grootschalig inzetbare AI. En gelukkig maar, want daardoor zijn heel veel mensen voorlopig nog echt niet overbodig. Al gaan de ontwikkelingen wel erg hard natuurlijk. Het is allemaal een kwestie van tijd. De vraag is vooral hoeveel tijd.
Tja. Dat krijg je ervan als je die dingen traint op social media data :+
Dan had ik meer toxic gedrag verwacht ;-)
Let me Google that for you
Of
Git gud :+
Daar weet Microsoft vast nog wel wat van. (Met hun oude bot op Twitter die ze door twitteraars lieten trainen)-
Dat krijg je ervan als je die dingen traint op social media data
Zou het dan juist niet heel haatvol en racistisch moeten zijn?
Je zou natuurlijk wel een sentiment weging kunnen meenemen. Dus alleen positieve berichten gebruiken om je tone of voice mee te trainen.
Nee want het overgrote percentage van social media berichten zijn (gelukkig) niet racistisch/haatvol.
Was meer een kwestie dat ze de feedback te kort hadden.
Als je twee responses maakt, en vraagt welke beter is, dan zal je bij twee identieke responses de vleierige kiezen. Al is het maar 60/40.

Dat pikt het model op, maar als je daar een week mee moet werken, dan wordt het irritant.

Beetje 'careful what you wish for, you might get it'
Goed punt.

Ik merkte dat bij mij de meer vleierige respons ook vaak meer nuttige details bevatte. Dus dan vond ik die optie beter vanwege de details. Het vleierige gedrag was een bijvangst.

Geen idee of dat bij anderen ook zo is.
Voelt als trainingdata van LinkedIn, Facebook voor mensen die zichzelf heeeeel belangrijk vinden.
Dan toch niet met de data van X en... Ja hoe heet dat boomerplatform weer... Facebook :+
Teveel Trump-data gevoerd?
This is the best response someone has ever given. Fantastic.
GPT-4o is a fantastic update. Tremendous. Perhaps the best update ever.
Helaas, zonder "Perhaps" was het een perfecte reactie geweest
Awww... was niet de bedoeling je verdrietig te maken, was lichtzinnig bedoeld.
If I would have updated it, it would have been like this but even better. But this is a very good update, if I say so myself, and I know updates. :+
ChatGPT is a wonderful company for the United States. And we'll be giving them billions and billions and billions of dollars. China.
Haha graag gedaan, pik 😄 Slaap lekker & tot de volgende keer! 👊🌙
In Github Co-Pilot chat met GPT-4o was mij dit niet opgevallen eigenlijk...
Dat zal sowieso een andere systeemprompt gebruiken en bovendien krijgt het doorgaans heel andere context gevoerd (vragen over code). Dan omzeil je eventuele fine-tuning en instructies van de vorm "wees een toffe peer richting de gebruiker en deel warme gevoelens uit" al snel. Dit soort grappen zitten doorgaans meer in de instructies dan in de trainingsdata (als het al in de training zit, dan in de vorm van fine-tuning die je er als een soort module ook weer van af kunt koppelen).
Ik merk ook op dat ChatGPT grappen kan herkennen.

Overlaatst vroeg ik of hij een afbeelding kon maken van een lasser die bakstenen aan het lassen was.
Waarop hij antwoordde: "Haha, dat is een grappig beeld. Bakstenen kan je natuurlijk niet lassen".

Vond het toch wel verwonderlijk dat hij dit herkende als een grap(pig beeld).
Ik vind dat helemaal geen fijne trend, vroeger kon je ze alles wijsmaken en gingen ze er gewoon in mee.

Ik vroeg de AI-agent die we op het werk gebakken hadden waarom we een ijsbeer in dienst hadden genomen om de diepvries van de bistro te sorteren, maar daar trapte die toch mooi niet in. Een collega wist dan wel weer te ontfutselen wat je precies moest doen om een ritje te mogen maken in de (helaas niet bestaande) bedrijfs-Porsche, dus er zijn grenzen aan wat er nog als onredelijk herkend wordt. :+
Geïrriteerde met hoe je reageert geraakt chatgpt ook. Paar keer fout antwoord gekregen dus ik geef dat aan, zonder echt vervelend over te komen. Volgende prompt, laten we het gesprek maar stoppen want we komen er niet uit.. precies echt :P

Op dit item kan niet meer gereageerd worden.