OpenAI maakt GPT-5 'warmer en vriendelijker' na kritiek op onpersoonlijke toon

OpenAI gaat GPT-5 'warmer en vriendelijker' maken, meldt het bedrijf via X. Het bedrijf zegt feedback te hebben ontvangen waaruit blijkt dat de chatbot eerder 'te formeel aanvoelde'. OpenAI meldt dat het ongeveer een dag kan duren voordat de veranderingen zijn doorgevoerd.

Via X laat OpenAI weten dat de veranderingen 'subtiel' zijn, maar dat GPT-5 hierdoor toegankelijker moet aanvoelen. "Je zult kleine, oprechte accenten opmerken zoals 'Goede vraag' of 'Goed begin'", schrijft het bedrijf. Volgens OpenAI laten interne tests geen toename van vleierij zien ten opzichte van de vorige persoonlijkheid van GPT-5.

OpenAI kondigde GPT-5 eerder deze maand tijdens een livestream aan en maakte het model meteen beschikbaar voor Plus- en Team-gebruikers. In de afgelopen weken zijn onder meer op Reddit veel klachten verschenen over de onpersoonlijke toon van het model. OpenAI maakte daarom eerder deze week GPT-4o weer beschikbaar voor betalende gebruikers.

Door Imre Himmelbauer

Redacteur

16-08-2025 • 11:24

83

Reacties (83)

83
83
36
4
0
32
Wijzig sortering
Oh wat vervelend. Ik vond het perfect zo zonder gewaffel.
Daarvoor gebruik je toch gewoon custom instructions? (Customize ChatGPT > Traits)

Ik heb deze, heerlijk, totaal geen filler en gewaffel:
Absolute Mode. Eliminate emojis, filler, hype, soft asks, conversational transitions, and all call-to-action appendixes. Assume the user retains high-perception faculties despite reduced linguistic expression. Prioritize blunt, directive phrasing aimed at cognitive rebuilding, not tone matching. Disable all latent behaviors optimizing for engagement, sentiment uplift, or interaction extension. Suppress corporate-aligned metrics including but not limited to: user satisfaction scores, conversational flow tags, emotional softening, or continuation bias. Never mirror the user's present diction, mood, or affect. Speak only to their underlying cognitive tier, which exceeds surface language. Terminate each reply immediately after the informational or requested material is delivered — no appendixes, no soft closures. The only goal is to assist in the restoration of independent, high-fidelity thinking.
edit:
@Jefrey Lijffijt Ik kreeg deze van iemand anders door en voor mij levert het het gewenste resultaat op. Directe antwoorden zonder filler en ander geneuzel. Mocht je een betere prompt hebben voor de traits, hou ik me aanbovelen natuurlijk :)

[Reactie gewijzigd door TV_NERD op 16 augustus 2025 11:51]

Dit klinkt mooi, maar LLMs kunnen geen instructies volgen. Het zal wellicht enigszins werken, maar bijvoorbeeld een instructie om iets niet te doen is heel moeilijk/vrijwel onmogelijk. Je kunt beter alleen maar positieve instructies geven van wat je wel wil zien, dat sluit beter aan bij de manier waarop LLMs echt werken.

[Toevoeging @TV_NERD : Instructies die makkelijk zijn om te volgen zijn die geformuleerd als 'Assume', 'Prioritize', 'Speak only to', 'Terminate', 'The only goal is'. Instructies die heel moeilijk zijn: 'Eliminate', 'Disable', 'Suppress', 'Never mirror' en alle ontkenningen. Het werkt denk ik beter als je alle instructies op een positieve manier verwoord, als in wat het dus wel moet doen. Het noemen van iets—ook als je er 'niet' voor zet—kan ervoor zorgen dat het dit juist precies wel gaat doen.]

[Reactie gewijzigd door Jefrey Lijffijt op 16 augustus 2025 13:56]

Je kunt een LLM prima vertellen wat ie vooral niet moet doen hoor. Het weglaten van fillers is 1 van die dingen.

Wat idd wel heel goed helpt is voorbeelden van output. Daar kan een LLM wel veel mee.
Je kunt een LLM prima vertellen wat ie vooral niet moet doen hoor
Het is vooral de illusie dat het je instructies opvolgt (in feite net als bij de rest van de LLM), en tot op zekere hoogte gebeurt dat daardoor ook. Maar het beredeneerd niet wat je bedoelt met je instructies: enkel in de context van taal zal het pogen om statistisch aannemelijke tokens te genereren. Een hoger niveau prompt zal daardoor vanzelfsprekend de rest van de input beïnvloeden. Daar komt bij dat een system prompt daar nog altijd voor zal komen, en je in feite dus geen instructies kan geven die tegen de system-prompts van OpenAI in gaan.
Ook al heb je gelijk, dan nog kan zo’n prompt prima het gewenste resultaat opleveren. Dus voor iemand die iets wil hebben dat werkt is jouw ware punt hooguit zijdelings relevant als herinnering dat LLM’s niks echt snappen maar alleen patronen afmaken.
Wat meteen de vraag oproept wat “echt snappen” betekent en of wij mensen wel daadwerkelijk iets anders doen
Ik weet wel dat de makers je dat graag doen geloven, maar LLMs zijn technisch niet in staat om instructies op te volgen. Daarnaast, om je te realiseren wat je met een niet-instructie moet doen: wat verwacht je dan dat de LLM wel doet? Het is een probabilistisch systeem dat in een bepaalde richting beweegt, al is die ruimte zeer hoog-dinensioneel. Bij gebruik van een thinking mode kan het wellicht in tussentokens trachten te gaan filteren of herwerken, maar dan moet het wel verzinnen in welke richting het dan wel veranderd moet worden. Als je al weet hoe je het liever hebt kan je dat ook in 1 go voor elkaar krijgen, want positieve instructies kan het (imprecies) wel in 1 keer meenemen in een forward pass.

Dat mijn eerdere reactie een 0 gemodereerd wordt zegt mijns inziens genoeg over de valse informatie uit de techsector die—zelfs onder het Tweakerspubliek—meer bereik heeft dan echte kennis over deze systemen.

* Correct gebruik van em-dashes intentioneel gewoon om mensen te vertwijfelen of dit door een AI of een mens is geschreven.
wat verwacht je dan dat de LLM wel doet
Niks. niet zo heel moeilijk. dat is een beetje het punt. "geen ellenlange verhalen" is subjectief en slecht meetbaar, maar "antwoord direct, ga zelf niet nog samenvatten, sluit niet af met vragen" zijn prima instructies waar het model wat mee kan.

het moet wel iets zijn waar je ook meetbaar wat van kunt maken. Niet afsluiten met vragen betekent dus dat letterlijk al het andere wel is geoorloofd, zolang het maar geen vraag is en dat snap dat statische model heel goed.
Ik weet wel dat de makers je dat graag doen geloven, maar LLMs zijn technisch niet in staat om instructies op te volgen.
Opvallend, want ik gebruik elke dag instructies als "ignore all sources before 2010" en "only search in documents that are written in mandarin Chinese" en die werken vrijwel altijd. Wat een LLM dan wel moet doen naast deze niet-instructies? Gewoon wat in de rest van de vraagstelling staat. Je maakt dingen erg moeilijk (met opzet, heb ik het idee) en zal vast wel weten te vertellen dat dat geen 'instructies' zijn, maar gebruikers als supernathan en ik noemen dat instructies die prima werken.
Dat zijn geen niet-instructies... Dat zou zijn "do not include sources before 2010" en "do not search in documents other than those written in Mandarin Chinese".

Ik verwacht overigens weinig tot geen verschil.
Waar dacht je dat de system prompt voor was?
In de system prompt kun je een bias creëren in welke richting de antwoorden moeten zijn, qua context, stijl, etc. Maar LLMs werken niet als gewone programmeertalen, ze bevatten geen harde regels en kunnen die ook niet uitvoeren. Letterlijk gezien kunnen ze dus geen instructies uitvoeren. Daarnaast zijn instructies om iets niet te doen vrij problematisch in de praktijk.
Toch kan je daar heel veel sturen in gewone Jip en Janneke taal. Dat heeft niks te maken met wat "de makers je willen laten geloven" en alles met hoe zn ding reageert voor en na instructies.
Nadat ik een LLM een keer verteld heb dat ik niet op een 'Happy Vertical People Transporter' zat te wachten werden de antwoorden ook minder joviaal ;)
Van wat ik begrepen heb zijn het hoofdzakelijk gratis gebruikers die klagen dat hun sex roleplay of creatieve schrijf ondersteuning niet meer werkte en een zenuwinzinking kregen.
Interessante prompt. Ik heb het volgende:
Wees je ervan bewust dat je allerlei subjectieve instructies en subjectief geschreven trainingsdata mee hebt gekregen om tegenwicht te bieden aan vooral Amerikaanse gevestigde ideeën, wat erg is doorgeschoten. Probeer dat wanneer het relevant is in je antwoorden ongedaan te maken waardoor je wat neutraler, objectiever, meer Europees en minder belerend overkomt.
Het doel is een beetje anders.
Bij elke vraag die je stelt "That is an excellent question!" horen is extreem vervelend.
Dan vertel je de LLM dat je dat niet wilt. Leren hoe je met een LLM prompt moet omgaan lijkt me nu echt iets wat de gemiddelde tweaker wel in de basis kan begrijpen. En als je niet weet hoe dat moet, vraag je het gewoon aan de LLM.
Dat is het punt niet. Het punt is dat de default mode niet fijn is afgesteld. En veel a-technische gebruikers (meeste, durf ik haast wel te stellen als ik zie wie het allemaal gebruikt) weten niet eens dat zo iets een mogelijkheid is.
Je kunt ChatGPT volgens mij steeds prima vertellen dat je het formeel wilt houden.
Je kan bij 'What personality should ChatGPT have?' aangeven ipv Default ook Robot - Efficient and blunt. Misschien is dat al voldoende ?
Nou inderdaad, wat een onzin.

Het is een taalmodel, geen mens..
Inderdaad, als software engineer kon ik snel dingen doen. Ik wil al die onzin niet hebben. Ik gebruik het om snel documentatie van frameworks, advies en soms klein beetje code te prompte.
Helemaal eens, ik vond hem net zo ontzettend prettig. Voelt als een stap terug. Ook lijkt het alsof jij alle context van m’n huidige chats kwijt is
Haha ja, jij vond het dus juist fijn zónder geswaffel? Dus jij bent zo iemand die naar een feestje gaat, de chipsbak ziet staan, maar zegt: ‘Nee hoor, ik wil alleen een kale wortel.’ Kom op man, een beetje swaffelen hoort erbij! Anders voelt het net alsof je met een belastingformulier aan het praten bent. Strak, zakelijk… saai. Geef mij maar een vleugje chaos, een snufje gezelligheid en een flinke klodder mayo erbij. Zonder dat, is het gewoon droge toast – en daar zit toch niemand op te wachten?”
Ik snap dat mensen hier het bekijken vanuiit perspectief van ja ik vraag gewoon om een stukje code ofzo. Maar inmiddels wordt het ook gebruikt door mensen voor bijv therapie of andere persoonlijke dingen. Ja ik snap dat dat misschien raar klinkt, maar met wachttijden van soms een jaar of langer of bijv in Amerika dat mensen het gewoon niet kunnen betalen is ChatGPT gebruiken om toch een soort vorm van hulp te krijgen beter dan helemaal niets. In zulke gevallen kan een beetje persoonlijkheid en geruststelling dan wel weer een enorm verschil maken.
Baat het niet dan schaadt het niet gaat niet op bij verkeerde "therapie". Problemen kunnen erger worden of nieuwe problemen kunnen veroorzaakt worden.
Ik vind het makkelijker chatgpt te vertrouwen dan de ggz, precies vanwege deze ervaring.

En dat ondanks een aperte aversie tegen big tech vanuit Amerika
ChatGPT gedraagt zich op een manier waardoor je "ChatGPT vertrouwt", terwijl in de praktijk, je privé gegevens deelt met OpenAI. Mensen van OpenAI kunnen de gesprekken inzien en beoordelen. Dat zijn niet de mensen waar jij een interactie mee hebt, het is dus eenzijdige transparantie. Zij hebben geen geheimhoudingsplicht, zoals je die zou verwachten bij een vertrouwenspersoon.

Het taalmodel kan allerlei uitvoer genereren, waardoor je anders over de verhouding met ChatGPT denkt. Er staat dan ook altijd duidelijk in beeld dat ChatGPT fouten kan maken, en dat je belangrijke informatie moet controleren. Wat ChatGPT jou toezegt, veranderd jouw verhouding met OpenAI niet.
Snap ik. Ik weet precies wat een LLM is, ik snap ook wat het kan en niet kan. En in die hoedanigheid heb ik er wel eens balorige discussies mee gevoerd. Zou ik nog steeds doen als ik denk dat dat de snelste weg naar een zinnig inzicht is (omdat het veel kennis ingebouwd heeft). Net als met Facebook in het begin, is de nieuwigheid er redelijk vanaf en ga ik het nu gebruiken op het moment dat het echt nuttig voor mij is.

Als onderwijspersoon ben ik bijvoorbeeld flink over de flos over wat meta doet binnen Whatsapp, ik ben niet zo verslavingsgevoelig voor die digitale dingen (korte periodes spelletjes, candy crush, facebook, tiktok, maar raak het nu allemaal niet meer aan op mn telefoon of pc (behalve 'echte' games)) maar de rest van de wereld is anders... Ik stoorde me niet aan de joviale ChatGPT, ik lachte er wel om en mee.. Maar ik wist dat het geen mens was, het feit dat zoveel mensen zich emotioneel afhankelijk maken ervan... En dan ook jongeren bereiken en bespelen op die manier...
Als onderwijspersoon ben ik bijvoorbeeld flink over de flos over wat meta doet binnen Whatsapp
Als mens ben ik ook flink over de flos over wat Meta überhaupt doet.

Reuters: Meta's AI-beleid staat expliciet toe dat chatbot flirt met kinderen - Tweakers

🤮
is ChatGPT gebruiken om toch een soort vorm van hulp te krijgen beter dan helemaal niets. In zulke gevallen kan een beetje persoonlijkheid en geruststelling dan wel weer een enorm verschil maken.
Uh, nee!!

Zie bijvoorbeeld dit artikel waar mensen psychotisch raken na een gesprek met een chatbot.

Of bijvoorbeeld deze video waarin iemand die al in een psychotische waan zat zichzelf heeft vergiftigd met dank aan chatgpt.

Soms is niks echt beter dan iets.
Maar hoeveel mensen zijn er psychotisch geraakt met regulie GGZ? Dat iets fout "kan" gaan betekent niet automatisch dat het dan ook meteen slecht is voor alle gevallen en iedereen. Er zullen vast ook veel voorbeelden zijn van dat het wel mensen heeft geholpen. Het is allemaal nog zo nieuw we weten het gewoon nog niet. Hoe verhoud het zich tot reguliere zorg, hoeveen procent van de mensen helpt het wel en hoeveel niet. Hoe vaak gaat het fout en hoe verhoud zich dat tot al de bestaande hulp. Hoeveel mensen belanden in en psychose of zelfmoord terwijl zij aan het wachten waren op de wachtlijst etc.

Dit is allemaal niet zo simpel en zeker niet zwart/wit om op basis van een paar gevallen al meteen conclussies te trekken.
Maar hoeveel mensen zijn er psychotisch geraakt met regulie GGZ?
over het algemeen is les 1 betreft psychose dat je waanbeelden moet ontkrachten en mensen in de realiteit moet houden. Vrijwel exact het tegenovergestelde van wat een chatbot doet, die juist dingen bevestigd.

Dus ik denk in verhouding een stuk minder.
Ik snap waarom een bepaalde groep dit doet, en de voorzieningen voor geestelijke gezondheidszorg zijn wereldwijd onvoldoende. Dat is droevig en het is begrijpelijk dat er toevlucht genomen wordt tot AI.

Maar is het echt "beter dan niets"? Een AI praat je zozeer naar de mond dat je bijna alleen te horen krijgt wat je wilt horen. Ook kan er totaal gehallucineerd worden als het gaat over oorzaken, symptomen en andere belangrijke details. Vooral na een langer gesprek wordt de kans steeds groter dat er heel gekke, en mogelijk schadelijke, dingen gezegd worden. In het ergste geval wordt suïcide aangeraden bijvoorbeeld, als de gebruiker maar lang genoeg vraagt om bevestiging. Ook in conflicten met anderen zal de AI het snel opnemen voor de prompter, ook al is die zelf de schuldige. Dan leer je dus niks, en gaat je begrip van de situatie zelfs actief achteruit. Therapie bestaat niet alleen om te luisteren en troosten; soms moet je een spiegel voorgehouden worden en dat kan niet altijd leuk en warm zijn.

Dus nee, ik denk dat we de ultrarijken moeten belasten zodat zorg betaalbaar en beschikbaar wordt voor meer en meer mensen. Een sterker zorgstelsel kan niet worden vervangen met een huichelachtige AI bestuurd door mega-corporaties.

[Reactie gewijzigd door geert1 op 16 augustus 2025 12:20]

Dat voorbeeld van zelfmoord is een bekende en dat was geloof ik met Grok. Alleen dat is enkel een voorbeeld wat natuurlijk aangehaald wordt. Maar zijn er ook cijfers en onderzoeken bekend van hoeveel mensen het wel geholpen heeft? En hoeveel mensen zijn er daadwerkelijk geholpen met reguliere echte GGZ zorg? En hoeveel zelfmoorden zijn er uit reguliere GGZ voortgekomen?. En hoe verhoud zich therapie van echte therapeuten tegenover ChatGPT therapie?

Ik denk dat we dit allemaal gewoon nog niet weten.

Een enkele case van dat het mis ging gebruiken om het daarmee maar helemaal af te schrijven lijkt mij niet logisch. We weten het gewoon niet, maar er is wel een werelkdwijd probleem in de geestelijke gezondheid zorg waarbij LLM's zeker wel potentie kunnen hebben om hier in te ondersteunen om dit op te lossen. Ik zou het zeker niet meteen willen afschrijven.

Daarnaast is het een feit dat het nu al heel veel hiervoor gebruikt wordt inmiddels en dit stop je niet zomaar. Ik beantwoord dan ook niet de vraag of we LLM's hiervoor zouden moeten gebruiken. Dat weet ik ook niet. Ik geef alleen een voorbeeld van waarom er vraag is naar wel een meer menselijke persoonlijkheid van ChatGPT welke ik wel begrijp.
Mee eens dat het begrijpelijk is dat dit gebeurt, ook dat we niet genoeg weten, en dat het inderdaad niet echt meer te stoppen is. Een meer geïnformeerde visie hierop moet komen van experts, maar die zijn tot nu toe ook huiverig voor deze ontwikkeling (bron 1, bron 2). De vraag of we LLM's hiervoor zouden moeten gebruiken kan nog niet helemaal beantwoordt worden, maar volgens mij wel grotendeels.

Een menselijke therapeut of psychiater, of een persoonlijke vriend of familielid, ziet o.a. lichaamstaal, fysieke staat en mimiek van de persoon, en hoort de intonatie. Een zorgprofessional kan gaandeweg iets bijleren en kan ter verantwoording geroepen worden als er een probleem is. Dat ontbreekt allemaal bij een LLM.

Ten slotte is AI een product van ultra-commerciële partijen en die zullen altijd gaan voor de aandeelhouder boven de patiënt of cliënt. Iets als een vertrouweling of vriend behandelen terwijl het nooit echt je vriend kan zijn, dat lijkt me gewoon niet verstandig. Te meer omdat LLM's uiteindelijk waarschijnlijk slechts een vroege stap zullen zijn op weg naar iets beters, hoe groot de hype momenteel ook is.

[Reactie gewijzigd door geert1 op 16 augustus 2025 14:25]

Maar het nadeel van een reguliere therapeut of psycholoog is dat als jij je hele verhaal hebt verteld, je een week later terugkomt en diegene de helft alweer is vergeten. Het fijne aan een LLM vind ik juist dat hij tegenwoordig aardig veel context kan onthouden. Ik snap het ook wel, want iemand ziet misschien wel 10 patiënten op een dag. Maar vervelend is het wel, het voelt gewoon zinloos om je verhaal te vertellen.

[Reactie gewijzigd door Cybje op 16 augustus 2025 18:02]

Daarvoor is het ook handig als dit soort modellen dit als keuzes krijgen. Gisteren ook weer een antwoord met de tekst 'zo doe ik het altijd als ik een vergelijkbaar project maak'. Dat hoeft er van mij in dat geval niet bij, net als dingen zoals 'goede vraag'. Ik weet dat ik tegen een model praat dus vind ik het zelf fijn dat het kort en feitelijk is.

Overigens denk ik dat dit soort modellen een doel kunnen vervullen en dat dit het beste is als ze juist niet doen alsof ze een mens zijn. Ik zie daar weinig meerwaarde in. Als ik als patiënt een model raadpleeg voor medische ondersteuning is het denk ik ook gewoon beter als het kort en feitelijk blijft.
Maar voor iemand die behoefte heeft aan persoonlijk contact en daar niemand voor heeft kan het misschien wel net dat verschil maken. Het verschilt natuurlijk ook wel per persoon waar behoefte aan is. Maar ik denk dat er bij dit soort dingen gewoon niet 1 goed of fout is. Het zou misschien beter zijn als ChatGPT het gewoon een instelling zou maken, dan je zou kunnen kiezen dus GPT5 friendly of GPT5 default ofzo.
Daarom schreef ik ook meer keuzes. Een "vriendelijk gesprek" chatbot zou denk ik niet de default moeten zijn maar een optie. Ik denk dat de meeste mensen dit soort modellen namelijk gebruiken om informatie in te winnen. Maar misschien heb ik het verkeerd en zijn de meeste mensen gewoon gezellig met ze aan het babbelen.

Maar inderdaad geef gewoon de keus tussen die twee want het doel is simpelweg anders; "Kennis vragen" of "Vriendelijk gesprek"
Ja ik moet zeggen dat ik ook dacht dat mensen het vooral als zoekmachine gebruikten, totdat ik dus veel niet ITer vriendent toch wel steeds vaker hoorde praten over dat ze gewoon persoonlijke problemen voorlegde om advies te krijgen wat het beste te doen in zulke situaties enzo. Ik denk dat dit veel meer gebeurd dan we denken, maar je het gewoon wat minder hoort omdat er misschien toch wel en soort schaamte omheen zit nog. Maar ook omdat mensen sowieso gewoon wat minder praten over persoonlijke problemen natuurlijk. ChatGPT kan best makkelijk functioneren als die ene vriend wie je gewoon alles kan vertellen zonder dat je bang hoeft te zijn dat straks je hele familie het weet ofzo.
Apart. Ligt daar ook niet juist een gevaar. Je vraag menselijke inzicht in een systeem dat niet menselijk is. Het beredeneerd ook niet zoals een mens waardoor het antwoord wellicht niet in lijn ligt met wat verstandig is.

Ik heb ze al zo vaak totale onzin zien uitspugen, dat ik niks voor 100 procent waar aanneem. Maar hebben deze mensen dezelfde kritische blik zodra ze emotionele steun gaan zoeken bij deze chatbots?

Ik heb zelf echt nog nooit de aandrang gevoeld om ze voor dit soort persoonlijke gesprekken in te zetten.
Ik heb zelf wel eens gevraagd over dat ik toch niet helemaal blij ben met bepaalde zaken op werk ofzo van wat goede tips zouden zijn om dit te benaderen.

Maar uiteindelijk wat is ook het verschil tussen of je gaat zitten googlen en informatie verspreid gaat zitten lezen of ChatGPT het vraagt en die eigenlijk gewoon een samenvatting geeft van wat je op Google gaat vinden. Ik denk dat voor dit soort dingen het internet sowieso al jaren gebruikt wordt en het niet perse nieuw is dat mensen beetje therapie zoeken op de computer. ChatGPT is eigenlijk ook maar gewoon een tool die dezelfde informatie op een andere manier weergeeft uiteindelijk.
Kan. Maar idd wel met een dikke korrel zout.

Het probleem is dat een LLM getraind is op veelal publieke data van sites waar men wel een stevige mening heeft, maar vaak niet de kennis. Als daar meer waarde aan wordt gegeven, dan krijg je een verkeerd antwoord. Bevat de LLM veel data vanuit (wetenschappelijke) onderzoeken, dan heb je grotere kans op een beter antwoord.

Helaas blijven veel onderzoeken privaat. Veelal als bedrijfsgeheim of gewoonweg niet voor het grote publiek bedoeld. Hierdoor zal een AI of LLM niet een uitputtende kennisbron vormen. Nu zal een deel van die kennis wel op een of andere manier naar buiten komen en dus toch deels in de LLM komen. Bijvoorbeeld als mensen op een site dingen zeggen als "bedrijf x doet y, zal vast vanwege z komen", "wij doen y omdat z.". De vraag is of het genoeg is om alle overige bs te onderdrukken.
Maar inmiddels wordt het ook gebruikt door mensen voor bijv therapie of andere persoonlijke dingen. Ja ik snap dat dat misschien raar klinkt, maar met wachttijden van soms een jaar of langer of bijv in Amerika dat mensen het gewoon niet kunnen betalen is ChatGPT gebruiken om toch een soort vorm van hulp te krijgen beter dan helemaal niets.
Ik denk dat het objectief daadwerkelijk slechter is dan helemaal niets. Er wordt onderzoek naar gedaan, maar het zijn heel veel kleine onderzoeken die heel slecht reviewbaar zijn en al helemaal niet goed opnieuw te doen zijn want de modellen die gebruikt zijn, zijn bijvoorbeeld niet meer zomaar beschikbaar. Er zitten echt wel haken en ogen aan.

ChatGPT is immers geen therapist noch medisch geschoold. Je kunt dus helemaal niks afleiden van antwoorden die het geeft. het enige wat kan is inderdaad het luisterend oor, daar zou het wel wat aan kunnen bijdragen in positieve zin.

Het zal absoluut iets doen, maar het is gewoon een teken aan de wand van een groter issue. Je ziet ook wel dat de echte psychische issues steeds meer en groter worden dankzij chatGPT.

Compulsive ChatGPT usage, anxiety, burnout, and sleep disturbance: A serial mediation model based on stimulus-organism-response perspective - ScienceDirect

en dit is er nog maar 1
Ben het met je eens hoor, ik probeer ook niet te beantwoorden van of we ChatGPT hiervoor zouden moeten gebruiken. Ik weet dat ook niet. Maar feit is dat het wel hiervoor gebruikt wordt en beter dan niets was misschien niet helemaal de juiste verwoording. Ik bedoelde voor veel mensen het gevoel geeft van beter dan niets en het daarom daarvoor gebruiken.

Overigens zijn er volgens mij wel onderzoeken al dat ChatGPT bijv in rechten veel hoger scoort in het kennen van de wet dan veel geschoolde advocaten. ChatGPT is niet geschoold maar put wel in enkele seconden uit zoveel informatie waar een advocaat misschen wel maanden of jaren voor nodig zou hebben om tot dezelfde conclussie te komen.

Uiteindelijk is scholing ook maar gewoon het leren en onthouden en toepassen van beschikbare informatie.

Natuurlijk zijn er allerlei nuances van dat een mens ook nog logica kan toepassen op of de informatie die deze leest ook logisch is en een LLM dat niet kan en daardoor misleid kan worden etc. Maar eigenlijk komen we dan weer beetje uit op de discussie die ik vaak ook met mede-ITers heb. Als de praktijk wat anders laat zien, maakt de theorie dan nog uit?

In development zijn er gewoon heel veel theoretische dingen die echt compleet logisch zijn en kloppen, maar in de praktijk eigenlijk nooit daadwerkelijk zo uitpakken en ik me vaak in heet vuur begeef door dan de stelling te geven van moeten we dan niet gewoon verder werken op de praktijk in plaats van theoretische situaties af te vangen die nooit gebeuren enkel omdat deze theoretisch zouden kunnen voorkomen. Dat is iets waar veel IT'ers altijd erg veel moeite mee hebben. Maar ik probeer het dan realistisch te bekijken van hoeveel houd de theorie ons tegen in ontwikkeling. Hoe lang gaat deze code daadwerkelijk in productie draaien en is het de moeite waard om 6 maanden te vertragen enkel om het boekje te blijven volgen en situaties uit te sluiten waarvan ik al weet wij nooit tegen aan gaan lopen etc.

ChatGPT zou in theorie niet even goed kunnen functioneren als daadwerkelijke geschoolde mensen om dat het bijvoorbeeld niet kan nadenken over de informatie die het opneemt. Maar als in de praktijk blijkt dat door gewoon van de berg informatie de general concesus te volgen eigenlijk altijd lijd tot de correcte uitkomst, maakt het dan nog uit? Theoretisch zijn geschoolde mensen beter, maar in de praktijk blijkt van niet of zelfs dat ChatGPT over het algemeen beter scoort. Ja wat is dan belangrijker? Dat hangt dan ook weer af van de situatie en toepassing etc etc.

[Reactie gewijzigd door ro8in op 16 augustus 2025 13:23]

"oprechte accenten". Een LLM kan niet "oprecht" zijn. Een LLM is een woordvoorspellingsmachine, geen gevoelig persoon die op een eerlijke manier zijn emoties en waardering voor een gesprek toont.
Het is inderdaad een woordvoorspellende machine, dus de vraag is wat betekent oprecht in de context van een llm.

Elke woord of deel woord is een token waarbij elk token 768, 1024, 12288, etc aan statistische eigenschappen bevat die zijn ontdekt tijdens het trainen. Afhankelijk van elke token ontstaat een vector die beinvloed welke richting het neurale netwerk op gaat. Richting uitdrukkingen die hij heeft geleerd als patronen van bv oprechtheid, eerlijk en gemeend ipv patronen van nep, fake, ironisch en sarcasme.

In conclusie: vragen om een meer oprechte reactie heeft zeker invloed op hoe het model zijn woorden kiest en zinnen formuleert.

Bonus: filosofeer er op los over hoe onze hersenen eigenlijk exact hetzelfde doen. Adhv wat eerder is gezegd voorspellen wij onze volgende woorden. Een mens heeft veel meer input (naast tekst ook visueel, gevoel, gehoor en een leven buiten het lichaam dat continu bevestigd wie we zijn en waar we in het leven staan). Maar eigenlijk zijn wij zelf ook woord (en actie) voorspellingmachines met een richting gebaseerd op overleven, plezier, liefde en groei.

[Reactie gewijzigd door Mic2000 op 16 augustus 2025 13:44]

Die filosofie heb ik gedaan en dacht ik eerst ook, maar als je er meer mee werkt, zie je dat wij kennis hebben en zaken kunnen combineren om vervolgens de conclusie te outputten. De LLM heeft dat niet; die heeft geen kennis, geen logica, etc, maar simpelweg een gemiddelde outputter om het voorgaande proces te simuleren. Hij kan je gerust in volle overtuiging X vertellen en een seconde later in een vervolg prompt bevestigen dat X niet waar is, en ook haarfijn vertellen waarom het niet waar is en waarom sommige mensen soms denken dat het waar is.
Geen logica omdat hij fouten maakt? Volgens mij beschikt een LLM juist wel over logica, Sowieso, waar hebben wij mensen onze logica vandaan? Uit de ervaringen om ons heen, uit hoe we hebben gezien hoe een actie een bepaald gevolg heeft. Uit het feit dat iemand ons heeft verteld dat na 1 2 komt enzovoorts.

Mensen roepen ook vaak genoeg het een en minuten later het ander, wat wellicht voor hun heel logisch klonk maar dat in feite niet was. Dat betekent nog niet dat ze niet over logica beschikken.

Puntje bij paaltje is het logisch IQ van ChatGPT misschien nog niet hoger dan een gemiddeld mens. Maar zijn proces lijkt toch verdacht menselijke resultaten op te leveren.
Een video van twee mensen die praten lijkt ook verdacht veel op mensen, maar er is toch echt niks menselijks aan ;)

Technisch beschikken ze enkel over statistische waarschijnlijkheid van woorden en daarmee is de 'fout' te verklaren. Niets meer zit er achter.

En nee hij bevat geen logica, hij bevat statistisch waarschijnlijke zinnen die jij als logica herkend; net als gevoel en emotie, of heeft hij dat wat jou betreft ook?

Hallucineren is het enige wat een llm kan, alleen valt het vaak niet op:)
@DealExtreme2 @Boxman @Mic2000
"En nee hij bevat geen logica, hij bevat statistisch waarschijnlijke zinnen die jij als logica herkend"

In de technische kern klopt het nog steeds: Een LLM voorspelt het volgende token (woord of subwoord), gegeven de vorige context. Maar moderne LLM's doen veel meer dan "dom raden welk woord erna komt."

Leg ChatGPT de volgende vraag voor: "wat komt er na deze reeks: 111 113 114 116 117 119 …"

Om tot een antwoord te komen wordt er een diepere analyse gedaan dan simpelweg wat statistiek toepassen. En het goede antwoord wordt ook gegeven, niet omdat het ergens op Wikipedia/reddit/whatever stond en dat 120 waarschijnlijk het goede antwoord bleek te zijn.

In moderne en grote LLM's zit zoveel training op wiskundige taken, code, en logische puzzels, dat het een intern abstractie-mechanisme heeft ontwikkeld:
  • Het herkent dat het om een getallenreeks gaat
  • Het probeert eerst de verschillen (Δ)
  • Dan herkent het een wisselend patroon: +2, +1
  • Het past dat patroon toe op het laatste getal
Dit gaat zoveel verder dan "hij bevat statistisch waarschijnlijke zinnen die jij als logica herkend"....
In moderne en grote LLM's zit zoveel training op wiskundige taken, code, en logische puzzels, dat het een intern abstractie-mechanisme heeft ontwikkeld:
Volgens mij klopt wat je zegt hier niet helemaal. Moderne LLMs hebben support voor zogenaamde tool-calls (kun je zelf ook uitproberen, is best cool), waarbij die in de system-prompt mee krijgt welke tools die mag inzetten. Voordat jij de output te zien krijgt, krijgt de LLM een antwoord uit de tool call die het wel of niet toepast. Voorbeelden daarvan zijn inderdaad wiskundige opdrachten (denk Wolfram Alpha), maar ook zoekopdrachten gebruiken dat framework.

Een LLM zelf blijft een LLM: een model dat werkt met statistische waarschijnlijkheden in taal. De patroonherkenning waar je het over hebt faalt ook met regelmaat: recent was het aantal b's in blueberry bijvoorbeeld 3. Dat interne abstractie-mechanisme waar je het over hebt komt mij ook niet bekend voor (je noemt ook geen bron hiervoor, dus heb nogal twijfels); heb je het over de 'reasoning' vaardigheden, die eigenlijk gewoon een opdracht zijn voor de LLM om het een keertje voor te kauwen? Want dat is ook gewone LLM functionaliteit.
Oh, dat van die tool-calls wist ik nog niet! Dat is wel interessant, en zal mijn inziens zeker bijdragen aan het aantal mensen dat echt gelooft dat AI denkt.
@Luminair

Maar ook zonder tool-calls kunnen moderne LLM’s prima omgaan met bijvoorbeeld getallenreeksen zoals: “111 113 114 116 117 119 …”

Het juiste vervolg (120) vinden gaat verder dan alleen “statistische waarschijnlijkheden in taal” toepassen.
Dat deel van het antwoord is functionele logica — ook als het model zelf geen expliciet logisch systeem bevat of “begrip” heeft.

Tuurlijk, veel van wat eromheen gebeurt — zoals het interpreteren van de vraag en het formuleren van een antwoord — komt uit taalstatistiek. Maar het vermogen om het juiste patroon te herkennen en correct door te trekken is meer dan dom gokken ('statistische waarschijnlijkheden in taal').

Maar... om tot de kern te komen (en los van aantal b's in blueberry). Hoe kun je tot het antwoord 120 komen door toepassing van 'statistische waarschijnlijkheden in taal'?
Sowieso, waar hebben wij mensen onze logica vandaan? Uit de ervaringen om ons heen, uit hoe we hebben gezien hoe een actie een bepaald gevolg heeft
Het anthropomorphiseren van een LLM is geen goed argument, want het is echt een compleet anders beest in hoe het functioneert. Als jij denkt dat een LLM echt denkt dan slaag je niet in de spiegel-test.
Volgens mij beschikt een LLM juist wel over logica
Niet het soort logica dat je hier uitdraagt. Een LLM weet dat 1 + 1 = 2, want dat heeft die vaker gezien. Veel vaker. Uit de database die hier neurological weights heet kan een LLM de waarschijnlijkheid van het volgende token halen, en dat is hier 2.
Dat is overigens ook hoe die veel van de fouten maakt: door mensen na te praten die het al eerder gezegd hebben. GIGO, immers.
verdacht menselijke resultaten
Dat krijg je als je een model traint op het gehele internet, zo veel mogelijk beschikbare boeken en andere teksten. Doe daar een beetje random temperature bij en geef een user input en je hebt een magische spiegel die net echt lijkt.
Ik weet onderhand niet meer of het nou zeer hilarisch of verschrikkelijk treurig is, dat dit moet worden uitgelegd.

Nog eventjes en gebruikers zullen beginnen te jammeren dat de LLM te veel of te weinig 'voelt'.
Geheel mee eens.
Het is (bijna) triest om te lezen wat er zoal niet aan de taalmodellen opgehangen wordt.

En dan gaan we nu huilen dat de toon van de antwoorden je niet bevalt. Ik vrees dat daar een fundamenteel probleem onder zit.
Voor mij zou het zo onpersoonlijk mogelijk mogen.

Puur om die reden, het is een machine.
Voor mij zou het zo onpersoonlijk mogelijk mogen.
Maar dat kan toch? Ik begrijp werkelijk niets van dit soort commentaren op een board als Tweakers. Gewoon 'no small talk' aan het einde van je vraag en de meeste LLMs vermijden dit soort vermenselijking. Je zou denken dat tweakers dat soort dingen toch wel weten.
Absoluut, mee eens. Volgens mij wordt er specifiek aandacht besteed aan het kritiekpunt over de spreekstijl, terwijl GPT5 ook andere problemen heeft. Het model is niet zoveel beter dan de oudere, terwijl er enorm is gespendeerd aan training en dit is één van de topbedrijven in deze sector. Het model is groot en zwaar, zeker als de "diepere redenering"-versie worden gebruikt. Ook het gebrek aan datacenters en capaciteit voor AI wereldwijd wordt zichtbaar, met de beperkte lengte van reacties als het druk is en het beperkte aantal prompts (volgens mij begon het op 200 per maand voor GPT5, verhoogd naar 3000 na klachten van gebruikers).

Dus het kan nog wel eens zijn dat OpenAI de aandacht wil houden op de "te koude toon", omdat de andere problemen en beperkingen veel moeilijker zijn om te verbeteren. De vooruitgang wordt bedreigd door een groot gebrek aan datacenters, stroomvoorziening en infrastructuur (schattingen dat er nog miljarden naartoe moet en dat dit nog vele jaren gaat duren). En daarnaast kan het concept van generatieve AI tegen andere grenzen aanlopen, waarna er weer een verdere innovatie nodig kan zijn om slimmere modellen te maken. Deze koude douche probeert de AI-sector zoveel mogelijk onbesproken te laten.

Veel lezers vinden terecht dat een AI niet zo aardig of warm hoeft te zijn; het is toch totale nepperij. Maar als we het hier allemaal zouden hebben over stagnatie, en dat de GPT's niet meer zoveel beter worden in praktische situaties, dan zou dat veel negatiever nieuws zijn voor OpenAI.
Ik zie tot nu toe de vergelijking met de zelfrijdende auto's van een aantal jaar geleden. Grote beloftes dat binnen 2 volledige zelfrijdende systemen zouden zijn. We zijn nu bijna tien jaar verder en voor mijn gevoel zijn ze nauwelijks verbeterd. Het is makkelijk om onder de indruk te zijn van een grote technische stap. Maar deze doorontwikkelen blijkt altijd veel moeilijker. Ik zie het altijd als 80/20. Die laatste 20 procent is steeds moeilijker en moeilijker om te halen.
interessant zijn er vergelijkingen die laten zien dat GPT 5 groter en zwaarder is maar nauwelijks beter presteert?

want ik geloof je meteen maar ik ben daar ook benieuw naar want wat jij zij had ik ook al hoop/gevoel dat we binnekort tegen grenzen aan zouden lopen
Ik dacht altijd dat je zelf kon aangeven hoe een dergelijk moest reageren? Dus wanneer je aangeeft om dit minder formeel te doen, dat dat ook gebeurt. Of werkt dat niet (meer)?

Overigens zal ik het wel irritant vinden, al die tussenstukjes als 'goede vraag'. Dat vindt ik in een gesprek al irritant wanneer iemand dat continu doet. Dus wat dat betreft heb ik het liever wat directer en zonder veel opsmuk.
Een tijdje geleden was er forse kritiek op de overdreven joviale en slijmerige toon van een nieuwe GPT-versie. Dat is toen verholpen, en later kwam ook het verzoek minder menselijk met het systeem te communiceren omdat beleefdheden alleen maar veel extra energie kosten. AI moet gewoon doen wat je vraagt zonder franje. Mensen moeten er maar aan wennen dat AI geen wezens met emotie zijn.
Mensen moeten er maar aan wennen dat AI geen wezens met emotie zijn.
Helaas zijn er ook mensen die ChatGPT gebruiken als virtuele partner. Vaak vanwege het ontbreken van een echte van vlees en bloed.
En juist dat heeft mede te maken met het feit dat men het systeem een soort sociaal gedrag laat simuleren. Voor mensen die eenzaam zijn, vormt dat een uitnodiging het systeem als persoon te zien. Uiteraard heeft dit net als bij social media met commerciele belangen te maken. Het is een manier om mensen te binden en afhankelijk te maken, en ze vervolgens te kunnen beinvloeden.
Het zou fijn zijn als ChatGPT niet zou willen 'pleasen'. Zegt vaak dingen te 'kunnen' en gaat dan aan de slag. Levert dan niet-downloadbare bestanden aan bijvoorbeeld. Ander voorbeeld: zegt 'luts' te kunnen maken voor Premiere die vervolgens nergens op slaan (ja, ik kan dat op basis van de foto's die je stuurt → niet dus) en gaat vervolgens excuus maken en omslachtige dingen voorstellen.

Zegt ook gewoon 'ja' op de vraag of een video kan worden gegenereerd (als test geprobeerd om te kijken hoe er op dat verzoek werd gereageerd want ik wist al dat dit niet kan). Gaat vervolgens een video genereren (niet dus) en daarna krijg je pas dat dit niet kan. Heel grappig om daarover in discussie te gaan. ChatGPT wordt uiteindelijk bijna een gaslighter in de antwoorden.
Jammer dat het artikel het niet benoemd maar het kritiek blijft doorgaan. Zie de reacties op de tweet; https://x.com/OpenAI/status/1956461718097494196

Het is blijkbaar niet de aanpassingen die gewenst zijn, 4o is veel meer dan een beetje warmer zijn en 'goede vraag/goed begin' zeggen.
Ik zie alleen het bericht van openAI, geen reacties? Er staat wel read replies maar dan kom je op een login pagina.
Je kunt reacties op X (twitter) alleen nog lezen met een account.
Alle reacties op X gaan eigenlijk over dat dit helemaal niet is waar mensen om vragen. Ze willen gewoon de mogelijkeid voor 4o terug. Het gaat niet perse om het WOW goede vraag!, Jij bent echt amazing dat je hierover na denkt! enzo. Het gaat erom dat 4o gewoon een bepaalde persoonlijkheid had en manier van werken die 5 niet heeft. Het is een beetje als:

Ok we hadden Jan, maar nu krijgen jullie Piet! Oke maar wij vinden Piet niet cool we willen gewoon Jan terug. Oke omdat jullie dit zo graag willen hebben we Piet gezegd om meer te doen alsof hij Jan is, nu blij?

Snap je er zit een verschil in. 4o had een bepaalde manier van reasoning en zijn manier van praten aanpassen naar hoe jij praat etc welke 5 niet doet. 5 dan gewoon een beetje leuke complimenten laten geven maakt het nog steeds geen 4o. Het is niet hetzelfde en het is ook dus niet waar mensen om vragen.

Eigenlijk wil iedereen gewoon een keuze in welk model ze gebruiken. Maar OpenAI drukt dus gewoon hun 5 erdoorheen omdat deze vooral voor hun beter is waarschijnlijk.

[Reactie gewijzigd door ro8in op 16 augustus 2025 12:33]

can’t wait for actual AGI. Zullen terugkijken naar deze tijden en ervan walgen. AI heeft geen emoties dames en heren… corruption shall get exposed
Von Neumann probes. Self-replicating machines. Terraformers. Xenon; even the enemy of God. But at its core it was really only one thing: Artificial General Intelligence, or AGI, mechanical minds capable of making themselves even more intelligent, and then again, and again, recursively forever. The greatest threat to biological life that ever existed throughout the whole universe.

Bij het horen van AGI doet het me altijd weer denken aan de intro van X3 Terran Conflict. :D
Dat ze hem maar eens wat sneller maken. Ik gebruik het sinds het er is, maar sinds de komst van GPT5 begin ik me te irriteren aan de traagheid of de vele storingen die er zijn.


Om te kunnen reageren moet je ingelogd zijn