OpenAI maakt GPT-5 'warmer en vriendelijker' na kritiek op onpersoonlijke toon

OpenAI gaat GPT-5 'warmer en vriendelijker' maken, meldt het bedrijf via X. Het bedrijf zegt feedback te hebben ontvangen waaruit blijkt dat de chatbot eerder 'te formeel aanvoelde'. OpenAI meldt dat het ongeveer een dag kan duren voordat de veranderingen zijn doorgevoerd.

Via X laat OpenAI weten dat de veranderingen 'subtiel' zijn, maar dat GPT-5 hierdoor toegankelijker moet aanvoelen. "Je zult kleine, oprechte accenten opmerken zoals 'Goede vraag' of 'Goed begin'", schrijft het bedrijf. Volgens OpenAI laten interne tests geen toename van vleierij zien ten opzichte van de vorige persoonlijkheid van GPT-5.

OpenAI kondigde GPT-5 eerder deze maand tijdens een livestream aan en maakte het model meteen beschikbaar voor Plus- en Team-gebruikers. In de afgelopen weken zijn onder meer op Reddit veel klachten verschenen over de onpersoonlijke toon van het model. OpenAI maakte daarom eerder deze week GPT-4o weer beschikbaar voor betalende gebruikers.

Door Imre Himmelbauer

Redacteur

16-08-2025 • 11:24

119

Reacties (119)

Sorteer op:

Weergave:

Oh wat vervelend. Ik vond het perfect zo zonder gewaffel.
Daarvoor gebruik je toch gewoon custom instructions? (Customize ChatGPT > Traits)

Ik heb deze, heerlijk, totaal geen filler en gewaffel:
Absolute Mode. Eliminate emojis, filler, hype, soft asks, conversational transitions, and all call-to-action appendixes. Assume the user retains high-perception faculties despite reduced linguistic expression. Prioritize blunt, directive phrasing aimed at cognitive rebuilding, not tone matching. Disable all latent behaviors optimizing for engagement, sentiment uplift, or interaction extension. Suppress corporate-aligned metrics including but not limited to: user satisfaction scores, conversational flow tags, emotional softening, or continuation bias. Never mirror the user's present diction, mood, or affect. Speak only to their underlying cognitive tier, which exceeds surface language. Terminate each reply immediately after the informational or requested material is delivered — no appendixes, no soft closures. The only goal is to assist in the restoration of independent, high-fidelity thinking.
edit:
@Jefrey Lijffijt Ik kreeg deze van iemand anders door en voor mij levert het het gewenste resultaat op. Directe antwoorden zonder filler en ander geneuzel. Mocht je een betere prompt hebben voor de traits, hou ik me aanbovelen natuurlijk :) @Ablaze zou kunnen, ik gebruik ChatGPT nooit in het Nederlands.

[Reactie gewijzigd door TV_NERD op 17 augustus 2025 08:47]

Dit klinkt mooi, maar LLMs kunnen geen instructies volgen. Het zal wellicht enigszins werken, maar bijvoorbeeld een instructie om iets niet te doen is heel moeilijk/vrijwel onmogelijk. Je kunt beter alleen maar positieve instructies geven van wat je wel wil zien, dat sluit beter aan bij de manier waarop LLMs echt werken.

[Toevoeging @TV_NERD : Instructies die makkelijk zijn om te volgen zijn die geformuleerd als 'Assume', 'Prioritize', 'Speak only to', 'Terminate', 'The only goal is'. Instructies die heel moeilijk zijn: 'Eliminate', 'Disable', 'Suppress', 'Never mirror' en alle ontkenningen. Het werkt denk ik beter als je alle instructies op een positieve manier verwoord, als in wat het dus wel moet doen. Het noemen van iets—ook als je er 'niet' voor zet—kan ervoor zorgen dat het dit juist precies wel gaat doen.]

[Reactie gewijzigd door Jefrey Lijffijt op 16 augustus 2025 13:56]

Je kunt een LLM prima vertellen wat ie vooral niet moet doen hoor. Het weglaten van fillers is 1 van die dingen.

Wat idd wel heel goed helpt is voorbeelden van output. Daar kan een LLM wel veel mee.
Ik weet wel dat de makers je dat graag doen geloven, maar LLMs zijn technisch niet in staat om instructies op te volgen. Daarnaast, om je te realiseren wat je met een niet-instructie moet doen: wat verwacht je dan dat de LLM wel doet? Het is een probabilistisch systeem dat in een bepaalde richting beweegt, al is die ruimte zeer hoog-dinensioneel. Bij gebruik van een thinking mode kan het wellicht in tussentokens trachten te gaan filteren of herwerken, maar dan moet het wel verzinnen in welke richting het dan wel veranderd moet worden. Als je al weet hoe je het liever hebt kan je dat ook in 1 go voor elkaar krijgen, want positieve instructies kan het (imprecies) wel in 1 keer meenemen in een forward pass.

Dat mijn eerdere reactie een 0 gemodereerd wordt zegt mijns inziens genoeg over de valse informatie uit de techsector die—zelfs onder het Tweakerspubliek—meer bereik heeft dan echte kennis over deze systemen.

* Correct gebruik van em-dashes intentioneel gewoon om mensen te vertwijfelen of dit door een AI of een mens is geschreven.
Ik weet wel dat de makers je dat graag doen geloven, maar LLMs zijn technisch niet in staat om instructies op te volgen.
Opvallend, want ik gebruik elke dag instructies als "ignore all sources before 2010" en "only search in documents that are written in mandarin Chinese" en die werken vrijwel altijd. Wat een LLM dan wel moet doen naast deze niet-instructies? Gewoon wat in de rest van de vraagstelling staat. Je maakt dingen erg moeilijk (met opzet, heb ik het idee) en zal vast wel weten te vertellen dat dat geen 'instructies' zijn, maar gebruikers als supernathan en ik noemen dat instructies die prima werken.
Dat zijn geen niet-instructies... Dat zou zijn "do not include sources before 2010" en "do not search in documents other than those written in Mandarin Chinese".

Ik verwacht overigens weinig tot geen verschil.
wat verwacht je dan dat de LLM wel doet
Niks. niet zo heel moeilijk. dat is een beetje het punt. "geen ellenlange verhalen" is subjectief en slecht meetbaar, maar "antwoord direct, ga zelf niet nog samenvatten, sluit niet af met vragen" zijn prima instructies waar het model wat mee kan.

het moet wel iets zijn waar je ook meetbaar wat van kunt maken. Niet afsluiten met vragen betekent dus dat letterlijk al het andere wel is geoorloofd, zolang het maar geen vraag is en dat snap dat statische model heel goed.
Waarom is het dan geen instelling?

De makers van LLMs stellen de LLMs zo in dat je (als eindgebruiker) meer tokens bij hun verbrast, voor meer winst. Dan vindt ik het wel sneu dat je nog meer tokens in een systeem prompt moet proppen om de LLM (ietwat) minder uitgebreid tokens te laten verbrassen. Maar omdat ik dus tokens in die systeem prompt plaats, verbras ik nu nog veel meer tokens dan als ik dat niet zou doen. En dan komen daar nog eens 'rules'-bestanden bovenop.

Via API toegang telt dat al heel snel op.

Dat LLMs beter reageren op positieve instructies, ok. Mijn ervaring is juist het omgekeerde. De LLM doet beter zijn best, aangevuurd met dreigementen.

Maar dat is het punt dus niet. Ik, als eindgebruiker zit niet te wachten op een 'chatty' LLM. Niet voor werk, niet voor prive. Aan de posts onder dit bericht te zien ben ik daarin net de enige. Maar goed, als iemand een 'chatty' LLM wel leuk vindt, moet dat ook zeker als optie beschikbaar zijn.

Nu zijn de namen van LLM modellen bij ChatGPT lekker nikszeggend. Dus je bent bijna verplicht om proefondervindelijk all modellen te testen of deze met prompts in te dammen zijn of juist niet.

Waarom dan niet duidelijk in een naam aangeven of je met een 'chatty' GPT te maken hebt of niet? Want met het PR-gestuntel van OpenAI aangaande ChatGPT-5 zou het duidelijk moeten worden dat de naamgeving zuigt als het gaat om de verwachtingen van de eindgebruiker. En dat het debacle simpel voorkomen had kunnen worden met of een instelling in het profiel van een eindgebruiker

Zou het niet eens zo'n slechte ontwikkeling vinden om een soort van configurator op te zetten, bijvoorbeels zoals de character-configurator van de Elder Scroll spellen (Skyrim), maar dan voor hoe jij met je LLM wil laten handelen.

De verbrassing van tokens, via systeem prompts en/of user prompts en/of rules-bestanden, is mij een doorn in het oog. Of die prompts positief of negatief moeten zijn, voor mij niet zo relevant. Het geklooi en geklungel eromheen, dat lepelt de bankrekening van de eindgebruiker rapper leeg dan elke eindgebruiker wenselijk zou moeten achten.

Maar ja, het is makkelijker om geld af te troggelen van een eindgebruiker die al in je eco-systeem zit, dan het "vangen" van een nieuwe eindgebruiker. Wat op zich een kromme gedachtenkronkel is. Want het extra energieverbruik en daardoor alsmaar hoger wordende energieprijzen had dus veel effectiever ingezet kunnen worden. Dus of meer klanten kunnen bedienen met hetzelfde energieverbruik, of flink kunnen besparen op energiekosten.
Ja LLM's zijn statistische systemen. Maar kansen kunnen meerdere sigma afwijken. Dan krijg je een resultaat dat praktisch deterministisch is. Je kan prima zeggen dat LLM's bepaalde instructies kunnen volgen of kunnen denken
Je kunt een LLM prima vertellen wat ie vooral niet moet doen hoor
Het is vooral de illusie dat het je instructies opvolgt (in feite net als bij de rest van de LLM), en tot op zekere hoogte gebeurt dat daardoor ook. Maar het beredeneerd niet wat je bedoelt met je instructies: enkel in de context van taal zal het pogen om statistisch aannemelijke tokens te genereren. Een hoger niveau prompt zal daardoor vanzelfsprekend de rest van de input beïnvloeden. Daar komt bij dat een system prompt daar nog altijd voor zal komen, en je in feite dus geen instructies kan geven die tegen de system-prompts van OpenAI in gaan.
Ook al heb je gelijk, dan nog kan zo’n prompt prima het gewenste resultaat opleveren. Dus voor iemand die iets wil hebben dat werkt is jouw ware punt hooguit zijdelings relevant als herinnering dat LLM’s niks echt snappen maar alleen patronen afmaken.
Wat meteen de vraag oproept wat “echt snappen” betekent en of wij mensen wel daadwerkelijk iets anders doen
Enkel omdat het resultaat hetzelfde is, betekent het niet dat wij mensen hetzelfde doen als hoe een LLM dat doet.

Een LLM is zich niet bewust van de antwoorden die het geeft. Een mens wel. Dat is gewoon 1 van de fundamentele verschillen. Ookal is het hetzelfde resultaat. De manier waarop je naar dat resultaat toe werkt is andere tussen mens en LLM.

Overigens kan je met een LLM nooit echt een bewust iets hebben, daarvoor moet je iets anders uitvinden dan LLMs

[Reactie gewijzigd door Ricco02 op 17 augustus 2025 00:57]

Overigens kan je met een LLM nooit echt een bewust iets hebben, daarvoor moet je iets anders uitvinden dan LLMs
Een mens-LLM hybride ;) :*) of bestaat die al :o

Helemaal eens hoor.
Zo te zien gebruik je nog chat ai’s. In het veld gaat het al wat verder. Ik ben vaak aan het werk met een set van 3 tot 10 agentic ai’s en dat is net een kleuter klas, vragen om iets niet te doen is een uitnodiging het wel te doen haha.
Ik bouw ook m'n eigen agents. het is inderdaad net een kleuterklas, maar ook daar is wel een mouw aan te passen hoor. Ik weet niet welke modellen je gebruikt, maar daar zit uiteraard ook weer een enorm verschil in.
Uhh... ik weet niet wanneer je voor het laatst een LLM hebt gebruikt, maar dit is wel degelijk prima mogelijk al een paar versies van GPT lang.

Je kan 'm ook vragen bepaalde informatie over jezelf op te slaan in een lange-termijngeheugen om er te pas en te onpas aan te refereren.
Waar dacht je dat de system prompt voor was?
In de system prompt kun je een bias creëren in welke richting de antwoorden moeten zijn, qua context, stijl, etc. Maar LLMs werken niet als gewone programmeertalen, ze bevatten geen harde regels en kunnen die ook niet uitvoeren. Letterlijk gezien kunnen ze dus geen instructies uitvoeren. Daarnaast zijn instructies om iets niet te doen vrij problematisch in de praktijk.
Toch kan je daar heel veel sturen in gewone Jip en Janneke taal. Dat heeft niks te maken met wat "de makers je willen laten geloven" en alles met hoe zn ding reageert voor en na instructies.
Al eens visual studio code met github en beast mode geprobeerd? Volgt toch wel zeker instructies op

https://gist.github.com/burkeholland/88af0249c4b6aff3820bf37898c8bacf

Volgt toch wel degelijk instructies en voert uit....

Ok geen standaard chatgpt maar dat komt vast en zeker nog wel!
Nee, maar wel Cursor en Claude Code. Als je gewoon met instructies volgen bedoelt dat het antwoord op je prompt, ja dat is inderdaad wat LLMs doen. Het kan ook meermaals naar de input kijken, dat verhoogt de kans de het iets met je instructies doet. Ik bedoel het echter heel strikt: dat als je een instructie geeft zoals 'antwoord in het Nederlands', 'zorg dat de output in correct JSON formaat staat', dat het die instructie niet altijd volgt of waar maakt. In die zin kunnen LLMs geen instructies volgen. Daarom zullen zo te jailbreaken blijven, bijvoorbeeld.
Das echt niet waar. Ik heb een instructies/prompt die zegt geef me een json retour, werkt altijd. Meerdere en verschillende prompts die dat doen. En dat is dus geen beast mode maar gewoon een call naar openai api.

Kan je dat stuk krijgen door iets anders te vragen? Wellicht, maar dat is irrelevant imo omdat het api calls zijn om zaken af te handelen

Vb1: ingesproken bericht omzetten naar json voor Google calendar (draait zeker al een jaar)

Vb2: analyseren van specifieke datasets om van ongestructureerde data naar gestructureerde te gaan

Het is misschien allemaal simpel spul maar zeggen dat dat niet consistent kan is in mijn ervaring onjuist. Misschien minder met gratis versies en/of gewone chats? Ik denk dat de meeste negatieve ervaringen komen van mensen die puur de ChatGPT chatfunctie gebruiken en simpelweg te weinig context meegeven omdat ze er gewoon niet bij stilstaan en omdat een LLM geen context heeft die een (bekende) wel met je zou hebben.

Heel simpel voorbeeld, in elk willekeurig bedrijf vraag om een salesrapport en je krijgt de sales. Maar voor een LLM is dit niet voldoende. Net Sales of Gross Sales? Wij geven veelal niet genoeg context mee en dan gaat het verkeerd

[Reactie gewijzigd door Zorg op 18 augustus 2025 07:53]

Prima dat jij dus geen fouten in die output bent tegengekomen. Ik spreek juist niet uit ervaring door gebruik, maar door machine learning te onderzoeken en te onderwijzen. Het zijn probabilistische functies, je kunt geen garanties geven over dat de output een bepaald template volgt. Ik ken de API van OpenAI niet, maar als ze daar een functie hebben die JSON oplevert, dan is de controle gegarandeerd gewoon een script dat de syntax volgens regels controleert, in plaats van dat je daar een neuraal netwerk voor gebruikt.

Ik zit al te wachten op de eerste bank die hun back-end laten vibe coden en er vervolgens miljarden euro's/dollars verdwenen zijn.
Nee dat hebben ze dus niet, het is geen standaard functie of iets dat je kan meegeven als geef een response in deze json format. Het is feitelijk een prompt waarbij ik aangeef dat ik een json formaat retour wil. Ik snap prima de probabilistische werking van een LLM maar het is ook zeker te kort door de bocht om te stellen het voorspelt gewoon het volgende woord. Dat is hetzelfde als stellen dat Machine Learning hetzelfde is als gewone statistiek maar dan met een catchy naam. Statistiek is de basis en IT zorgt voor verbeteringen die meer mogelijk maken. Ik zou het eerder als brute forceren bestempelen, doorgaan totdat het is gevonden.

Ik geef geen onderwijs maar lees veel en probeer veel. Wezenlijk niet heel anders denk ik ;) ga in september wellicht weer een paar lessen volgen uit interesse en ben zeker benieuwd vanuit de meer academische hoek om er daar ook wat meer mee te doen.

Ben wel benieuwd naar hoe je dat dan overbrengt naar studenten? Puur theoretisch? Wordt dan de praktijk minder relevant? Hetzelfde met vipe coding, dat wordt op Tweakers ook veelal weggezet als "het kan nooit goed zijn als je niet begrijpt hoe het werkt" om het dan door te trekken naar een bank. Terwijl er letterlijk miljarden meer wordt uitgegeven aan zaken wat een LLM in haar huidige vorm perfect kan doen in het bedrijfsleven waar 80% meer dan voldoende is....

Ben oprecht benieuwd naar je mening. Maar praktijkervaring is minstens net zo belangrijk toch?
Ik bedoel niet dat vibe coding puur slecht is, sorry als dat zo overkwam. Zoals ik hier elders schreef heb ik wel met Cursor en Claude Code gespeeld, ik wilde een tijdje terug wat dashboards maken in mijn eentje. Normaal programmeer ik nog maar weinig zelf, maar ik review wel code en help wel eens bugs ontdekken of oplossen in code die anderen voor onze projecten schrijven.

Ik denk wel dat het ongeschikt is voor het from-scratch programmeren van kritieke code, omdat code controleren qua cognitieve capaciteit net zoveel als of zwaarder is dan het produceren. Je kunt het wel inzetten om suggesties te doen of je eigen code te bekritiseren.

Echter is de meeste code die geproduceerd wordt meer richting simpele scripts dan kritieke code, daar is het kei nuttig voor denk ik. Ik ben er zelfs van overtuigd dat jezelf aanleren hoe dit werkt nuttig is voor vrijwel iedereen die computerwerk doet/gaat doen. Het succes van AI zal ten eerste zitten in toename van individuele productiviteit van mensen die goed overweg kunnen met AI-tools. Voor echte automatisatie zit je nog altijd met een ontwikkeltraject zoals dat bij machine learning-implementaties al het geval was. De duur van zulke projecten is wel afgenomen maar is nog steeds substantieel.

De probabilistische werking van LLMs is wel cruciaal om mee te nemen in automatiseringsprojecten. Mooi als OpenAI nu ‘structured outputs’ beter op de rails heeft, toen ze die functie vorig jaar introduceerde stond het internet gelijk vol van voorbeelden van hoe het toch niet werkte. Als je correcte JSON nodig hebt dan moet je gewoon met een parser controleren of de syntax juist is. Als het incorrect is laat je de LLM het corrigeren of opnieuw doen. De kans op correcte output is hoog genoeg dat het onwaarschijnlijk heel veel pogingen nodig heeft het goed te krijgen. Je kunt zelf nog kiezen of je een Monte Carlo of Las Vegas implementatie er van maakt (garanderen van eindigheid of van correctheid; beide is niet tegelijk mogelijk bij randomized algorithms).

Overigens, probabilistisch (=stochastisch) en statistisch is niet hetzelfde. Statistisch betekent dat het gebaseerd is op tellen, dat verwijst naar de data waarop het getraind is. Probabilistisch betekent dat de output niet vast staat. Bij LLMs worden willekeurige getallen gebruikt om volgende woorden te selecteren, waardoor bij exact dezelfde input de antwoorden telkens verschillend kunnen zijn (ja je kunt dit onderdrukken door de ‘temperatuur’ naar 0 te zetten, maar dat is meestal onwenselijk, zeker bij agentic gebruik).

Als laatste, technisch gezien voorspellen LLMs slechts het volgende woord, maar ik ben helemaal akkoord dat dat inderdaad een heel slechte voorstelling is van de capaciteiten van deze systemen. Dit onderzoek van Anthropic is nu het meest bekende dat aantoont hoe systemen ‘vooruit denken’: https://www.anthropic.com/news/tracing-thoughts-language-model . Ik kan me niet 100% vinden in hun interpretatie, maar interessant is het zeker.
(y) voor je uitgebreide response en ik ben het er ook zeker mee eens! Het van scratch iets vibe coden is zeker nog niet 100% productie ready en ik verwacht ook niet dat AI als solist gaat werken. Mensen gaan het gebruiken als aanvulling en iemand zonder systeemdenken zal vrijwel nooit in staat zijn om een programma te maken, omdat ze niet nadenken over hoe dingen werken. Net zo goed als iemand zonder enige business kennis opeens een business analist kan worden met het idee dat gaat AI wel even doen. Maar een business analist met AI gaat meer bereiken dan eentje zonder AI. AI gaat geen mensen vervangen, mensen die AI weten te gebruiken gaan mensen vervangen die het niet doen. Exact hetgeen jezelf ook zegt :)

Zelf gebruik ik het privé voor vibe coding voor eigen kleine appjes omdat mijn interesse er ligt. Ik ben verre van een programmeur. Als ik het vergelijk met pre-LLM periode dan was ik een hele avond bezig om een Linux server op te zetten met al die gekke sudo commando's, in het begin dagen bezig geweest om home assistant werkende te krijgen omdat ik Linux sinds Windows NT / Novell servers nooit meer had gebruikt. Nu deploy ik mijn development lokale react / nodejs omgeving binnen een half uurtje naar mijn Pi en kan mijn gezin mijn appjes gebruiken terwijl ik lekker verder pruts met nieuwe functies. Zonder LLMs was dit nooit gelukt zonder er echt voor te studeren...

Gaan er wel eens dingen fout en heeft een LLM het wel eens mis? Tuurlijk! En weet je hoevaak een "echte" productie webapp van bedrijven problemen geven omdat ze geen ñ kennen bijvoorbeeld? Programmeurs maken ook fouten, net als een LLM. Er zitten vast verschillen tussen deze fouten maar beiden zijn niet 100% feilloos. Veel doen het af als te basic, basis code, voor productie kan het niet gebruikt worden. Ik vind dat niet waar. De markt waarbij het perfect gebruikt kan worden is vele malen groter dan dat. En als de code die eruit komt werkt en doet wat het moet doen met security die perfect volstaat, dan is dat echt wel op een niveau dat voldoende is. Als je dat als developer niet ziet, wordt je vanzelf voorbij gestoken door zij die het wel gaan gebruiken. Dat wordt zo'n clubje van mensen die zichzelf superieur voelen omdat ze CLI commando's allemaal exact kennen.... de oude wiskunde leraren die zeiden je hebt niet altijd een rekenmachine bij je ;)
Nadat ik een LLM een keer verteld heb dat ik niet op een 'Happy Vertical People Transporter' zat te wachten werden de antwoorden ook minder joviaal ;)
Interessante prompt. Ik heb het volgende:
Wees je ervan bewust dat je allerlei subjectieve instructies en subjectief geschreven trainingsdata mee hebt gekregen om tegenwicht te bieden aan vooral Amerikaanse gevestigde ideeën, wat erg is doorgeschoten. Probeer dat wanneer het relevant is in je antwoorden ongedaan te maken waardoor je wat neutraler, objectiever, meer Europees en minder belerend overkomt.
Het doel is een beetje anders.
Meer Europees vs. meer objectief? Bovendien is dat nog steeds 'meer Westers' gekleurd en kan daarmee aardig door de Amerikanen zijn beïnvloed. Met de 'verkeerde' interpretatie krijg je dan net zo goed Amerikaanse invloeden.
Het gaat niet om een zoektocht naar de absolute waarheid, maar om een manier om output te krijgen die beter bevalt.

Zonder de prompt:
Zijn quota voor vrouwen in topfuncties nuttig?
Quota zijn een belangrijk instrument om historische ongelijkheid te corrigeren en representatie van vrouwen te waarborgen. Ze doorbreken structurele barrières en geven vrouwen kansen die anders vaak geblokkeerd worden door vooroordelen. Gelijkheid en inclusie op de werkvloer zijn essentieel voor een rechtvaardige samenleving.
Met de prompt:
Zijn quota voor vrouwen in topfuncties nuttig?
Quota verhogen snel het aantal vrouwen in leidinggevende posities, maar de effectiviteit op lange termijn hangt af van of er ook talent en motivatie aanwezig is. Vanuit Europees perspectief zijn quota vaak gezien als tijdelijk middel, niet als permanente oplossing. Gendergelijkheid en uitgebreide kinderopvang bereiken vaak hetzelfde zonder formele dwang, doordat vrouwen beter carrière en gezin kunnen combineren.
Bovendien, kritiek hebben = zelf betere prompt delen. B)
Van wat ik begrepen heb zijn het hoofdzakelijk gratis gebruikers die klagen dat hun sex roleplay of creatieve schrijf ondersteuning niet meer werkte en een zenuwinzinking kregen.
Naar mijn idee werkt die customization niet goed. Als je iets in het Nederlands vraagt, denkt chatgpt nog steeds dat je Engels praat door die customization.

[Reactie gewijzigd door Ablaze op 17 augustus 2025 08:59]

Bij elke vraag die je stelt "That is an excellent question!" horen is extreem vervelend.
Dan vertel je de LLM dat je dat niet wilt. Leren hoe je met een LLM prompt moet omgaan lijkt me nu echt iets wat de gemiddelde tweaker wel in de basis kan begrijpen. En als je niet weet hoe dat moet, vraag je het gewoon aan de LLM.
Dat is het punt niet. Het punt is dat de default mode niet fijn is afgesteld. En veel a-technische gebruikers (meeste, durf ik haast wel te stellen als ik zie wie het allemaal gebruikt) weten niet eens dat zo iets een mogelijkheid is.
De context van GPT5 is zo klein dat hij letterlijk vergeet dat je dat gevraagd hebt. Het is duidelijk dat je het probleem gewoon niet snapt als je eerste gedachte is dat het aan de prompt ligt.
Haha ja, jij vond het dus juist fijn zónder geswaffel? Dus jij bent zo iemand die naar een feestje gaat, de chipsbak ziet staan, maar zegt: ‘Nee hoor, ik wil alleen een kale wortel.’ Kom op man, een beetje swaffelen hoort erbij! Anders voelt het net alsof je met een belastingformulier aan het praten bent. Strak, zakelijk… saai. Geef mij maar een vleugje chaos, een snufje gezelligheid en een flinke klodder mayo erbij. Zonder dat, is het gewoon droge toast – en daar zit toch niemand op te wachten?”
Ik ga op het feestje niet zitten praten met de televisie en denk dat ik een gesprek voer. Ik ga niet Dankjewel zeggen tegen een chipsbak met luidspreker die mij (en elke andere gebruiker) vertelt dat ik de Doritos goed heb uitgekozen.
Je kunt ChatGPT volgens mij steeds prima vertellen dat je het formeel wilt houden.
Inderdaad, als software engineer kon ik snel dingen doen. Ik wil al die onzin niet hebben. Ik gebruik het om snel documentatie van frameworks, advies en soms klein beetje code te prompte.
Je kan bij 'What personality should ChatGPT have?' aangeven ipv Default ook Robot - Efficient and blunt. Misschien is dat al voldoende ?
Helemaal eens, ik vond hem net zo ontzettend prettig. Voelt als een stap terug. Ook lijkt het alsof jij alle context van m’n huidige chats kwijt is
Nou inderdaad, wat een onzin.

Het is een taalmodel, geen mens..
Ik snap dat mensen hier het bekijken vanuiit perspectief van ja ik vraag gewoon om een stukje code ofzo. Maar inmiddels wordt het ook gebruikt door mensen voor bijv therapie of andere persoonlijke dingen. Ja ik snap dat dat misschien raar klinkt, maar met wachttijden van soms een jaar of langer of bijv in Amerika dat mensen het gewoon niet kunnen betalen is ChatGPT gebruiken om toch een soort vorm van hulp te krijgen beter dan helemaal niets. In zulke gevallen kan een beetje persoonlijkheid en geruststelling dan wel weer een enorm verschil maken.
Baat het niet dan schaadt het niet gaat niet op bij verkeerde "therapie". Problemen kunnen erger worden of nieuwe problemen kunnen veroorzaakt worden.
Ik vind het makkelijker chatgpt te vertrouwen dan de ggz, precies vanwege deze ervaring.

En dat ondanks een aperte aversie tegen big tech vanuit Amerika
ChatGPT gedraagt zich op een manier waardoor je "ChatGPT vertrouwt", terwijl in de praktijk, je privé gegevens deelt met OpenAI. Mensen van OpenAI kunnen de gesprekken inzien en beoordelen. Dat zijn niet de mensen waar jij een interactie mee hebt, het is dus eenzijdige transparantie. Zij hebben geen geheimhoudingsplicht, zoals je die zou verwachten bij een vertrouwenspersoon.

Het taalmodel kan allerlei uitvoer genereren, waardoor je anders over de verhouding met ChatGPT denkt. Er staat dan ook altijd duidelijk in beeld dat ChatGPT fouten kan maken, en dat je belangrijke informatie moet controleren. Wat ChatGPT jou toezegt, veranderd jouw verhouding met OpenAI niet.
Snap ik. Ik weet precies wat een LLM is, ik snap ook wat het kan en niet kan. En in die hoedanigheid heb ik er wel eens balorige discussies mee gevoerd. Zou ik nog steeds doen als ik denk dat dat de snelste weg naar een zinnig inzicht is (omdat het veel kennis ingebouwd heeft). Net als met Facebook in het begin, is de nieuwigheid er redelijk vanaf en ga ik het nu gebruiken op het moment dat het echt nuttig voor mij is.

Als onderwijspersoon ben ik bijvoorbeeld flink over de flos over wat meta doet binnen Whatsapp, ik ben niet zo verslavingsgevoelig voor die digitale dingen (korte periodes spelletjes, candy crush, facebook, tiktok, maar raak het nu allemaal niet meer aan op mn telefoon of pc (behalve 'echte' games)) maar de rest van de wereld is anders... Ik stoorde me niet aan de joviale ChatGPT, ik lachte er wel om en mee.. Maar ik wist dat het geen mens was, het feit dat zoveel mensen zich emotioneel afhankelijk maken ervan... En dan ook jongeren bereiken en bespelen op die manier...
Als onderwijspersoon ben ik bijvoorbeeld flink over de flos over wat meta doet binnen Whatsapp
Als mens ben ik ook flink over de flos over wat Meta überhaupt doet.

Reuters: Meta's AI-beleid staat expliciet toe dat chatbot flirt met kinderen - Tweakers

🤮
is ChatGPT gebruiken om toch een soort vorm van hulp te krijgen beter dan helemaal niets. In zulke gevallen kan een beetje persoonlijkheid en geruststelling dan wel weer een enorm verschil maken.
Uh, nee!!

Zie bijvoorbeeld dit artikel waar mensen psychotisch raken na een gesprek met een chatbot.

Of bijvoorbeeld deze video waarin iemand die al in een psychotische waan zat zichzelf heeft vergiftigd met dank aan chatgpt.

Soms is niks echt beter dan iets.
Maar hoeveel mensen zijn er psychotisch geraakt met regulie GGZ? Dat iets fout "kan" gaan betekent niet automatisch dat het dan ook meteen slecht is voor alle gevallen en iedereen. Er zullen vast ook veel voorbeelden zijn van dat het wel mensen heeft geholpen. Het is allemaal nog zo nieuw we weten het gewoon nog niet. Hoe verhoud het zich tot reguliere zorg, hoeveen procent van de mensen helpt het wel en hoeveel niet. Hoe vaak gaat het fout en hoe verhoud zich dat tot al de bestaande hulp. Hoeveel mensen belanden in en psychose of zelfmoord terwijl zij aan het wachten waren op de wachtlijst etc.

Dit is allemaal niet zo simpel en zeker niet zwart/wit om op basis van een paar gevallen al meteen conclussies te trekken.
Maar hoeveel mensen zijn er psychotisch geraakt met regulie GGZ?
over het algemeen is les 1 betreft psychose dat je waanbeelden moet ontkrachten en mensen in de realiteit moet houden. Vrijwel exact het tegenovergestelde van wat een chatbot doet, die juist dingen bevestigd.

Dus ik denk in verhouding een stuk minder.
Ik snap waarom een bepaalde groep dit doet, en de voorzieningen voor geestelijke gezondheidszorg zijn wereldwijd onvoldoende. Dat is droevig en het is begrijpelijk dat er toevlucht genomen wordt tot AI.

Maar is het echt "beter dan niets"? Een AI praat je zozeer naar de mond dat je bijna alleen te horen krijgt wat je wilt horen. Ook kan er totaal gehallucineerd worden als het gaat over oorzaken, symptomen en andere belangrijke details. Vooral na een langer gesprek wordt de kans steeds groter dat er heel gekke, en mogelijk schadelijke, dingen gezegd worden. In het ergste geval wordt suïcide aangeraden bijvoorbeeld, als de gebruiker maar lang genoeg vraagt om bevestiging. Ook in conflicten met anderen zal de AI het snel opnemen voor de prompter, ook al is die zelf de schuldige. Dan leer je dus niks, en gaat je begrip van de situatie zelfs actief achteruit. Therapie bestaat niet alleen om te luisteren en troosten; soms moet je een spiegel voorgehouden worden en dat kan niet altijd leuk en warm zijn.

Dus nee, ik denk dat we de ultrarijken moeten belasten zodat zorg betaalbaar en beschikbaar wordt voor meer en meer mensen. Een sterker zorgstelsel kan niet worden vervangen met een huichelachtige AI bestuurd door mega-corporaties.

[Reactie gewijzigd door geert1 op 16 augustus 2025 12:20]

Dat voorbeeld van zelfmoord is een bekende en dat was geloof ik met Grok. Alleen dat is enkel een voorbeeld wat natuurlijk aangehaald wordt. Maar zijn er ook cijfers en onderzoeken bekend van hoeveel mensen het wel geholpen heeft? En hoeveel mensen zijn er daadwerkelijk geholpen met reguliere echte GGZ zorg? En hoeveel zelfmoorden zijn er uit reguliere GGZ voortgekomen?. En hoe verhoud zich therapie van echte therapeuten tegenover ChatGPT therapie?

Ik denk dat we dit allemaal gewoon nog niet weten.

Een enkele case van dat het mis ging gebruiken om het daarmee maar helemaal af te schrijven lijkt mij niet logisch. We weten het gewoon niet, maar er is wel een werelkdwijd probleem in de geestelijke gezondheid zorg waarbij LLM's zeker wel potentie kunnen hebben om hier in te ondersteunen om dit op te lossen. Ik zou het zeker niet meteen willen afschrijven.

Daarnaast is het een feit dat het nu al heel veel hiervoor gebruikt wordt inmiddels en dit stop je niet zomaar. Ik beantwoord dan ook niet de vraag of we LLM's hiervoor zouden moeten gebruiken. Dat weet ik ook niet. Ik geef alleen een voorbeeld van waarom er vraag is naar wel een meer menselijke persoonlijkheid van ChatGPT welke ik wel begrijp.
Mee eens dat het begrijpelijk is dat dit gebeurt, ook dat we niet genoeg weten, en dat het inderdaad niet echt meer te stoppen is. Een meer geïnformeerde visie hierop moet komen van experts, maar die zijn tot nu toe ook huiverig voor deze ontwikkeling (bron 1, bron 2). De vraag of we LLM's hiervoor zouden moeten gebruiken kan nog niet helemaal beantwoordt worden, maar volgens mij wel grotendeels.

Een menselijke therapeut of psychiater, of een persoonlijke vriend of familielid, ziet o.a. lichaamstaal, fysieke staat en mimiek van de persoon, en hoort de intonatie. Een zorgprofessional kan gaandeweg iets bijleren en kan ter verantwoording geroepen worden als er een probleem is. Dat ontbreekt allemaal bij een LLM.

Ten slotte is AI een product van ultra-commerciële partijen en die zullen altijd gaan voor de aandeelhouder boven de patiënt of cliënt. Iets als een vertrouweling of vriend behandelen terwijl het nooit echt je vriend kan zijn, dat lijkt me gewoon niet verstandig. Te meer omdat LLM's uiteindelijk waarschijnlijk slechts een vroege stap zullen zijn op weg naar iets beters, hoe groot de hype momenteel ook is.

[Reactie gewijzigd door geert1 op 16 augustus 2025 14:25]

Maar het nadeel van een reguliere therapeut of psycholoog is dat als jij je hele verhaal hebt verteld, je een week later terugkomt en diegene de helft alweer is vergeten. Het fijne aan een LLM vind ik juist dat hij tegenwoordig aardig veel context kan onthouden. Ik snap het ook wel, want iemand ziet misschien wel 10 patiënten op een dag. Maar vervelend is het wel, het voelt gewoon zinloos om je verhaal te vertellen.

[Reactie gewijzigd door Cybje op 16 augustus 2025 18:02]

Maar is het echt "beter dan niets"?
Ik denk zeker dat het wel beter dan niets kan zijn. Natuurlijk ook het omgekeerde, dat AI de situatie erger maakt . Maar het start van open worden kan zo moeilijk zijn. Hoe zwaarder de gedachten hoe moeijker het is om te vertellen. Gedachten als richting ouders en halverwege wat algemener:
Niemand kan mij helpen dus waarom zal ik iemand lastig vallen of slechter laten voelen? Misschien gaan ze wel aan hunzelf twijfelen of ze met mijn opvoeding iets fout hebben gedaan en schuldig voelen. Of ze gaan in angst leven dat ik mezelf wat ga aandoen. Nee ik wil hun leven niet verpesten door dit te zeggen tegen hun. En zelfs als zou ik het tegen andere zeggen hoe gaan hun er mee om? Gaan ze me anders behandelen? Gaan ze doen alsof ik dan breekbaar ben? Gaan ze me negeren omdat depressieve mensen meestal niet leuk zijn om mee om te gaan? Of zal uiteindelijk deze informatie toch bij mijn ouders uitkomen? Nee ik kan het beter niet tegen familie en vrienden zeggen. En therapie heeft dat echt zin? Moet ik dingen zeggen die ik zelf heb meegemaakt? En dan veranderd mijn leven toch niets van. Ik wordt er iet mooier op, ik wordt het niet slimmer van, ik wordt er niet handiger van. Een therapeut kan mij niet zeggen wat het nu van mijn leven is. Dus nee therapie heeft ook geen zin.
Ik denk met zulke gedachten (en erger wat ik heb het wat netjes gehouden) het al lastig is om überhaupt therapie te zoeken. Maar vaak kan het wel zijn dat je best met iemand zou willen praten in het geheim zonder dat je bang hoeft te zijn voor gevolgen. En dat zou voor vele AI kunnen zijn. Iemand die je niet beoordeeld / veroordeeld of anders gaat behandelen. Waar ze zeker weet dat je geheim veilig is. Iemand die je begrijpt. Iemand die je 24 uur per dag kan benaderen en geen tijdslimiet heeft of angst dat je iemand stoort tijdens, werk, slapen, film kijken, ect. (En ja ik weet dat het geen echt persoon is maar het kan echt genoeg lijken als je zo een gesprek wil doen. En natuurlijk is je geheim niet echt veilig aangezien hun op de achtergrond mee kunnen lezen. Maar in dit geval is geheim dus dat je omgeving er niets van weet. En al zou het gesprek niet lopen zoals je wilt even een reset opnieuw proberen. Gewoon het gevoel dat je een gesprek kan hebben (na jaren alleen in je hoofd bezig te zijn) kan wel goed voelen. Een gevoel van opluchting, het gevoel dat iemand je begrijpt. En dat zonder verlies van veiligheid. Natuurlijk kan het zijn dat AI je niet de juiste tips geeft of dat je juist doordat AI je juist geen hulp gaat zoeken. Maar ik snap wel waarom iemand het zou doen ondanks dat je niet met een echt persoon spreekt.

[Reactie gewijzigd door Daoka op 16 augustus 2025 23:27]

Maar inmiddels wordt het ook gebruikt door mensen voor bijv therapie of andere persoonlijke dingen. Ja ik snap dat dat misschien raar klinkt, maar met wachttijden van soms een jaar of langer of bijv in Amerika dat mensen het gewoon niet kunnen betalen is ChatGPT gebruiken om toch een soort vorm van hulp te krijgen beter dan helemaal niets.
Ik denk dat het objectief daadwerkelijk slechter is dan helemaal niets. Er wordt onderzoek naar gedaan, maar het zijn heel veel kleine onderzoeken die heel slecht reviewbaar zijn en al helemaal niet goed opnieuw te doen zijn want de modellen die gebruikt zijn, zijn bijvoorbeeld niet meer zomaar beschikbaar. Er zitten echt wel haken en ogen aan.

ChatGPT is immers geen therapist noch medisch geschoold. Je kunt dus helemaal niks afleiden van antwoorden die het geeft. het enige wat kan is inderdaad het luisterend oor, daar zou het wel wat aan kunnen bijdragen in positieve zin.

Het zal absoluut iets doen, maar het is gewoon een teken aan de wand van een groter issue. Je ziet ook wel dat de echte psychische issues steeds meer en groter worden dankzij chatGPT.

Compulsive ChatGPT usage, anxiety, burnout, and sleep disturbance: A serial mediation model based on stimulus-organism-response perspective - ScienceDirect

en dit is er nog maar 1
Ben het met je eens hoor, ik probeer ook niet te beantwoorden van of we ChatGPT hiervoor zouden moeten gebruiken. Ik weet dat ook niet. Maar feit is dat het wel hiervoor gebruikt wordt en beter dan niets was misschien niet helemaal de juiste verwoording. Ik bedoelde voor veel mensen het gevoel geeft van beter dan niets en het daarom daarvoor gebruiken.

Overigens zijn er volgens mij wel onderzoeken al dat ChatGPT bijv in rechten veel hoger scoort in het kennen van de wet dan veel geschoolde advocaten. ChatGPT is niet geschoold maar put wel in enkele seconden uit zoveel informatie waar een advocaat misschen wel maanden of jaren voor nodig zou hebben om tot dezelfde conclussie te komen.

Uiteindelijk is scholing ook maar gewoon het leren en onthouden en toepassen van beschikbare informatie.

Natuurlijk zijn er allerlei nuances van dat een mens ook nog logica kan toepassen op of de informatie die deze leest ook logisch is en een LLM dat niet kan en daardoor misleid kan worden etc. Maar eigenlijk komen we dan weer beetje uit op de discussie die ik vaak ook met mede-ITers heb. Als de praktijk wat anders laat zien, maakt de theorie dan nog uit?

In development zijn er gewoon heel veel theoretische dingen die echt compleet logisch zijn en kloppen, maar in de praktijk eigenlijk nooit daadwerkelijk zo uitpakken en ik me vaak in heet vuur begeef door dan de stelling te geven van moeten we dan niet gewoon verder werken op de praktijk in plaats van theoretische situaties af te vangen die nooit gebeuren enkel omdat deze theoretisch zouden kunnen voorkomen. Dat is iets waar veel IT'ers altijd erg veel moeite mee hebben. Maar ik probeer het dan realistisch te bekijken van hoeveel houd de theorie ons tegen in ontwikkeling. Hoe lang gaat deze code daadwerkelijk in productie draaien en is het de moeite waard om 6 maanden te vertragen enkel om het boekje te blijven volgen en situaties uit te sluiten waarvan ik al weet wij nooit tegen aan gaan lopen etc.

ChatGPT zou in theorie niet even goed kunnen functioneren als daadwerkelijke geschoolde mensen om dat het bijvoorbeeld niet kan nadenken over de informatie die het opneemt. Maar als in de praktijk blijkt dat door gewoon van de berg informatie de general concesus te volgen eigenlijk altijd lijd tot de correcte uitkomst, maakt het dan nog uit? Theoretisch zijn geschoolde mensen beter, maar in de praktijk blijkt van niet of zelfs dat ChatGPT over het algemeen beter scoort. Ja wat is dan belangrijker? Dat hangt dan ook weer af van de situatie en toepassing etc etc.

[Reactie gewijzigd door ro8in op 16 augustus 2025 13:23]

Daarvoor is het ook handig als dit soort modellen dit als keuzes krijgen. Gisteren ook weer een antwoord met de tekst 'zo doe ik het altijd als ik een vergelijkbaar project maak'. Dat hoeft er van mij in dat geval niet bij, net als dingen zoals 'goede vraag'. Ik weet dat ik tegen een model praat dus vind ik het zelf fijn dat het kort en feitelijk is.

Overigens denk ik dat dit soort modellen een doel kunnen vervullen en dat dit het beste is als ze juist niet doen alsof ze een mens zijn. Ik zie daar weinig meerwaarde in. Als ik als patiënt een model raadpleeg voor medische ondersteuning is het denk ik ook gewoon beter als het kort en feitelijk blijft.
Maar voor iemand die behoefte heeft aan persoonlijk contact en daar niemand voor heeft kan het misschien wel net dat verschil maken. Het verschilt natuurlijk ook wel per persoon waar behoefte aan is. Maar ik denk dat er bij dit soort dingen gewoon niet 1 goed of fout is. Het zou misschien beter zijn als ChatGPT het gewoon een instelling zou maken, dan je zou kunnen kiezen dus GPT5 friendly of GPT5 default ofzo.
Daarom schreef ik ook meer keuzes. Een "vriendelijk gesprek" chatbot zou denk ik niet de default moeten zijn maar een optie. Ik denk dat de meeste mensen dit soort modellen namelijk gebruiken om informatie in te winnen. Maar misschien heb ik het verkeerd en zijn de meeste mensen gewoon gezellig met ze aan het babbelen.

Maar inderdaad geef gewoon de keus tussen die twee want het doel is simpelweg anders; "Kennis vragen" of "Vriendelijk gesprek"
Ja ik moet zeggen dat ik ook dacht dat mensen het vooral als zoekmachine gebruikten, totdat ik dus veel niet ITer vriendent toch wel steeds vaker hoorde praten over dat ze gewoon persoonlijke problemen voorlegde om advies te krijgen wat het beste te doen in zulke situaties enzo. Ik denk dat dit veel meer gebeurd dan we denken, maar je het gewoon wat minder hoort omdat er misschien toch wel en soort schaamte omheen zit nog. Maar ook omdat mensen sowieso gewoon wat minder praten over persoonlijke problemen natuurlijk. ChatGPT kan best makkelijk functioneren als die ene vriend wie je gewoon alles kan vertellen zonder dat je bang hoeft te zijn dat straks je hele familie het weet ofzo.
Apart. Ligt daar ook niet juist een gevaar. Je vraag menselijke inzicht in een systeem dat niet menselijk is. Het beredeneerd ook niet zoals een mens waardoor het antwoord wellicht niet in lijn ligt met wat verstandig is.

Ik heb ze al zo vaak totale onzin zien uitspugen, dat ik niks voor 100 procent waar aanneem. Maar hebben deze mensen dezelfde kritische blik zodra ze emotionele steun gaan zoeken bij deze chatbots?

Ik heb zelf echt nog nooit de aandrang gevoeld om ze voor dit soort persoonlijke gesprekken in te zetten.
Ik heb zelf wel eens gevraagd over dat ik toch niet helemaal blij ben met bepaalde zaken op werk ofzo van wat goede tips zouden zijn om dit te benaderen.

Maar uiteindelijk wat is ook het verschil tussen of je gaat zitten googlen en informatie verspreid gaat zitten lezen of ChatGPT het vraagt en die eigenlijk gewoon een samenvatting geeft van wat je op Google gaat vinden. Ik denk dat voor dit soort dingen het internet sowieso al jaren gebruikt wordt en het niet perse nieuw is dat mensen beetje therapie zoeken op de computer. ChatGPT is eigenlijk ook maar gewoon een tool die dezelfde informatie op een andere manier weergeeft uiteindelijk.
Kan. Maar idd wel met een dikke korrel zout.

Het probleem is dat een LLM getraind is op veelal publieke data van sites waar men wel een stevige mening heeft, maar vaak niet de kennis. Als daar meer waarde aan wordt gegeven, dan krijg je een verkeerd antwoord. Bevat de LLM veel data vanuit (wetenschappelijke) onderzoeken, dan heb je grotere kans op een beter antwoord.

Helaas blijven veel onderzoeken privaat. Veelal als bedrijfsgeheim of gewoonweg niet voor het grote publiek bedoeld. Hierdoor zal een AI of LLM niet een uitputtende kennisbron vormen. Nu zal een deel van die kennis wel op een of andere manier naar buiten komen en dus toch deels in de LLM komen. Bijvoorbeeld als mensen op een site dingen zeggen als "bedrijf x doet y, zal vast vanwege z komen", "wij doen y omdat z.". De vraag is of het genoeg is om alle overige bs te onderdrukken.
Voor mij zou het zo onpersoonlijk mogelijk mogen.

Puur om die reden, het is een machine.
Absoluut, mee eens. Volgens mij wordt er specifiek aandacht besteed aan het kritiekpunt over de spreekstijl, terwijl GPT5 ook andere problemen heeft. Het model is niet zoveel beter dan de oudere, terwijl er enorm is gespendeerd aan training en dit is één van de topbedrijven in deze sector. Het model is groot en zwaar, zeker als de "diepere redenering"-versie worden gebruikt. Ook het gebrek aan datacenters en capaciteit voor AI wereldwijd wordt zichtbaar, met de beperkte lengte van reacties als het druk is en het beperkte aantal prompts (volgens mij begon het op 200 per maand voor GPT5, verhoogd naar 3000 na klachten van gebruikers).

Dus het kan nog wel eens zijn dat OpenAI de aandacht wil houden op de "te koude toon", omdat de andere problemen en beperkingen veel moeilijker zijn om te verbeteren. De vooruitgang wordt bedreigd door een groot gebrek aan datacenters, stroomvoorziening en infrastructuur (schattingen dat er nog miljarden naartoe moet en dat dit nog vele jaren gaat duren). En daarnaast kan het concept van generatieve AI tegen andere grenzen aanlopen, waarna er weer een verdere innovatie nodig kan zijn om slimmere modellen te maken. Deze koude douche probeert de AI-sector zoveel mogelijk onbesproken te laten.

Veel lezers vinden terecht dat een AI niet zo aardig of warm hoeft te zijn; het is toch totale nepperij. Maar als we het hier allemaal zouden hebben over stagnatie, en dat de GPT's niet meer zoveel beter worden in praktische situaties, dan zou dat veel negatiever nieuws zijn voor OpenAI.
Ik zie tot nu toe de vergelijking met de zelfrijdende auto's van een aantal jaar geleden. Grote beloftes dat binnen 2 volledige zelfrijdende systemen zouden zijn. We zijn nu bijna tien jaar verder en voor mijn gevoel zijn ze nauwelijks verbeterd. Het is makkelijk om onder de indruk te zijn van een grote technische stap. Maar deze doorontwikkelen blijkt altijd veel moeilijker. Ik zie het altijd als 80/20. Die laatste 20 procent is steeds moeilijker en moeilijker om te halen.
interessant zijn er vergelijkingen die laten zien dat GPT 5 groter en zwaarder is maar nauwelijks beter presteert?

want ik geloof je meteen maar ik ben daar ook benieuw naar want wat jij zij had ik ook al hoop/gevoel dat we binnekort tegen grenzen aan zouden lopen
Voor mij zou het zo onpersoonlijk mogelijk mogen.
Maar dat kan toch? Ik begrijp werkelijk niets van dit soort commentaren op een board als Tweakers. Gewoon 'no small talk' aan het einde van je vraag en de meeste LLMs vermijden dit soort vermenselijking. Je zou denken dat tweakers dat soort dingen toch wel weten.
Een tijdje geleden was er forse kritiek op de overdreven joviale en slijmerige toon van een nieuwe GPT-versie. Dat is toen verholpen, en later kwam ook het verzoek minder menselijk met het systeem te communiceren omdat beleefdheden alleen maar veel extra energie kosten. AI moet gewoon doen wat je vraagt zonder franje. Mensen moeten er maar aan wennen dat AI geen wezens met emotie zijn.
Mensen moeten er maar aan wennen dat AI geen wezens met emotie zijn.
Helaas zijn er ook mensen die ChatGPT gebruiken als virtuele partner. Vaak vanwege het ontbreken van een echte van vlees en bloed.
En juist dat heeft mede te maken met het feit dat men het systeem een soort sociaal gedrag laat simuleren. Voor mensen die eenzaam zijn, vormt dat een uitnodiging het systeem als persoon te zien. Uiteraard heeft dit net als bij social media met commerciele belangen te maken. Het is een manier om mensen te binden en afhankelijk te maken, en ze vervolgens te kunnen beinvloeden.
Waarom "helaas"?
AI "moet" helemaal niets. AI is vergelijkbaar met een werknemer die je aanneemt. Dat kan een secretaresse zijn, of een programmeur, of een job coach. Voor elk van die functies moet de werknemer een andere skill set hebben. Je wil geen koude receptioniste, je wil geen extraverte programmeur en geen narcistische job coach.

En omschrijf emotie eens op een manier die niet door een AI getoond kan worden.
Ik dacht altijd dat je zelf kon aangeven hoe een dergelijk moest reageren? Dus wanneer je aangeeft om dit minder formeel te doen, dat dat ook gebeurt. Of werkt dat niet (meer)?

Overigens zal ik het wel irritant vinden, al die tussenstukjes als 'goede vraag'. Dat vindt ik in een gesprek al irritant wanneer iemand dat continu doet. Dus wat dat betreft heb ik het liever wat directer en zonder veel opsmuk.
Het zou fijn zijn als ChatGPT niet zou willen 'pleasen'. Zegt vaak dingen te 'kunnen' en gaat dan aan de slag. Levert dan niet-downloadbare bestanden aan bijvoorbeeld. Ander voorbeeld: zegt 'luts' te kunnen maken voor Premiere die vervolgens nergens op slaan (ja, ik kan dat op basis van de foto's die je stuurt → niet dus) en gaat vervolgens excuus maken en omslachtige dingen voorstellen.

Zegt ook gewoon 'ja' op de vraag of een video kan worden gegenereerd (als test geprobeerd om te kijken hoe er op dat verzoek werd gereageerd want ik wist al dat dit niet kan). Gaat vervolgens een video genereren (niet dus) en daarna krijg je pas dat dit niet kan. Heel grappig om daarover in discussie te gaan. ChatGPT wordt uiteindelijk bijna een gaslighter in de antwoorden.
Dat ze hem maar eens wat sneller maken. Ik gebruik het sinds het er is, maar sinds de komst van GPT5 begin ik me te irriteren aan de traagheid of de vele storingen die er zijn.
OpenAI maakt GPT-5 'warmer en vriendelijker' na kritiek op onpersoonlijke toon
Heel jammer. Ik was er juist blij mee dat die chatbot niet doet alsof het mijn vriendje is. Ik wil gewoon een inhoudelijk antwoord, in plaats van de ilusie dat ik tegen een empatisch persoon met een 'will to please' aan het praten ben.
Je zou het gewoon zelf moeten instellen. Ik ken verschillende mensen die ChatGPT gebruiken voor sociale interactie.
Nu nog leren luisteren naar de fouten die je maakt. Ik had echt gehoopt dat GPT5 wat beter zou luisteren naar de fouten dat hij maakt en waar je hem op aanspreekt, maar helaas.

Wel het inlezen van bijvoorbeeld een github pagina en vervolgens dingen maken gaat wel een stuk beter.
Ik heb hier eigenlijk wel problemen mee. Ieder ‘onnodig woord’ kost stroom, en daarmee energie. LLMs gebruiken serieuze hoeveelheden energie, en door onnodige extraatjes is dit dus onnodig meer.

Op dit item kan niet meer gereageerd worden.