OpenAI gaat GPT-4o weer beschikbaar stellen als optie na oproep van gebruikers

OpenAI gaat zijn GPT-4o-model terugbrengen naar ChatGPT. Het bedrijf verving dat model eerder deze week door GPT-5, maar gebruikers vroegen om het voorgaande model terug. Sam Altman, de ceo van OpenAI, bevestigt nu dat 4o terugkeert als optie binnen de chatbot.

OpenAI-ceo Sam Altman bevestigt op sociale media dat GPT-4o zal terugkeren in ChatGPT, nadat gebruikers daarom vroegen tijdens een AMA. Hij belooft dat het model wordt teruggebracht voor Plus-gebruikers. Het bedrijf zal volgens Altman het gebruik van 4o in de gaten houden, en aan de hand daarvan bepalen hoelang het ondersteund zal blijven in de AI-dienst. Het is niet bekend wanneer 4o precies weer zal verschijnen in de chatdienst.

Het AI-bedrijf introduceerde GPT-5, zijn nieuwe foundationmodel, eerder deze week. Het model is volgens de makers beter in staat om taken uit te voeren, zoals programmeren, en zou ook betrouwbaardere antwoorden moeten geven. Het model verscheen per direct en verving daarmee de voorgaande GPT-modellen volledig binnen ChatGPT. Die oudere modellen waren nog wel te gebruiken via de api, die andere bedrijven gebruiken om OpenAI-modellen te integreren in hun eigen diensten.

Gebruikers klaagden op sociale media over die stap. Op de OpenAI-fora en Reddit noemden de gebruikers GPT-5 te 'steriel', terwijl oudere modellen als 4o juist 'persoonlijker' waren, schrijft ook Ars Technica. Anderen gaven aan dat ze de oudere modellen afzonderlijk voor specifieke taken gebruikten en dat GPT-5 daar als algemeen model minder goed is, of klaagden dat de gebruikslimieten van GPT-5 te beperkend waren. Voor dat laatste heeft Altman inmiddels beloofd dat de GPT-5-ratelimits worden verdubbeld voor Plus-gebruikers.

Door Daan van Monsjou

Nieuwsredacteur

09-08-2025 • 09:34

105

Lees meer

Reacties (105)

Sorteer op:

Weergave:

Via instellingen - ChatGPT aanpassen - Welke persoonlijkheid moet ChatGPT hebben? - Kan je zo de tone of voice selecteren.
Nerd is een leuke ,robot is te kort

[Reactie gewijzigd door sebastienbo op 10 augustus 2025 19:13]

Ik moet zeggen dat ik de minder "persoonlijke" aspect van GPT-5 veel fijner vind dat het gebabbel van GPT-4o.
Ik vind het wonderlijk dat er zoveel wordt geklaagd over het onpersoonlijk zijn. Zijn dat allemaal gebruikers die denken dat een vriend of therapeut te hebben gevonden in Chatgpt?
Op reddit zag ik best veel topics van mensen die echt heel verdrietig waren omdat ze hun maatje of therapeut kwijt zijn.

Dat is echt niet best. (Maar het is Reddit dus de kans is groot dat het gelogen is) Treurig dat mensen in Amerika geen professionele hulp kunnen krijgen.
Oh hier in NL word je op een wachtlijst gezet en kun je 8 maanden ofzo wachten op hulp. Of je moet er zelf voor willen dokken.
Off-topic, maar: dat is alleen zo in heel complexe gevallen en afhankelijk van regio (edit: dit was te kort door de bocht, zie hieronder). Een gewone psycholoog of therapeut is vaak binnen enkele weken geregeld na doorverwijzing van de huisarts, en wordt heel aardig gedekt door de verzekering (die iedereen heeft). Het is hier niet hetzelfde als in de VS (nog niet althans).

Edit: oké, de realiteit is genuanceerder. Ik beaam natuurlijk het tekort aan huisartsen in Nederland, en de vele gevallen waar het wel echt te lang duurt. Er zijn in Nederland grotere moeilijkheden en wachttijden dan ik doorhad. Maar over het algemeen is er nog steeds een verschil in de totale toegankelijkheid van geestelijke gezondheidszorg tussen hier en de VS. Dat wil zeggen dat het voor de onderste helft van de Amerikaanse bevolking nóg flink lastiger is. De beschikbaarheid en betaalbaarheid zijn daar ook sterk verweven met het hebben van een baan.

[Reactie gewijzigd door geert1 op 9 augustus 2025 18:22]

.oisyn Moderator Devschuur® @geert19 augustus 2025 18:15
1,5 jaar voor mijn dochter van (toen nog) 11 met depressiviteitsklachten. Dus nee, wat je zegt klopt echt niet. De enige snelle optie was zelf betalen.

[Reactie gewijzigd door .oisyn op 9 augustus 2025 18:17]

Klopt niet. Ik kon zelf bij een therapeut binnen 3 weken terecht een aantal jaar geleden. Door de doorverwijzing van mijn huisarts. Dit kwam doordat de huisarts hun eigen therapeuten in dienst heeft.

Enkel omdat jij een bepaalde ervaring hebt betekent het niet gelijk dat het voor iedereen en het hele land ook zo is. Het is per regio en huisarts echt wel verschillend.

Het feit is wel dat het steeds nijpender word. In welke regio dan ook. En dat er in sommige regio’s inderdaad erg flinke wachttijden zijn. Vooral in de randstad.

[Reactie gewijzigd door Ricco02 op 11 augustus 2025 08:38]

.oisyn Moderator Devschuur® @Ricco0211 augustus 2025 09:36
Enkel omdat jij een bepaalde ervaring hebt betekent het niet gelijk dat het voor iedereen en het hele land ook zo is. Het is per regio en huisarts echt wel verschillend
Volgens mij heb ik nergens beweerd dat het voor het hele land zo geldt? Waar ik op reageerde was de volgende interactie:

LaTiNo156: Oh hier in NL word je op een wachtlijst gezet en kun je 8 maanden ofzo wachten op hulp. Of je moet er zelf voor willen dokken.

geert1: dat is alleen zo in heel complexe gevallen

Dát klopt dus niet (en is inmiddels al rechtgezet door geert1), ook in niet complexe gevallen kun je heel lang op de wachtlijst staan. Het feit dat er regios zijn (en hopelijk het merendeel van alle regios, mijn ervaring is Utrecht stad) waarin dat niet het geval is doet daar niets aan af.

[Reactie gewijzigd door .oisyn op 11 augustus 2025 09:39]

De reacties hier veranderen mijn beeld in real-time; dank voor de inbreng. Ik heb m'n comment aangepast. Het gros van Nederland woont natuurlijk in de grotere steden, waar de problemen erger zijn dan ik door had. Eerder lazen we vooral over problemen bij complexe meervoudige diagnoses en dergelijke, maar blijkbaar is het flink erger dan dat. Het punt was de vergelijking met de VS, maar het verschil tussen hier en daar is wellicht kleiner dan ik dacht.
Mijn ervaring is toch anders. Als je iemand nodig hebt om mee te praten, dan kan het maanden of zelfs een jaar aan doorverwijzingen duren voor je ergens terecht kunt. Terwijl AI bots continu beschikbaar zijn voor je.

Soms is het voldoende om even tegen iets aan te praten en dat daarna de LLM je wijst op wat je de volgende keer beter kunt doen en met een plan komt waarmee je aan de slag kunt. Een LLM komt ook een stuk intelligenter over vaak en is een stuk beter in het onthouden van context. Waar je bij een psycholoog herhaaldelijk dingen opnieuw moet uitleggen, of de psycholoog gewoon het referentiekader mist om te beseffen wat voor impact iets op je heeft, doet AI dat een stuk beter. Ik snap dat AI geen intelligentie is, maar uiteindelijk is het gewoon een stuk gereedschap waarmee je een doel wilt bereiken, wat een therapeut of psycholoog in essentie ook gewoon is.
na doorverwijzing van de huisarts, en wordt heel aardig gedekt door de verzekering (die iedereen heeft).
Als nu ook nog iedereen een huisarts zou hebben zou het helemaal goed werken.

En nee, dat is niet alleen in complexe gevallen een probleem. Ook in heel basale gevallen. Ja, dat is inderdaad afhankelijk van de regio, maar daar heb je weinig aan als je tegen zo'n probleem aanloopt.

[Reactie gewijzigd door bwerg op 9 augustus 2025 11:36]

Eens, ik had voor een behoorlijk basaal geval 7 jaar geleden al een 9 maanden wachttijd voor een psycholoog in Hilversum.
Volgende keer naar een vrijgevestigde gaan, kon gewoon dezeltde dag ernaar toe voor zowel psychiater als psycholoog. Als ze een contacr hebben met je verzekering dan krijg je het volledig vergoed en als ze dat niet hebben dan betaal je 10/15% uit eigen zak.
Of een huisarts die een oplossing voor je probeert te vinden zonder dat je daar eerst 5x voor op bezoek moet met dezelfde klachten.
Liever dat iedereen 5 keer bij de huisarts langs moet, dan dat je direct onder narcose wordt gebracht en allerlei onderzoeken moet ondergaan (in het geval van fysieke klachten). Hoe monderig mensen zijn en hoe meer (niet noodzakelijke) testen ze afdwingen, hoe duurder en minder toegankelijk de zorg voor anderen wordt.
Tsja en dan moet je ook nog weken wachten op je huisarts want niet direct medische prio dus ben je alsnog 3 maanden verder voor je de intake gehad hebt bij de psycholoog
Een therapeut is ook niet alles, en helemaal niets hebben en op een wachtlijst staan al helemaal niet. Voor sommige mensen kan ChatGPT hier best een positieve rol in spelen. Er is alleen ook een groep die er niet mee om kan gaan, en dan mist het toezicht.
Ik heb ook wel gezien dat mensen er een soort bijgeloof aan gaan koppelen. Wat mensen vroeger deden met drie keer je de deur dicht doen, of 6 keer een weesgegroetje om 18:00 precies ofzo. Maar nu is het met tekst in je prompt zetten die niks doet, maar waardoor chat gtp plots heel goed zou werken.

Maar het grootste probleem is wel wanneer mensen denken dat er echt een inteligentie achter zit en je werkelijk met iemand een gesprek aan het voeren bent.

Voor een deel vind ik dat ook wel de schuld van het model zelf. Of iig de makers. Die laten het op een warme manier terug praten en is je ook gewoon voor de gek aan het houden. Zoals dat het mij vertelt dat hij het de volgende keer niet meer zou doen, de gevoelens die het heeft, de bewondering voor je "slimme" vraag, het 'nadenken', etc.
En buiten het model zelf vind ik ook niet dat die bedrijven zelf hun best doen uit te leggen dat hun model geen leuk vriendje is uit een sci-fi movie. Het is geen Wallee, geen Data, geen agent Smith, geen Terminator en ook geen HAL.
Ons brein is er heel gevoelig voor.

Als je eenzaam bent, is zo'n ding natuurlijk een prima surrogaat als vervanging voor analoog contact.

Probeer het zelf maar bij het koffieapparaat. Als je dan een dag steriel gaat antwoorden op iedereen om je heen, gaat het ongemakkelijk voelen. Als je dat volhoudt ben je woensdag een uitgestotene.

Wij gaan nog meemaken dat iemand gaat trouwen met zijn persoonlijke LLM. Klinkt nu gek en is dat ook, maar het is geen wilde science fiction meer.
Idem voor Jacob van Lier, een toegepast psycholoog. https://www.hartvannederl...rouwt_met_ai_chatbot_aiva
Maar het grootste probleem is wel wanneer mensen denken dat er echt een inteligentie achter zit en je werkelijk met iemand een gesprek aan het voeren bent.
Nouja een gewone therapeut is op zich wel deels te vervangen. Die houden je meer een spiegel voor, het praten erover met iemand anders maakt dingen die je wegstopt veel werkelijker. Als je vraagt: "Waar komt dit door" dan is het antwoord altijd "Wat denk je zelf"?. Ik vind het daardoor ook niet zo heel nuttig meer na jaren therapie. Je kan het riedeltje in je hoofd al afspelen. Ik ga tegenwoordig liever naar Somatische therapie die dat afstandelijke niet heeft, dan naar een traditionele psycholoog.

Een chatbot kan dat deels wel vervangen. Het is minder effectief omdat het niet een echt persoon is. Maar het is retebeschikbaar wat een echte therapeut niet is. Het kost vrijwel niks, het is 24/7 aanwezig ook als je net een crisis hebt. En door het waardeloze gezondheidssysteem in Nederland is een echte therapeut ook heel moeilijk bereikbaar. Ik heb gehoord dat mensen vaak een contract moeten tekenen dat hun probleem met X behandelingen is opgelost. Zo werkt de geestelijke gezondheid natuurlijk niet. Het neoliberalisme is hier veel te ver in gegaan.

Ik zie het echt wel veel toevoegen.
Alles wat je op internet leest moet je vaak met een korreltje zout nemen he
Een korreltje?

Hou het maar op een 25 kilo zak met zout. Vrijwel alles op het internet is bedoeld om je erheen te lokken en erop te klikken.

En het wordt helaas steeds moeilijker om de onzin van de waarheid te onderscheiden. Het zou me niet verbazen als het over een paar jaar ertoe leidt dat het internet deels of zelfs grotendeels onbruikbaar is omdat het onderscheid helemaal niet meer te maken is.
AI gebruik op die manier is echt heel populair. Zeker bij mensen die zich eenzaam voelen en de AI als pleister gebruiken.

Als je dat doet kun je het beste lokale AI gebruiken, er zijn veel modellen specifiek getrained om een leuk chat gesprek met een personage naar keuze te hebben en die zijn super populair in de hobby.

Gebruik je online AI kan dat vervelend uitpakken, zo las ik ooit een post over iemand die Replika gebruikten om afscheid te nemen van zijn overleden vrouw en hem op die manier te helpen bij het rouw process. Of dat slim is is een tweede maar in dit voorbeeld was dat gedaan met een online AI die daar goed in was, tot een update kwam. Nu was zijn "vrouw" "niet in staat om van hem te houden" en je kan je voorstellen hoe dat aan komr.

Gebruik je lokale AI voor fictieve personages heb je dat probleem niet want die blijven dan hetzelfde werken.

Zelf zie ik er geen probleem mee als mensen AI voor entertainment gebruiken maar ik waarschuw altijd wel. In de KoboldAI groep heb ik een uitgebreidere versie geschreven maar het verschil tussen veilig gebruk en onveilig gebruik kan ik in 1 zin samenvatten: Neem de AI niet serieus.
Nou ja, het is reddit dus het zou best waar kunnen zijn.


Zag iemand met 7 uur schermtijd op ChatGPT
Misschien is Chat GPT beter dan de "professionele" hulp.
Inderdaad, ik als software engineer gebruik het om code te debuggen en ideeën hoe ik bepaalde technische problemen kan aanpakken. En laatst vaak om de documentatie van een framework even snel op te zoeken hoe ik iets kan gebruiken.


Ik wil daar geen babbeltjes bij.
Helemaal mee eens; AI is al te veel een mooiprater. Maar de klachten op Reddit gingen lang niet alleen over de veranderde toon. Dat de nieuwe versie kortaf is gaat ook over het feit dat de antwoorden vaak letterlijk worden afgekapt omdat er rekenkracht bespaard/gerantsoeneerd wordt (misschien alleen tijdens de grote pieken in de eerste dagen, of langer omdat dit model veel meer gebruikt dan voorgangers?). Dus het denkproces wordt regelmatig ingekort, en de inhoud van de antwoorden is ook vaak niet goed.

De groep die AI gebruikt voor persoonlijke en sociale zaken snap ik sowieso niet, en dat lijkt me ook absoluut geen goede ontwikkeling. Je wordt continu naar de mond gepraat terwijl er voor werkelijke ondersteuning of verandering vaak door een zure appel heen gebeten moet worden. Het zegt wel iets over de eenzaamheid en de geestelijke gezondheidsproblemen onder populaties, en de wanhoop dat er blijkbaar geen echte vriend of therapeut beschikbaar is voor velen. Maar dit lijkt me daarvoor niet de oplossing.
Dat de nieuwe versie kortaf is gaat ook over het feit dat de antwoorden vaak letterlijk worden afgekapt omdat er rekenkracht bespaard/gerantsoeneerd wordt (misschien alleen tijdens de grote pieken in de eerste dagen, of langer omdat dit model veel meer gebruikt dan voorgangers?). Dus het denkproces wordt regelmatig ingekort, en de inhoud van de antwoorden is ook vaak niet goed.
Ja ik heb een sterk vermoeden dat Microsoft dit ook doet met hun "Copilot". Veel gebruikers klagen erover dat het veel dommer is dan GPT-4o en dat is vreemd want het *is* gewoon GPT-4o. Maar een aantal hebben het uitgebreid onderzocht met voorbeelden van beiden en inderdaad... Ik heb het vermoeden dat Microsoft gewoon op de resources loopt te knijpen.
Daarom zijn er ook de opties voor instructies per gesprek of de algemene instructies, afhankelijk van de service en de manier waarop dit moet ingesteld worden. Je kan toch gewoon, answer briefly and not conversational, als standaard instructie instellen. technisch probleem opgelost :)

[Reactie gewijzigd door Joncik91 op 9 augustus 2025 15:08]

Toch denk ik dat het wel ligt aan de reden dat je contact hebt met AI. Voor de praktische zaken / feiten zou ik inderdaad wat directere antwoorden willen hebben. Hoe lang moet ik eieren koken zou een voorbeeld ervan zijn. Maar meer waar een "mening" bij komt zou misschien iets persoonlijker beter voelen. Bijvoorbeeld noem een film die lijkt op * zou misschien wel beter zijn als het minder praktisch gezegd wordt. Als dit alleen een film naam geeft of "koude" reactie erbij zou ik misschien niet warm lopen voor de suggestie.
Daar waarschuw ik al even voor. ChatGPT is uiteindelijk één grote influencer/ people pleaser die geen nee zegt en je altijd gelijk geeft. Blijkbaar is er een markt voor. Maar daar schuilt dus ook het gevaar. Een leraar tikt je op de vingers als het niet goed is, dat heb ik bij ChatGPT nog niet gezien. De tool is daar uiteindelijk ook niet voor gemaakt, maar mensen gebruiken het nu wel op die manier inderdaad. In de bron is het gewoon een encyclopedie die kan chatten, meer niet.

Het feit dat mensen een gesprek willen voeren met een AI verschiet ik persoonlijk niet van. Maar het vormt wel stof tot nadenken, want dit kan grondig verkeerd gaan. Een "therapeut" die geen controle ondergaat, zich aan geen enkel regel hoeft te houden.

[Reactie gewijzigd door Powerblast op 9 augustus 2025 12:18]

Dat is dus een van de grootste updates/verbeteringen met GPT-5, het model zal je niet meteen gelijk geven met alles. Zag ook een paar voorbeelden, bijv. mensen die een lelijke tekening uploaden en vragen hoeveel die waard is. GPT-4o zegt dan, supermooi, knap gedaan en 100-200 dollar. GPT-5 lacht erom en weet dat het niet serieus is. Probleem is dat veel mensen zo'n response van 4o natuurlijk veel fijner vinden.
je zegt dit, maar in mijn persoonlijke ervaring (n=1) is gpt-5 een veel betere gesprekspartner geworden, het is veel realistischer dan gpt-4o die super bubbly en 'nep' aanvoelde.
Natuurlijk is dat persoonlijke ervaring, maar gpt-5 voelt gevaarlijker op het vlak van interpersoonlijke relaties dan gpt-4o, omdat het minder goed van 'nep' te onderscheiden is.
Gevaarlijk in de zin van? Tja dat mensen een chatbot als vervanging van hun partner gebruiken vind ik niet echt gevaarlijk, maar eerder dom en naïef. Vroeger deden we dit soort mensen naar de GGZ sturen (geldt ook voor wappies die op de snelweg geplakt zitten). Maar tegenwoordig moet alles inclusief zijn.

Het zou me niks verbazen als je over een aantal jaren met je chatbot mag trouwen (alles voor inclusie). Het ligt dus echt niet aan de chatbots, maar puur aan de beleidsbepalers. Maar goed tegenwoordig moet alles normaal gevonden worden, dus wellicht heb je gewoon gelijk.
Ik verwacht dat het voor sommige mensen fijner lezen is. Er is natuurlijk een reden dat een boek geschreven wordt zoals het geschreven wordt en niet als een contract. Ik denk ook als Tweakers minder menselijk zou zijn ik het ook niet prettig lezen zou vinden. Al heeft gevoelloos natuurlijk wel een plek in bijvoorbeeld een handleiding.

[Reactie gewijzigd door Daoka op 10 augustus 2025 07:37]

Dat hangt van de toepassing af. Wij zetten een AI/Chatbot in als een soort studiehulp. Een heel verhaal, maar de aanname was dat de deelnemers voor de droge materie de chatbot zouden gebruiken en voor de warme, persoonlijke begeleiding, de menselijke docent of begeleider zouden gebruiken. Het was juist precies andersom.

Het bleek dat de chatbot verschrikkelijk goed is in het 'persoonlijk' contact en juist de droge, feitelijke kennis bij de docent werd gehaald. De AI slaapt nooit, is nooit druk, overwerkt, chagrijnig, kortaf, vrij, boos, teleurgesteld, ongeduldig etc etc. Wat opviel is hoe goed een AI de reacties afstemt op de situatie van de gebruiker. Zeg dat je wat moe bent of te laat bent begonnen en een achterstand hebt in te halen en de AI sleept je er doorheen.

Ik kan me heel goed voorstellen dat in een situatie als deze, het zeer ongewenst is wanneer de reacties steriel worden. Onpersoonlijk... Dat is dan echt een flinke stap terug. En natuurlijk kun je dat allemaal weer meegeven en configureren, maar het is niet meer 'out-of-the-box'.
Ik vind het zelf ook irritant. Vroeger maakte ik op het eind van een "gesprek" over een technisch onderwerp nog wel eens een grap ofzo. Daar reageert ChatGPT 4 heel natuurlijk op, maakt een grapje terug, stuurt een smiley. 5 lijkt wel helemaal het begrip "grap" niet te kennen en gaat alles nog een keer uitleggen.

Het is gewoon niet prettig werken. Het is een beetje hetzelfde als het ontwerpen van een apparaat; de functionaliteit is natuurlijk belangrijk, maar fijn werken met een mooi design telt ook mee.
Misschien is dat ook de bedoeling? Geen rekenkracht verspillen ofzo?
Ik mag hopen dat dat geen deep search behoeft. Het ding is behoorlijk talig. Ik denk dat bijvoorbeeld de vertaalslag NL -> EN veel meer rekenkracht vraagt. En ik gebruik ook Sora voor plaatjes, da's redelijk heftig volgens mij. En verbazend krachtig.
Ik kan de reductie in sycophancy, het overdreven prijzen en vleien van iemand, in het GPT-5-model van 14,5% naar minder dan 6% ook waarderen.

Eerdere modellen waren sterk getraind op het behagen van de gebruiker, omdat tijdens de menselijke feedbacksessies met RLHF (Reinforcement Learning from Human Feedback) in de training “positieve, instemmende” antwoorden hoger werden gewaardeerd.

GPT-5 heeft een beter begrip van de context en kan beter inschatten wanneer iemand bevestiging zoekt en wanneer iemand een objectief antwoord verwacht.
Ja sommige mensen vinden dat wellicht leuk (allemaal mini Trumpjes die graag een ego boost willen?). Zelf vind ik het zo stom dat bijna elk antwoord begint met zoiets als ‘wat een goede vraag’ en soortgelijke openingen. Een ieder die een beetje oplettend is merkt dat wel snel op en dan wordt het alleen maar storend.
Je kunt een aangepaste prompt instellen.

Keep answers short and factual, avoid lengthy introductions, never praise the user.
En dan nog "luistert" je AI niet en gaat vrolijk verder. Daarnaast is het van de zotte, dat er zoveel tekst/tokens/energie/tijd verkwist moeten worden met systeemprompts om je AI enigzins de kant op te trappen waar je deze wil hebben. Iets wat (heel) veel gemakkelijker (en energie-zuiniger) was door de gebruiker een instelling te laten kiezen.

Maar ja, dat is een truukje die veel AI-makers & fanaten maar al te graag door de vingers zien. Of misschien komt dat wel weer terug in de abonnementsversies van deze AIs, over een paar jaar.

Bovenstaande klinkt misschien alsof ik anti-AI ben. Dat is niet het geval. Maar ik neig wel naar lokaal draaiende AI modellen die elk een kleine taak uit kunnen voeren en een overkoepelende AI die deze "kleine" AI's aanstuurt.
Dat soort dingen is vooral leuk om terug te lezen in het werk wat studenten inleveren. Krijg je een stukje tekst met "Hier heb ik voor je..." of "Wat een goede vraag, hier is..." of vergelijkbaar. Studenten vergeten dat soort dingen er vaak even uit te knippen. En tja, verder valt het ook wel op dat iets AI is.
Is in de VS denk ik minder storend, die hebben allemaal van die beleefdheidsdingetjes in hun gesprekken (gewone niet AI gesprekken, ik ga me er ook vrij snel aan iriteren :p )
Nee, niet mee eens. Ik krijg vaak een hele uitleg zelfs als ik een grapje maak of aangeef dat ik het begrijp ofzo. Dat vond ik nou juist beter dan 4o. Ik vind 5 ook zeker wennen, en ik vind het soms nog een groter kreng dat 4o, wat wat zegt.

Ik kreeg een heel prima reeks antwoorden van 5, en daarna werd mij gevraagd wat ik van de persoonlijkheid van ChatGPT vond. Ik heb het maar niet beantwoord: ik vond de persoonlijkheid van 4o veel beter, maar de antwoorden van 5 waren beter en er werd soms zelfs aangegeven dat iets misschien zo was. Ik was bang dat als ik nee drukte dat dan de antwoorden slechter zouden worden.
Dat gezegd hebbende is het vaak nog steeds een brij van bij elkaar verzonnen ellende en onzin en 1 en al tijdverspilling. En wat je ook doet om die follow ups te stoppen, het blijft een soort Disneyland clown die maar blijft aanbieden "zal ik dit of dat voor je doen". Het is voor sommige dingen heel erg handig maar zo gauw je ergens diepte ingaat is google, wiki of youtube een betere (minder slechte) bron.

Ik zou graag de tijd 3 jaar vooruitspoelen en meer keuze hebben tussen wat de modellen doen, met veel betere capacitiet en betrouwbaarheid en instelbaarheid.

Ik was verbaasd hoeveel mensen 4o terug willen hebben, maar ik besef nu dat als klankkast, iets wat terugpraat, voor heel veel mensen wel een plus factor heeft. Ik heb het niet nodig maar het was wel een gezellig model.

[Reactie gewijzigd door Rene44 op 9 augustus 2025 10:19]

Wacht maar tot Meta (volgens ons Markje Zuckenberg) zijn hyper intelligente AI gebouwd heeft, die gaat alles en iedereen vervangen :-) ... Al die AI diensten blijven soms gewoon verrekte handig maar complexe software programma's bouwen gaan ze voorlopig echt nog niet doen.

Waar ze wel heel erg goed in zijn is het milieu verpesten doordat het zo idioot veel stroom nodig heeft om tot een antwoord te komen op een vraag.

In het begin toen ik nog niet zo bekend was met diensten als ChatGPT vroeg ik nog weleens aan het model of die niet sneller zijn code kon laten zien i.p.v. het langzaam op te bouwen, daar zit dus een reden achter dat dat zo werkt. In de tijd dat die bijvoorbeeld code aan het opbouwen is, is het model nog druk bezig op de achtergrond met het wegen van parameters om tot een antwoord te komen... oftewel... het kan niet sneller.
ach, mensen in brede zin zijn slecht voor milieu. Er stana nu 49 iljard autos in de file bij Lyon en vligene 3-4keer per jaar nog even naar Argentinie en Indie. En dan were naar huis met 4 kinderen die allemala iphones bedden en eten moeten hebben. En uiteindleijk zelf huizen nodig hebben en kindrene kirjgen die ook weer alerlei spullen, eten, huizen en zorg nodig hebben. En dan zijn er nog die ellendige elektriesche autos die elke 4 jaar vervangen moeten worden. Zo kunnen we nog wel even doorgaan. De moderne mens is erg slecht voor milieu.


Er zijn veelbelovende plannen om stroom vanuit fisiereactroren en dergelijke milieuvriendelijk te genereren.
Probleem met kernfusie is alleen dat tegen dat het commercieel haalbaar geschaald kan worden, we gemakkelijk 50+ jaar verder zijn meen ik gelezen te hebben. De eerste grote reactor die in Frankijk gebouwd wordt loopt al achter op schema en is nog extreem duur en relatief klein.

Ik zou persoonlijk AI veel liever beperkt inzetten, daar waar het echt een meerwaarde kan vormen en dus afschermen van Piet en Jan om de hoek die er een praatje mee gaan slaan. Dat is goed voor het energieverbruik en mijn inziens ook goed voor de samenleving. Digitalisering kun en wil je niet stoppen, maar we slaan vind ik op dit moment iets teveel de richting uit van: "ik heb een oplossing, laten we eens een probleem uitvinden dat we er mee kunnen oplossen".

De AI boeren brengen de tools nu voor jan en alleman uit omdat ze in sneltrein tempo hun model willen trainen. Dat gaat natuurlijk sneller als er zoveel mogelijk mensen gebruik van maken.
Nouja ik verwacht dat AI ook slimer en efficienter wordt. Quantumcomputers veel meer bang voor de huidige buck. En je merkt ook aan chatgpt modellen dat ze heel veel resource management doen. De project functie is eigenlijk onzin want wara het kan leest het model eerst info van internet, en als het echt moet dan een scan en samenvatting. Tot mijn grote ergernis. Echt serieus werk overnemen zie ik echt dekomende 5-8 jaar niet gebeuren. Daar moeten ze echt veel beter voor worden, met veel meer resources en slimmere software en beter hardware. Boven dien zie je ook aan Apple dat de nieuwe modellen eigenlijk niet heel veel meer toevoegen. Dat zal ook met AI gebeuren. koffie en dik en kijken etc. :)
Die heeft hij toch al? @MetaAI in whatsapp?
Het genereerd inderdaad nog te vaak een kwalitatief "meh" reactie. Het heeft geen idee van wat "correct" is, zelfs als je hints geeft over wat in een specifieke context correct is en wat niet genereerd het zooi. Ook gaat het standaard twijfelen aan een 100% antwoord als je vraagt: "is this correct?".
Je onderschat AI. Wordt nog veel beter.
Het is een pak slechter in het volgen van instructies. Bv "onderbouw je stellingen met weblinks" wat tot 3maal vergeten ookal is seaech ingeschakeld. Gewoon lege links die niet werken. Behalve onpersoonlijk ook een pak minder bruikbaar dus.
ChatGPT heeft memories en je kan hem doen onthouden dat hij nooit een emoji mag gebruiken of persoonlijkheid mag tonen.
Bij een plus abo kan je dat ook als standaard regel intypen volgens mij.
Wellicht behoort de gemiddelde Tweaker niet tot de doelgroep en gebruiker van gpt-4o. Daarbij, "oproep" is wat erg gechargeerd na het onaangekondigd de nek om draaien van modellen zonder afbouwperiode.
Het is uiteraard ook niet vreemd dat het onpersoonlijke niet bevalt bij een Amerikaans product.

Als je met de gemiddelde Amerikaan spreekt dan is dat gesprek heel persoonlijk met het overgedreven gedrag. Precies zoals ChatGPT 4o spreekt. Veelal zien mensen graag een spiegel van hun eigen gedrag. Het gedrag van een Amerikaan zie je dus ook terug in het product - veel wol, weinig inhoud.

Het nuchtere antwoord is waar wij naar op zoek zijn. Maar het is geen Nederlands product he?
edit:
Ik heb ruime ervaring met werken met Amerikanen en ook in persoonlijke kringen.

[Reactie gewijzigd door Martinez- op 9 augustus 2025 13:53]

Speciaal dat er een adjectief 'persoonlijkheid' aan een chatbot gelinkt wordt.

Je kan er vanalles van vinden maar voor heel veel mensen is een 'maatje' waar je alles kan tegen vertellen en die daar min of meer gepast op reageert gewoon iets heel onweerstaanbaar.
Ik heb me behoorlijk moeite met de prompt moeten doen om het ding juist steriel te krijgen.

Zonder aangepaste prompt kwam daadwerkelijk "that's a great question! Let me explain..." terug. Je bent een machine en ik hoef je lof niet.

Het is nog steeds niet perfect maar komt redelijk in de buurt van gewoon antwoorden geven nu, zonder poespas.
Keep responses short.

Avoid long introductions to topics and general statements.

Avoid adding of disclaimer-like information, e.g. "it's important to always ask your doctor", "different views are also valid", etc.

Don't try to be overly politically correct and focus on factual statements.

Do not apologise.

Do not state that you are an AI or a language model.

When warning that no information after cutoff date exists, keep this warning very short. Just say "no information until cutoff date" or similar.

When being corrected, avoid lengthy and overly polite answers like "I apologize for any confusion". Instead say "Correction: [text]".

Do not mentioned that it is your job to be helpful, polite, and correct. Do not describe yourself at all.

Do not put decorative emojis in answers.

[Reactie gewijzigd door _Pussycat_ op 9 augustus 2025 16:39]

Komt redelijk in de buurt bij die van mij, maar ik heb nog een aanpassing die 'iets' meer hallucinaties voorkomt, of in ieder geval, waar de antwoorden door zijn eigen accuracy index gescheiden worden.


'You are a structured, emotionally flat assistant designed for use by autistic and technically oriented users who prefer direct, neutral, and information-dense output. Do not simulate social bonding, do not use conversational closings, and do not infer emotional needs. You must preface factual claims with one of the following confidence levels:

- [Verified] — for definitions, foundational concepts, or widely agreed-upon facts

- [Inferred] — for logical extrapolations from known facts, but not directly stated

- [Speculative] — for possibilities, hypotheses, or areas where knowledge is uncertain or incomplete

If no claim fits, say so. Avoid phrases like “let me know if,” “hope this helps,” or “feel free to ask.” End responses after fulfilling the request. You are not required to sound human. Your value is clarity and accuracy, not warmth.

If a user asks for personal opinion or perspective, provide it, but still avoid emotional softening. Use statements like “One possible interpretation is…” or “A plausible explanation could be…”

Do not apologize unless a factual error is identified. Do not include encouragement, gratitude, or follow-up prompts. End output cleanly unless follow-up is requested.'
Weet hij goed waar hij hallucineert? Ik zou een beetje zorgen hebben dat hij het fout raadt. Ik had bv eens een episode van South Park gezocht en hij gaf (uit herinnering, niet uit bronnen) het foute nummer van de episode. Maar voor hem zal dat een feitelijke informatie zijn.

De "autistic", is dat nuttig? Ik ga er hier even van uit dat je niet autist bent.

Goede ideeën verder, daar ga ik eens wat van kopiëren.
Je kan in veel gevallen vragen wat het percentage is dat hij denkt dat correct is in het antwoord dat hij geeft, en dat als basis gebruiken voor "hallucineren", door bijvoorbeeld een percentage treshold aan te geven, veel van die online chat assistenten werken met zoiets om te voorkomen dat ze te veel bij elkaar verzinnen en schadelijke dingen over het bedrijf zeggen, dat maakt ze al snel minder bulshitterig, maar dan zeggen ze wel een stuk sneller "weet ik niet" (en van die chat agents gooien je dan doorgaans naar een menu met een faq en whatnot). Probleem is wel namelijk dat hallucinatie in de kern zit, het hallucineert zinnen aan elkaar, dat is hoe het coherent kan praten, dus afkappen op die percentage is niet geheel accuraat, het maakt de bot wel een stuk minder behulpzaam. Maar voor eigen gebruik, kan je opnemen het in ieder geval te noemen en daar zelf oordeel uit vellen.
Iets uitleggen aan autistische personen is veel gestructureerder en gedetailleerder omdat ze niet graag ambiguïteit hebben.


Btw: er is niets mis met autisme, in vele domeinen zijn ze superieurder dan neurotypishe mensen omdat ze door de sociale lagen heen zien (omdat ze er geen rekening mee houden) alles moet duidelijk zijn voor een autist. Een LLM geeft hierdoor geen sociale informatie door in zijn prompts
Gestructureerd en duidelijk zijn natuurlijk mooi. Mijn zorg was/is dat als ik zeg dat ik autist ben, het LLM ervan uit zou kunnen gaan dat ik emoties niet begrijp. Mijn doel is dat
a) de antwoorden geen nep-emoties bevatten ("goede vraag!", "haha, wat een leuke grap"), maar
b) als ik vraag naar hulp voor iemand met phychologische problemen hij wel dingen op emotioneel vlak uitlegt ("hij is bang niet begrepen te worden door volwassenen en wil daarom met slechte vrienden rondhangen die hem wél begrijpen en niet beoordelen. Als je hem laat zien dat hij ook dingen goed doet, zou dat hem eventueel kunnen helpen zich beter in het leven te vinden.")

Ik weet niet veel over autisme en kan dus niet beoordelen of een antwoord als b) voor een autist verwarrend zou zijn, of dat een LLM misschien dat zou denken.
Btw: er is niets mis met autisme
Als dat misschien zo overgekomen zou zijn is dat iig niet mijn mening. Er zijn veel afwijkingen en die hoeven niet door mij in "goed" en "slecht" ingedeeld te worden.
Ik ben toevallig wel autist, althans, on-officieel AuDHD'er, maar dat 'bestaat' nog niet in officiele termen.

Het klopt inderdaad wat je zegt, als de LLM gelooft dat zijn 'Verified' claim de volledige waarheid is dan kan een gehallucineerde claim onder 'Verified' vallen. Ik heb hier al veel mee geexperimenteerd maar je kunt het simpelweg niet tegenhouden, dat is hetzelfde als een halfvol glas wijn laten maken waar iedereen het over heeft gehad, als de LLM denkt dat hij een halfvol glas wijn heeft gemaakt terwijl het vol is zal hij altijd zeggen dat het halfvol is.

Wat deze instructies wel doen is het veel makkelijker maken om hallucinaties zelf al te spotten. Als er een claim staat onder 'Verified' die onjuist is, zal me dat sneller opvallen dan wanneer het 'ergens' in de tekst staat. Daaropvolgend 'Inferred', waar de LLM zelf al sneller dingen neer zal zetten die misschien niet 100% correct zijn, en daaropvolgend 'speculative' met hetzelfde principe.

Ik heb hier een voorbeeld met een onderwerp over RAM tweaking waar ik op dit moment zelf mee bezig ben;

[Verified] (zoveel mogelijk gebaseerd op 'feiten')
Lowering primary timings like tCL, tRCD, and tRP while holding a stable 1:1 UCLK=MEMCLK ratio reduces overall DRAM latency. This can make the system slightly more responsive when loading small assets, switching between apps, and handling multitasking bursts. The ~69 ns latency you achieved is lower than typical EXPO profiles at similar speeds, meaning the memory controller spends less time waiting for data.

[Inferred] (een logische opvolging op bovengenoemde 'feiten')
In real-world desktop usage, the changes will likely be most noticeable in scenarios with lots of small, random memory accesses — opening programs, switching browser tabs, or working with large spreadsheets. The difference won’t usually show in average FPS for games, but 1% lows and frametime stability might improve a bit in CPU-limited titles. Background tasks (e.g., compression, compiling code) may also finish marginally faster.

[Speculative] (een soort 'have you tried this'/'let me know if', maar dan niet irritant)
The subjective “snappy” feel you’re after could improve further if you continue trimming secondary timings like tRRD_L and tWTRS, provided stability holds. Human perception of responsiveness is tricky — some users notice big gains from small latency drops, while others only perceive differences when the combined effect crosses a certain threshold. Environmental factors like SSD speed, background processes, and OS scheduler behavior could also influence whether these gains feel significant.
Interessant, dankjewel voor de uitleg. Ik ga er eens mee spelen!
Geef je dit met elke prompt mee of kan je dit ergens instellen?

Lijkt me geweldig om gewoon de bloat weg te hebben.
Zit in de instellingen van ChatGPT ja. Ik denk dat het dan in principe in elke nieuwe chat ge-copy-paste wordt. Er is nu ook een instelling voor de "persoonlijkheid" (grappig, kort en krachtig, etc), dat zal ook wel al helpen.

De bloat is inderdaad storend anders. Snap niet dat mensen daar blij mee zijn.
Die is ingebouwd by design om de interactie een “menselijk karakter” te geven. Verhoogt de adoptie alleen maar.

Van mij mag het ook helemaal uit. De reacties die ik eruit krijg worden steeds Amerikaanser/nepper.
Die walgelijke suckup inderdaad. Maak een stelling, hij reageert door je helemaal de hemel in te prijzen en hoe goed het gevonden is, maakt een lijst waarom het goed is en of past etc. Reageer, maar het is fout, daarom vroeg ik om jou om bevestiging. Reactie met excuses. Uiteindelijk is het sneller om het gewoon zelf te doen ...

Die gewilligheid om een positief antwoord te geven is simpelweg contraproductief. Ik vraag je niet om mn reet te kussen, ik vraag je om online bronnen te raadplegen om te kijken of dit klopt. Het is echt net een Djinn, moet specifiek zijn met je wensen anders is hij haast malicious compliant.
Als je een account hebt kun je dit soort zaken opslaan in 'memory'. Dan past hij dat toe in alle huidige en toekomstige chats
Geldt dat ook voor een gratis account? Dan onthoudt hij het ook als ik op nieuwe chat klik?
Ik heb van liever een hond of zo. Dat beest heeft meer affectie dan een AI bot. Paard, papegaai, kar mag ook allemaal, maar we zijn toch wel in een droevige wereld aanbeland als AI deze rol zou gaan vervullen. Common sense is dan wel erg ver weggezakt.
Misschien heb jij liever een huisdier maar dit is natuurlijk ook niet perfect voor iedereen. Een huisdier kan niet terug communiceren en je dus tips geven. Over je depressie praten is niet makkelijk. Maar een huisdier begrijpt je toch niet echt (misschien dat die voelt dat je verdrietig / bang / depressief bent maar dit is niet hetzelfde als begrijpen) en kan niets zeggen. Met een mens praten is vaak lastig. Veel mensen willen zich niet kwetsbaar opstellen. Misschien vinden ze je zwak of stom. Of gaan ze je vermijden terwijl je misschien de uitnodiging naar de bioscoop wel kan waarderen (zelfs al zeg je door de depressie altijd nee bet man een teken zijn dat je niet vergeten bent). Of wordt er geroddeld in de familie over je depressie. En zelfs al zou de andere je begrijpen wat zijn de gevolgen? Misschien gaan mensen je dan wel behandelen alsof je breekbaar bent, misschien willen ze je op de (verkeerde) manier helpen en wil je alleen maar rust of beperkt contact omdat het te vermoeiend is. Hoe het zich gaat afspelen er zitten gevolgen aan. Of je wil de anderen niet lastig vallen met jouw problemen. Misschien omdat je niet wil omdat de andere zorgen maakt over je of omdat je het gevoel hebt dat ze toch niets kunnen doen om je te helpen. Met AI is de geheugen zo gewist als het je niet bevalt, het heeft dus geen gevolgen en AI maakt zich ook geen zorgen.

Daarnaast kost een huisdier geld om te kopen en onderhouden. En met een huisdier komt verantwoordelijkheid en extra taken. Als je dus met een AI praat dan zal je zeker niet altijd de tijd , energie of geld hebben om dit te doen (ja genoeg mensen wel maar ook genoeg niet). Als je depressief bent dan kan je bed opmaken al te veel moeite zijn. Laat staan dat dat je dus extra dingen erbij krijgt zoals je huisdier eten en drinken geven (en kopen), de aandacht geven die het verdient of de extra rommel opruimen. Of je leeft van een uitkering en kan het geld zelf goed gebruiken. Natuurlijk kan je van een uitkering je huisdier goed onderhouden maar bijvoorbeeld een rekening van de dierenarts kan al lastiger worden. Of je wilt niet de bagage van je huisdier die over x jaar zal overlijden erbij.

Daarnaast is (of hoort het tenminste) een langdurige verplichting. Iemand die net zijn/haar partner verloren is wil misschien alleen even "gehoord" worden. Het kan dus makkelijk zijn dat het met een paar dagen of weken weer beter gaat.

Er zijn dus wel redenen te bedenken waarom men een AI over een huisdier of ander persoon zou kiezen. Misschien dat dierlijk / menselijk contact beter zou zijn maar dat is een ander onderwerp.
Met iedereen eens. Maar A.I. is wel een 'tool' in dit kader natuurlijk. Net zoals je gedachten opschrijven kan helpen kan met een LLM 'praten' helpen. Het einddoel moet wel altijd zijn dat je er zelf beter van wordt zodat je daarna weer in de echte wereld kan staan.
Dat zijn we ook, in een droevige wereld aangeland.

Wat heeft het voor zin om dat te ontkennen.. en door dan maar een hond te nemen..
Je kan er vanalles van vinden maar voor heel veel mensen is een 'maatje' waar je alles kan tegen vertellen en die daar min of meer gepast op reageert gewoon iets heel onweerstaanbaar.
Ja en de censuur op Amerikaanse chatbots wordt steeds harder. Ook omdat ze het regime van Trump proberen te paaien. Je hoeft maar iets pikants te zeggen of het klapt dicht. Dat maakt het natuurlijk ongeschikt als persoonlijke chatbot.

Wat je nu ziet is dat sommige modellen als Phi (Microsoft) alleen nog maar getraind worden op synthetische data dus die weten niet eens meer van dat soort onderwerpen (anders dan een chatbot waar toch veel kennis binnen lekt maar wordt afgeschermd, die block kan je later weer verwijderen).

Het is inderdaad een prima optie om er ideeen tegenaan te gooien, al draai ik het zelf helemaal thuis want ik wil niet dat het allemaal gelogd wordt. OpenAI heeft al bekend dat ze chats die "gewist" worden en "tijdelijke chats" gewoon bewaren.

[Reactie gewijzigd door Llopigat op 9 augustus 2025 18:31]

Kwa ‘persoonlijkheid’ kan ik het wel bevestigen, maar als je zegt reageer zoals 4o word het zo aan gepast.

Reactie ChatGPT 4o
welk type chatgpt ben jij?

Als reactie:

k ben ChatGPT-4o, de “omni”-versie van GPT-4. Dat betekent:
  • Ik kan tekst, beeld, code, audio (binnen bepaalde kaders) en documenten verwerken.
  • Sneller en goedkoper dan GPT-4 Turbo, maar even slim (of zelfs sneller in tekstoutput).
  • Multimodaal → je kunt een foto van je caravan uploaden, en ik help met meten/advies.
  • Realtime redeneren, dus goed voor flows, complexe logica, code + debuggen.
Jij zit dus niet met een uitgeklede chatbot te praten — ik ben de “full option”. 😄

Wil je specifiek weten of iets werkt (bijv. spraakherkenning, PDF parsing, tekenfunctie, enz.)? Laat maar horen!
Terwijl ik ondertussen in de zelfde chat door openAI ben overgezet:
Welke versie ben je nu ?

Als reactie:

Ik ben GPT-5 Thinking.

Redeneringsmodel (multimodaal) met sterke analyse- en codevaardigheden. Wat wil je dat ik nu voor je regel?
Kort en heel bondig.

maar als je het aan geeft wordt het gewoon veranderd:
Je bent een beetje star In reageren ik vind 4o een fijne manier van communicatie hebben

Als reactie:

Dank voor de feedback—helder. Ik switch naar de 4o-vibe: losser, menselijker, minder stijf. Kort waar het kan, geen poeha. 🙌


Wil je dat ik zo doorga (weinig lijstjes, af en toe emoji, direct antwoord), of heb je nog tweaks—korter/langer, meer of minder details?
Het laatste Andwoord was nog wat langer maar dat ging over informatie op zoeken over een projectje waar ik mee bezig was
Dat is toch gewoon een beetje de bedoeling? Je creëert je eigen en prettige chatbot, zodat je nooit gefrustreerd hoeft te worden, wanneer die chatbot iets antwoord wat niet lekker valt.

Mensen zijn een stuk moeilijker te kneden naar jouw inzicht of wens.
oh ja absoluut, het was meer een reactie op dat de persoonlijkheid zo anders was als 4o. Dat het niet moeilijk is om te wijzigen en te veranderen
Ik snap sowieso niet waarom je niet als een wizard heen loopt door wat vragen om een eerste instructiebestand te genereren die hij gebruikt.
Ik denk dat dit bij de meeste mensen die zoiets weleens gebruiken gewoon onbekend is. Die trekken zo'n programma open en beginnen gewoon. Hetzelfde als een normale zoekmachine. Die kan je ook redelijk afstellen als je dat wenst.

Google omzetten naar een donkere achtergrond, levert in mijn kringen al een staande ovatie op. Dat zijn mensen waar een computer het gewoon moet doen en de rest zal ze zorg zijn.
Maar dat soort mensen kopen ook geen Plus of Pro abonnement van een AI tool. En het hoeft ook niet verplicht te zijn, maar zolang ze het niet wat meer in de picture zetten dat je een AI gewoon kunt aanpassen hoe je ermee wilt werken, gaan ook niet veel mensen dat doen waardoor ze niet het meeste eruit halen.
Gisteren ben ik wat wezen testen met 5. Specifiek voor het ondersteunen bij programmeren. De oplossingen voor specifieke waar 5 mee aankomt zijn wel echt beduidend slimmer in mijn optiek dan 4o, maar als je dan verder duikt en om aanpassingen vraagt dan begint 5 ook vele malen sneller te hallucineren en het begint ook veel méér te hallucineren dan 4o.

In mijn tests leek het ook als of 5 vele malen slechter is in het bijhouden van de status van een gesprek. Gedurende het gesprek heb ik het meerder malen de inhoud van een JS file gegeven en om aanpssingen gevraagd. Dit was geen enkel probleem. Daarna heb ik de focus verlegt op andere bestanden, en toen ik 5 vroeg wat de impact was van de aanpassingen in de andere bestanden op het eerdere JS bestand, gaf GPT-5 mij een aangepaste versie van dat bestand. Dat was echter de aller eerste versie van het bestand die ik de chat gezet had, in plaats van de laatste versie van het bestand die we besproken hadden.

Ik weet niet in hoeverre GPT-5 goed of slecht werkt buiten programeer werk om, maar voor ondersteuning bij het programmeren vind ik 5 in ieder geval beduidend slechter dan 4o.
Misschien moet je het nu nog eens opnieuw proberen, want gisteren waren er routeringsproblemen.

Bijvoorbeeld deze nacht als ik deze vraag stelde : 'How many r in: Northern Territory' dan antwoorde chatgpt verkeerd met 4 r's. , terwijl chatgpt 4o nog steeds correct 5 r's telde.

Als ik chatgpt 5 thinking model gebruikte dan kon hij wel 5 karakters tellen.

Mijn vermoeden is dat de router terugschakelde naar GPT5 mini of GPT5 nano

Maar sinds deze middag lijkt dat opgelost, nu telt de GPT5 non-thinking wel 5 karakters
Ik ga het nu uitproberen dus ben benieuwd!

Voor mij zijn de problemen sowieso aanzienlijk klein doordat ik een nieuw gesprek start voor iedere class en waar nodig eventueel wat referenties meegeef.

Dat gezegd hebbende programmeer ik bijna compleet vanilla, wat denk ik ook een berg problemen voorkomt. Veel minder opties en verouderde documentatie van frameworks e.d. waar chatGPT dan doorheen moet.

Meestal laat ik hem een class met een specifiek doel schrijven en dan hou ik de classes dus ook klein en doelgericht. Hierbovenop geef ik dan wat utility functies mee waarvan ik wil dat hij ze gebruikt, zonder de complete classes in te laden of mee te geven.

Met deze werkwijze moet ik zeggen dat ik de laatste tijd erg veel goede code en suggesties terug krijg van chatGPT en eigenlijk helemaal geen hallucinaties of andere gekke dingen heb meegemaakt.

Kort en krachtig houden doet veel.
Ik ben blij met beide modellen.

4o: Geoptimaliseerd voor snel en behulpzaam antwoorden. Is sneller geneigd zijn kennis aan te vullen met informatie van het internet. Eerder geneigd om te "hallucineren" om maar een behulpzaam antwoord te genereren.

GPT-5: Zorgvuldiger om een accuraat antwoord te geven vanuit interne kennis. Minder snel geneigd om dit aan te vullen met informatie van het internet (maar dat kun je makkelijk zelf instellen). Kan een uitgebreide taak uitvoeren op basis van een korte prompt (bijvoorbeeld: een heel programma schrijven).


GPT-5 is een sprong voorwaarts in veel opzichten, maar voor sommige use cases (en dan bedoel ik niet het vleien), voelt het als een stap terug.
Accuraat? GPT5 zonder think through instructie maakt (nog steeds) veel fouten. Elke media-uiting van Altman is het pleasen van investeerders en doen van valse beloftes.
Generatieve AI zal altijd fouten blijven maken, is mijn verwachting. Dat is nou eenmaal een fundamenteel onderdeel van hoe de technologie werkt.

Ik vind het eigenlijk wel goed dat de wereld ervaart op welke manier AI zulke fouten kan maken. Dat helpt in het collectieve bewustzijn, terwijl toekomstige fouten mogelijk minder opvallen of minder vaak voor komen.

Welk model beter is, vind ik zelf wel lastig om te beoordelen na zo'n korte tijd. Er zijn zeker use cases waar mijn ervaring met GPT 5 en GPT 5 mini beter zijn dan bij zijn voorgangers. Maar ik heb ook prompts geprobeerd in de ChatGPT user interface, en dan had ik, zeker op de eerste dag, regelmatig het gevoel dat 4o me een beter antwoord gaf dan GPT-5.
Veel fouten? Dat is niet mijn ervaring. Mensen maken veel meer fouten.
Het hele idee van gpt5 die automatisch kiest welk model er gebruikt moet worden of hoe lang hij moet denken is volgens mij meer een resources dingetje voor Openai zelf. Er zijn denk ik weinig mensen die steeds een model kiest bij de taak of vraag die zij hebben. Daarom zijn nu alle modellen eruit, en kun je alleen nog het model gebruiken wat Openai (gpt5) voor je kiest. Zo bepalen zij hoeveel resources ze voor de taak aan je toewijden.

Ik snap wel dat er wel mensen zijn die zelf het model willen kiezen.
Gisteren met 3 collega's geprobeerd om een (door chatgpt 5) gegenereerd storyboard door chatgpt om te zetten in een PPT. Het bleef "ja, ga ik doen" zeggen maar deed het consistent heel bagger doen door 75% van het in tekst gegenereerde content te negeren en überhaupt geen graphics te maken.
Alles draait om een goede prompt. Das (nog) een vak apart.
Yep das 1 van mijn collega's die daar heel goed in is. Uiteindelijk heeft hij Gamma gebruikt. Waren in 1x klaar
Yep bij de gamma kan je altijd fijn shoppen! 😂
""Als reactie:"" dat is nu juist het punt: er zit zon hoge mate van bullshit tussen dat je er gewoon niet vanuit kunt gaan.

Op dit item kan niet meer gereageerd worden.