ChatGPT 4o is weer beschikbaar en GPT-5 krijgt selectieoptie voor beste model

ChatGPT 4o is vanaf woensdag weer beschikbaar voor alle betalende ChatGPT-gebruikers. OpenAI kondigde eerder al aan het model terug te brengen. Ook komen er verschillende nieuwe opties om GPT-5 te gebruiken, zoals een snelle zoekopdracht, zegt OpenAI-ceo Sam Altman.

Altman schrijft in een post op X dat 4o inmiddels beschikbaar is voor alle gebruikers met een ChatGPT Plus- of Pro-abonnement. "4o is terug in de modellenselectie", zegt Altman. "Als we dat model ooit uitfaseren, nemen we genoeg aankondigingstijd." Gebruikers kunnen in de webapp verder ook kiezen om andere modellen zoals o3, 4.1 en GPT-5 Thinking mini te gebruiken.

OpenAI heeft die aanpassing doorgevoerd nadat het dat eerder deze week al beloofde. Het bedrijf bracht vorige week het langverwachte GPT-5 uit, maar al snel bleken gebruikers niet erg tevreden. OpenAI maakte het model de standaard, waardoor 4o niet meer te gebruiken was. Veel gebruikers vonden 4o beter en prettiger werken. OpenAI zei toen al dat 4o opnieuw beschikbaar zou komen.

Naast het terugbrengen van GPT-4o wordt ook GPT-5 aangepast. Er komt een optie waarmee gebruikers kunnen bepalen welke versie van het model ze willen gebruiken. Dat kan het Fast-model zijn, dat sneller is, of juist het Thinking-model dat kan redeneren maar trager is. Het is ook mogelijk een optie te kiezen om automatisch te wisselen naar het beste model.

Tot slot verhoogt OpenAI de gebruikerslimiet voor GPT-5 Thinking. Die stijgt van 200 berichten per week naar 3000. De contextlimiet voor Thinking ligt op 196.000 tokens. Wel waarschuwt Altman dat OpenAI die limiet mogelijk kan bijstellen als dat nodig is vanwege het verbruik.

Door Tijs Hofmans

Nieuwscoördinator

13-08-2025 • 08:33

65

Reacties (65)

65
65
40
1
0
23
Wijzig sortering
Ligt het aan mij, of begint de rek van LLMs er nu langzaam uit te raken en zijn we over het hoogtepunt heen?

[Reactie gewijzigd door Deem op 13 augustus 2025 08:36]

Nee, er komen echt wel flinke stappen aan. GPT5 was gewoon een grote teleurstelling maar dat was al te verwachten. OpenAI loopt een beetje achter momenteel.

De verwachting is dat Gemini 3.0 zometeen een gigantische stap gaat maken. Inmiddels is Gemini 2.5 al een half jaar op de markt en nog altijd markt leider in vrijwel alle punten. 1 miljoen tokens, super snel antwoorden en super goeie code generatie. Claude 4.0 en Opus zijn net wat beter in code maar hun API's zijn gewoon rete duur.

De verwachting is echt dat als Gemini 3.0 ready is die stap enorm gaat zijn en de concurrentie daarop weer reageert. Ik hou de nieuwtjes nouw in de gaten, wat me wel bijzonder tegen valt is dat de chinese AI diensten geen stappen meer hebben gezet. Toen Deepseek kwam was bij iedereen de verwachting dat ze in grote sprongen de Amerikaanse modellen zouden inhalen, maar dat is flink tegen gevallen nu. Zelfs Qwen is inmiddels ook bij dus kwa opties en concurrentie is het hefig maar het is niet beter dan de concurrentie nog. Maar de echte grote stappen verwachting ik van Google Deepmind. Claude is ook zeer lekker op gang maar ze moeten echt iets doen aan hun Token limits en prijzen. Claude Opus 4 is gewoon te duur.

Persoonlijk vindt ik de pijn punten van AI momenteel in "memory". Als ik in cursur of Kiro(andere IDE) werk aan een app gebeurt het nog te vaak dat claude code of andere AI modellen steeds vergeten wat er precies van ze verwacht wordt en gevraagd wordt. Je maakt hele goeie documentatie, specificaties en requirements in het project, en je geeft aan wat je wel en niet wilt en toch zodra je 5 prompts verder bent zijn ze het weer vergeten. Dat maakt met name dat AI nu niet lekker loopt. Ik moet vaak dezelfde dingen blijven herhalen in iedere prompt om zeker te zijn dat het goed gaat.

Ook simpele dingen als, hoeveel koffers van dit merk passen er in de achterbak van deze auto... Of welke 13inch of groter laptop na 2020 is de lichtste die men kan vinden (in Japan). Dat is de Fujitsu UH-X laptop van 634 gram maar geen van de AI modellen weet dit dan te vinden tenzij ik het zelf benoem.

Dat zijn vooral de pijn punten.

[Reactie gewijzigd door Nimac91 op 13 augustus 2025 14:50]

Heeft google met Gemini ook niet het voordeel dat het op zijn eigeb TPU's draait ipv dure nvidia kaarten?
Of zijn ze daar ondertussen van afgestapt?
Ik weet niet of dat perse het verschil maakt. Daar heb ik geen ervaring mee. Ik zou eerder denken dat de hoeveelheid data en de wijze waarop ze getraind worden een groter impact hebben dan welke processor of GPU de modellen draait.

Ik denk dat Google met name het voordeel heeft dat het Google is. Google is gewoon internet, iedereen doet constant google searches om alles op internet te vinden en die informatie heeft google al sinds internet bestaat in hun handen. Het hebben van Youtube en google workspace en dat allemaal in één product kunnen gooien is ook zo'n grote pre. En uiteraard het voordeel dat zij de enige van de 3 tech giganten(Google, MS, Apple) zijn die hun eigen model al vrijwel ready hadden. We maakten allemaal grappen toen Google met Bard kwam als reactie op ChatGPT. Maar sinds de komst van Gemini en toen Gemini 2.0 en 2.5 zijn de stappen zo immens groot geweest en voor zo'n laag bedrag en hoge token limit dat ik vrijwel zeker ben dat het niet lang zal duren voor ze complete marktleider worden en de concurrentie achter zich laten.

Men zal straks enkel nog Gemini gebruiken zoals men nu Google gebruikt en geen Bing. Dat is mijn verwachting omdat Google echt geld in AI kan pompen en dat eigenlijk al 10 jaar doet met Google Assistent. Siri liep ook mijlen achter Google Assistent aan en Google is gewoon een algoritme machine. Dat is waar Google het best in is.

De AI race lijkt nu nog een close call maar ik verwacht dat het heel snel een monopoly zal worden. ChatGPT en Microsoft leken het echt voor elkaar te hebben in het eerste jaar. Maar nu al kunnen ze het niet meer bijhouden...

edit:
Uiteraard is dit mijn verwachting. Dat zal moeten blijken uiteindelijk, maar ik zie Amazon met Claude en Meta niet dit bij benen. Iets wat Gemini bijvoorbeeld kan en andere modellen niet is een youtube video van 2 uur in 5 seconde voor mij samenvatten en alle belangrijke punten voor me op een rijtje zetten inclussief time stamps. Voor mij als developer is dat goud om zo de fluff eruit te filteren.

Ook API's van Gemini zijn momenteel heel flexibel en gratis voor 90% van de toepassingen met apps. Pas bij groot verbruik betaal je. Dat zijn dingen die Google kan aanbieden omdat ze de capaciteiten ervoor hebben. Claude en ChatGPT kunnen dat niet en zijn erg duur.

[Reactie gewijzigd door Nimac91 op 13 augustus 2025 15:24]

Als voordeel bedoel ik vooral dat het hun veel minder kost om deze modellen te trainen en te draaien. Aangezien ze niet moeten inkopen bij nvidia en aangezien die TPU’s minder stroom vreten.
Ah zo. Ja dan kan zeker helpen idd. Maar ik zou hebben gedacht dat Claude met Amazon AWS ook een groot voordeel zou moeten hebben maar dat blijkt bij hun toch vies tegen te vallen. Ze zijn verruit de duurste.
Ja verwachtte iedereen dat de Chinezen erop en erover zouden gaan? Deepseek had zeker veel impact maar het was dacht ik toch al vrij snel duidelijk dat deepseek ook heel erg leunde op het destilleren en voortbouwen van het fundament van veel grotere Amerikaanse modellen? Die benadering kan inderdaad leiden tot wild efficient modellen maar je gaat er nooit het fundament mee inhalen.
Nee, er komen echt wel flinke stappen aan. GPT5 was gewoon een grote teleurstelling maar dat was al te verwachten. OpenAI loopt een beetje achter momenteel
Waarom was het precies een teleurstelling? vind het persoonlijk beter werken als 4o
En welke AI is op dit moment dat de beste? was wel van mening na wat testen en onderzoek dat dit echt ChatGPT is

Een van de redenen dat ik las dat ChatGPT dit weer terug draait is omdat er bergen mensen zijn die soort van bevriend geraakt waren met hun AI, en 5.0 was veel minder van.. Je bent geweldig en dergelijk.. wat mensen tegen het been stootte, en er zelf depressief van werden.

Ik zag zelf een bizar bericht dat iemand weer terug gevallen was in ze eetstoornis omdat ChatGTP deze persoon opeens niet meer aan het ophemelen was.
Er zullen uiteraard verbeteringen zijn. Maar de fundamentele issues zijn er nog. Simpele vragen zoals ik in mijn voorbeeld gaf kan GPT5 nog niet beantwoorden en in code is er totaal geen verbetering. Je bent nog steeds beter af met Gemini 2.5 en Claude 4. Tevens zegt het bericht dat veel users GPT 4o terug wilden al genoeg. Niemand heeft dat geroepen bij de nieuwe Claude of Gemini modellen toen die uit kwamen.

Ik heb een plus abonnement bij Open AI en heb direct GPT5 gebruikt om de verschillen te bekijken maar ik ben zeer teleurgesteld. Wellicht dat een "normale" gebruiker met simpele vragen het fijner vindt en de output en automatische model keuze het beter maakt. Maar GPT5 is niet een sprong vooruit. Het is gewoon een aangepaste versie van GPT4o. Zo zie ik het en ervaar ik het.
Dat ervaar ik ook wel een beetje.

Ik was op zoek naar gegevens over elektriche autos. Ik vond het best indrukwekkend wat er gevonden werd. en hoe het gepresenteerd werd. zoals bijvoorbeel gewicht, prijs, zelfs occasionprijzen, en voor prijzen van onderhoud etc. werd er iets gevonden. de juistheid daarvan is met een korreltje zout, maar leek wel redelijk qua schatting. de wegenbelasting werd wel heel simpel bekeken. autos met duidelijk verschillende gewichten hadden allemaal hetzelfde bedrag, toen ik aangaf dat dit niet klopt, en ik vroeg om op te zoeken hoe de wegenbelasting voor elektrishce autos zou worden in de komende jaren, werd dat wel gevonden. en uitgelegd inclusief percentages en zo, maar er voor een periode van 4 jaar na nu een bedrag mee uitrekenen werd blijkbaar niet echt begrepen.

als ik dan vroeg om een andere auto toe te voegen aan het overzicht, kreeg ik eerst een heel verhaal en opsomming over dat model, en kreeg ik wel weer een overzicht, met dat model erbij, maar opeens andere kolommen.

dan krijg ik het gevoel dat ik niet de controle heb over het resultaat. en vraag ik me ook af wat er meer opeens achterwege blijft.

het dan opnieuw moeten aangeven wat ik wil is wel onhandig. ook dat iets niet gevonden wordt, maar als je er dan naar vraagt, dan is het een goeie vraag, en wordt er gereageerd alsof chatgpt het natuurlijk een hele goeie optie vindt, en in het antwoord bijna suggereert dat ze het wel wist maar dacht dat ik het niet wilde weten, aan de toon van de reactie te lezen, maar dat is misschen wat het taalmodel heeft geleerd van de manier waarop mensen doorgaans communiceren. "het ligt niet aan mij maar aan jou, en natuurlijk wist ik dit wel, ik ben toch niet gek."

Je verwacht dat niet van een "computer"

ik vond het daaro, erg indrukwekkend dat je met wat helemaal niet erg wetenschappelijk correcte en inclomplete vraagstelling toch overzichtelijke informatie kon worden gepresenteerd. Dat dan vervolgens uitbreiden lijkt toch niet heel goed te werken.
De ontwikkelingen gaan nog steeds erg snel. Misschien dat we van exponentiële groei naar lineaire groei zijn gegaan maar als je de modellen van nu met een jaar geleden vergelijkt dan zie je echt veel verschil.


Ik vond dit wel een mooi illustratief filmpje: YouTube: 2025 in LLMs so far, illustrated by Pelicans on Bicycles — Simon Willison

En wil je voor jezelf blind het verschil testen tussen 4o en 5:

https://gptblindvoting.vercel.app/

(deze test is wel alleen met korte antwoorden dus geeft geen volledig beeld)

[Reactie gewijzigd door Bartske op 13 augustus 2025 08:45]

qua beeldherkenning en generatie zit er zeker nog veel progressie in, maar puur qua tekst merk ik dat het vaker slechter is dan beter.

ik moet steeds vaker correctie vragen op output (zeker bij GPT-5), waardoor het me meer tijd kost om de gewenste output te krijgen.

Daarnaast lijkt het erop dat er steeds meer vervuiling in de modellen komt. Of dit bewuste poisoning is, of het gevolg van massaal gebruik is lastig te zeggen, maar hallucinaties (lees: bullshit) lijken nu soms erger (en overtuigender!) dan 1,5/2 jaar geleden en er zit veel filler in de gegenereerde teksten, zelfs als je vraagt om korte antwoorden. Je prompts moeten echt veel specifieker zijn dan eerder.
Vraag is ook of dat komt omdat we al gewend zijn aan AI en de nieuwe modellen eigenlijk meer voor onkundig gebruik bedoeld zijn.


Lees soms over mensen die het voor het eerst gebruiken en een totaal andere beleving hebben. Misschien zijn wij wel niet het doel publiek.
Haha, OK. Even die test gedaan. Ik dacht: "Oké, het is wel makkelijk om te zien wat 4o en wat 5 is." met de gedachte dat 4o meer gedetailleerde (langere) antwoorden geeft en empathischer is; dingen waar ik zelf sneller voor zou stemmen. Dus zo stemde ik ook.

Maar het resultaat is... 18 (90%) GPT 5, tegen 2 (10%) keer gestemd op GPT 4o.

Verbaasd me wel.
Ik zou er nog niet op rekenen. We zijn hooguit in de fase beland waar het "gratis geld" op begint te raken en het aanbod moet worden ingeperkt (de gratis variant van GPT-5 was veel meer beperkt dan GPT-4o).
Op papier zijn de (gratis) limieten hetzelfde hoor. Wel gaven ze mensen afhankelijk van beschikbare capaciteit meer dan ze minimaal zouden hoeven te krijgen.

Nu "iedereen" GPT-5 aan het uitproberen is, hebben ze wat minder vrije ruimte om uit te delen.
In de praktijk ben ik nu na een aantal vragen en één of twee afbeeldingen klaar, terwijl ik er een paar weken geleden vijf per dag had (en vrijwel ongelimiteerd tekst).
Het leek even heel snel te gaan, maar dat was vooral het resultaat van meer rekenkracht tegen dezelfde oplossing gooien.

Maar er zit zeker nog wel verbetering in. Ik vind GPT5 een verademing eigenlijk. Alle ruis is eruit gehaald, hij komt gewoon met het antwoord zonder "sure, here's what you asked for" of onnodig lange samenvattingen en uitleg waar je niet om vroeg.

Misschien niet leuk als je 'm als chatbot gebruikte, maar ik denk dat de meeste betalende (zakelijke) gebruikers er blij mee zijn.
De voice mode spijtig genoeg heeft nog altijd veel ruis, veel blabla voor menselijker te lijken, echt irritant.

En tegenwoordig rustige hij ook altijd met iets dat in mijn custom prompt staat, dat hij eigenlijk niet zou mogen zeggen.
De meeste voortgang kan ook in het begin worden gemaakt, en de modellen zijn nu best ver doorontwikkeld waardoor nog verdere verbetering veel meer vereisen dan eerdere modellen terwijl de winst lager is, zeker in verhouding. Vergelijkbaar met diminishing returns eigenlijk.
Het begint volwassen te worden. We komen nu in een fase waarbij het daadwerkelijk gebruikt gaat worden. Een jaar geleden was het aardig om een beetje mee te spelen, maar nu wordt de output ook echt bruikbaar.
Ligt aan jou ;)

Wel is het zo dat 4o voor veel mensen "goed genoeg" was. Dus dan is anders opeens vervelend. Als je geen moeilijke vragen hebt, of het juist fijn vindt dat zo'n ding je naar de mond praat, dan blijf je mogelijk liever bij 4o.
Mijn inschatting is eerder dat een aantal bedrijven proberen bij te sturen op kosten. En dat lijkt me ook wel soort gezond. Het is voor gebruikers misschien een minder opvallende grote stap vooruit maar als ChatGPT met 5 wel 3 keer zo efficient is als met 4o dan snap ik wel dat ze dat proberen te pushen.
Zijn net begonnen. Maak je borst maar nat.
LLM’s zijn tegen een muur aangelopen en klauteren nu moeizaam omhoog.
Ik krijg bij gebruik ook telkens bericht van dat hij deze opdracht in de regio niet kan uitvoeren bewerken.

Of hij begint er helemaal niet aan , of vraagt na dezelfde melding of hij het zelf wil genereren .


Heeft dat te maken met regelgeving EU. Oid .

Betreft gewoon een afbeelding te creëren .
Goed stuk van Gary Markus over de ondermaatse prestatie van ChatGPT 5:

https://garymarcus.substack.com/p/gpt-5-overdue-overhyped-and-underwhelming
Heeft dit niet alles te maken met begrijpen wat een LLM-AI is, en wat het niet is? En dat veel mensen dit niet lijken te begrijpen en het als een soort panacee zien, van programmeerwonder tot therapeut tot huwelijkspartner?

Mijns inziens: onbegrip + hype-saus = wat we nu zien gebeuren.
Volgens mij is het veel meer hype dan onbegrip. De AI-bedrijven schetsen zelf de enorm hoge verwachtingen. Zij spreken al jaren over een persoonlijke assistent die je helpt bij alles dat je maar kunt bedenken, dat het neigt richting hoge intelligentie en waarheid, en dat het flink wat tijd bespaart. In werkelijkheid moeten daar vele opmerkingen en beperkingen bij genoemd worden, voor een realistischer beeld, wat niet altijd gebeurt.

Deze gereedschappen worden in de markt gezet voor iedereen en zijn zeer laagdrempelig: een prompt invoeren en je krijgt een uitkomst. Als we dan tegelijk honderd dingen in gedachten moeten houden waar de modellen niet goed in zijn, niet geschikt voor zijn, of schadelijk zijn, dan ligt dat niet aan de gebruiker. Dan zeggen "mensen gebruiken het gewoon verkeerd" is een zwaktebod. Dan concludeer ik eerder dat we in een zeer ongemakkelijke fase zitten met deze technologie, waar beloften en uitkomsten niet overeenkomen. Er is te veel, te vroeg, en te breed uitgegeven waardoor er nu onnodig grote problemen zijn. Het optimisme is bizar en alle interne en externe problemen worden opzettelijk vaag gehouden.

Toen het internet of de smartphone ten tonele kwam hoefden we veel minder gekke beperkingen te kennen om de gereedschappen goed te kunnen gebruiken. Een uitvinding moet op de markt komen wanneer deze sterk en stabiel is, en één of meer problemen echt beter oplost dan voorheen. AI moet ingezet worden in uitdagingen waar het werkelijk klaar voor is. Dat is nu niet het geval, dus logisch dat er veel misgaat.
tot huwelijkspartner
"Mijn AI begrijpt me niet"
Ondermaats ten opzichte van de verwachtingen. Maar niet ondermaats als in veel slechter ineens dan 4o bijvoorbeeld.
Dit is meer een samenvatting van de reacties op GPT-5 dan dat het daadwerkelijk over de prestatie van het model gaat.
Bij mij hallucineert 5 er op los. Begrijpt context minder goed en 2 vragen in 1 zin is een nogo. 4 was, voor mij, beter. 5 is trager “thinking longer for a better answer”. Soms wel 90 seconden.

[Reactie gewijzigd door O085105116N op 13 augustus 2025 08:41]

Die traagheid is soms wel opvallend, aan de andere kant zijn sommige antwoorden dan weer bijna direct. Maar ik had een vrij simpele vraag waar wel 5x output kwam en weer werd weggehaald en tussendoor wel 10x op internet werd gezocht. Het ging om een simpel lijstje van nog geen 10 items, maar voor elk item moest een aparte zoekopdracht worden uitgevoerd. Daar leek wel iets mis te gaan met het zoeken naar context.
Het ging om een simpel lijstje van nog geen 10 items
En hoeveel kreeg je er terug? Ik heb GPT nog weinig lijstjes op zien lepelen waarbij er ook echt een correcte lijst uit kwam. een top 10 met 10 unieke items in de juiste volgorde is mij nog niet goed gelukt.

Met 5 nog niet geprobeerd, maar met 4o moesten we echt moeite doen.
als je afsluit met /nothink dan denkt ie niet na
AI kan helemaal niet nadenken. Hooguit wat langer de in de training ingevoerde data vergelijken om tot een iets meer 'passend' antwoord te komen, maar dat is geen nadenken zoals mensen dat doen.
Je kan/(kon) ook daaronder klikken op 'Get a quick answer' om dat denken over te slaan.
Daarnaast zijn de modellen keuzes wat aangepast, je hebt nu GPT5 Auto, Fast, Thinking mini & Thinking.
Je kan nu dat denken dus volledig vermijden.
Tot groot genoegen van bijvoorbeeld r/MyBoyfriendIsAI (niet beperkt tot boyfriends).

[Reactie gewijzigd door The Zep Man op 13 augustus 2025 08:42]

Holy sh*t ik wist niet dat dit bestond. Dit is toch eigenlijk heel slecht voor de mens? Vooral gezien er (mogelijk) een link is tussen met AI chatbots praten en psychoses? Zie: https://nos.nl/l/2577755
Onwenselijk maar een gevolg van onze maatschappij. Genoeg mensen in deze wereld die, om allerlei redenen, eenzaam zijn en weinig contact met andere mensen hebben.
Overigens denk ik niet dat psychoses het grootste probleem zijn, verreweg de meeste mensen zijn niet gevoelig voor psychoses. Als je van AI een psychose krijgt dan moet je waarschijnlijk ook al uitkijken met televisie, games en boeken.
Volgens mij was dat over dat een LLM niet te ver moet gaan met rollenspellen en spiegelen. Als je chatgpt vraagt "doe alsof je m'n echtgenote ben", moet er een soort van limiet zijn in hoe ver dat gaat. En dan bedoel ik niet "geen chat sex", maar in de richting van "denkt deze persoon dat dit echt is".

En dat zelfde geldt voor andere rollen en ideeën, het moet geen echokamer zijn voor welk waanidee je toevallig hebt. Een boek of tv spiegelt je waanideeën niet zo direct als met een LLM kan.

[Reactie gewijzigd door cnieuweboer op 13 augustus 2025 12:23]

Ik voel weinig behoefte om een lans te breken voor "AI", maar ik denk dat doen alsof het gebruik van deze chatbots an sich leidt tot psychoses in de gemiddelde mens ook een beetje overtrokken is.
First day on the Internet? 😂

Rule 34 zal hiervan ook bestaan.
Sinds ChatGPT 5 is de Voice mode echt slecht geworden. Hij herhaalt steeds de instructies die ik heb gegeven hoe hij zich moet gedragen. Lees: in elk antwoord zegt hij bv. "Ik zal beknopt antwoorden"..... Nee, je moet het niet zeggen, je moet het gewoon doen! Hierdoor is de voice mode eerder een frustratie dan een hulp geworden.
Antwoordt jouw ChatGPT Voice Mode überhaupt niet beknopt?
Ik heb de afgelopen 1.5 jaar ChatGPT gebruikt en was zeer tevreden, onlangs overgestapt naar Gemini omdat ik volledig in het Google Eco systeem zit en bij veel benchmarks Gemini er goed uitkomt.

Maar het is echt een wereld van verschil, Gemini heeft guardrails bij alles, zelfs bij recepten, is vaak gewoon dom of snapt het niet en in het Nederlands is het al helemaal waardeloos. Toch bijzonder hoe het in dagelijkse gebruik nog een flink verschil zit. Zelf de gratis versie van ChatGPT beantwoord vragen beter dan Gemini in veel gevallen. Google zit op de safeplay en ChatGPT lijkt wast meer de randjes op te zoeken.
Ik heb veel commentaren gelezen.chatgtp is beter in alles. Met versie 5 moeten ze terug naar het lab. Dat is niet goed gegaan
Ik merk dat ChatGPT steeds vaker delen van prompts negeert. Zo vraag ik regelmatig om geen dubbelingen te gebruiken, zoals “handig en duidelijk” (staat zelfs in de geheugen­instructies (ik wil namelijk kunnen sturen op bijvoorbeeld handig of duidelijk)). Toch krijg ik dan: “Dit is handig en duidelijk om te weten.”
Vraag je waarom, dan zegt Chat dat het “de zin vloeiend wil laten verlopen”. Leuk voor de stijl, maar niet als je expliciet iets anders vraagt. Lijkt erop dat natuurlijke zinsbouw hier zwaarder weegt dan het strikt volgen van je instructies, wat onhandig is als je juist controle over de output wilt. Maakt overigens niet uit welk model ik kies.
Het valt mij gewoon heel erg op dat ChatGPT 5 met normale, allerdaagse taken veel meer moeite heeft en niet tot creatieve antwoorden kan komen. Dit is juist belangrijk en waarvoor men het model grotendeels gebruikt op de wereld. Een gesprekspartner die je kan vertrouwen, creatief is in antwoorden en je kan helpen in alle situaties. Nu is dit voor mij echt een domper. Ik laat chatgpt PRO thinking aan de slag voor een Mannenweekend 2025 quiz, en wat er uit komt is echt complete bagger.
Het is voor mij al enkele dagen terug, echter was het wel verstopt onder een toggle.
Weet niet of dat nog steeds zo is, anders kan je deze activeren onder: Settings -> Show additional models/Show legacy models
The realization that opus and grok are on top.. had to find out the hard way
haha grok is absoluut niet slecht nee. Die gaan erg hard ook.

Manus blijft ook een mooie. Niet de snelste, maar wel hele bruikbare resultaten.


Om te kunnen reageren moet je ingelogd zijn