GPT-5.5 kan beter en efficiënter programmeren en taken uitvoeren op computers

OpenAI heeft GPT-5.5 uitgebracht. Het bedrijf belooft dat het nieuwe model beter is in programmeren, taken uitvoeren op computers en wetenschappelijk onderzoek, terwijl het minder tokens gebruikt.

OpenAI heeft GPT-5.5 beschikbaar gemaakt voor Plus-, Pro-, Business en Enterprise-abonnees in ChatGPT en Codex. Volgens de fabrikant presteert het nieuwe model vooral beter op het gebied van agentic coding. Ook zou GPT-5.5 beter zijn in het uitvoeren van taken op een computer en het uitvoeren van wetenschappelijk onderzoek. OpenAI belooft dat GPT-5.5 niet trager is dan het 5.4-model, dat vorige maand werd uitgebracht.

De fabrikant claimt onder meer dat GPT-5.5 autonomer is. Bij het programmeren zou het model sneller uit zichzelf problemen ontdekken en vervolgstappen suggereren. Daarnaast kan GPT-5.5 beter omgaan met 'slordige' meerdelige prompts en zijn er strengere veiligheidsmaatregelen toegevoegd, zegt OpenAI.

De prijzen voor het gebruik van de api zijn wel flink gestegen. Voor GPT-5.5 moeten gebruikers 30 dollar betalen voor een miljoen outputtokens, terwijl dat voor GPT-5.4 nog 15 dollar is. Wel belooft OpenAI dat het nieuwe model efficiënter is en minder tokens gebruikt.

GPt-5.5
Game geprogrammeerd door GPT-5.5

Door Kevin Krikhaar

Redacteur

24-04-2026 • 09:50

33

Submitter: Rubenskoo

Reacties (33)

Sorteer op:

Weergave:

Ben benieuwd. Ik ben nu ook bezig met Claude Pro, maar dat is een teleurstelling. Je loopt snel tegen limieten aan en weigert dan verder alles, en maakt regelmatig fouten. ChatGPT gebruik ik al langer, hoewel de antwoorden wolliger zijn, kom je er wel verder mee. Benieuwd of deze versie nu ook beter is in het analyseren en samenvatten van wetenschappelijke artikelen, dat lukte met Claude niet goed.
Ik weet niet hoe goed het in de praktijk werkt, maar de beloftes van Caveman zijn best goed:
https://github.com/JuliusBrussee/caveman
Wellicht offtopic maar ik gebruik Caveman nu ruim een week i.c.m Codex (openai) en merk dat ik veel langer door kan zonder tegen token limits aan te lopen. Ik gebruik Codex vooral veel voor het generen van documentatie die ik via API's ophaal.
Ik kan het zo snel niet even vinden maar dit heeft ook impact op de kwaliteit van je antwoorden.
Copilot cli met claude modellen.

Of opencode ipv claudecode verbruikt veel minder tokens
Geen idee welke versie je hebt mbt tot verbruik, weet wel dat Pro heel veel limiet problemen heeft (heb zelf Max X20), maar het is bij Claude wel de bedoeling dat je zoveel mogelijk in projecten werkt en dan bij nieuwe onderwerpen een nieuwe chat begint binnen het project. Claude kan dan nog refereren naar de vorige chats in het project en gebruikt het ook al geheugen.

Verder heb ik zelf nooit last gehad van het samenvatten van wetenschappelijke artikelen, boeken of PDF’s, wel altijd goed om extended/adaptive thinking in te schakelen.
Ik herken je punt in Pro absoluut. Maar dat het veel fouten maakt? Het ligt sterk aan je commando's.

Maar ik heb in een aantal maanden een compleet werkend online systeem gebouwd met Claude in combinatie met een Max abonnement en met gebruik van het nieuwste Opus taalmodel. En Claude kan absoluut nagenoeg foutloze code schrijven, maar alles valt of staat met jouw commando.

Als je hem vraagt iets te bouwen zonder context en zeker met grotere projecten dan gaat het fout. maar als je hem sturing geeft, met bijvoorbeeld: Maak API in map backend, en bouw in modules per map, dan gaat het al een heel stuk beter. (simpel voorbeeld).

Maar je kan echt wat doen met minimaal Max X5 abonnement, want met pro zit je er met Opus zo door heen.

[Reactie gewijzigd door Luchtbakker op 24 april 2026 10:27]

Ik weet uiteraard niet je exacte problemen en gebruik, maar gisteren is er een postmortem uitgekomen die een deel van de problemen verklaart aan de hand van 3 issues.

Kort samengevat:
  1. De standaard 'reasoning' stond tijdelijk op 'medium' ipv 'high' (Claude code)
  2. Door een bug verdwenen in sommige gevallen continue alle 'gedachtes' van Claude, waardoor het model dommer en vergeetachtiger leek.
  3. Er waren instructies gegeven om de antwoorden korter te laten zijn, dit had ook invloed op de kwaliteit.
“Length limits: keep text between tool calls to ≤25 words. Keep final responses to ≤100 words unless the task requires more detail.”
Natuurlijk is het aan iedereen om te bepalen in hoeverre ze deze verklaringen geloven, maar dit is wat er door Anthropic gecommuniceerd is.
Ik snap je verhaal niet. Gebruik al maanden Pro voor diverse PHP programmeer werkzaamheden en loop zeer zelden tegen limieten of problemen aan.

Juist de output is zeer goed al moet je zelf ook blijven nadenken natuurlijk. Hoe beter je communiceert hoe beter de output. Met MD bestanden is het al helemaal een stuk beter al moet je het soms wel helpen herinneren die MD in acht te blijven nemen.

Als er een lokaal model was geweest die goed is in PHP had ik dat liever gekozen.

[Reactie gewijzigd door Technoid op 24 april 2026 11:22]

Ik ben niet zo thuis in de wereld van AI, maar heb wel een Plus-abonnement. Ik gebruik het regelmatig voor school en andere bezigheden. Ik merk dat ChatGPT best wel langzaam kan worden als je redelijk wat documenten upload en een gesprek gaande houd. Zijn er tips om ChatGPT minder traag te maken?
Niet te lang doorgaan in hetzelfde gesprek.
Maar het is toch juist handiger als het een beetje door kan bouwen in hetzelfde gesprek? Anders moet je telkens opnieuw de beginsituatie uitleggen.
Samenvatting laten maken en die weer gebruiken voor je nieuwe gesprek
Wat ik vaak merk is dat ChatGPT ook eerdere gesprekken aanhaalt die ik in andere projection/prompts heb gehad. Dus het is niet zo dat in een nieuw gesprek alles weg is of zo. Het is alleen niet standaard een onderdeel van de context, tot dat je er zelf over begint en dan gebruikt hij ook eerdere chats om de context beter te begrijpen en er over te praten. Als ik het heb over het verbouwen van mijn woning. En in een andere chat vraag ik over hoe ik volgens de NeN normen elektra aan moet leggen, dan refereert hij vaak aan het eerdere gesprek. Voornamelijk als hij voorbeelden moet geven.
Ik gebruik zowel claude max(x20) als chatGPT pro (x5) en mijn voorkeur blijft nog bij claude. Vanmiddag 5.5 een proberen en kijken hoe die bevalt.

Ik vind claude fijner zelf kiezen wanneer het door moet vragen, wanneer er dingen moeten worden uitgepland. Ook is de git workflow beduidend beter, maakt automatisch worktrees, switched van worktrees als je er om vraagt, etc.

Heb wel het idee dat codex iets zuiniger is met tokens, maar meestal hebik wel genoeg aan claude x20. Ik zat gister wel even door mijn usage voor de week heen voordat de reset kwam maar over het algemeen komt het wel ongeveer uit.

Ben wel benieuwd hoe lang die subscriptions nog gesubsidieerd blijven, want prijzen via API zijn echt absurd veel duurder dan hoeveel je in een abbo krijgt.
Het is wel leuk om te zien hoe we allemaal de lat/verwachtingen voor ai steeds hoger leggen. Waren we eerst blij met een eenvoudige afbeelding of een lijstje met ideeën. Nu kan je een compleet tijdschrift laten genereren en mopperen we over enkele typfoutjes of onregelmatigheden in een afbeelding. Het tempo van nieuwe modellen zit er goed in al mag dat tempo van mij ook iets omlaag en dat er dan om het half jaar een echt grote sprong in capaciteiten/mogelijkheden is. Iets meer research en iets minder commercie.
De prijzen voor het gebruik van de api zijn wel flink gestegen. Voor GPT-5.5 moeten gebruikers 30 dollar betalen voor een miljoen outputtokens, terwijl dat voor GPT-5.4 nog 15 dollar is.
Het is te merken dat ze richting winstgevendheid gaan. Codex loopt veel sneller tegen z'n limieten aan en pusht nu hard richting het nieuwe abonnement van ruim €100.
Maar github copilot pro is nog steeds 10 dollar, pro+ 40 of zo? En je krijgt daar dezelfde codex versies van gpt. En ook (nu alleen nog in pro+) opus. en genimni en en en.... En zo ongeveer afrekenen per request. En dat is helemaal voordelig. Ik merk dat ik daar veel minder vlug door mijn quota heen ga dan bij andere diensten. Ik weet niet hoe lang dat blijft, maar voorlopig gebruik ik het.

Dat en augment code. zijn tooling voor de echte complexe dingen. De super vragen.

Niets is handiger dan per vraag het juiste model te kiezen. Als 1 model vastloopt doet een ander dat niet en je kan in de sessie wisselen tussen modellen, binnen dezelfde chat doorgaan met een ander.

[Reactie gewijzigd door bzuidgeest op 24 april 2026 11:14]

De prijzen voor het gebruik van de api zijn wel flink gestegen.
Unpopular opinion: Goed nieuws. Het gebruik van AI was/is veel te goedkoop. Met hogere prijzen per token gaat men hopelijk wat zorgvuldiger om met het gebruik ervan, waardoor ook het totale energieverbruik van AI zal dalen. Het zou nog beter zijn als de applicaties per token moeten afrekenen en de prijs bij elk resultaat moeten printen. Ik denk dat het snel confronterend wordt als gebruikers onder elke response te zien krijgen dat "Het genereren van dit resultaat kostte €0.53".

Gezien de meeste AI bedrijven nog niet winstgevend zijn, zullen de prijzen hoe dan ook omhoog moeten om het houdbaar te maken. Ik ben benieuwd wat de echte kosten zouden zijn als een bedrijf als OpenAI een winstmarge van 20% zou hanteren.

[Reactie gewijzigd door roelst1 op 24 april 2026 10:56]

Vscodium icm Deepseek geeft netjes de kosten weer.
Weet niet hoe het op dit moment is, maar in het verleden zag je de prijs per antwoord en de overall prijs per chat.
Als een organisatie het wil kan dat prima.
De meeste limieten worden ingesteld omdat de hardware de vraag niet aankan.

Verbruik zal niet minder worden, dat gaat zeker de komende tijd alleen maar meer worden.
Ik volg deze discussie op een afstand en heb een vraag: wat betekent "30 dollar betalen voor een miljoen outputtokens" in de praktijk? Wat 'koop je' concreet voor die 30 dollar? Heeft iemand hier ervaring mee?
Ongeveer 700.000 woorden, dus afhankelijk van hoe je het gebruikt (agent-modes verstoppen vaak heel veel output die intern gebruikt wordt voordat jij je output ziet maar daar betaal je wel voor) kun je hier bijna alle harry potter boeken voor schrijven.
Dat spel doet me denken aan de eerste Loaded op de PlayStation 1 spelcomputer
GPT-5.5 kan beter en efficiënter programmeren en taken uitvoeren op computers
Dit in tegenstelling tot z’n voorgangers, die deden alles nog met pen en papier.
Hoop dat de mensen in de toekomst nog weten hoe ze hun reet moeten afvegen zonder raad van AI
Is niet nodig hé, gewoon een Japanse wc gebruiken. :P
Vooruitgang is afhankelijkheid van technologie. Dat is al zo sinds we vuur kunnen maken.

Om te kunnen reageren moet je ingelogd zijn