OpenAI's programmeeragent Codex is sneller en kan grotere taken aan

OpenAI heeft GPT-5.3-Codex aangekondigd, een verbeterde versie van de programmeeragent. De 5.3-versie is tot 25 procent sneller en kan grotere taken aan dan de voorgaande versie. De nieuwe variant geeft ook meer updates tijdens het verwerken van opdrachten.

Het verbeterde model kan beter programmeren en redeneren en heeft meer professionele kennis, claimt OpenAI. Daardoor is de programmeeragent tot 25 procent sneller dan de 5.2-versie en kan deze ook taken aan die langer duren en complexer zijn, stelt het bedrijf. Codex kan onder meer gebruikt worden om websites te bouwen, games te ontwikkelen en presentaties te maken.

De verbeterde agent begrijpt bijvoorbeeld beter wat de gebruiker vraagt, waardoor ook eenvoudigere prompts tot betere resultaten leiden, claimt het bedrijf. Het model geeft tijdens het verwerken van prompts ook updates over wat Codex wil doen. Daardoor kunnen gebruikers tijdens het verwerkingsproces vragen stellen of discussies aangaan met de chatbot om het verwerkingsproces aan te passen. Zo hoeven gebruikers niet te wachten tot Codex klaar is om het resultaat aan te kunnen passen, stelt OpenAI.

OpenAI gebruikte GPT-5.3-Codex ook om het model zelf beter te maken. Zo vroeg het onderzoeksteam de agent om bugs in de gaten te houden en op te lossen, of om patronen te herkennen tijdens trainingen en deze te analyseren. Dit zorgde er volgens OpenAI voor dat GPT-5.3-Codex sneller gemaakt kon worden.

GPT-5.3-Codex is per direct beschikbaar voor ChatGPT-abonnees die al toegang hebben tot Codex. De agent is dus beschikbaar in de app, in de terminal, VS Code en web. Api-toegang volgt nog.

GPT-5.3-Codex

Door Hayte Hugo

Redacteur

06-02-2026 • 15:26

30

Submitter: TwistedMindNL

Reacties (30)

Sorteer op:

Weergave:

ik gebruik deze tools ook. Waar het nog vaak fout gaat is bij b.v. net nieuwe versies van b.v. frameworks waarin veel is veranderd. Dan wordt code gegenereerd voor de vorige versie (b.v. Tailwind 3 vs 4 al gaat dat nu beter) of zelfs functies uit branches die de main release niet hebben gehaald. Dat soort fratsen kan nog wel wat scherper.
Die gebruikt standaard telemetry "to improve the product" https://github.com/upstash/context7/blob/e49e41819fb3a519600b0353ad821a8cb5a8eb18/packages/cli/src/utils/tracking.ts#L4

Lijkt me iets om voorzichtig mee te zijn, ook al is er opt-out.
Leuke link, maar waarom niet gewoon een AI gebruiken die dat uit zichzelf doet?
Omdat een AI model dat (nog) niet automatisch uit zichzelf kan. Het is de tooling rond het AI model die de versie/context en bronnen afdwingt.
vreemd want dat ik heb er een die dat wel kan
Een model, of een tool/cli?
Is er een verschil? Een product komt als model met tools. Augementcode heeft verschillende modellen gecombineerd met allerlei tools die dat ding gebruikt om zijn werk te doen. Ik heb hem vandaag zelfs een hex file voor een microcontroller gegeven en daar kwam hij nog uit om te reverse engineren. Docu vinden lukt hem ook wel.

Maakt mij wat uit hoe ze het doen, zolang het maar automatisch doet wat ik nodig heb. Zonder extra spullen te installeren of aan te schaffen.

[Reactie gewijzigd door bzuidgeest op 6 februari 2026 16:49]

Fair enough, dat werkt ook. Maar je betaald dan ook wel voor die service ( https://blog.kilo.ai/p/testing-augment-codes-new-credit ).

Als je de juiste skills / context weet te combineren scheelt dat wel bij groter gebruik.
20 dollar voor de indie per maand. Nauwelijks meer dan netflix. Er was ooit een free tier, maar die zie ik niet meer. Mogelijk val je daar nog steeds naar terug na de free trail. Geen idee. onder subscriptions panel kan ik er nog naar terug, maar mogelijk ben ik "legacy"

Maar goed, het is echt niet de enige die zoiets kan. Ik ga er van uit dat claude code e.d. het ondertussen ook kunnen al heb ik die nog niet geprobeerd.
Daarom gebruik ik zelf augment code. Die gaat gewoon zelf even op het internet kijken voor de documentatie als hij merkt dat zijn kennis out of date is. Er zullen vast ook wel anderen zijn die dat doen. Augment heeft ook een semi lokale context/index engine die zorgt dat hij heel goed overzicht heeft over je grotere projecten.
Het is verre van perfect net als al die andere bedrijven hun LLM's maar het kan best wat bruikbaars.
Codex werkt niet hetzelfde als Claude Code, of wel?

Heb dat zelf nooit echt begrepen. Ik gebruik zelf Claude Code en vind het super fijn. Maar ik vraag me af of Codex ook bij mijn workflow past.
Codex heeft een ook een CLI en kan werken zoals CC ook doet.
Jawel, ik gebruik Codex en Claude Code door elkaar, allebei in de terminal in de IDE's van Jetbrains. Claude Code gebruik ik voor de basis op te zetten en dan Codex om verder te borduren, kwaliteit is uitstekend van Codex ook. Heb zelfs ook nog Mistral Vibe in de terminal geïnstalleerd. Maar de kwaliteit daarvan vind ik niet zo denderend.
Ik moet wel zeggen dat Opus 4.5 en Opus 4.6 geweldige modellen zijn voor plannen en 4.5 voor de uitvoer, als je plan maar heel strak is.
Jij gebruikt de API van Claude?
Ook! Als ik een 1m contect window nodig heb.
Ik krijg momenteel het beste resultaat met de task uit te werken op Sonnet 4.5, plan uitwerken op Opus 4.5 en Chatgpt 5.2 (apart), valideren + combineren op Sonnet (en zelf nalezen). En vervolgens uitvoeren op Opus 4.5 (nog niet met opus 4.6 gewerkt).
Ook een goede strategie inderdaad. Het hangt vooral van je prompting af.
Hoe vergelijkt Codex met Opus 4.5? Met name op het gebied van jouw codebase begrijpen en aanpassingen kunnen doen.

Ik zelf gebruik geen Sonnet, maar dat komt ook omdat ik het Max abonnement heb en niet elke dag code schrijf. Dus ik kom nooit aan het limiet.
Hoe vergelijkt Codex met Opus 4.5? Met name op het gebied van jouw codebase begrijpen en aanpassingen kunnen doen.

Ik zelf gebruik geen Sonnet, maar dat komt ook omdat ik het Max abonnement heb en niet elke dag code schrijf. Dus ik kom nooit aan het limiet.
Heel goed! Ik switch regelmatig tussen die twee, zeker als van Claude mijn sessieusage weer tegen het einde aan loopt. Dan stap ik over naar Codex en ga door met prompten, hij leest eerst de juiste bestanden, maakt een analyse en gaat vervolgens aanpassen. En zo ook andersom als ik van Codex naar Claude ga. en dit gewoon in hetzelfde project. Ben nog niet tegen problemen aangelopen dat die zich raar heeft gedragen.

in vergelijking met 5.2 is 5.3 wel megasnel en nog consistenter merk ik.

[Reactie gewijzigd door H.Boss op 6 februari 2026 18:56]

Codex werkt niet hetzelfde als Claude Code, of wel?

Heb dat zelf nooit echt begrepen. Ik gebruik zelf Claude Code en vind het super fijn. Maar ik vraag me af of Codex ook bij mijn workflow past.
Ik ben van ChatGPT Codex naar Claude code overgestapt omdat Claude Code een stuk minder fouten maakt, suggesties geeft en ook als chatbot beter werkt. Grote complexe projecten bouwen gaat met Claude echt een stuk beter.

Sinds gisteren is taalmodel Opus 4.6 beschikbaar en ook daar merk ik weer grote vooruitgangen ten opzichte van 4.5
Ik heb net een uitgebreide presentatie gehad over het gebruik van AI voor coding. De conclusie was dat het kan, maar dat het nu nog geen tijdsbesparing oplevert. M.n. het krijgen van "nette" en efficiente code vraagt best ook wel wat skills van degene die de prompt schrijft. In de ideale wereld zou een duidelijke en eenduidige requirement voldoende moeten zijn om de juist code te krijgen maar nu gaat de meeste tijd nog zitten in het optimaliseren van de code die AI maakt. Aldus de professor die dit heeft onderzocht. Maar je zou zeggen dat het uiteindelijk langzaam beter moet worden, hoe vaker het wordt gebruikt en gecorrigeerd.

[Reactie gewijzigd door R_Zwart op 6 februari 2026 17:05]

Interessant. Ik heb ook (binnen het softwarebedrijf waar ik werk) een uitgebreide presentatie gehad van iemand die bij Meta werkt en die stelde dat ze nog maar 10% van hun code zelf schrijven. De verregaande integratie en tooling die Meta zich kan veroorloven is ook wel indrukwekkend, evenals alle automatische analyze (vaak óók weer door AI) van de gemaakte code. Ik ben absoluut geen fan van Meta maar het is duidelijk dat ze hier vol voor gaan en dat het vruchten oplevert. En dit zijn echt geen beginnende coders, inclusief degene die de presentatie gaf, maar net als ik mensen met decennia aan development ervaring.
Gezien de kwaliteit van facebook en de enorme investeringen in de metaverse die niets opgelverd hebben denk ik niet dat hun developers erg goed zijn. Decenia ervaring maakt je niet automatisch een goede developer. Ik geloof best dat ze zichzelf fantastisch vinden, maar ook dat zegt niets.
De ontwikkelingen gaan idioot snel, voor opus 4.5 en codex 5.2 zou ik je gelijk geven. Het coden voordat deze modellen er waren was hit en miss. Maar nu is het idioot hoe goed de output is. Ik zou je adviseren om het zelf te proberen en dan nog eens te oordelen.
Misschien handig om 5.3 in de titel te zetten. Codex zelf bestaat al even namelijk.
Leuk, de volgende ronde van LLMs komen er weer aan. Gisteren ook al Claude Opus 4.6 gekregen via Github Copilot.
Kimi k2.5 zie ik naast Claude Code veel voorbij komen, zou ook een stukje goedkoper/zuiniger qua tokens zijn etc.

Zelf voorzichtig wat bezig met OpenCode en nog weinig met de models geswitched. Er komt best wat uit rollem, maar heel snel gaat het niet altijd en je moet nogal eens wat correcties doorvoeren op de oplossingen die eruit komen. Al met al scheelt het wel dat je modellen hebt die echt voor coden zijn, zou efficiënter moeten zijn dan de grote modellen.

Nog niet genoeg tijd gehad om daadwerkelijk alles eruit te halen wat erin zit...
Ik heb veel Codex gebruikt in Cursor. Maar ik merk toch erg dat ik Codex een stuk korter af vindt en veel meer moet vertellen als dat ik dat met Claude Opus heb. De foto bij dit artikel is eigenlijk een goed voorbeeld. Als je Opus zou vragen om het dynamisch te maken. Maakt die zelf de TO-DO aan om dan dus ook iPads mee te pakken.
Natuurlijk kan ik dat niet hard maken want elke request is net weer anders en niet determinitisch. Maar zo voelt het wel.

Om te kunnen reageren moet je ingelogd zijn