OpenAI heeft een snellere, maar lichtere versie van zijn programmeeragent GPT-5.3-Codex aangekondigd. Hiervoor maakt het bedrijf voor het eerst gebruik van de opvallend forse AI-accelerators van Cerebras.
Het GPT-5.3-Codex-Spark-model draait op de derde generatie van de Wafer Scale Engine van Cerebras. Deze chip is met afmetingen van 21,5x21,5cm zó groot, dat hij de volledige 5nm-wafer van TSMC in beslag neemt. Hij beschikt over 4 biljoen transistors en 900.000 cores. Daarmee kan de AI-accelerator volgens de fabrikant tot 125 petaflops aan rekenkracht leveren.
OpenAI heeft voor deze chip gekozen vanwege de hoge snelheid. Het nieuwe model kan meer dan 1000 tokens per seconde genereren. Codex-Spark werkt met een contextwindow van maximaal 128.000 tokens.
Deze snellere agent is volgens OpenAI bedoeld voor realtime programmeertaken waarbij een lage latency van belang is. Gebruikers kunnen het model ter plekke onderbreken of bijsturen en krijgen 'bijna meteen' antwoord op vragen. Omdat het een lichter model is, zijn de prestaties minder goed dan die van de reguliere GPT-5.3-Codex-agent. Wel presteert Codex-Spark beter dan het nog lichtere Codex mini-model.
De snellere programmeeragent is in eerste instantie alleen als previewversie beschikbaar voor ChatGPT Pro-abonnees. Zij kunnen toegang krijgen tot het model via de Codex-app, in de terminal en VS Code. Ook heeft een 'kleine groep' partners toegang tot Codex-Spark via de api.
:strip_exif()/i/2006556524.jpeg?f=imagenormal)