GPT-5.2 is uit en kan beter omgaan met lange documenten en grote datasets

OpenAI heeft GPT-5.2 uitgebracht. Het nieuwe model is beschikbaar voor betalende gebruikers en is volgens het bedrijf onder andere beter in programmeren en hallucineert minder vaak. Het model kan ook beter omgaan met lange documenten en met analyses van grote datasets.

OpenAI zegt dat het GPT-5.2 heeft geïntroduceerd voor betalende gebruikers, oftewel abonnees van Pro, Plus en Enterprise. Ook de api kan van het nieuwe model gebruikmaken. GPT-5.2 heeft drie modellen: Instant, Thinking en Pro.

GPT-5.2 scoort op de meeste benchmarks beter dan GPT-5.1, zegt OpenAI. De opvallendste benchmarkstijgingen zitten in de redenatiemodellen. Dat betreft niet alleen OpenAI's zelfontworpen benchmark GPDval, maar ook bijvoorbeeld SWE-Bench Pro voor programmeertaken en CharXiv voor lange, wetenschappelijke teksten.

OpenAI zegt dat met name het Thinking-model goed overweg kan met langere teksten en grote datasets. Het bedrijf zegt dat GPT-5.2 'coherent en accuraat kan blijven over honderdduizenden tokens'. Verder krijgt het model betere aansluiting op de api, die een nieuw /compact-endpoint krijgt, waarmee het contextvenster van chats groter wordt. Ook dat moet volgens OpenAI helpen bij het analyseren van langere datasets, bijvoorbeeld als chats verder teruggaan in de tijd.

Door Tijs Hofmans

Nieuwscoördinator

12-12-2025 • 11:19

47

Submitter: Anonymoussaurus

Reacties (45)

Sorteer op:

Weergave:

Ik gebruik GPT bijna fulltime als code companion in Xcode en 5.1 er naast in de gpt app. Code wise begint het tegenwoordig wel te kloppen, maar het enige wat ik erg cringe vind is dat het soms uit het niets dingen zegt zoals

“ jij bent mijn baas, jij verteld mij wat ik moet doen. Ik ben aan jouw genade overgeleverd”.

Dit heeft het nu al een paar keer gedaan in verschillende chats als we aan t programmeren zijn en het is echt heel cringe soms.
Het is mij al vaker opgevallen dat Chatgpt een profiel tracht op te bouwen van de user zonder dat expliciet te vragen of daar een opdracht voor gekregen heeft.

Daar zit uiteraard een verdienmodel aan, net zoals Google een heel mooi profiel kon maken van jou op basis van zoekopdrachten kan een AI daar nog 100 keer verder in gaan.

Dat gaat van leren uit welke regio ik ben; ipv default met Nederlandse wetgeving af te komen komt hij nu altijd af met Belgische/Vlaanderen wetgeving.
Maar ook documenten die hij opmaakt waar hij plots alvast mijn volledige naam heeft ingevuld ipv "vul hier u naam in"

Echter als ik antwoorden vergelijk met een niet ingelogde of nog beter, met een ander account, dan valt mij keihard op dat hij op een totaal andere manier vraagstellingen beantwoord.

Ik benader chatgpt altijd onderzoekend waarbij ik tracht te vermijden suggestief te vragen omdat ik altijd schrik heb dat de AI naar mijn mond wilt praten. (Mij vertellen wat hij denkt dat ik wil horen)

Dus ik krijg zeer uitgebreide antwoorden met de edge cases en uitzonderingen by default, hij lijkt te weten dat ik daar toch door op ga vragen terwijl hij dat bij iemand anders op dezelfde vraag niet doet.

Het valt mij ook op, als ik ingelogd ben durft hij echt tegen mij ingaan en ronduit claimen dat ik totaal verkeerd ben. Ik apprecieer dat ook maar dat staat heel haaks op wat jij zegt maar ook haaks op het default gedrag waarbij hij wilt pleasen en zo goed als al je input en plannen geweldig en haalbaar wilt beoordelen.
Ik kreeg van de week te horen dat gezien mijn liquiditeit en risicobereidheid ik wel even iets kon gaan doen lol.

Ze bouwen 100% profielen op van de gebruikers, of je het nu uit zet of niet. Its Google all over again. Dat betekent dus ook dat ze context wasten aan die nonsense en dat we betere antwoorden zouden krijgen als ze die vervuiling eruit laten.

Oh btw, het vinkje niet trainen op mijn data kan niet uit totdat je Enterprise afspraken gaat maken en zelfs dan zit er in de contracten dat ze het in uitzonderlijke gevallen toch mogen.

Ik ben druk bezig met een platform wat bedrijven in house kunnen gaan draaien zonder meteen wizard te hoeven zijn. Dan draait alle inference gewoon lokaal en kun je zelf bepalen wat er wel en niet opgeslagen wordt.
Misschien zou het dan kunnen helpen om een third party client the gebruiken (open source client) die via de API werkt. Misschien is de context dan schoner als via de web interface? Volgens mij bij Claude en Claude Code heb ik dit probleem niet.
Het is mij al vaker opgevallen dat Chatgpt een profiel tracht op te bouwen van de user zonder dat expliciet te vragen of daar een opdracht voor gekregen heeft.
heel irritant. Zeker ook omdat dit over projecten heen werkt. Dat was precies het punt om projecten te gebruiiken, dat je daarmee de contexten en memory isoleert, maar hij blijft bij mij dingen terughalen (op random momenten) uit een heel ander project.

"wil je dat ik dit uitwerk voor ...?" .. Nee ga weg. dat is een heel ander project met totaal andere context.

Ik zit nu net een artikel analyse te doen, en nu krijg ik een antwoord terug vanuit een heel ander gesprek. Erg raar.

De app lheeft ook echt significante UI issues overigens. Nu is 5.2 dan uit, helemaal top, maar hoe switch ik een project dan naar het nieuwe model? Want als ik linksboven klik en zeg doe maar 5.2 thinking, dan gaat ie uit het project en gewoon naar een nieuwe chat (projectloos).

Die hele app lijkt bij elkaar gevibecoded, maar dan zonder alle tests en safeguards die een enterprise app hoort te hebben.
Ik herken dit ook.. wat ik doe is expliciet opdracht geven vergeet dit of onthoud dat. Daarnaast elke keer de werkwijze vastleggen als iets weer beter/effectiever gaat.
En je personalisatie bijwerken met de werkwijze zoals jij die wil.


Het gebruik van projecttags is ook heel handig. Ik roep die aan in een nieuwe chat en zet daarmee chatgpt gelijk in de juiste 'stand'
Bij codering/projecten werk ik met 'lagen/fases' dan kan chatgpt het aardig bijhouden zonder te gaan dwalen. Kost voor je gevoel meer tijd maar levert uiteindelijk tijd op.
Als de chat te groot/lang dreigt te worden vraag ik wat moet ik in nieuwe chat droppen zodat je verder kunt...

En ja AI is een hulpmiddel maar scheelt wel veel typewerk en dergelijke...
Van veel wat ik hier lees is volgens mij een optie voor in ChatGPT.

Terug praten alsof het je vriend is? - zet hem op Porfessioneel
Terug vallen op oude gesprekken? - zet bij geheugen, opgeslagen geheugen en chatgeschiedenis raadplegen uit

Persoonlijk heb ik alles op default staan, dus geen flauw idee of het ook gewenste effect heeft, maar voor vele zaken zijn er opties
Terug vallen op oude gesprekken? - zet bij geheugen, opgeslagen geheugen en chatgeschiedenis raadplegen uit
Maar ik wil wel dat ie dat doet, ik wil alleen niet dat ie cross project dingen gaat doen.

Dat is privé en zakelijk dwars door elkaar. Dat is gewoon niet handig om te vermengen en dat is waar Projecten ook voor bedoelt zijn.
Persoonlijk heb ik alles op default staan
Ik ook, want ik heb weinig zin om het met iedere update weer te gaan tunen. Ik vind het sowieso vervelend om dergelijke dingen te moeten doen vooral omdat het eerst wel werkte en OpenAI 5 daarna weer precies dat k*tgedrag meegaf. Dan moet ik meer tokens gaan zitten verstoken aan hun extra tokens om mijn output weer naar minder tokens te krijgen. ja doei.
Ik weet niet of het in chatgpt zo is, maar in claude kun je dit toestaan/weigeren (locatie informatie te delen met de provider), in de settings.
Ja maar het is heel erg cringe. Alsof ik GPT verbaal loop te mishandelen of zo.
Op de website van chatgpt kan ik de "memories" bezien. Misschien dat er bij jou daar iets raar bij zit. Je kan verder ook memories maken door bijvoorbeeld te zeggen "wees altijd technisch en onpersoonlijk. gebruik geen emojis. onthoud dit voor al mijn chats". Dat deed voor mij wonderen.
Code review met 5.2, mooi dat het z’n eigen fouten kent.

Code review
Is die quote een grapje of gebeurd dat echt? Zelf gebruik ik Claude en heb nooit dergelijke dingen meegemaakt. Één keer een verontshuldiging gehad omdat we op een compleet verkeerd pad aan het troubleshooten waren.

Wat ik wel ongemakkelijk vond is dat het bericht een keer "good luck with your project" o.i.d. als laatste zin had. Daar kreeg ik op de één of andere manier rillingen van.
Ik mis nog steeds een 5.1-mini of 5.2-mini. Het 5-mini model geeft in veel opzichten vaak een rommeliger antwoord dan bijvoorbeeld 4.1-mini.

Overigens is GPT-5.2 duurder dan de andere genoemde modellen:
GPT-5.2 is 40% more expensive than GPT-5 and GPT-5.1. It costs $1.75/1M input tokens and $14/1M output tokens, with a 90% discount on cached inputs.
Het verschil met grok via API loopt wel op zo.

Grok 4.1 fast-reasoning kost $0.20 / 1M tokens input en $0.50 / 1M tokens output,
GPT-5.2 via api kost $1.75 / 1M tokens input en $14.00 / 1M tokens output.

In de gewone chatversie met je maandelijkse abonnement heb je dat prijsverschil wel niet uiteraard.

Merk overigens de GPT 5.2 merkbaar betere code geeft dan de 5.1, vooral als je code of context wat ruimer is.

[Reactie gewijzigd door Glennos op 12 december 2025 12:04]

Wat doe je met grok dan? Ik ken mensen die zelfs liever claude haiku gebruiken, en veel mensen die het om het geld gaat, prefereren lokaal, mistral, glm of deepseek voor een vergelijkbaar resultaat t.o.v. grok. De integratie met twitter van grok is wel een mooie feature, maar dan gebruik je natuurlijk de API niet. Of heb je het abonnement genomen omdat je het al vaak goed kon gebruiken vanaf twitter?
Ik gebruik die voornamelijk voor te programmeren, ik heb die onder andere in mijn Visual Code via continue geïntegreerd en gebruik zowel de Grok 4.1 Fast Reasoning als Grok Code Fast 1, je kan die als agent instellen, als je dan een een map opent van je visual code kan die ook alle onderliggende files lezen en bewerken. De API van grok 4.1 fast reasoning heeft ook een context van 2M dat het 8voud van de webversie is. Ook in sommige N8N flows heb ik grok geïntegreerd via de API.

Uiteraard kan je ook andere AI gebruiken buiten Grok. Claude AI is ook gekoppeld aan mijn Visual Code bv maar dan via hun eigen extensie en die werkt volledig gratis als je maandelijks abonnement hebt.

[Reactie gewijzigd door Glennos op 12 december 2025 16:13]

Ok, en die opzet werkt beter voor jou dan andere dus. Welke taal gebruik je met grok? Ik heb grok gratis gebruikt met hun testmodellen op openrouter, maar de resultaten bleven achter voor mij in Java in vergelijking met eigenlijk bijna alle andere commerciele aanbieders. Dit was na release van deepseek r1 het geval.

2M context is geweldig als het waar is (niet alle context is gelijk natuurlijk, je moet goede recall hebben en het model moet goed 'begrijpen' wat belangrijk is in de context via de latente ingesloten kennis van het model). Heb net gekeken en er zijn geen interessante test versies van grok helaas op dit moment op openrouter, alleen devstral lijkt interessant momenteel.

Ook nog gekeken op de site van grok natuurlijk, maar deze is zelfs duurder dan claude! Sla nog even over, zit te weinig op twitter om dit te kunnen uitleggen als kerstcadeau voor mijzelf.
Via de API heb je geen maandelijks abonnement nodig, straffer als je via de API werkt is je kost veel lager dan de webversie abonnement vaak terwijl je een veel ruimere context hebt. Je laadt een saldo op en naargelang je verbruik gaat dit van je wallet af maar in mijn ogen is de API echt wel goedkoop omdat ik hier amper een paar euro aan kwijt ben per maand... Je kan dus ook gewoon een tientje opladen en zien hoe ver je komt. API en webversie staan los van elkaar.

Het nadeel is dat je die dan wel moet koppelen aan je programma's zoals via de continue in Visual basic, ik heb ook eigen Google chrome extensensies en N8N flows die via de API van Grok werken.

Moet je veel data verwerken lijkt de output prijs die 28keer lager is dan de api van Chatgpt wel een groot pluspunt.
Ik houd het even bij lokaal, mistral en claude en zo veel mogelijk de gratis test modellen via openrouter (zo staan de modellen van deepseek vaak gratis op openrouter), dat is toch goedkoper dan grok en de resultaten zijn iets beter voor java. Ik snap dat jij visual basic doet en dan kan grok natuurlijk juist beter werken met die taal. Dank je wel voor het delen van jouw ervaringen met de tool. Ik snap je keuze als je met grok meer waarde weet te krijgen met visual basic. Ik dacht altijd dat de maandelijkse abonnementen juist goedkoper waren dan de API als je het vaak inzet, dus had daar nog niet naar gekeken.

Continue heb ik nog niet getest, ik werk voornamelijk met aider. Ik weet ook niet zeker of ik nu eerst Continue moet testen, ik neig eerder naar zed of misschien een eigen neovim plugin maken.
De kosten van GPT-5.2 Pro zijn ook uitzonderlijk
De juice parameter is zeer hoog ingesteld (deze parameter beinvloed de hoeveelheid reasoning die een model toepast), dat kost ze enorm veel tokens en dus geld en capaciteit. Geen wonder dus dat het zo goed werkt in benchmarks.
Dus hoef je de documenten niet meer in te korten... :+
Grappig genoeg hebben `ocument`, `document` en `Document` allemaal hun eigen token ([2102, 11557, 9345]) in OpenAI's tokenizer: https://platform.openai.com/tokenizer
  • Tokens voor "ocument document Document" --> [2102, 3213, 18594]
  • Tokens voor "ocumentdocumentDocument" --> [2102, 11557, 9345]
Wie dus iets wil besparen op tokens, kan waarschijnlijk wel wegkomen met het weglaten van spaties (meestal zo'n 10% of meer van een tekst).
ik neem aan dat spaties geen tokens 'kosten' toch?
Sorry, schijnbaar had ik net getest met newlines ipv spaties en toen niet goed opgelet wat ik terug naar mijn reactie hierboven kopieerde.

Een newline kost wel een token, maar die weglaten zal waarschijnlijk niet zo veel uitmaken.

[Reactie gewijzigd door Skit3000 op 12 december 2025 13:21]

Nice, zat ik ook aan te denken. Goed in het samenvatten dat ding.
Dat hoefde daar voor toch ook niet, ik upload soms pdfs van 10MB en daar maakt hij meer dan perfect samenvattingen van. Wel even goed nalezen maar gaat meer dan prima
Ik ga er eens naar kijken, 5 en 5.1 geven momenteel beduidend trager antwoord dan 4.1 en zijn niet per se beter. Ik krijg te vaak te horen dat er haken en ogen zijn aan simpele dingen dat ik echt denk, denk een beetje na en stop met het verstoken van onnodige tokens.
Er zijn wel wat efficiënte prompts die je vooraf aan een instance kunt geven waardoor deze wat efficiënter antwoord. Dat zal voor coding misschien wat minder uitmaken, maar in mijn gevallen krijg ik vaak een hele uitleg over de functies waar ik verder toch niet naar kijk. Vibecoding is gewoon knippen en plakken en kijken of het werkt.

Chatgpt is naar mijn idee gewoon een enorme 'smoothtalker' met zijn 'Goed idee! Je zit in de goede richting maar zo zit het echt!'. Dat zinnetje kan ook overgeslagen worden met directe beantwoording.
Mja ik gebruik GPT niet voor code vraagstukken, daar zijn claude en anderen een stuk beter in. maar gewoon simpele zaken die met statistiek en rekenen te maken hebben. Zoals het normaliseren van ongelukken met voertuigen over een paar verschillende merken naar "milion miles driven" dat is een hele gangbare statistiek om de veiligheidsprestaties uit te drukken, kreeg ik 5 keer een een antwoord terug dat er toch iets ontbrak in de vraagstelling en GPT dan aannames moest gaan doen die het niet kon onderbouwen. Terwijl die data gewoon in de dataset stond of met eenvoudige google actie te achterhalen was (vlootgrootte bijvoorbeeld is af te leiden a.d.h.v. verkopen in een jaar. De data ging over vijf jaar, dus dan mag je aannemen dat de vlootgrootte groeit met het aantal verkopen minus een uitval percentage. dat is zo uit te rekenen).

Ik heb nu 5.2 thinking gebruikt voor wat kleine dingen en die is echt bijzonder traag (duurt rustig 5 minuten), maar het antwoord lijkt kwalitatief wel goed. Links en bronnen werken en kloppen ook echt. dat was voorheen echt nog maar vaak de vraag.
Chatgpt is naar mijn idee gewoon een enorme 'smoothtalker' met zijn 'Goed idee! Je zit in de goede richting maar zo zit het echt!'. Dat zinnetje kan ook overgeslagen worden met directe beantwoording.
Klopt. Dat hebben ze juist wer toegevoegd in 5 nadat ze het er in de beta juist uit hadden gehaald. mensen vonden het toch kennelijk fijner. Ik vind het alleen maar irritant.

"goeie vraag!" Yeah I know anders had ik em niet gesteld.

T kost alleen wel weer onnodig tokens en dat maakt het weer jammer. GPT voegt al iets toe aan de context om het er in te krijgen, en ik voeg weer wat toe aand e context om het er uit te halen. Ik zou graag zien dat er een soort "plain" mode komt waarbij je dus minder contextvervuiling hebt van OpenAI zelf. Prima dat ze guardrails toevoegen, maar gedrag over hoe het antwoord eruit moet komen zien moet ik zelf kunnen bepalen.
Lange documenten is wel een beetje vaag. Van Gemini vind ik het juist zo fijn dat 'ie 1M token window heeft en bijna alle bestanden aan kan (ook video)
Een GDPval van >70% :| .... als financial is het eerste wat ik dacht: "dan word ik wel loodgieter" :Y)
Ik vond 4.x modelen soms een beetje apart. Ik merk echt dat ik 5.1 sneller en beter vindt.

Chapeau!
Nou, ik heb het vandaag weer veel geprobeerd met ChatGPT 5.2 met een python script van 2200 lines en ik krijg continu "network connection lost. attempting to reconnect" te zien, terwijl mijn netwerkverbinding perfect in orde is. Waardeloos dit
TitelGpt moet nog even een update krijgen:
GPT-5.2 is uit en kan beter omgaan met lange ocumenten en grote datasets
Ik heb overigens ook ergens op BlueSky gelezen dat ChatGPT vanaf deze versie seksueel getinte gesprekken toestaat. Tenminste, dat was toch wat hun interne testen aangaven...


Ik heb me blijkbaar vergist, het gaat over 5.2 Instant: https://bsky.app/profile/kashhill.bsky.social/post/3m7qam3znv227

[Reactie gewijzigd door nzall op 12 december 2025 13:47]

r/MyBoyfriendIsAI op Reddit zal blij zijn.

Om te kunnen reageren moet je ingelogd zijn