OpenAI introduceert GPT-5.1 Instant- en GPT-5.1 Thinking-modellen

OpenAI heeft twee nieuwe generatieve-AI-modellen geïntroduceerd. GPT-5.1 Instant is volgens OpenAI 'warmer en intelligenter' dan zijn voorganger en zou instructies beter moeten kunnen volgen. Het GPT-5.1 Thinking-model is het nieuwe geavanceerde redeneermodel van OpenAI.

OpenAI schrijft dat GPT-5.1 zowel qua intelligentie als communicatiestijl een 'aanzienlijke verbetering' is ten opzichte van GPT-5. Het GPT-5.1 Instant-model is standaard 'warmer en meer conversationeel'. Daarnaast kan GPT-5.1 Instant voor het eerst ook 'adaptief redeneren'. Daarmee bepaalt de chatbot eerst hoe complex de vraag is en stelt hij daarop vast of hij bedenktijd nodig heeft. Hierdoor scoort GPT-5.1 Instant 'aanzienlijk beter' in wiskunde- en programmeerbenchmarks zoals AIME 2025 en Codeforces, aldus OpenAI.

Het GPT‑5.1 Thinking‑model stemt zijn denktijd volgens OpenAI ook nauwkeuriger af op de vraag. Daardoor besteedt het model meer tijd aan complexe problemen en antwoordt het juist sneller op eenvoudige vragen dan zijn voorganger. Het model is ongeveer 57 procent sneller bij de simpelste taken en 71 procent langzamer bij de moeilijkste vragen. Ook GPT‑5.1 Thinking zou 'warmer en empathischer' zijn dan zijn voorganger.

GPT-5.1 denkt langer na over complexe vragen en minder lang over eenvoudige vragen.
GPT-5.1 denkt langer na over complexe vragen en minder lang over eenvoudige vragen.

De GPT 5.1-modellen worden vanaf woensdag geleidelijk beschikbaar gemaakt voor gebruikers met een Pro-, Plus-, Go- of Business-abonnement. Later volgen gebruikers met een gratis abonnement en niet-aangemelde gebruikers. Enterprise- en Edu-abonnementen krijgen een inschakelperiode van zeven dagen voor vroege toegang, waarna GPT-5.1 het enige standaardmodel wordt. De GPT-5 Instant- en Thinking-modellen blijven nog drie maanden beschikbaar voor betalende abonnees. OpenAI voegt GPT-5.1 Instant en Thinking later deze week ook aan de api toe.

Het bedrijf voegt verder meer vooraf ingestelde opties toe om de toon van ChatGPT aan te passen. Het bedrijf voegt de persoonlijkheden 'professioneel', 'oprecht' en 'eigenzinnig' toe, boven op de al bestaande persoonlijkheden. Deze worden per direct uitgerold. Daarnaast experimenteert OpenAI met de mogelijkheid om eigenschappen van ChatGPT rechtsreeks vanuit de personalisatie-instellingen aan te passen – inclusief hoe beknopt, warm of scanbaar de reacties zijn en hoe vaak de AI emoji's gebruikt. Deze optie wordt geleidelijk beschikbaar gemaakt voor een 'beperkt aantal gebruikers' als experiment.

De nieuwe personalisatieopties van ChatGPT
De nieuwe personalisatieopties van ChatGPT

Door Imre Himmelbauer

Redacteur

12-11-2025 • 21:17

77

Submitter: Westpjotr

Reacties (77)

Sorteer op:

Weergave:

Fijn. Maar het zou leuker zijn als ze flinke energiebesparingen gaan aankondigen zodat we geen nucleaire centrales voor AI hoeven te gaan bouwen.. Maar zolang er fictieve miljarden in deze hobby projecten worden geknald zal dat wel niet gebeuren.
Maar zolang er fictieve miljarden in deze hobby projecten worden geknald zal dat wel niet gebeuren.
Ik weet niet of je het al weet, ik gok van niet, maar AI wordt al bij elk software bedrijf gebruikt om code te schrijven of te controleren. Bedrijven betalen daarvoor omdat hun duur betaalde ontwikkelaars nu meer code kunnen beheren dan zonder AI. En dat gaat alleen maar toenemen. Het is niet fictief.
zodat we geen nucleaire centrales voor AI hoeven te gaan bouwen.
Natuurlijk moeten we dat doen. Net zoals we meer windmolens op zee moeten gaan bouwen. Heel onze welvaart is gestoeld op economische vooruitgang maar omdat we nu een vergrijzingskost hebben en niet meer kunnen groeien op pure arbeid is onze enige manier om welvaart te behouden AI en robotica.

De meesten mensen denken dat alles altijd gratis is en vanzelf komt. Zie defensie, niemand zag het nut nog ondanks onze welvaart gestoeld was op vrede. Niemand wilde investeren op elektrificatie en iedereen vond het een goed idee om afhankelijk te blijven van landen buiten de EU. Inclusief Rusland. Alsof alles vanzelfsprekend was. Nee dat is het niet en het is het nooit geweest!

We gaan harde keuzes moeten maken. Europa moet efficienter worden (meer die met minder mensen en minder energie) , zijn energie zelf opwekken en vol inzetten op AI, robotica en recyclage. Ook recyclage kost ook veel energie. Energie die we niet hebben. Het is een noodzakelijk kwaad om te overleven als samenleving.

Zonder kernenergie en zonder AI gaan wij in Europa niet overleven. Je kan dat gewoon niet negeren.
Niet is gratis, niet komt vanzelf. Democratie niet, welvaart niet en vrede niet. Al dat dogmatisch denken moet er uit. Wij staan zwak, wij zijn zwak en wij zullen verzakken als we niet doen wat moet. Investeren in Europese AI zit daar ook bij.

[Reactie gewijzigd door Coolstart op 13 november 2025 08:43]

Je slaat de spijker op zn kop. Het was leuk toen het nieuw was, maar tenzij ze de exponentiele groei aan benodigde rekenkracht temperen is de limiet al bereikt. Er is letterlijk te weinig stroom op de wereld om de bizarre vraag te vervullen. Wie heeft hier nu echt iets aan? Ja het is soms verrekte handig, maar op mijn gputje thuis kan ik 95% van alles wat AI te bieden heeft al doen. Met een model van 20B krijg ik goede antwoorden, de modellen die online draaien zijn inmiddels 400 of 900B met een inference die met hogere precisie draait, dat verbruikt een factor 100 meer stroom en de prestaties zijn ietsjes beter. als je dat dan extrapoleert naar hoeveel geld erin wordt gepompt dan vraag ik me af wanneer de bubbel ploft. Hopelijk kunnen we dan blackwell systemen kopen voor een paar stuivers en onze huizen er mee verwarmen terwijl we vragen of AI een verhaaltje voor bedtijd wil verzinnen 8)7
Misschien is de oplossing wel om een manier te bedenken waarop dat 20B model met dezelfde kwaliteit antwoordt als het 900B model. Simpel gezegd zou je meerdere keren dezelfde prompt kunnen draaien en het "gemiddelde" daarvan nemen om een betrouwbaarder antwoord te krijgen wanneer nodig?
Dat zijn de distilled modellen, dus dat gebeurt alZ
Het is niet per se de betrouwbaarheid. Er zit minder info in de 20B dan de 900B. Dus het gaat minder weten en moeilijke vragen met minder nuance kunnen beantwoorden.

Nu er is wel een hele aparte tak van de wetenschap om die kleine modellen zo weinig mogelijk relevante info te doen verliezen. Daarom dat die het in de praktijk dus ook niet zo veel slechter doen. Typisch slechts 10-20% tov toch wel 90-99% minder parameters.
kleine modellen zo weinig mogelijk relevante info
Dat is met elkaar in tegenspraak - dat zou impliceren dat (bijv.) 80% van de inhoud van de grote modellen, onnodig is....of te wel... ze weten te veel.... :P

En ook al wordt het nog eens 10 keer zo hoog.....nog lang niet alle info is al bekend/geschreven.

En ook: hoe meer onzin erin gaat, hoe groter de kans dat deze onzin gaat produceren....dat zou overigens een mooi voordeel kunnen zijn voor kleine modellen.
Het is niet per se dat die informatie onnodig is. Het kan ook gewoon zijn dat ze niet zo efficiënt is opgeslagen. Bijvoorbeeld twee compleet verschillende delen van het netwerk die gelijkaardige informatie bevatten. Bij het trainen was dit niet erg. Maar als je inference wilt doen is dit onnodige complexiteit.

Een kleiner model kan dit deel gewoon laten vallen zonder veel accuraatheid te verliezen.
Dubbele 'opslag' is nooit zinvol geweest... En als je kan ontdubbelen dan zou dat ook voor de grote modellen kunnen worden gebruikt (na de training). Maar dat er zo veel dubbele informatie in zit geloof ik niet.
Dat dacht mijn over over grootvader ook wat hebben we aan een auto we hebben toch paard en wagen. De ontwikkelingen gaan nu eenmaal door waar we nu nog niet de meerwaarde in zien kan in de nabije toekomst steeds belangrijker worden.
Ik zie vooral dat ze blijven hypen ook al wordt het resultaat met steeds minder grote stappen beter. Als je dan toch de brakke vergelijking van auto's aanhaalt, benzinemotoren worden ook al jaren niet echt veel beter meer. Het grote verschil is echter dat ze niet bij 1 enkele fabrikant vandaan komen.
OpenAI, Anthropic, Deepmind, Mistral, DeepSeek, MiniMax en nog vele anderen zijn toch ook niet 1 bedrijf?
Dat wordt vaak gezegd, maar is niet waar. Het klopt dat 80-90% van de AI GPU markt in handen van Nvidia is. Echter niet alles draait op GPU (naar schatting ongeveer 50%). Je hebt ook nog TPU, NPU, ASIC, etc. en in die markten zijn ook andere spelers actief.
Google is er een punt van aan het maken om hun eigen hardware te bouwen om hun modellen op te runnen.

Het blijft een complexe business, dus er gaan geen honderden hardware bouwers zijn, maar iets van een 5-10 spelers (designers/foundries) zoals vandaag in de cpu markt lijkt me wel realistisch.
Niet elke nieuwe ontwikkeling is automatische de beste stap op een bepaald moment; we hebben nog steeds geen vliegende auto's o.i.d. - was al lang bedacht maar gek genoeg....

Tel daarbij op dat steeds meer bedrijven hopen op de onderscheidende factor (omdat voorgangers zo enorm rijk ermee geworden zijn...) - echter de echte onderscheidende factor was globalisatie (en dus schaal vergroting). Maar meer dan globaal kan helaas niet... :Y)
Vliegende auto's noemen we meestal vliegtuigen. Als je rijk genoeg bent is dat een privé jet, anders neem je de "vliegende bus". :)

Vandaag noemde chat mij met m'n nickname, leek me nutteloos, geef me gewoon de antwoorden. one-size-fits al werkt niet overal.
Vliegende auto's noemen we meestal vliegtuigen.
Die kunnen niet voor je huis parkeren en op willekeurige plaatsten landen en opstijgen toch?

En jets verbruiken bizar veel brandstof en zijn derhalve alleen voor de allerrijksten of met een commercieel doel of voor overheden.

Een auto is voor 'het volk' en een vliegende variant ervan is een typisch SF fenomeen. Maar we zijn er (helaas) nog niet klaar voor.
Als je kijkt naar oude steden was er ook geen plaats om je auto voor de deur te plaatsen. Dus laat ons gelukkig zijn dat we geen vliegende auto's hebben. (helicopter kan bij de meeste wel in de achtertuin)
[...]

En jets verbruiken bizar veel brandstof en zijn derhalve alleen voor de allerrijksten of met een commercieel doel of voor overheden.
Een vliegende auto zal niet ineens veel zuiniger zijn. Het feit dat je continu de zwaartekracht moet overwinnen, maakt dat vliegen veel energie kost, zeker op lage snelheden.
Ja - zeker waar. Maar het ging mij enkel om een voorbeeld van vooruitgang die we wel willen maar nog niet klaar voor zijn. Als energie (en opslag daarvan) heel goedkoop wordt, dan is dat probleem (zeer onzuinig) ineens niet meer zo'n probleem.
Wat een Tweaker onwaardige reacties allemaal. Slaat nergens op. Snap niet dat de Tweakers van nu alleen maar vanuit eigen beperkt perspectief kunnen denken.
Het is iets wat je steeds sterker ziet in de samenleving - en dus ook bij Tweakers. Mensen lijken gepolariseerder te denken en te reageren.

Het is ook vaak zo dat als je iets poneert als een stelling en niet zozeer als je eigen mening dat de aanval al snel op de persoon is. "Dus jij vindt, nou dan zal jij" etc etc.
Ja, dat lijkt idd zo te zijn.
Wellicht komt dit doordat ontwikkelingen ook de extremen opzoeken?
Overigens was dit al eerder zo; omtrent godsdienst - ander geloof? Dan ben je een heiden enz.
Dat is wat afgezwakt; nu is technologie de nieuwe 'godheid' lijkt het (als je ziet hoeveel tijd men met hun mobiel of andere tech doorbrengt dan lijkt het bijna religeus).
Misschien dat daarom technologie zo sterk polariseert?
Heel eerlijk, het ai stroomverbruik lijkt mij een fractie van de hoeveelheid energie die we in de winter gebruiken om onszelf warm te houden.
als je ziet waar OpenAI en Nvidia naar ambieren dan kunnen we onszelf straks echt warm houden met alleen de output van AI datacenters.
Zeker. Dat wordt nu te weinig benut. Neem bijv. de Microsoft datacenters bij Wieringermeer / Agriport. De kassen daar worden nog steeds verwarmd met aardgas en de datacenters gekoeld met water. Er zijn plannen om die warmte van die datacenters in de kassen te gebruiken, maar het komt maar heel moeizaam op gang.
Ik hecht toch wat meer waarde aan niet doodvriezen dan aan een antwoord wat toch niet klopt :+
Welk lokaal model gebruik je? Ik ben redelijk blij met gpt-oss.
Vooral die ja, ik speel nog wat met system prompts en code interpreters maar verreweg de minste bullshit antwoorden, wel af en toe Spaans :?
Heb ik ook (Spaans), blijkbaar veel overlap in de trainingset.
Ik heb in elk geval met GPT OSS het meest nauwkeurige resultaat als ik hem laat reasonen, en dan in de system prompt de reasoning in stappen laat uitleggen hoe hij op dat antwoord is gekomen, en hoe hij gaat antwoorden. Alle andere trucs en systemen genereren vooral een hoop fluff en onzin.
Wellicht heb je het niet door maar er is continu energie management actief en de modellen zijn veel zuiniger dan je zou vermoeden.
Op de nieuwe generatie hardware gebruiken ze 10x tot 15x minder stroom dan vorig jaar.

Maar we gebruiken ze met steeds meer mensen voor steeds meer taken, en door centralisatie komt dat stroom gebruik met pieken terecht op het landschap.

Dus ik zou zeggen vooral gebruiken als de energieprijzen negatief zijn congestie te verminderen.

[Reactie gewijzigd door djwice op 12 november 2025 22:28]

Juist, de verwerking van de gemiddelde consument vindt op nederlandse servers plaats.
Nog niet in Nederland, wel in Europa.
Lees deze post over 10 jaar nog eens. Grote kans dat je had gehoopt dat we er nog meer in geïnvesteerd hadden - zowel die kerncentrale als AI.
“Hobbyprojecten”.

En dat is dus precies waarom we een generatie kweken die geen flauw benul van techniek heeft, en over 10 jaar als hardste loopt te roepen “ja maar ik heb hier geen verstand van!!!1!” (Of: “ik zag écht niet aankomen dat mijn baan door AI vervangen zou worden! Wat moet ik nu??”).
Nog groter probleem is zolang er geen nucleaire energie beschikbaar is, ze terugvallen op fossiele energie.
Amen. Als ze die biljoenen (biljarden?) in duurzame energie projecten hadden gestoken hadden ze misschien al een perpetuum mobile uitgevonden.

Ik heb echt het gevoel dat ze bewust kiezen om de mensheid zo kort mogelijk op deze aarde te laten leven i.p.v. alle signalen ook maar een beetje serieus te nemen.

Beetje sci-fi gedachten, maar ik ben dan ook dol op Sci-fi 😋
De modellen zijn zo efficiënt aan het worden dat ik een model zoals Chatgpt 4.5 intelligentie op mijn laptop (op batterij) kan draaien, dat noemt "gpt oss 120" mfpx4
Zelfs voor de meest simpele zoek opdrachten krijg je al AI antwoorden.
Waar vroeger een linkje naar desbetreffende artikel werd afgebeeld.
Zonde van de energie.
Als ik totaal uitleg wil vraag ik er wel om.
Ah, zou dat de reden zijn waarom GPT5 afgelopen 2 dagen zo ongelofelijk traag is? Omdat ze vermoedelijk alle recources hebben verhuist naar 5.1.

Ik zie overigens 5.1 niet beschikbaar?
"De GPT 5.1-modellen worden vanaf woensdag geleidelijk beschikbaar gemaakt voor gebruikers met een Pro-, Plus-, Go- of Business-abonnement."

Het is dus niet gelijk beschikbaar.
geen idee, maar ik deel wel de mening als Pro gebruiker dat het enorm traag was. vooral als je chat wat langer is.. na gedacht gedurende 12 seconden, maar dan zit ik alsnog een minuut tegen een blanco scherm te kijken. (cpu fan gaat ook tekeer)

5.1 reageert nu wel instant snel _/-\o_
Bij mij is het beschikbaar in België op al mijn accounts
Nou hopelijk wat minder censuur tegenwoordig kan je er steeds minder mee een skelet met een Amerikaanse vlag is all een probleem voor een afbeelding.
Andere llm gebruiken. Of iets lokaal draaien. Heeft iemand weet van een lijst waar ze op censuur/beperkingen geranked worden?

[Reactie gewijzigd door BlaDeKke op 12 november 2025 21:32]

Ben ook erg benieuwd naar zo'n lijst. Heel leuk die open source LLMs uit China maar heb toch liever iets minder propaganda
Ik blijf Claude in alle opzichten nog altijd beter presteren. Probeer het zo nu en dan wel eens, maar elke keer komt Claude beter uit de bus.

[Reactie gewijzigd door moonlander op 12 november 2025 21:54]

Ik ben recent met Copilot overgestapt van GPT naar Claude en het is echt een verademing inderdaad. Wat een verschil! Antwoorden duren ietsje langer maar het is in 90% van de gevallen meteen goed waar bij GPT het eerder rond de 50% of minder lag.
Copilot Claude voert ook vaker de juiste hoeveelheid wijzigingen uit in mijn ervaring. Bij copilot gpt doet hij ofwel te weinig waar bij voor de hand liggende stappen achteraf nog moeten gebeuren, of veel te veel waardoor hij een heel boek schrijft aan niet gevraagde wijzigingen en ik alles moet terugdraaien omdat ik niet meer snap wat hij allemaal doet.
Ik vind het nog steeds opvallend dat ze allemaal losse verschillende modellen maken en niet 1 basismodel met allerlei subagents en dat ie dan zelf bepaalt welke ie wil gebruiken...
Dat doen ze ook, dat heet MoE (mixture of experts). En het is nog steeds actief gebied van onderzoek, dus je zit denk ik zeker warm met je opmerking. Zie dit project van deepseek waarin ze RDMA gebruiken om MoE verder op te schalen.

En hier kun je lezen over RDMA.
'Volgens OpenAI is deze intelligenter.'

Ik wist niet dat we hier uberhaupt met intelligentie te maken hadden? Volgens mij worden we dik gescammed en opgehyped ;-)
Gescammed niet, opgehyped wel :+
Nog een tijdje en dan is de mensheid zo dom dat de AI modellen onzin kunnen spuiten en dat we dat voor zoete koek slikken.
Je bedoeld zoals TikTok filmpjes? Er zijn wel meer dingen die de waarheid niet spreken en toch met grote regelmaat geloofd worden.
Dat zie ik nu al gebeuren met alle magie die aan chatgpt wordt toegedicht.
Is het niet zo dat de mensheid "zo dom" is dat we AI maken die geloofwaardige onzin spuit? En het is niet alsof mensen geen geloofwaardige onzin spuiten. Dus waar ben je precies bang voor? Of was het enkel een realisatie?
Er komt straks een generatie die niet meer zelf gaan nadenken, beetje zoals toen de rekenmachine kwam, mensen kunnen steeds moeilijker zelf nog hoofdrekenen. Ik vrees ook een beetje voor de toekomstige software ontwikkelaars.
Och, een update voor een commodity-product waarvan er zovele zijn. Meer iets voor de meuktracker :)
GPT-5.1-Instant en GPT-5.1-Thinking

Benieuwd hoeveel mensen nog voor het 'Thinking' model gaan kiezen als die antwoorden significant langer duren. Maar misschien is dat juist wat ze willen omdat het Instant model minder compute power gebruikt...
Een thinking LLM?

Het is nog steeds gewoon een fancy woordvoorspeller toch? Welk gedeelte daarvan is thinking?

En hallucineert dit systeem dan niet?
Het voorspelt nog steeds woorden maar achter de schermen zie je een soort van dialoog met zichzelf ontstaan. Dit zie je als je lokaal een thinking model draait heel goed. Dus de woordvoorspeller begint woorden te spugen en na een tijdje wordt er een tekst als "is dit antwoord een goed antwoord voor de gebuiker", "kloppen de stappen die ik gegeven heb", "is dit antwoord logisch consistent" in de stroom zichtbaar. De LLM zal dan weer gaan voorspellen op basis van de hele input met deze tekst erbij en de stappen die eerder gegenereerd zijn herevalueren. Chatgpt laat de reasoning steps niet zien, maar een lokale Deepseek-R1 bijv. wel.
Moe modellen zoals gpt 5.1 die voorspellen geen woorden meer. Experten zijn relationele algoritmes als je ze van dichtbij bekijkt, transformers doen meer dan enkel predictie.
Moe staat een beetje los van reasoning, en experten zijn geen relationele algoritme maar de thinking fase begint met een " wat zou de gebruiker van mij verwachten" tomen zodat de vraag eerst beter geanalyseerd wordt. Moe is dan voornamelijk een implementatie keuze die orthogonaal staat op reasoning (je hebt moe en non-moe ressoning modellen).
Dat komt heel hacky op mij over. Eerst krijg je een voorspelling van woorden, en daarna gaat ie daar nog "dingen" mee doen. Ik ben nog steeds niet onder de indruk. Het overgrote deel van de antwoorden die ik krijg zijn domweg slecht.
Ik snap wel waarom ze dat doen. Mensen doen dit ook vaak (een interne dialoog) om te komen tot een beter antwoord. Je schrijft een zin als de vorige en leest die nog eens na op spel- en denkfouten. Probeert te bedenken hoe de zin door de lezer gelezen kan worden (en hopelijk zal worden) etc. Verschil is dat de context van een LLM alleen woorden zijn en er geen concreet wereldbeeld is waaraan een LLM zijn woordenstroom kan toetsen dus het blijft toch altijd afwachten hoe goed het antwoord is.
Daar is een paar weken geleden een paper over uitgekomen die aantoont dat itereren over dezelfde layer in een transformer de output quality drashtinsh verbetert. Het model was capabel van betere reasoning te doen dan de hele grote modellen zoals gpt 5 en opus 4.5, terwijl het 100 keer kleiner was.

Het principe zou dus zeker toegepast kunnen worden in grotere modellen, opm sneller te antwoorden en tegelijkertijd slimmere antwoorden te geven. Dat is trouwens wat de experten in MOE's ook doen, Je model kan in één laag twee of drie experten tegelijkertijd activeren en een router beslisst welke de best ouput geeft een gaat dan door naar de volgende transformer layer
Het gedeelte dat algoritmisch redeneren simuleert.
De onderliggende techniek blijft dezelfde nep-intelligentie.
Kwestie van AI hè. Lijkt me vrij duidelijk.
Leg maar eens uit dan.

Om te kunnen reageren moet je ingelogd zijn