OpenAI introduceert GPT-5.1 Instant- en GPT-5.1 Thinking-modellen

OpenAI heeft twee nieuwe generatieve-AI-modellen geïntroduceerd. GPT-5.1 Instant is volgens OpenAI 'warmer en intelligenter' dan zijn voorganger en zou instructies beter moeten kunnen volgen. Het GPT-5.1 Thinking-model is het nieuwe geavanceerde redeneermodel van OpenAI.

OpenAI schrijft dat GPT-5.1 zowel qua intelligentie als communicatiestijl een 'aanzienlijke verbetering' is ten opzichte van GPT-5. Het GPT-5.1 Instant-model is standaard 'warmer en meer conversationeel'. Daarnaast kan GPT-5.1 Instant voor het eerst ook 'adaptief redeneren'. Daarmee bepaalt de chatbot eerst hoe complex de vraag is en stelt hij daarop vast of hij bedenktijd nodig heeft. Hierdoor scoort GPT-5.1 Instant 'aanzienlijk beter' in wiskunde- en programmeerbenchmarks zoals AIME 2025 en Codeforces, aldus OpenAI.

Het GPT‑5.1 Thinking‑model stemt zijn denktijd volgens OpenAI ook nauwkeuriger af op de vraag. Daardoor besteedt het model meer tijd aan complexe problemen en antwoordt het juist sneller op eenvoudige vragen dan zijn voorganger. Het model is ongeveer 57 procent sneller bij de simpelste taken en 71 procent langzamer bij de moeilijkste vragen. Ook GPT‑5.1 Thinking zou 'warmer en empathischer' zijn dan zijn voorganger.

GPT-5.1 denkt langer na over complexe vragen en minder lang over eenvoudige vragen.
GPT-5.1 denkt langer na over complexe vragen en minder lang over eenvoudige vragen.

De GPT 5.1-modellen worden vanaf woensdag geleidelijk beschikbaar gemaakt voor gebruikers met een Pro-, Plus-, Go- of Business-abonnement. Later volgen gebruikers met een gratis abonnement en niet-aangemelde gebruikers. Enterprise- en Edu-abonnementen krijgen een inschakelperiode van zeven dagen voor vroege toegang, waarna GPT-5.1 het enige standaardmodel wordt. De GPT-5 Instant- en Thinking-modellen blijven nog drie maanden beschikbaar voor betalende abonnees. OpenAI voegt GPT-5.1 Instant en Thinking later deze week ook aan de api toe.

Het bedrijf voegt verder meer vooraf ingestelde opties toe om de toon van ChatGPT aan te passen. Het bedrijf voegt de persoonlijkheden 'professioneel', 'oprecht' en 'eigenzinnig' toe, boven op de al bestaande persoonlijkheden. Deze worden per direct uitgerold. Daarnaast experimenteert OpenAI met de mogelijkheid om eigenschappen van ChatGPT rechtsreeks vanuit de personalisatie-instellingen aan te passen – inclusief hoe beknopt, warm of scanbaar de reacties zijn en hoe vaak de AI emoji's gebruikt. Deze optie wordt geleidelijk beschikbaar gemaakt voor een 'beperkt aantal gebruikers' als experiment.

De nieuwe personalisatieopties van ChatGPT
De nieuwe personalisatieopties van ChatGPT

Door Imre Himmelbauer

Redacteur

12-11-2025 • 21:17

34

Submitter: Westpjotr

Reacties (34)

Sorteer op:

Weergave:

Nou hopelijk wat minder censuur tegenwoordig kan je er steeds minder mee een skelet met een Amerikaanse vlag is all een probleem voor een afbeelding.
Andere llm gebruiken. Of iets lokaal draaien. Heeft iemand weet van een lijst waar ze op censuur/beperkingen geranked worden?

[Reactie gewijzigd door BlaDeKke op 12 november 2025 21:32]

Ben ook erg benieuwd naar zo'n lijst. Heel leuk die open source LLMs uit China maar heb toch liever iets minder propaganda
Fijn. Maar het zou leuker zijn als ze flinke energiebesparingen gaan aankondigen zodat we geen nucleaire centrales voor AI hoeven te gaan bouwen.. Maar zolang er fictieve miljarden in deze hobby projecten worden geknald zal dat wel niet gebeuren.
Je slaat de spijker op zn kop. Het was leuk toen het nieuw was, maar tenzij ze de exponentiele groei aan benodigde rekenkracht temperen is de limiet al bereikt. Er is letterlijk te weinig stroom op de wereld om de bizarre vraag te vervullen. Wie heeft hier nu echt iets aan? Ja het is soms verrekte handig, maar op mijn gputje thuis kan ik 95% van alles wat AI te bieden heeft al doen. Met een model van 20B krijg ik goede antwoorden, de modellen die online draaien zijn inmiddels 400 of 900B met een inference die met hogere precisie draait, dat verbruikt een factor 100 meer stroom en de prestaties zijn ietsjes beter. als je dat dan extrapoleert naar hoeveel geld erin wordt gepompt dan vraag ik me af wanneer de bubbel ploft. Hopelijk kunnen we dan blackwell systemen kopen voor een paar stuivers en onze huizen er mee verwarmen terwijl we vragen of AI een verhaaltje voor bedtijd wil verzinnen 8)7
Misschien is de oplossing wel om een manier te bedenken waarop dat 20B model met dezelfde kwaliteit antwoordt als het 900B model. Simpel gezegd zou je meerdere keren dezelfde prompt kunnen draaien en het "gemiddelde" daarvan nemen om een betrouwbaarder antwoord te krijgen wanneer nodig?
Dat zijn de distilled modellen, dus dat gebeurt alZ
Het is niet per se de betrouwbaarheid. Er zit minder info in de 20B dan de 900B. Dus het gaat minder weten en moeilijke vragen met minder nuance kunnen beantwoorden.

Nu er is wel een hele aparte tak van de wetenschap om die kleine modellen zo weinig mogelijk relevante info te doen verliezen. Daarom dat die het in de praktijk dus ook niet zo veel slechter doen. Typisch slechts 10-20% tov toch wel 90-99% minder parameters.
Dat dacht mijn over over grootvader ook wat hebben we aan een auto we hebben toch paard en wagen. De ontwikkelingen gaan nu eenmaal door waar we nu nog niet de meerwaarde in zien kan in de nabije toekomst steeds belangrijker worden.
Heel eerlijk, het ai stroomverbruik lijkt mij een fractie van de hoeveelheid energie die we in de winter gebruiken om onszelf warm te houden.
Ik hecht toch wat meer waarde aan niet doodvriezen dan aan een antwoord wat toch niet klopt :+
Wellicht heb je het niet door maar er is continu energie management actief en de modellen zijn veel zuiniger dan je zou vermoeden.
Op de nieuwe generatie hardware gebruiken ze 10x tot 15x minder stroom dan vorig jaar.

Maar we gebruiken ze met steeds meer mensen voor steeds meer taken, en door centralisatie komt dat stroom gebruik met pieken terecht op het landschap.

Dus ik zou zeggen vooral gebruiken als de energieprijzen negatief zijn congestie te verminderen.

[Reactie gewijzigd door djwice op 12 november 2025 22:28]

Lees deze post over 10 jaar nog eens. Grote kans dat je had gehoopt dat we er nog meer in geïnvesteerd hadden - zowel die kerncentrale als AI.
Amen. Als ze die biljoenen (biljarden?) in duurzame energie projecten hadden gestoken hadden ze misschien al een perpetuum mobile uitgevonden.

Ik heb echt het gevoel dat ze bewust kiezen om de mensheid zo kort mogelijk op deze aarde te laten leven i.p.v. alle signalen ook maar een beetje serieus te nemen.

Beetje sci-fi gedachten, maar ik ben dan ook dol op Sci-fi 😋
De modellen zijn zo efficiënt aan het worden dat ik een model zoals Chatgpt 4.5 intelligentie op mijn laptop (op batterij) kan draaien, dat noemt "gpt oss 120" mfpx4
Ah, zou dat de reden zijn waarom GPT5 afgelopen 2 dagen zo ongelofelijk traag is? Omdat ze vermoedelijk alle recources hebben verhuist naar 5.1.

Ik zie overigens 5.1 niet beschikbaar?
"De GPT 5.1-modellen worden vanaf woensdag geleidelijk beschikbaar gemaakt voor gebruikers met een Pro-, Plus-, Go- of Business-abonnement."

Het is dus niet gelijk beschikbaar.
Bij mij is het beschikbaar in België op al mijn accounts
Ik blijf Claude in alle opzichten nog altijd beter presteren. Probeer het zo nu en dan wel eens, maar elke keer komt Claude beter uit de bus.

[Reactie gewijzigd door moonlander op 12 november 2025 21:54]

Ik vind het nog steeds opvallend dat ze allemaal losse verschillende modellen maken en niet 1 basismodel met allerlei subagents en dat ie dan zelf bepaalt welke ie wil gebruiken...
Een thinking LLM?

Het is nog steeds gewoon een fancy woordvoorspeller toch? Welk gedeelte daarvan is thinking?

En hallucineert dit systeem dan niet?
Het voorspelt nog steeds woorden maar achter de schermen zie je een soort van dialoog met zichzelf ontstaan. Dit zie je als je lokaal een thinking model draait heel goed. Dus de woordvoorspeller begint woorden te spugen en na een tijdje wordt er een tekst als "is dit antwoord een goed antwoord voor de gebuiker", "kloppen de stappen die ik gegeven heb", "is dit antwoord logisch consistent" in de stroom zichtbaar. De LLM zal dan weer gaan voorspellen op basis van de hele input met deze tekst erbij en de stappen die eerder gegenereerd zijn herevalueren. Chatgpt laat de reasoning steps niet zien, maar een lokale Deepseek-R1 bijv. wel.
Moe modellen zoals gpt 5.1 die voorspellen geen woorden meer. Experten zijn relationele algoritmes als je ze van dichtbij bekijkt, transformers doen meer dan enkel predictie.
Moe staat een beetje los van reasoning, en experten zijn geen relationele algoritme maar de thinking fase begint met een " wat zou de gebruiker van mij verwachten" tomen zodat de vraag eerst beter geanalyseerd wordt. Moe is dan voornamelijk een implementatie keuze die orthogonaal staat op reasoning (je hebt moe en non-moe ressoning modellen).
Het gedeelte dat algoritmisch redeneren simuleert.
Jij begrijpt er niet veel van.
Kwestie van AI hè. Lijkt me vrij duidelijk.
Leg maar eens uit dan.
De onderliggende techniek blijft dezelfde nep-intelligentie.
Nog een tijdje en dan is de mensheid zo dom dat de AI modellen onzin kunnen spuiten en dat we dat voor zoete koek slikken.
Je bedoeld zoals TikTok filmpjes? Er zijn wel meer dingen die de waarheid niet spreken en toch met grote regelmaat geloofd worden.
Dat zie ik nu al gebeuren met alle magie die aan chatgpt wordt toegedicht.
Och, een update voor een commodity-product waarvan er zovele zijn. Meer iets voor de meuktracker :)


Om te kunnen reageren moet je ingelogd zijn