OpenAI biedt vanaf 13 februari GPT-4o en GPT-4.1 niet meer aan in ChatGPT

OpenAI stopt vanaf 13 februari met het aanbieden van de generatieve-AI-modellen GPT-4o, GPT-4.1, GPT-4.1 mini en o4-mini. Volgens het bedrijf worden deze oudere modellen nog amper gebruikt. Vanaf die datum kunnen gebruikers alleen nog gebruikmaken van de GPT-5-modellen.

Van de GPT-4-modellen was 4o het populairst, maar volgens OpenAI maakt nog maar 0,1 procent van de ChatGPT-gebruikers er gebruik van. De meeste gebruikers zouden inmiddels al zijn overgestapt op GPT-5.2. OpenAI had GPT-4o eerder al vervangen door GPT-5, maar na klachten van gebruikers kwam het oudere model in augustus toch weer als 'legacymodel' beschikbaar voor betalende gebruikers. Veel gebruikers vonden GPT-4o beter en prettiger om mee te werken. OpenAI zegt nu dat het de GPT-5.1- en GPT-5.2-modellen op basis van de feedback heeft verbeterd.

Het oorspronkelijke GPT-5-model wordt ook op 13 februari uit ChatGPT verwijderd. OpenAI kondigde eerder al aan dat dit model op korte termijn vervangen zou worden. De genoemde modellen blijven wel bruikbaar via de api, die andere bedrijven gebruiken om OpenAI-modellen te integreren in hun eigen diensten.

GPT-4.5 blijft als enige model in de GPT-4-serie nog wel beschikbaar. Om deze te kunnen gebruiken, is een Pro-, Business- of Enterprise-abonnement vereist. Het enige legacymodel waar Plus-abonnees momenteel toegang tot hebben, is GPT-4o. Go-abonnees kunnen helemaal geen legacymodel gebruiken.

ChatGPT. Bron: SOPA Images/LightRocket
ChatGPT. Bron: SOPA Images/LightRocket

Door Kevin Krikhaar

Redacteur

30-01-2026 • 18:43

43

Submitter: Muncher

Reacties (43)

Sorteer op:

Weergave:

'Open'AI (lees: CLOSED-AI) heeft de vorige versies achter een paywall gezet en beschikbaar gesteld als API; 90% of meer van de gebruikers kent geen iota van API's of wilt geen geld aan spenderen. Wat ik ook begrijp; het bedrijf van sam altman is ten dode opgeschreven IMHO
Het is ook niet logisch dat OpenAI de goedkoopste versie als gratis versie aanbiedt? Ik bedoel, elk nieuw model is efficiënter (lees; zuiniger) dan zijn voorganger. Dus naar de gratis gebruikers toe is dat een financiële besparing. Het is niet zo raar dat ze de oude modellen dan achter een paywall gaan zetten.
Zuiniger?! OpenAI's GPT-5 consumes over eight times the power of GPT-4, researchers estimate
En dat is nog maar één bron...
Ik weet niet waar jij jouw info vandaan haalt.
8x stroonverbruik en niks slimmer dan gpt 4...
Bron? Ik gebruik AI vrij intensief (soms enkele 100 miljoenen tokens per dag) en ik zou absoluut geen ouder model meer willen gebruiken.
Toen 5 net uitkwam zat mijn youtube homepage vol met video's die zeiden dat het niks slimmer was dus een klein korreltje zout maar 8x stroomverbruik is nog steeds waanzinning veel meer
17 miljard verlies per jaar.

1.4 biljoen aan financiële verplichtingen op lange termijn.

zoals het er nu uitziet moeten ze een omzet halen van 100 miljard om in de zwarte cijfers te zitten. Echter, de gigantische afschrijvingen gaan echt heel zwaar wegen. Plus het AI sentiment neemt af. Het is geen makkelijke business case aan het worden. Dit soort berichten tonen alleen maar aan dat het bedrijf het moeilijk heeft. Users nemen af, vertrouwen neemt af.

Het is dus niet vanzelfsprekend dat OpenAI blijft bestaan, en ook niet raar of erg. Vaak zie je dat een first mover het niet redt.
Slim, slim, het is een illusie. Ik gebruik dagelijks chat gpt5 en het is knap voor wat het is maar er wordt echt 0.0 gedacht en dat is te merken.

Zo vaak zie ik fouten die een mens niet zou maken, echt van het type duh tot niet lezen, terugvallen in zaken waarvan ik expliciet had gezegd dat niet te doen.

En dan licht het niet aan mijn prompten

Ze verwachten dat dit mensen gaat vervangen, maar dat is op simpel werk na echt een illusie. Dit gaat zo kei en keihard knappen.
Ja ik zie ook bij veel mensen fouten die je zou verwachten dat een mens nooit zou maken xD
Hier is de daadwerkelijke bron:

Artikel https://www.theguardian.com/technology/2025/aug/09/open-ai-chat-gpt5-energy-use

Paper https://arxiv.org/pdf/2505.09598v2

Dashboard https://app.powerbi.com/view?r=eyJrIjoiZjVmOTI0MmMtY2U2Mi00ZTE2LTk2MGYtY2ZjNDMzODZkMjlmIiwidCI6IjQyNmQyYThkLTljY2QtNDI1NS04OTNkLTA2ODZhMzJjMTY4ZCIsImMiOjF9

Daarop kan je zien dat er veel varianten zijn en dat het verschil niet zit in welk getal er achter GPT- staat. En het zijn schattingen op basis van aannames die helemaal niet waar hoeven te zijn.

Het lijkt mij heel erg goed mogelijk dat een kleinere variant van een nieuwer model juist een stuk energie zuiniger is en toch 'slimmer'. Veel van het berekende energie verbruik komt bijvoorbeeld door het 'thinking' van nieuwere modellen. Maar dat hoeft helemaal niet aan te staan voor gratis gebruikers.

[Reactie gewijzigd door nowaychose op 30 januari 2026 20:11]

Daarop kan je zien dat er veel varianten zijn en dat het verschil niet zit in welk getal er achter GPT- staat. En het zijn schattingen op basis van aannames die helemaal niet waar hoeven te zijn.
Afgaande van de powerbi site met enkel de OpenAI modellen (de arxiv heeft GPT-5 niet als onderwerp), hebben de meeste wel een 5 achter hun naam.

Maar ik geef je wel gelijk. Zeker nu ze zelf proberen te gissen hoeveel "time-test scaling/reasoning" iets nodig heeft, ze ASIC's/TPU's en oudere GPU's gaan proberen gebruiken om de inference kost te verlagen. Het is maar normaal dat ze dan ook ieder oud model, dat weinig afzet kent vanaf de introductie van een nieuw model willen afvoeren, want die dingen levend houden tikt wellicht serieus aan bij de kostenfactuur.

En ik geloof ook dat kleinere modellen met hoge kwaliteits/domein data betere resultaten kunnen neerzetten met minder energieverbuik.
Wat een heftige reactie, waarom zou noem je OpenAI "closed-ai" ? Een bedrijf heeft niet de verplichting om eeuwig hetzelfde product aan te bieden. Wij verwachten toch ook niet van Volkswagen dat ze nog steeds de 1982 Golf produceren?

Waarom zou het bedrijf ten dood zijn opgeschreven?
Schulden, schulden en nog meer schulden. Als je meer uitgeeft dan je binnenkrijgt dan krijg je problemen.
Ze verdienen al aan het aanbieden van de API. Dat het trainen van nieuwe modellen zo veel geld kost lijkt de investeerders niet zo heel veel uit te maken.

Als je uiteindelijk super intelligentie kunt aanbieden voor electriciteit + marge stroomt het geld vanzelf binnen ;) Niet genoeg klanten? Met de extra AI capaciteit kun je dan prima gaan handelen op de beurs.

Ik wil absoluut niet beargumenteren dat OpenAI risicoloos is maar extreem irrationeel is het absoluut niet
Punt is dat een LLM geen super intelligentie is en ook nooit worden gaat. Sterker nog, mijn ervaring na een paar jaar stevig gebruik is dat Chat GPT 0,0 aan intelligentie bezit.

llm's een narrow AI gaat nooit denken, evenmin dat een brandstofmotor lopend op fossiele branstoffen 0.0% uitstoot gaat geven. Het is inherent aan de gebruikte technologie.

Op het moment dat de inversteerders eindelijk snappen wat LLM's zijn en wat het vooral niet zijn dan zal de bubbel spatten.
Goh. Een LLM is by design niet intelligent. Maar goed dat je het nu beseft :-)
Punt is dat een LLM geen super intelligentie is en ook nooit worden gaat. Sterker nog, mijn ervaring na een paar jaar stevig gebruik is dat Chat GPT 0,0 aan intelligentie bezit.
Dit is uiteraard volledig afhankelijk van de definitie van intelligentie en hoe je het meet. Claimen dat ChatGPT 0.0 intelligentie heeft en ook nooit zal hebben lijkt mij een hyperbool. Waarom gebruik je het als het 0.0 intelligentie heeft?
llm's een narrow AI gaat nooit denken, evenmin dat een brandstofmotor lopend op fossiele branstoffen 0.0% uitstoot gaat geven. Het is inherent aan de gebruikte technologie.
Dit lijkt mij ook weer een definitie kwestie. Wat is "denken" en wie denkt? Denkt een goudvis, een hond, een peuter? Waar wil je de grens leggen?
Op het moment dat de inversteerders eindelijk snappen wat LLM's zijn en wat het vooral niet zijn dan zal de bubbel spatten.
Mocht je hier zo van overtuigd zijn dan zou ik puts op Nvidia gaan kopen met je pensioen geld ;)
Mwah, er is maar weinig open aan OpenAI. Dat op zich vind ik niet zo heftig.
Open betekent niet dat het gratis is. Je zou met Open wel verwachten dat men die modellen dan ook thuis zouden moeten kunnen draaien, met eigen server kosten. Maar feitelijk is het enige wat open is, de api naar het Open AI model toe.
Vind het wel tijd dat ze eindelijk die oudere modellen weg doen.
Wat een gezever op X toch elke keer van die safe4o gasten, terwijl het alleen maar resources inneemt.

En "Veel gebruikers" valt ook wel mee. OpenAI gaf zelf aan dat het om 0,1% van de gebruikers gaat.
Dus ook wel beetje logisch dat ze daar vanaf willen.
Je moet betalende gebruiker zijn om de legacy te gebruiken dus het zou ook nog kunnen dat slechts 0.1% van de gebruikers betaalt voor het gebruik van chatgpt
Zelfs al zou het 5% zijn of meer dan nog is het beter dit soort fanaten te weren.
90% van de trammelant voor 5% inkomsten. Lijkt mij wel logisch wat de oplossing is.
Je kan het altijd nog gewoon draaien via de API.

Installer OpenWebUI (of LM Studio) en neem een API account. Dan betaal je wel per prompt maar dat valt op zich allemaal heel erg mee. Vorig jaar is er nog 8 euro van mij vervallen omdat je je krediet binnen een jaar op moet gebruiken. Als je er niet dagelijks de hele dag door gesprekken mee aanknoopt dan is het goedkoper dan die 20 euro per maand. En je kan kiezen welk model je gebruikt, welke parameters enz. Veel meer controle dan via hun web interface.

[Reactie gewijzigd door Llopigat op 30 januari 2026 20:31]

Ik begrijp het uitfaseren van oude modellen, maar 0,1% van inmiddels 900 miljoen gebruikers is......nog steeds 900.000 gebruikers? Of bedoelen ze 0,1% van de betalende gebruikers?
Het percentage, 0,1 procent, is in dit geval het getal wat telt, niet een absoluut getal zoals 900.000. 50 ratten in een stad van 2 miljoen mensen is geen probleem, 50 ratten in een dorp van 100 mensen is een gigantisch probleem. Op de schaal waar OpenAI opereert doen absolute getallen er niet toe.
Heeft iemand een idee wat dit voor gevolgen heeft voor Github Copilot? Daarin zijn 4.0 en 4.1 nog de standaard, en 5.0 valt buiten het onbeperkte model en heeft een kostenmultiplier van 1.0 (Claude 4.5 heeft bijvoorbeeld een multiplier van 3.0)
Ik vermoed dat dit stukje tekst uit het artikel exact beschrijft wat de impact is
De genoemde modellen blijven wel bruikbaar via de api, die andere bedrijven gebruiken om OpenAI-modellen te integreren in hun eigen diensten.
Mits dat allemaal via API gebeurt via GitHub Copilot, is er dus voorlopig nog geen impact.
Ik heb tot vorige week 3 maanden lang chatgpt betaald gebruikt.

Beetje html5, beetje css, beetje js, beetje php, beestje van alles wat, etcetc.

Zodra het bij chatgpt te ingewikkeld werdt, of de codes langer, kon je merken dat de buffer vol liep en de chat zga onbruikbaar werdt.

Ook enorm veel fouten of vergeten codes die de eerste keer al voorkomen hadden kunnen worden. Inmiddels heb ik de gratis versie van grok geprobeerd maar, verdorie wat een verademing was dat. Dat wat ik met chatgpt na uren pas had bereikt heb ik binnen 15/20 minuten in grok. Fantastisch, het luisterd veel beter naar mijn wensen en spuugt ook veel betere, werkbare codes uit in vergelijking met chatgpt. Voorlopig voor mij geen chatgpt meer!
Gemini vind ik toch wel een hele slechte, weigert lange code te maken dus haalt het functies eruit en het zei gisteren bij mij nog ineens "ik gebruik ook die muis voor werk" dus het doet gewoon maar wat het is niet zelf wat het doet alleen mensen na
Gemini plaatst in ieder geval wel komma's en punten.
Ik heb ook veel chatGPT gebruikt, in mijn geval voor python. Maar inderdaad, na verloop van tijd wordt het project groter en de resultaten minder. Ik las een stukje over Claude en heb het maar geprobeerd. Tot dusver werkt het inderdaad veel fijner. Best verbaasd over eigenlijk. Ik betaal nu met een actie 3 maanden maar een tientje per maand, maar ik denk dat ik het wel door laat lopen.
Ooh nee, daar gaan we weer met de "OpenAI heeft mijn lief vermoord" posts...
vett tech alleen jammer dat het zoo veel stroom kost de bitcoin hype is weer beetje minder maar ai neemt het over vette tech maar de stroom verbruik is echt wel een ding op het moment
Dit is best uitdagend als je een werkende Agent hebt, die met dit specifieke model prima de taak uitvoert. Vervolgens moet je een ander model eraan koppelen en maar afwachten of de prompting en context dezelfde resultaten zal opleveren.
Jammer, de functionaliteit wordt steeds minder als betalende klant. Ik gebruik oudere modellen nog regelmatig,omdat die wat minder censuur hebben. Ik moet opschieten met een paar hoofdstukken te schrijven. :(

Om te kunnen reageren moet je ingelogd zijn