OpenAI biedt vanaf 13 februari GPT-4o en GPT-4.1 niet meer aan in ChatGPT

OpenAI stopt vanaf 13 februari met het aanbieden van de generatieve-AI-modellen GPT-4o, GPT-4.1, GPT-4.1 mini en o4-mini. Volgens het bedrijf worden deze oudere modellen nog amper gebruikt. Vanaf die datum kunnen gebruikers alleen nog gebruikmaken van de GPT-5-modellen.

Van de GPT-4-modellen was 4o het populairst, maar volgens OpenAI maakt nog maar 0,1 procent van de ChatGPT-gebruikers er gebruik van. De meeste gebruikers zouden inmiddels al zijn overgestapt op GPT-5.2. OpenAI had GPT-4o eerder al vervangen door GPT-5, maar na klachten van gebruikers kwam het oudere model in augustus toch weer als 'legacymodel' beschikbaar voor betalende gebruikers. Veel gebruikers vonden GPT-4o beter en prettiger om mee te werken. OpenAI zegt nu dat het de GPT-5.1- en GPT-5.2-modellen op basis van de feedback heeft verbeterd.

Het oorspronkelijke GPT-5-model wordt ook op 13 februari uit ChatGPT verwijderd. OpenAI kondigde eerder al aan dat dit model op korte termijn vervangen zou worden. De genoemde modellen blijven wel bruikbaar via de api, die andere bedrijven gebruiken om OpenAI-modellen te integreren in hun eigen diensten.

GPT-4.5 blijft als enige model in de GPT-4-serie nog wel beschikbaar. Om deze te kunnen gebruiken, is een Pro-, Business- of Enterprise-abonnement vereist. Het enige legacymodel waar Plus-abonnees momenteel toegang tot hebben, is GPT-4o. Go-abonnees kunnen helemaal geen legacymodel gebruiken.

ChatGPT. Bron: SOPA Images/LightRocket
ChatGPT. Bron: SOPA Images/LightRocket

Door Kevin Krikhaar

Redacteur

30-01-2026 • 18:43

14

Submitter: Muncher

Reacties (14)

Sorteer op:

Weergave:

Vind het wel tijd dat ze eindelijk die oudere modellen weg doen.
Wat een gezever op X toch elke keer van die safe4o gasten, terwijl het alleen maar resources inneemt.

En "Veel gebruikers" valt ook wel mee. OpenAI gaf zelf aan dat het om 0,1% van de gebruikers gaat.
Dus ook wel beetje logisch dat ze daar vanaf willen.
Je kan het altijd nog gewoon draaien via de API.

Installer OpenWebUI (of LM Studio) en neem een API account. Dan betaal je wel per prompt maar dat valt op zich allemaal heel erg mee. Vorig jaar is er nog 8 euro van mij vervallen omdat je je krediet binnen een jaar op moet gebruiken. Als je er niet dagelijks de hele dag door gesprekken mee aanknoopt dan is het goedkoper dan die 20 euro per maand. En je kan kiezen welk model je gebruikt, welke parameters enz. Veel meer controle dan via hun web interface.

[Reactie gewijzigd door Llopigat op 30 januari 2026 20:31]

'Open'AI (lees: CLOSED-AI) heeft de vorige versies achter een paywall gezet en beschikbaar gesteld als API; 90% of meer van de gebruikers kent geen iota van API's of wilt geen geld aan spenderen. Wat ik ook begrijp; het bedrijf van sam altman is ten dode opgeschreven IMHO
Het is ook niet logisch dat OpenAI de goedkoopste versie als gratis versie aanbiedt? Ik bedoel, elk nieuw model is efficiënter (lees; zuiniger) dan zijn voorganger. Dus naar de gratis gebruikers toe is dat een financiële besparing. Het is niet zo raar dat ze de oude modellen dan achter een paywall gaan zetten.
Zuiniger?! OpenAI's GPT-5 consumes over eight times the power of GPT-4, researchers estimate
En dat is nog maar één bron...
Ik weet niet waar jij jouw info vandaan haalt.
Hier is de daadwerkelijke bron:

Artikel https://www.theguardian.com/technology/2025/aug/09/open-ai-chat-gpt5-energy-use

Paper https://arxiv.org/pdf/2505.09598v2

Dashboard https://app.powerbi.com/view?r=eyJrIjoiZjVmOTI0MmMtY2U2Mi00ZTE2LTk2MGYtY2ZjNDMzODZkMjlmIiwidCI6IjQyNmQyYThkLTljY2QtNDI1NS04OTNkLTA2ODZhMzJjMTY4ZCIsImMiOjF9

Daarop kan je zien dat er veel varianten zijn en dat het verschil niet zit in welk getal er achter GPT- staat. En het zijn schattingen op basis van aannames die helemaal niet waar hoeven te zijn.

Het lijkt mij heel erg goed mogelijk dat een kleinere variant van een nieuwer model juist een stuk energie zuiniger is en toch 'slimmer'. Veel van het berekende energie verbruik komt bijvoorbeeld door het 'thinking' van nieuwere modellen. Maar dat hoeft helemaal niet aan te staan voor gratis gebruikers.

[Reactie gewijzigd door nowaychose op 30 januari 2026 20:11]

Ooh nee, daar gaan we weer met de "OpenAI heeft mijn lief vermoord" posts...
Ik begrijp het uitfaseren van oude modellen, maar 0,1% van inmiddels 900 miljoen gebruikers is......nog steeds 900.000 gebruikers? Of bedoelen ze 0,1% van de betalende gebruikers?
Wat is de onderbouwing van die 10 euro want dat klinkt nogal veel.
Opus is ook superieur
10?! Waar staat dat? Dat is gigantisch.
Een prompt bij Claude Opus 4.5 kost 12cent (3x4cent) cent via Github Copilot.

Laatst nog met Opus voor planning, creëren project structuur en implementatie van een typescript/node.js app gewerkt. Waarbij ik begin in de planner met alle subagents die het aanmaakt om alles te researchen, tig keer het plan met "hem" reviseer om daarna het te laten implementeren. Dat alles koste nog geen €5 euro.

Dus je gebruikt het ergens op een manier dat je onnodig veel betaald, of je moet beter leren prompten. Twee fouten die ik vaak zie zijn tig kleine prompts in plaats van één goede uitgebreide prompt in het begin en onnodig door blijven gaan in dezelfde sessie. Af en toe gewoon even vragen een continuation prompt te schrijven voor waar je bent en fijn verder daarmee in een schone sessie.

Qua Gemini ben ik bevooroordeeld. Laatste keer ging die grapjas ondanks duidelijk instructies het toch maar grotendeels in javascript implementeren toen hij tegen strict typescript issues aan liep. Niet dat het uitmaakte, in tegenstelling tot Opus heb ik hem nog nooit in één keer iets zien schrijven dat werkt.
Een prompt bij Claude Opus 4.5 kost 12cent (3x4cent) cent via Github Copilot.

Dus je gebruikt het ergens op een manier dat je onnodig veel betaald, of je moet beter leren prompten. Twee fouten die ik vaak zie zijn tig kleine prompts in plaats van één goede uitgebreide prompt in het begin en onnodig door blijven gaan in dezelfde sessie. Af en toe gewoon even vragen een continuation prompt te schrijven voor waar je bent en fijn verder daarmee in een schone sessie.
Het is eigenlijk niet anders dan als je met mensen communiceert. Een (te) korte vraag zonder alle context levert ook niet het juiste antwoord. Een verkeerd geformuleerde vraag idem dito. Op zich is de juiste prompt maken een leuke bijvangst voor als je het LLM's gebruikt ter ondersteuning van software development. De developer (of diens opdrachtgever) wordt gedwongen om hele goede requirements te schrijven. Waar je als je het met mensen doet nog wel eens tussen de regels door denkt te kunnen horen wat een stukje software moet doen, moet je bij AI heel precies zijn.

Om te kunnen reageren moet je ingelogd zijn