ChatGPT Pro-abonnement van 103 euro heeft vijf keer hogere limieten dan Plus

OpenAI heeft een ChatGPT Pro-abonnement van 103 euro uitgebracht. De gebruikslimiet is vijf keer hoger dan bij het Plus-abonnement van 23 euro. Het bedrijf biedt ook een abonnement van 229 euro aan, met een gebruikslimiet die twintig keer hoger ligt dan die van Plus.

Het ChatGPT Pro-abonnement van 103 euro heeft dezelfde functies als het Pro-abonnement van 229 euro, dat al langer beschikbaar is, maar heeft lagere gebruikslimieten. De gebruikslimiet ligt vijf keer hoger dan bij het Plus-abonnement, terwijl het duurste ChatGPT-abonnement twintig keer hogere limieten heeft. Tot en met 31 mei is de gebruikslimiet voor programmeeragent Codex bij het nieuwe abonnement tien keer hoger dan bij Plus, in plaats van vijf keer hoger.

OpenAI laat aan TechCrunch weten dat het abonnement van 103 euro is bedoeld 'om ontwikkelaars meer praktische programmeermogelijkheden te bieden voor hun geld'. Het bedrijf wil hiermee beter concurreren met Claude Code, dat al langer een abonnement van rond de 100 euro heeft met vijf keer hogere gebruikslimieten dan die van zijn abonnement van rond de 20 euro.

ChatGPT-abonnementen

Door Kevin Krikhaar

Redacteur

10-04-2026 • 13:32

35

Reacties (35)

Sorteer op:

Weergave:

Dus ongeveer de helft van de prijs voor een kwart van de limieten... Zou voor bepaalde gebruikers natuurlijk wel de ideale middenweg kunnen zijn.

Wat ik me afvraag in hoeverre die nu (wel) in de buurt komt van kostendekkend zijn. Als je 100 euro per maand uit gaat geven ben je toch een relatief zware gebruiker.
Het is voor ChatGPT niet kostendekkend. Bij lange na niet. De reden is de infrastructuur. ChatGPT brandt 1.4 miljard per maand weg, 17 miljard per jaar. Ze moeten heel veel abonnementen verkopen om dat weer goed te maken.
Hoe kan het dat de Chinezen dit veel efficiënter doen?
Kunnen ze het echt efficiënter of is er sprake van een reality distortion field?
De chinezen passen cutting Edge principes toe die de middelen efficiënter laat infereren. (Zie al de Papers van deepseek en qwen)

Chatgpt Google en Claude passen ook langzaam aan zulke technieken toe. KV cache compressie ga je binnenkort ook overal zien. Moe modellen maken ook alles veel sneller dan dense modellen.

Tijdens piekuren ben ik ook zeker dat free users op quantised modellen werken (je voelt het dommer worden of te snel antwoorden)

Ook op hardware veranderd er veel, chips gespecialiseerd in inference (Matrix calculations) zoals sparx processors.

Het verbruik van zo energie is extreem afgenomen 100 keer minder verbruik, want je kan nu al modellen draaien op je telefoon die chatgpt 4 intelligentie evenaren van 2 jaar geleden (die vroeger datacenters nodig hadden).

Het probleem is dat de groei veel hoger is dan 100x

Maar we komen wel op een punt dat de super slimme modellen (die veel compute nodig hebben) niet echt meer nodig zijn voor wat de gemiddelde gebruiker vraagt om te doen.

En het verbruik daarvan word nog steeds kleiner, en we gebruiken nog niet eens onze hardware goed (npus zouden zoveel sneller en efficiënter werken dan gpu s) maar vreemd genoeg heb ik niet veel software dat npus gebruiken...

Mijn Asus a14 op arm64 processor heeft op papier super goede resultaten, maar toch is het trager dan mijn Meteor lake van 2 jaar geleden omdat de gpu en npu niet gedetecteerd word door lmstudio en ollama ...

En de prism converter maakt het nog trager...

De laptop is heel goed zo lang je enkel arm64 binairies gebruikt

[Reactie gewijzigd door sebastienbo op 10 april 2026 15:21]

Die hebben dat heel slim gedaan. Ze hebben met vragen ChatGPT uitgehoord om zo hun eigen model te vullen.

On topic : wat er gebeurt is het rondpompen van grote hoeveelheden geld. Microsoft zegt bijvoorbeeld 1 miljard in ChatGPT te pompen. Dat is geen echt geld. Microsoft geeft ChatGPT 1 miljard aan Azure credits. Die 1 miljard tellen ze dan wel weer mee in de omzetcijfers van Azure. Aan de andere kant moet Microsoft dan weer fors investeren in datacenters. Die worden dan weer gevuld met AI chips. Microsoft schrijft dat dan weer af in 6 jaar, zoals ieder bedrijf dat zou doen. Klein dingetje, de AI hardware is over 1 a 2 jaar alweer achterhaald.

Die 1 miljard aan credits is overigens ook zo opgebrand. Dus OpenAI heeft weer geld (of credits) opgehaald bij oa Amazon. Dat is ook weer zo op, en zo herhaalt het zich. Het geheugentekort wat we nu hebben is ook het gevolg van OpenAI die contracten sloot met Hynix en Samsung voor veel geheugen. Daar zat echter en dikke maar aan, het was een "letter of intent" en gezien de situatie zou het mij niet verbazen als er uiteindelijk weinig geleverd gaat worden.
Die hebben dat heel slim gedaan. Ze hebben met vragen ChatGPT uitgehoord om zo hun eigen model te vullen.
Dat zijn besparingen uit de trainingfase. Het gaat hier om operationele runkosten.

Maar die kosten zijn voornamelijk energie en energie in China is gewoon goedkoper en kan ook gesubsidieerd worden. Daarom zitten (zaten?) er ook zo enorm veel bitcoin farms daar.
Niet echt. Enerzijds hebben ze gewoon zaken weggelaten, waardoor de kwaliteit wel wat lager is, anderzijds wordt het net zoveel gesubsideerd als in het westen. Maar het grote verschil is dan bv dat de stroom goedkoper is en de hardware (ook vanwege de sancties) niet altijd even legaal wordt verhandeld, verwacht ik. Ga er maar vanuit dat het daar niet echt goedkoper is, het lijkt alleen zo. Verder zal de censuur ook wel wat schelen in hoe een model werkt als het niet alles hoeft te beantwoorden.

[Reactie gewijzigd door Martinspire op 10 april 2026 14:46]

Phototransistors zoals Q.ant al maakt denk ik dat de reden is.
edit:
Naam goed geschreven.
En linkje: The photonic AI accelerator - Q.ANT

[Reactie gewijzigd door TomPé op 10 april 2026 15:59]

Hoef je geen Chinees voor te zijn. Anthropic doet het ook veel beter.
Als ik in de beschrijving kijk is het abbo van 23 euro eigenlijk het eerste echte serieuze abbonnement wat je kan afnemen. Wetende dat het ze zelfs nog lang niet quitte draaien, moet dit op termijn nog veel duurder gaan worden (ook met meer gebruikers). De huidige prijzen zijn eigenlijk nog een lokkertje.

Hoe zit het met concurrenten zoals Grok, Claude en Copilot? Ik heb het idee dat niemand al geld verdiend en men in investering/start fase zit.
Ik volg de berichtgeving een beetje. Ik kan je niets vertellen over Grok of Claude. Copilot is in feite ChatGPT met een Microsoft sausje. Voor zowel ChatGPT als Copilot is de situatie te omschrijven als "unsustainable". Men had uiteraard gehoopt dat de hype zou resulteren in echte verbeteringen. Dat viel enorm tegen.
Het is voor ChatGPT niet kostendekkend. Bij lange na niet. De reden is de infrastructuur. ChatGPT brandt 1.4 miljard per maand weg, 17 miljard per jaar. Ze moeten heel veel abonnementen verkopen om dat weer goed te maken.
Mmmmm.... Maar ze verkopen er ook heel veel en heel veel zijn niet deze goedkope accounts. Ik was een maandje geleden op een Frans congres over AI en een spreker vroeg de luisteraars hoeveel hun bedrijf per maand betaalde. Na wat rekenen bleek de zaal (150 man) net onder de 2 miljoen per maand uit te geven aan AI-services. Ikzelf zit op 6500 Euro per maand en beschouw dat een koopje.

Hoeveel denk je dat Salesforce. Deloitte, Morgan Stanley, Shopify etc per maan betalen?
Ik denk dat ze vooral hopen dat de techniek in de toekomst efficiënter word. Momenteel worden er nog steeds grote stappen gezet wat dat betreft, zowel aan de software als de hardwarekant.
Vergeet ook niet dat de highend server van nu bij wijze van spreken het high end mobieltje van over 5 jaar is :+ Maar aangezien de modellen nu al vrij beschikbaar zijn en de enige reden dat niet iedereen zonder licentie geld af te dragen alles al lokaal draait alleen maar is dat de gewone consumenten hardware van nu dat nog niet trekt. Ik heb er een hard hoofd in dat men die miljarden die ze er nu allemaal doorheen jassen ooit weer terug gaan zien, maar ja je zou de boot eens kunnen missen he....
Zo hard gaat de chip ontwikkeling niet meer hoor, de wet van Moore loopt tegen atomaire limitaties aan.
Idd, dit zegt Nvdia zelf ook.

Echter zeggen ze daar ook dat ze nog steeds dat soort stappen om de 2 jaar zetten echter nu door middel van software verbeteringen/optimalisaties.
Als ik het vergelijk met Claude, dan denk ik niet dat dit kostendekkend is, tenzij ze heel veel marge hebben op hun API Pricing. ( zoals ik hoop/denk dat het geval is bij bvb Anthropic met Claude)

Heb de afgelopen maand op het 100 EUR Claude plan, meer dan 3000 EUR aan 'kosten' gedaan (moest het API Pricing zijn)

[Reactie gewijzigd door Rhizix op 10 april 2026 13:41]

kostendekkend is nog niet nodig


ze moeten eerst zoveel mogelijk mensen afhankelijk maken van de technologie en daarna als je niet meer zonder kan verhogen ze de prijzen
Wat ik me afvraag in hoeverre die nu (wel) in de buurt komt van kostendekkend zijn. Als je 100 euro per maand uit gaat geven ben je toch een relatief zware gebruiker.
Ik las ergens dat zware gebruikers die 200 euro voor Claude betalen, vaak wel tot 5000 euro aan kosten maken voor Anthropic. Kan me zo voorstellen dat dit met ChatGPT niet heel anders is
Wij hebben het Max20 abonnement en middels claude code (cli) gebruiken wij het van tal van zaken. Al je 100 euro per uur factureerd zorgt een besparing van 2 uur per maand er al voor dat je kostendekkend ben.

Inmiddels heb ik de cli ook op een aantal servers geinstalleerd en doe nu ook veel sysops middels AI. Bij elke wijziging krijgt je de vraag of deze doorgevoerd mag worden. claude kan ook controleren of de configuratie daarna correct is. Ik gebruikt het ook als review tool voor mijn code, maar ook in 'plan mode' om (customer) support vragen te beantwoorden (in de console). Ik kan er (unit) tests mee schrijven. Ik bespaar zeker 10 factureerbare uren per week.

ChatGPT heeft nu feitelijk een Max5 concurrent/alternatief neergezet. Overigens hebben wij naast Claude ook nog een sub lopen bij chatllm aangezien deze ook andere AI tools aanbied dan LLMs, maar die is maar 20 dollar per maand.
Soms gaat het niet enkel over de capaciteit, maar ook de resource priority tijdens peaktimes, of toegang tot de nieuwste modellen en apps...
Ik neem aan dat dit per maand is. Maar misschien even handig om dit te vermelden in het artikel...
Staat letterlijk in de screenshot.... ff lezen
Mocht je je nog afvragen wie de AI-race leidt: dit is zo'n beetje een 1-op-1 kopie van de prijsstrategie van Anthropic.
En daar baseer je op wie dit leidt? Apart.

De technologie verandert elke paar maanden. De ene keer scoort A hoog op de benchmarks, de andere keer B. Dat staat compleet los van je prijsstrategie.
Ik zie Open.AI ook niet de race winnen hoor.

Die blijven een beetje hangen bij Generative Chatbots heb ik het idee.

Maar dat is nergens op gebaseerd puur op allerlei nieuws artikelen die ik voorbij zie komen.

Dus correct-me please when I am wrong.
Ik heb al enkele maanden het reguliere ChatGPT pro-abonnement en met de dubbele limiet die zij tijdelijk geven voor Codex is het veel waar voor je geld. En het is ook fijn dat er een fast mode bestaat waarmee je een 1.5 keer snellere response krijgt voor 2x zoveel tokens. Overigens is het zo dat als je je abonnement bij OpenAI niet opzegt maar ook geen geld op je creditcard hebt, je abonnement daar nog weken doorgaat, en je dat volledig kunt gebruiken zonder dat je daarvoor hebt betaald. Bovendien is het zo dat als je je abonnement van OpenAI betaalt via een land dat geen inkomstenbelasting heeft, je geen btw betaalt.

Echter, Github Copilot pro+ kost €34 per maand en daarmee krijg je 1500 credits, waarmee je 1500 prompts kunt versturen naar GPT’s nieuwste model, of 4500 prompts naar GPT mini 5.4. En als je het halverwege de maand afsluit dan krijg je op de 1e van de volgende maand wederom 1500 credits, dus dan heb je in feite ook dubbele limieten. En als je dan de volgende maand je abonnement cancelled (omdat die credits anders bedoeld zijn voor die hele maand) en als het afgelopen is op de 15e bijvoorbeeld, weer opnieuw start, dan heb je dus telkens 3000 prompts per maand met GPT’s nieuwste model en je kunt ook Claude en Gemini gebruiken.

[Reactie gewijzigd door Dynamix86 op 10 april 2026 13:52]

ChatGPT Go is blijkbaar al maanden uit de roulatie in Nederland, helaas... het plaatje in het artikel deed mij naar ChatGPT racen om te downgraden. :+
Ik heb even gekeken, maar in de app kan ik Go gewoon nog kiezen als optie bij 'upgrade'. Had eerder even plus, maar die tijdelijk uitgezet vanwege afwezigheid. Ik ga vanaf volgende week Go gebruiken.
Hmm okay... Ik zit op dit moment op Plus en ik kan niet downgraden. Heb nu mijn Plus opgezegd en ik ben benieuwd of ik na de periode voor Go kan kiezen
Weet niet waar je die informatie vandaan hebt, maar een heb maand geleden nog Go abbonement afgenomen.
Wat zijn mensen aan het doen als ze dit soort dingen nodig hebben? Of zijn mensen ook deze abonnementen aan het gebruiken voor diensten van websites zelf (en dus niet met aparte rekeningen)?
Als hulpmiddel bij het programmeren. Vooral bij wat grotere projecten gaat het wel wat hard met de tokens. En dan niet eens direct vibe coding, maar als hulpmiddel bij het meedenken, debuggen, documentatie schrijven, todo's uitwerken, stukjes code uitwerken, code analyse, etc. Ik heb voor ongeveer 400 eur per maand aan AI abonnementen (Cursor, Claude, ChatGPT). Dat klinkt veel, maar ik verdien het minstens 10x terug doordat ik werk veel sneller kan doen. Even een prompt typen en dan wordt er zellfs doorgewerkt terwijl ik even paar minuutjes in de zon zit met een bakkie thee.
Tokens zijn de nieuwe drugs van de toekomst. Eerst iedereen afhankelijk maken en dan later gaan cashen.

Om te kunnen reageren moet je ingelogd zijn