GPT-5.5 kan beter en efficiënter programmeren en taken uitvoeren op computers

OpenAI heeft GPT-5.5 uitgebracht. Het bedrijf belooft dat het nieuwe model beter is in programmeren, taken uitvoeren op computers en wetenschappelijk onderzoek, terwijl het minder tokens gebruikt.

OpenAI heeft GPT-5.5 beschikbaar gemaakt voor Plus-, Pro-, Business en Enterprise-abonnees in ChatGPT en Codex. Volgens de fabrikant presteert het nieuwe model vooral beter op het gebied van agentic coding. Ook zou GPT-5.5 beter zijn in het uitvoeren van taken op een computer en het uitvoeren van wetenschappelijk onderzoek. OpenAI belooft dat GPT-5.5 niet trager is dan het 5.4-model, dat vorige maand werd uitgebracht.

De fabrikant claimt onder meer dat GPT-5.5 autonomer is. Bij het programmeren zou het model sneller uit zichzelf problemen ontdekken en vervolgstappen suggereren. Daarnaast kan GPT-5.5 beter omgaan met 'slordige' meerdelige prompts en zijn er strengere veiligheidsmaatregelen toegevoegd, zegt OpenAI.

De prijzen voor het gebruik van de api zijn wel flink gestegen. Voor GPT-5.5 moeten gebruikers 30 dollar betalen voor een miljoen outputtokens, terwijl dat voor GPT-5.4 nog 15 dollar is. Wel belooft OpenAI dat het nieuwe model efficiënter is en minder tokens gebruikt.

GPt-5.5
Game geprogrammeerd door GPT-5.5

Door Kevin Krikhaar

Redacteur

24-04-2026 • 09:50

87

Submitter: Rubenskoo

Reacties (87)

Sorteer op:

Weergave:

Ben benieuwd. Ik ben nu ook bezig met Claude Pro, maar dat is een teleurstelling. Je loopt snel tegen limieten aan en weigert dan verder alles, en maakt regelmatig fouten. ChatGPT gebruik ik al langer, hoewel de antwoorden wolliger zijn, kom je er wel verder mee. Benieuwd of deze versie nu ook beter is in het analyseren en samenvatten van wetenschappelijke artikelen, dat lukte met Claude niet goed.
Ik weet niet hoe goed het in de praktijk werkt, maar de beloftes van Caveman zijn best goed:
https://github.com/JuliusBrussee/caveman
Ik kan het zo snel niet even vinden maar dit heeft ook impact op de kwaliteit van je antwoorden.
Ik zou heel graag je bron willen, aangezien dat namelijk ook mijn vermoeden is. Heeft iemand dat aan de tand gevoeld?
Deze bijvoorbeeld laat zien dat de kwaliteit van Opus daalde na het geven van instructies om minder woorden te gebruiken
Lijkt op wat caveman doet maar is natuurlijk niet hetzelfde.
Wellicht offtopic maar ik gebruik Caveman nu ruim een week i.c.m Codex (openai) en merk dat ik veel langer door kan zonder tegen token limits aan te lopen. Ik gebruik Codex vooral veel voor het generen van documentatie die ik via API's ophaal.
Caveman is best overhyped, in realiteit (in coding scenario's) bespaart het mss 5-10% op je tokens. Niet slecht natuurlijk, maar ook niet de hype waard.
Ik maak gebruik van Claude MAX. Ook dan kan je tegen limieten lopen. Dus: Caveman goed. Snel antwoord. Ik snel klaar.
Copilot cli met claude modellen.

Of opencode ipv claudecode verbruikt veel minder tokens
Claude staat toch niet meer toe dat oa openclaw en opencode met een claude abo mogen gebruiken?
Niet via abonnement, wel via api key
Het mag semi, dus je wordt er niet voor gebannen, maar ze kunnen het later volledig bannen. Het was wel zo dat Claude alle traffic die via OpenCLAW gaat zwaar heeft generfd, waardoor het model vele malen slechter is.
Juridisch gezien mag het gewoon. https://github.com/dotCipher/opencode-claude-bridge

Zijn diverse bridges beschikbaar, dan kan je gewoon je subscription gebruiken ipv api.
opencode is wel nice maar wil je hem echt beter maken gebruik ik het in combinatie met oh-my-openagent en dan meerdere abbo's zoals opencode go, kimi en Github Copilot. allemaal fall back mechanismes. Het is wel highly opinionated maar geeft wel erg goeie antwoorden terug. plus je pakt modellen waar ze goed in zijn, dus zit niet vast aan alleen anthropic.
Ja met superpowers werkt top.

Specifieke agents configureren die specifieke models gebruiken, skills etc.

Blijft gewoon promp injection natuurlijk onder water. Maar werkt prima.

Claude Code vreet gewoon tokens, die maakt hele vreemde prompts en past jouw prompts aan 'onder water' gewoon zonde.

[Reactie gewijzigd door Nark0tiX op 27 april 2026 11:59]

Geen idee welke versie je hebt mbt tot verbruik, weet wel dat Pro heel veel limiet problemen heeft (heb zelf Max X20), maar het is bij Claude wel de bedoeling dat je zoveel mogelijk in projecten werkt en dan bij nieuwe onderwerpen een nieuwe chat begint binnen het project. Claude kan dan nog refereren naar de vorige chats in het project en gebruikt het ook al geheugen.

Verder heb ik zelf nooit last gehad van het samenvatten van wetenschappelijke artikelen, boeken of PDF’s, wel altijd goed om extended/adaptive thinking in te schakelen.
Hoe werken die projecten als je dat doet via Github Copilot? En dan specifiek niet via VS Code, maar via de officiële eclipse plugin?
Ik kreeg meteen een harde ‘maximum image count’ error geserveerd. Met ChatGPT heb ik dat niet. Ik vind het een beperking als ik overal maar een project van moet maken. De kwaliteit van de output is ook niet bijzonder. Maar, ik heb nog 3 weken om verder te testen.
Ik herken je punt in Pro absoluut. Maar dat het veel fouten maakt? Het ligt sterk aan je commando's.

Maar ik heb in een aantal maanden een compleet werkend online systeem gebouwd met Claude in combinatie met een Max abonnement en met gebruik van het nieuwste Opus taalmodel. En Claude kan absoluut nagenoeg foutloze code schrijven, maar alles valt of staat met jouw commando.

Als je hem vraagt iets te bouwen zonder context en zeker met grotere projecten dan gaat het fout. maar als je hem sturing geeft, met bijvoorbeeld: Maak API in map backend, en bouw in modules per map, dan gaat het al een heel stuk beter. (simpel voorbeeld).

Maar je kan echt wat doen met minimaal Max X5 abonnement, want met pro zit je er met Opus zo door heen.

[Reactie gewijzigd door Luchtbakker op 24 april 2026 10:27]

Ik weet uiteraard niet je exacte problemen en gebruik, maar gisteren is er een postmortem uitgekomen die een deel van de problemen verklaart aan de hand van 3 issues.

Kort samengevat:
  1. De standaard 'reasoning' stond tijdelijk op 'medium' ipv 'high' (Claude code)
  2. Door een bug verdwenen in sommige gevallen continue alle 'gedachtes' van Claude, waardoor het model dommer en vergeetachtiger leek.
  3. Er waren instructies gegeven om de antwoorden korter te laten zijn, dit had ook invloed op de kwaliteit.
“Length limits: keep text between tool calls to ≤25 words. Keep final responses to ≤100 words unless the task requires more detail.”
Natuurlijk is het aan iedereen om te bepalen in hoeverre ze deze verklaringen geloven, maar dit is wat er door Anthropic gecommuniceerd is.
Ik snap je verhaal niet. Gebruik al maanden Pro voor diverse PHP programmeer werkzaamheden en loop zeer zelden tegen limieten of problemen aan.

Juist de output is zeer goed al moet je zelf ook blijven nadenken natuurlijk. Hoe beter je communiceert hoe beter de output. Met MD bestanden is het al helemaal een stuk beter al moet je het soms wel helpen herinneren die MD in acht te blijven nemen.

Als er een lokaal model was geweest die goed is in PHP had ik dat liever gekozen.

[Reactie gewijzigd door Technoid op 24 april 2026 11:22]

Dan gebruik je waarschijnlijk een andere Claude versie.

Met opus 4.7 verbrandde ik met Pro in een twee uur mijn tokens.

Ben daarom naar het max model overgestapt. En met Max ben ik tot nu toe niet tegen limieten aangelopen.
Vooral bij grotere projecten heb je profijt van Max5. Ik gebruik het zakelijk steeds meer. Die 90 euro per maand is een uurtje werken en heb je snel terugverdiend.
Sonnet 4.6 inderdaad, heb nog niks gehad met PHP programmeren die dat vereisten.

Tot nu toe complete projecten gemaakt van front tot backend waar ik normaliter maanden mee bezig was geweest anders.
Ik programmeer niet, maar vraag om analyses te maken van onderzoeken, zodat ik argumenten sneller kan vinden. Ik kreeg meteen ‘maximum image count’ error, waardoor ik bepaalde wetenschappelijke artikelen niet kon meenemen. ik gebruikte Sonnet 4.6 met Adaptive thinking, maar ook Opus deed het niet. In ChatGPT Plus gaat het zonder problemen.
Ik gebruik GPT5.3-codex al een tijdje in VSCode voor mijn front-end werk en dat gaat eigenlijk prima. Heb niet het idee dat ik echt wat mis ivm Claude. Zeker de laatste paar weken gaat het eigenlijk wel prima. En omdat ie goedkoper is, loop ik minder snel tegen limieten aan, zelfs met de normale Github Copilot.

Het is alleen wel jammer dat het allemaal zo duur aan het worden is. Als iemand suggesties heeft voor een prima self-hosted model wat ook daadwerkelijk verschillende stappen kan zetten, MCP zinvol gebruikt en wellicht zelfs agents in kan schakelen met een performance die op een doorsnee gaming pc nog normal draait, dan hou ik mij voorbehouden. Als ik dan af en toe nog GPT of Claude nodig heb, is prima. Maar als het al 90% van de requests kan doen, dan is dat pure winst.

[Reactie gewijzigd door Martinspire op 24 april 2026 12:29]

Ik gebruikte 5.3 codex ook, 5.4 is beter en eerste tests laten zien dat 5.5 sneller is en voor nu goed resultaat levert. Er zijn van 5.4 en 5.5 geen seperate codex modellen meer dus gewoon in vscode 5.4 of 5.5 selecteren, gewenste reasoning level en gaan.
Ik gebruik zelf af en toe Grok ook nog voor programmeer vragen tenminste, die helpt mij altijd nog beter dan Claude Pro. Dan heb ik van Grok ook nog alleen maar de gratis versie.
Sorry, maar waarvoor gebruikte je Claude? Want ik 0% van de gevallen was ChatGPT ooit beter dan Claude als het om code ging. Voor andere zaken zoals wetenschappelijke analyses denk ik ook niet dat het gemaakt is. Claude is toch voornamelijk gemaakt voor gebruik van code/software.
Dat zou een verklaring kunnen zijn. Ik werd meegenomen in de Mythos hype en las ook dat iedere ICT’er Claude gebruikte. Ik dacht, omdat het de beste LMM is van dit moment, maar niet enkel voor code. Ik gebruik het een maand, dan stopt mijn abbo ook weer. ChatGPT is misschien toch nog de beste op dit moment.
Ik doe nu veel met 5,4. Er zijn veel foute patches en het kost erg veel tijd. Dit is een welkome verbetering.
Als je ChatGPT vraagt het kort, strak en bondig te houden dan doet ChatGPT dat ook. En zeg er dan bij "Sla dit op in je definitieve geheugen en doe dat in het vervolg altijd." En als je het weer anders wilt. kun je dat weer aangeven. Functioneert prima. Ik communiceer ermee als ware het een mens. Klinkt bizar, maar toch.
De prijzen voor het gebruik van de api zijn wel flink gestegen. Voor GPT-5.5 moeten gebruikers 30 dollar betalen voor een miljoen outputtokens, terwijl dat voor GPT-5.4 nog 15 dollar is.
Het is te merken dat ze richting winstgevendheid gaan. Codex loopt veel sneller tegen z'n limieten aan en pusht nu hard richting het nieuwe abonnement van ruim €100.
Maar github copilot pro is nog steeds 10 dollar, pro+ 40 of zo? En je krijgt daar dezelfde codex versies van gpt. En ook (nu alleen nog in pro+) opus. en genimni en en en.... En zo ongeveer afrekenen per request. En dat is helemaal voordelig. Ik merk dat ik daar veel minder vlug door mijn quota heen ga dan bij andere diensten. Ik weet niet hoe lang dat blijft, maar voorlopig gebruik ik het.

Dat en augment code. zijn tooling voor de echte complexe dingen. De super vragen.

Niets is handiger dan per vraag het juiste model te kiezen. Als 1 model vastloopt doet een ander dat niet en je kan in de sessie wisselen tussen modellen, binnen dezelfde chat doorgaan met een ander.

[Reactie gewijzigd door bzuidgeest op 24 april 2026 11:14]

Github copilot heeft sinds eergisteren een tijdelijke stop gezet op nieuwe klanten. En gisteravond/nacht stond Codex 5.5 nog niet bij hen in de lijst van werkende modellen.

Opus 4.7 hebben ze wel, maar alleen bij het pro+ abonnement en tegen een 7.5x multiplier, dus daar heb je dan slechts 200 berichten per maand voor als je alleen opus 4.7 gebruikt.
Nog steeds beter wat je bij veel anderen krijgt. En die stop, ja dat is vervelend. Maar die zal wel weer overgaan. Codex 5.5 komt vanzelf, dat heeft gewoon tijd nodig. ze hebben 5.2 en 5.3 codex. 5.4 is er ook maar zonder codex in de naam. 5.5 zal vanzelf ook komen. Ik zie een continue trein van nieuwe modellen, nieuwe leveranciers en hogere versies van bestaande modellen.

en pro+ is nog steeds de helft minder duur dan het codex abbo van 100 euro. pro+ kost 40 of zo. En als bestaande gebruiker mag ik nog steeds door naar pro+. Maar tussen pro, augement code (prive) en copilot enterprise (baas) heb ik moeite om alle tokens op te maken.
Github copilot is inderdaad veel waar voor je geld. Met hun reguliere pro plan heb je 300 prompts met Gpt 5.4 per maand, wat een uitstekend model is om van alles mee te doen, van frontend tot backend. De opus modellen zijn niet meer beschikbaar voor dat abonnement though, dan moet je naar pro+. De kracht van Github Copilot zit vooral in dat je verschillende plannen kunt maken en zowel GPT, Claude als Gemini eraan kunt laten werken en dan kiezen met welke A.I. je het implementeert, allemaal in dezelfde chat.

Momenteel heeft OpenAI een promotie waarmee je tot eind mei met hun pro-abonnement 10x de limieten krijgt van het plus-abonnement in plaats van 5x zoals normaal. Dat abonnement is €100 exc btw per maand en minder in een andere valuta en/of wanneer er geen btw wordt gerekend. Ik heb Github Copilot Pro+ omdat ik Claude Opus 4.7 wil gebruiken en hoge limieten wil hebben, en daarnaast heb ik ook het Pro-abonnement van Open A.I. omdat ik dan heel veel hun fast mode kan gebruiken; dus de responses zijn dan 1.5 keer zo snel voor 2x zoveel tokens. In die modus kan ik met gpt 5.4 40 uur per week het model laten draaien, dus als ik daarvan de helft van de tijd nog dingen aan het verwerken ben of iets anders aan het doen ben, dan kan ik daar 60 uur per week mee vooruit. De normale modus zou dan 60 uur nodig hebben om alles te doen, terwijl hun fast mode daar slechts 40 uur voor nodig heeft, dus deze investering van €100 per maand, scheelt mij 20 uur per week, ofwel zo'n 85 uur per maand. Dat is significant, en dat maakt het misschien nog waardevoller dan Github Copilot Pro+ voor €34 per maand. Al moet ik wel zeggen dat ik sinds gisteravond vrijwel non-stop gpt 5.5 heb gebruikt en dat verbruik lijkt wel twee keer zo hard te gaan als het verbruik van 5.4.

[Reactie gewijzigd door Dynamix86 op 24 april 2026 17:37]

@Wolfos heeft die berekening nog niet gemaakt of het valt voor hem anders uit. Op mijn werk heb ik copilot enterprise. Dat is meer dan ik aan werk kan opmaken..

Voor thuis gebruik ik op wat in het enterprise abbo overblijft + github pro op persoonlijke titel omdat je aan het begin van de maand niet weet wat er overblijft. En ik gebruik Augement Code voor het heel complexe werk. Die hebben Opus 4.7 50% korting (in token gebruik) tot 30 april. Vorige maand toen gpt 5.4 nieuw was daar, hadden ze een promotie voor gpt 5.4 gratis gebruiken voor een paar weken zonder ook maar een enkele limiet die ik kon vinden. Maar omdat je moet slapen en ik hem nog net niet vertrouw om helemaal zonder mij bezig te blijven, kan je dat niet 100% benutten. Ja ze hebben achtergrond werk e.d. Maar de aI verklaart zichzelf nog al vlug klaar vind ik wel eens.
Het is in elk geval een mooie tijd om een software developer te zijn, zelfs met de stijgende prijzen van A.I.
Ik weet het niet helemaal.

Aan de ene kant kan ik meer projecten doen dan ik ooit tijd voor had. Reverse engineering, fpga's, ports van andere hun code naar mijn favoriete platform etc etc.. Alles is ineens binnen bereik.

Tegelijk ben ik een soort AI babysitter geworden................ niet echt geweldig gevoel.

Maar het scheelt wel een hoop typen en dus RSI...... dus kan ik langer programmeur blijven.

Ik probeer het positief te bekijken. Ik ben gegaan van elk instrument individueel moeten spelen en opnemen voor de compositie gegaan naar een dirigent die een orkest aanstuurt. Geweldig in zekere zin, maar wel anders. AI orkest dirigent klinkt beter dan AI babysitter in ieder geval :)
Maar ja, als jij muzikant bent, en nu wordt je met AI ineens dirigent, vind je dat dan nog leuk? Je bent dan geen muzikant meer, terwijl dat je passie was.
Dat is inderdaad de vraag die ik dus stel. En ik weet het antwoord dus nog niet. Heel erg dubbel gevoel. Ik kan veel grotere visies uitvoeren als dirigent. En dirigent zijn is nog steeds een prestatie, maar een organisatorische. Tegelijk was ook ook heel veel plezier aan zelf iets voor elkaar krijgen en bouwen. Maar dat word zelden supergroot, tenzij je toevallig een community aantrekt.

Dus zoals zoveel snijd het mes aan twee kanten.

Om bij muziek te houden. Vroeger had je letterlijk en band nodig om iets in te spelen. Met alle personen en eigen ego en visie. Nu kan een muzikant zelfs zonder so, maar met synth software en heel orkest naar zijn hand zetten, zijn visie perfect uitdrukken.... Wat is beter? Ik weet het niet.
Maar github copilot pro is nog steeds 10 dollar, pro+ 40 of zo?
https://www.neowin.net/news/report-github-copilot-is-moving-to-token-based-billing-from-june/

Dat is binnenkort ook voorbij.
Die had ik nog gemist. Nou dat ik mooi klootte. Maar goed het was te verwachten. Ik hoopte dat Microsoft het nog een tijdje kon uitzingen. Maar goed ik kan er nog twee maanden dik gebruik van maken voor het anders word.

Ik weet wel dat mijn ervaring bij andere leveranciers die dit al wel doen zegt dat die token based billing stukken duurder is. Mijn werkgever zet vol in op AI (als ondersteunende tool). Dus dit zal een lekkere koude douche zijn. Maar goed, was te voorspellen.

En zelfs dan, zolang mijn werkgever dat enterprise abbo blijft betalen. Prachtig.
Ik ben niet zo thuis in de wereld van AI, maar heb wel een Plus-abonnement. Ik gebruik het regelmatig voor school en andere bezigheden. Ik merk dat ChatGPT best wel langzaam kan worden als je redelijk wat documenten upload en een gesprek gaande houd. Zijn er tips om ChatGPT minder traag te maken?
Niet te lang doorgaan in hetzelfde gesprek.
Maar het is toch juist handiger als het een beetje door kan bouwen in hetzelfde gesprek? Anders moet je telkens opnieuw de beginsituatie uitleggen.
Samenvatting laten maken en die weer gebruiken voor je nieuwe gesprek
Wat ik vaak merk is dat ChatGPT ook eerdere gesprekken aanhaalt die ik in andere projection/prompts heb gehad. Dus het is niet zo dat in een nieuw gesprek alles weg is of zo. Het is alleen niet standaard een onderdeel van de context, tot dat je er zelf over begint en dan gebruikt hij ook eerdere chats om de context beter te begrijpen en er over te praten. Als ik het heb over het verbouwen van mijn woning. En in een andere chat vraag ik over hoe ik volgens de NeN normen elektra aan moet leggen, dan refereert hij vaak aan het eerdere gesprek. Voornamelijk als hij voorbeelden moet geven.
Momenteel probeer ik het wat te organiseren in "Projecten" (zie menu item) meer als zijnde topics. Ik heb een project aangemaakt voor een open source python development, eentje voor alles rond de thuisbatterij+zonnepanelen etc. Bij elk project wat files en stukjes tekst geupload als generieke context voor deze topics. Hierin staat precies welke hardware ik heb en heb ik ook gewoon tarballs gezet van software als voorbeeld van layout en tooling die ik graag gebruik.

Met die projecten heb je voor jezelf iets meer structuur in de te bewaren chats maar heeft ome Chadt ook gelijk meer specifieke context waarin je het vraagt en hoef je zelf minder context te geven telkens. Als ik een nieuwe chat open in het thuisbatterij 'project' volstaat een korte vraag en hoef je niet door te gaan vanuit een bestaande chat die eigenlijk over wat anders ging maar toevallig de context had.

Of het echt veel sneller is weet ik niet, maar ik haal de winst vooral uit het nu hele korte vragen kunnen stellen die nuttig en concrete antwoorden geven. (Soms echt nog altijd totale poep of hallucinaties maar je begrijpt mijn punt denk ik.)
Geen idee hoe dit bij ChatGPT zit maar bij Claude is het wel verstandig om nieuwe gesprekken te beginnen.

Je werkt met tokens, elke prompt & antwoord kost tokens. Als jij een hele korte prompt geeft die in theorie 100 tokens zou kosten maar je bent al een week lang in dezelfde chat bezig, neemt hij voorgaande data mee in jouw prompt, waardoor je voor dezelfde prompt geen 100 maar misschien wel 70.000 tokens kwijt bent.
Met ChatGPT ben ik nooit tegen een limiet aangelopen, terwijl ik soms best lange gesprekken heb.

Bij Claude Pro al bij het eerste gebruik. 😅
Wat je bij chatgpt ziet is dat hij inzakt zodra Noord Amerika wakker is. Ik gebruik het soms in een weekend en dan is het razendsnel. Er zijn duidelijk issues om aan de vraag te voldoen.

De vertragingen zie zowel in de gratis als betaalde versies terug.
Ik volg deze discussie op een afstand en heb een vraag: wat betekent "30 dollar betalen voor een miljoen outputtokens" in de praktijk? Wat 'koop je' concreet voor die 30 dollar? Heeft iemand hier ervaring mee?
Ongeveer 700.000 woorden, dus afhankelijk van hoe je het gebruikt (agent-modes verstoppen vaak heel veel output die intern gebruikt wordt voordat jij je output ziet maar daar betaal je wel voor) kun je hier bijna alle harry potter boeken voor schrijven.
Maar stel dat je eerst alle Harry Potter boeken invoert en dan het model vraagt ze te herschrijven op een bepaalde manier, lukt dan dan nog voor die 30 dollar?
Input tokens kosten ook wat, en de context window kan te klein zijn voor zo'n groot prompt. Dat zal je dus moeten managen.
Input tokens kosten ook nog eens 5 dollar per miljoen.
En de 700.000 woorden zijn niet directe output als je de modellen met "reasoning" gebruikt.
"Reasoning" verbruikt ook tokens, dus een aardig gedeelte van de output tokens zal je dan nooit zien.
Ik gebruik zowel claude max(x20) als chatGPT pro (x5) en mijn voorkeur blijft nog bij claude. Vanmiddag 5.5 een proberen en kijken hoe die bevalt.

Ik vind claude fijner zelf kiezen wanneer het door moet vragen, wanneer er dingen moeten worden uitgepland. Ook is de git workflow beduidend beter, maakt automatisch worktrees, switched van worktrees als je er om vraagt, etc.

Heb wel het idee dat codex iets zuiniger is met tokens, maar meestal hebik wel genoeg aan claude x20. Ik zat gister wel even door mijn usage voor de week heen voordat de reset kwam maar over het algemeen komt het wel ongeveer uit.

Ben wel benieuwd hoe lang die subscriptions nog gesubsidieerd blijven, want prijzen via API zijn echt absurd veel duurder dan hoeveel je in een abbo krijgt.
Het is wel leuk om te zien hoe we allemaal de lat/verwachtingen voor ai steeds hoger leggen. Waren we eerst blij met een eenvoudige afbeelding of een lijstje met ideeën. Nu kan je een compleet tijdschrift laten genereren en mopperen we over enkele typfoutjes of onregelmatigheden in een afbeelding. Het tempo van nieuwe modellen zit er goed in al mag dat tempo van mij ook iets omlaag en dat er dan om het half jaar een echt grote sprong in capaciteiten/mogelijkheden is. Iets meer research en iets minder commercie.
Het ziet er indrukwekkend uit als je een heel tijdschrift, compleet met allerlei details en teksten ziet. Het lijkt dan of alles precies op maat gemaakt is, helemaal naar wens etc.

Maar in werkelijkheid zijn dit soort voorbeelden compleet random. Eigenlijk heeft niemand er iets aan. Probeer je er iets aan aan te passen, dan merk je al snel dat er dan ook van alles verandert, wat je hetzelfde wilde houden. Kortom, a.i. heeft dat zelf nog niet onder controle. Het staat echt nog in de kinderschoenen.

Ander voorbeeld: Het is heel moeilijk om een bak met door elk jaar gehusseld gekleurd grind exact na te maken, maar voor degene die het gemaakt heeft was het heel simpel.
De prijzen voor het gebruik van de api zijn wel flink gestegen.
Unpopular opinion: Goed nieuws. Het gebruik van AI was/is veel te goedkoop. Met hogere prijzen per token gaat men hopelijk wat zorgvuldiger om met het gebruik ervan, waardoor ook het totale energieverbruik van AI zal dalen. Het zou nog beter zijn als de applicaties per token moeten afrekenen en de prijs bij elk resultaat moeten printen. Ik denk dat het snel confronterend wordt als gebruikers onder elke response te zien krijgen dat "Het genereren van dit resultaat kostte €0.53".

Gezien de meeste AI bedrijven nog niet winstgevend zijn, zullen de prijzen hoe dan ook omhoog moeten om het houdbaar te maken. Ik ben benieuwd wat de echte kosten zouden zijn als een bedrijf als OpenAI een winstmarge van 20% zou hanteren.

[Reactie gewijzigd door roelst1 op 24 april 2026 10:56]

Vscodium icm Deepseek geeft netjes de kosten weer.
Weet niet hoe het op dit moment is, maar in het verleden zag je de prijs per antwoord en de overall prijs per chat.
Als een organisatie het wil kan dat prima.
De meeste limieten worden ingesteld omdat de hardware de vraag niet aankan.

Verbruik zal niet minder worden, dat gaat zeker de komende tijd alleen maar meer worden.
Wees gerust. Ooit zullen de concurrenten door hun geld heen zijn, zal de markt verdeeld worden en zullen deze nieuwe diensten onmisbaar geworden zijn. Dan gaan de prijzen vanzelf omhoog, zoals we ook bij de streamingdiensten zagen.
Hoop dat de mensen in de toekomst nog weten hoe ze hun reet moeten afvegen zonder raad van AI
Vooruitgang is afhankelijkheid van technologie. Dat is al zo sinds we vuur kunnen maken.
Is niet nodig hé, gewoon een Japanse wc gebruiken. :P
Dat spel doet me denken aan de eerste Loaded op de PlayStation 1 spelcomputer
Monetisation is begonnen. Abonnementen beginnen duurder te worden, je gaat sneller door je tokens heen en mensen zijn nu hooked.

Kosten van gebruik beginnen nu een beetje op te schuiven richting reëlere bedragen zodat mensen niet weggejaagd worden; een beetje zoals de boiling frog.
En komt een punt dat al die geinvesteerde miljarden terugverdiend moeten gaan worden, gelijktijdig met enorme concurrentie onderling, logisch vervolg.
Het zal nooit echt duur worden. Want er is altijd lokale AI. De cloud oplossingen hebben geen monopolie. Goed, lokaal is wat minder complex, maar doet veel taken even goed en levert privacy. En als online AI duurder wordt, zal lokale AI beter worden.
Met de huidige ram prijzen is lokale ai ook niet meer goedkoop ;)
Ik vond GROK imagine voor video's wel lekker werken, en nu vertrekt ook Sora van het toneel, maar was/is tergend traag en gaf mij slechte resultaten. GROK zit nu achter een betaalmuur zoals zoveel van die (video) diensten.

Het is omdat ik Chatgpt plus heb, maar het moet wat mij betreft ook geen 'streamingwereld'-praktijken worden waarbij als je 'alles' wilt kunnen doen je straks 5 verschillende abonnementen nodig hebt... Zit nu aan de Sona (muziek) en ChatGPT waar ik voor betaal, maar veel gekker dan dat moet het ook niet worden...

Ik gebruik ChatGPT persoonlijk ook eigenlijk niet vaak genoeg om de kosten te rechtvaardigen, maar als je net ergens lekker in zit en het komt met een limiet waarbij je een paar uur later weer verder kunt ben ik snel uitgekeken. En bij Sona is het betalen eigenlijk nodig omdat je soms wel 30x een nummer moet laten genereren om nét dat ene perfecte nummertje te krijgen, bij de gratis variant is de kwaliteit/model minder én je kan maar 5x per dag een nummer genereren.

Om te kunnen reageren moet je ingelogd zijn