Anthropic test verwijderen van Claude Code uit Pro-abonnement

Anthropic lijkt stappen te nemen om Claude Code uit het Pro-abonnement te verwijderen. Een kleine groep gebruikers krijgt de tool niet bij het afsluiten van een nieuw Pro-abonnement. Volgens het bedrijf gaat het om ongeveer twee procent van de mensen die een betaald abonnement nemen.

De test heeft geen effect op bestaande Pro- en Max-abonnees, schrijft head of growth Amol Avasare op X. Hij reageert daarmee op een gedeelde schermafbeelding waarop te zien is dat Claude Code niet in het Pro-abonnement beschikbaar is. "Wanneer we iets besluiten wat bestaande abonnees treft, krijg je ruim van tevoren bericht voordat er iets verandert. Je hoort het van ons, niet via een screenshot op X of Reddit", schrijft Avasare.

Avasare verklaart de mogelijke prijsverhoging door de ontwikkelingen van het afgelopen jaar. Hij wijst onder meer op de komst van Claude Cowork en de opkomst van zelfstandige agents door tools als OpenClaw: "Het engagement per abonnee is sterk gestegen. We hebben onderweg kleine aanpassingen gemaakt (wekelijkse limieten, strengere grenzen tijdens piekbelasting), maar het gebruik is sterk veranderd en onze huidige plannen waren hier niet op berekend." Eerder stopte Microsoft al met het aannemen van nieuwe GitHub Copilot-abonnees om de druk op de servers te verlagen.

Claude Code is de AI-programmeertool van Anthropic. De tool is onder meer te draaien als standaloneprogramma, via een browser of direct in de terminal. Mocht het bedrijf de prijsverhoging breder uitrollen, dan zou toegang tot Claude Code vijf keer duurder worden. Een Pro-abonnement kost op dit moment 18 euro per maand, terwijl Max-abonnees maandelijks 90 euro betalen.

Anthropic Claude stock. Bron: Samuel Boivin/NurPhoto via Getty Images
Bron: Samuel Boivin/NurPhoto via Getty Images

Door Imre Himmelbauer

Redacteur

22-04-2026 • 07:44

84

Submitter: Travelan

Reacties (84)

Sorteer op:

Weergave:

Hopelijk is dit het begin van het einde van de AI-hype. Wordt hoogtijd dat de ramprijzen gaan dalen :Y)
Ik vrees er voor. Als ik rond mij kijk is er bijna geen enkele developer die nog zonder kan. Redelijk bizar, want áls ik het al eens gebruik om iets te dubbelchecken slaat die vaak de bal nog steeds compleet mis. Gaat toch nog steeds niets boven RTFM en 2 seconden kritisch nadenken over een StackOverflow post. Leer je tenminste ook nog iets van in plaats van klakkeloos voorgekauwde meuk over te schrijven.
Merk het bij mij op het werk ook. Collega’s die in paniek teams berichten sturen omdat hij copilot tokens op zijn.

Maar ik gebruik het ook zeker en Claude doet het in 90% van de gevallen prima en ja het is heerlijk dat ik Claude de migratie van Next 15 naar Next 16 kan laten doen dan kan ik me lekker ficussen op het bouwen van apis ipv fronsend stuff
Het businessmodel van AI is altijd al geweest om het middels een abonnement te gaan reguleren. Stap 1 is om iedereen over te halen het voor een redelijk voordelige subscription te laten gebruiken, zelfs als dit net negatief is voor je financieel. Hiermee maak je een ecosysteem van gebruikers die afhankelijk worden van jouw service. Als dan vervolgens de groep groot genoeg is ga je spelen met abonnementen. De concurrenten kijken naar elkaar en gaan telkens omhoog maar net onder dat van een concurrent of met net een extraatje meer. Jij als gebruiker hebt dan uiteindelijk niet heel veel keus. Je workflow is aangepast en terug gaan betekend minder output dus je kunt hooguit kiezen voor het bedrijf welke de 'gunstigste (maar nog steeds veel duurdere dan oorspronkelijk) optie doet aanbieden. Dit was altijd al de bedoeling vanaf dag 1.

Natuurlijk brengt Ai kosten met zich mee, niemand hier die daaraan twijfelt en inziet dat die kosten verhaald zouden worden. Maar het is ook een digitale drug. Oorspronkelijk probeerde men iedereen eraan verslaafd te krijgen maar het blijkt dat voor heel veel non-tech mensen AI niet meer is dan een novelty (vooralsnog) en geen functionaliteit bied op het eerste gezicht wat handig is. Die mensen komen hooguit zijdelings ermee in aanraking door bijvoorbeeld AI menu's bij bedrijven hun customer service.

Men zocht in de tech industry een doelgroep die AI wel nuttig wist te vinden en vond deze vrij dicht bij huis middels programmeurs. De markt is er nu dus wat betekend dat de agenda voor steeds duurdere abonnementen ook kan worden ingezet.
Het levert bedrijven ook zoveel op en zorgt voor minder developers te hoeven aan te nemen.
Arguably, ja. Ik zie het als het begin van een wereld veranderde technologie waarvan we nu nog niet kunnen overzien wat de impact is over 20 jaar.

Maar het is belangrijk dat we niet te afhankelijk worden van een paar bedrijven die alle koekjes beheren. Een goed vraagstuk is bijvoorbeeld hoe wij in de EU gebruik kunnen maken van zulke technologie en dus op de voorhoede van innovatie kunnen blijven zonder dat wij onszelf ketenen aan non-EU bedrijven waardoor wij mogelijk aangetast kunnen raken in onze soevereiniteit.

Hierbij zal de neiging erg groot zijn dat dit 'een zorg voor later' is omdat men bij wil kunnen blijven met de trend om maar niet achter te blijven. Het verdienmodel van zulke bedrijven is daarbij al een soort van teken aan de muur wat risico's zijn. We zullen dus onze eigen AI pilaren moeten oprichten in de EU en deze goed genoeg maken om niet afhankelijk te moeten zijn van bedrijven in dde VS of China waarvan de politiek helaas niet betrouwbaar of in het voordeel van EU bedrijven en mensen kan blijven te zijn.

Ik weet dat zulke geopolitieke vraagstukken wat suf kunnen lijken voor mensen die vooral de voordelen willen benutten en minder in geopolitieke interactie zijn geïnteresseerd.
20 jaar? Veel eerder. Als je nu hierboven al ziet dat ontwikkelaars - die een jaar of wat geleden nog redelijk functioneerden door na te denken - nu al in paniek zijn als ze geen AI kunnen gebruiken, dan is 20 jaar nog heel lang gesteld.

Met mijn bijna 55 jaar heb ik al diverse technologieen zien opkomen, en de teloorgang van het menselijk denken gaat bij elke nieuwe techniek/hype sneller. Voorbeeld: pas halverwege middelbare school mochten wij voor het eerst een rekenmachine gebruiken. Gisteren was ik in een winkel en moest ik een aanbetaling doen van de helft van exact 100 euro. De 20-jarige verkoopster moest het op een rekenmachine uitrekenen...
Ik bedoel daarmee te zeggen dat wat wij nu zien al groot is (Mythos wordt bijvoorbeeld een walvis in een vissenkom) maar dat over 20 jaar het nog veel verder is dan wat wij nu kunnen voorzien.

Ik deel overigens de mening dat we ook voor menselijke ontwikkeling moeten bewaken. ik kan bijvoorbeeld nog wel hoofdrekenen (wiskunde is overigens niet mijn ding maar dat komt niet door rekenmachines). Maar ik merk inderdaad dat sommige kassiers van de wat jongere generatie echt afhankelijk zijn van wat het scherm hun verteld bij kleingeld.

We zien ook dat lezen en schrijven hier en daar een dingetje wordt. In de EU is het al erg maar in de VS begint er ongeletterdheid op te treden omdat kinderen een tabelt vanaf hun tweede hebben. Persoonlijk houdt ik van lezen maar dat wel dingen om te bewaken.

Een relevante vraag is hoe doen wij code controleren handmatig. Tuurlijk; Nu hebben wij nog veel programmeurs die AI code kunnen nalezen. Maar als de nieuwe programmeurs allemaal AI gebruiken voor code te spugen (Wat de nieuwe realiteit is) hoe doen wij dan over 20 jaar AI code nalezen en handmatig controleren als de oude garde met pensioen is?

Denk eens over de film 'the matrix'. De robots zouden eenvoudig weg winnen omdat niemand meer weet hoe code kan worden gelezen. Tank, Neo en Morpheus zouden allemaal naar de schermpjes kijken en hun handen omhoog gooien 'geen idee wat er staat, we kunnen niets oen en zelfs niet eens the matrix op gaan.' Het zou een triest hilarische overwinning voor zelfbewuste AI worden; De AI wint want niemand kan meer code lezen. :P
Wij hebben +/- 10k (actieve) gebruikers met Copilot licentie en nog nooit één melding over tokens die op zijn ontvangen. Of bedoel je in Copilot Studio bij gebruik van GPT-5?
Geen idee hij gebruikt de copilot die hij bij github pro krijgt en daarin raken zijn tokens blijkbaar op. Zal is na gaan hoe dat zit :)
Opus 4.6 je bent zo klaar met je tokens als je een limiet hebt..
Daar zijn tools als pith ook handig (contextversimpelaars) of eerst met een goedkoper model je taak aanpakken en pas Opus inschakelen per specifieke zware subtaak.
Ik denk dat afschalen van AI-gebruik bij vooral developers beter gaat werken dan er gewoon een stop op gooien inderdaad. Zoveel devs die maar gewoon een modelletje kiezen zonder na te denken over budgetten en wat het de planeet moet kosten. Het is natuurlijk sowieso veel beter om het helemaal niet te gebruiken in dat aspect, maar met een degelijke prompt kun je voor veel kleine taakjes prima met Haiku uit de voeten. Pas als je applicatie dusdanig complex wordt, of dat je hele grote plannen moet maken, kun je eens voor een groter model kiezen.

Ik draai lokaal voor een specifieke taak Mistral-NeMo:12B, als je kijkt wat daar al mee mogelijk is, is het niet te verdedigen dat je voor kleine taakjes Opus inschakelt.

De skill-vereiste verplaatst zich mijns inziens naar het zijn van een echt goede coder naar het worden van een echt goede planner, je moet een realistisch, duidelijk, technisch goed onderlegd beeld hebben van wat je wilt bouwen, je moet code kunnen lezen en begrijpen maar bovenal, je moet goed weten wat je wel en niet tegen een LLM moet zeggen. Bondige contextbestanden in je repo zetten om bij iedere sessie te includen en aan het eind van je sessie te refinen, tijdens sessies backlogs updaten, dat soort zaken maakt het werken met een LLM allemaal veel efficiënter.
Lokaal hosten is natuurlijk ook de toekomst voor de power user zoals wij. Als ik al tests zag van grote modellen die je nu op een 256 GB workstation zelf kan draaien dan is het snel “doei clouddienst” en zelf oneindig lang crunchen zoveel je wil. Zou me niks verbazen als dat niet nu al aan de gang is en mede de run op RAM veroorzaakt heeft wat door velen wordt weggezet als iets wat de cloudhosters opsnoepen.
Inmiddels is alleen opus 4.7 nog beschikbaar in copilot, met kostenvermenigvuldiging van 7.5 ipv de 3 die opus 4.6 nog had.
Maar ik gebruik het ook zeker en Claude doet het in 90% van de gevallen prima en ja het is heerlijk dat ik Claude de migratie van Next 15 naar Next 16 kan laten doen dan kan ik me lekker ficussen op het bouwen van apis ipv fronsend stuff
Ik heb het gebruikt om te migreren van JavaScript naar TypeScript. Zat behoorlijk wat overhead op omdat code soms op een rare manier werd gemigreerd, en eslint gewoon op tilt sloeg. En heel veel zaken gewoon moeten corrigeren, ondanks een hele specifieke prompt. Ook de stap van het ene naar het andere testplatform uvu naar vitest) bevatte hele onlogische dingen. Weet nog niet of het een verbetering in productiviteit is.
Ik ben geen programmeur, maar ik programmeer af en toe wel een klein beetje in mijn werk... Daarvoor vind ik het een enorme hulp om met de llm van mijn werkgever te 'praten'. Ik vraag echter niet om complete stukken code maar meer om hoe ik iets kan doen, wat me vervolgens wijst op het bestaan van bepaalde commandos of functies. Daarna kan ik eventueel ook rtfm doen ja, maar vroeger zou ik geen flauw idee hebben waar te beginnen en als je dan niet toevallig een stackoverflow of soortgelijks vond met jouw vraag dan kon je uren bezig zijn voor je überhaupt wist wat je zocht.

Maar goed, dit is heel basic gebruik van een llm wat ik doe, heel iets anders dan de programmeer functie waar het hier over gaat natuurlijk. Wou alleen aangeven dat alleen 100% de oude manier ook nadelen heeft, zelfs als je niet de llm het werk voor je probeert te laten doen.

Maar ja puur op dat er blijkbaar zoveel vraag naar is dat de aanbieders er een rem op moeten zetten stemt mij ook al niet heel erg hoopvol op of de bubbel binnenkort echt eens gaat barsten, of dat het meer is dat er een paar bedrijven omvallen (wat onvermijdelijk is) maar dat de honger naar meer datacenters opgevuld wordt door de overgebleven grote jongens en alleen maar meer wordt...
Als ik rond mij kijk is er bijna geen enkele developer die nog zonder kan. Redelijk bizar, want áls ik het al eens gebruik om iets te dubbelchecken slaat die vaak de bal nog steeds compleet mis. Gaat toch nog steeds niets boven RTFM en 2 seconden kritisch nadenken over een StackOverflow post.
Veel progameerwerk is boilerplate, standaard, of (in variaties) al tig keer gedaan. Dat kan en doet een LLM nu echt beter. Niet dat LLM's geen fouten maken, dat doen ze genoeg, context verzinnen, complete functies verzinnen, zeker als je in wat minder standaard of gedocumenteerd werk zit. Maar een developer die zijn werk zonder AI doet kan ik ook niet serieus nemen. Dat zit een beetje in dezelfde categorie als notepad als 'IDE' gebruiken. Een rare flex.
Mijn ervaring is dat je dan waarschijnlijk: te weinig (of te veel) context geeft, het verkeerde model gebruikt óf het model in de verkeerde modus gebruikt. Dat ervoer ik in het begin ook, maar als je er meer mee werkt en wisselt tussen de modi en modellen zul je merken dat het beter wordt. Als je er serieus mee aan de slag wil, zul je ook rollen moeten beschrijven en welke kwaliteiten deze personas hebben...
Grappig, want een uitleg als deze lees ik al 30 jaar als software niet goed werkt: het ligt aan de gebruiker. Niets nieuws onder de zon dus. AI moet je precies hierom beschouwen als een technologie als alle andere die heel bruikbaar kan zijn. Maar aangezien we nog middenin de hype zitten is het beeld bij velen nog erg vertroebeld of gevangen in tunnelvisie en is AI voor velen een middel tegen alle kwalen. Hier op Tweakers valt het gelukkig mee.
AI is ontzettend goed in patroonherkenning en kan bekende patronen ook weer goed toepassen. Dit maakt het fantastisch om AI triviale taken op te laten lossen zoals het genereren van je data-modellen, repository-classes en ander saai repetatief programmeerwerk.

Scheelt veel typewerk, maar het blijft een stuk gereedschap. Ik geloof niet dat vibe-coding de toekomst gaat zijn.
Kritisch nadenken en exact weten wat de code moet doen (en waarom) is wel essentieel.

Voor een hobby project gebruik ik copilot en dat werkt daar fantastisch. Ik heb een C# project opgezet met de CQ(R)S pattern, basis infrastructuur en een simpele eerste flow. Vervolgens vraag ik AI om extra endpoints met bijbehorende commands/queries, models, migrations en tests toe te voegen. Zo blijft het overzichtelijk en is het voor AI duidelijk welke structuur hij moet gebruiken. Omdat elk endpoint z'n eigen query/command, handler en response heeft is het vooral code toevoegen i.p.v. bestaande services aanpassen.
Ik moet zeggen dat vanaf Opus 4.6 (we zitten nu op Opus 4.7) de kwaliteit in 95% van de gevallen voldoet.

Het is zoals altijd: de prompt maakt de output. Vraag het model niet om iets te one-shotten, maar laat hem eerst tests schrijven waar het resultaat aan moet voldoen en vraag hem daarna om de feature te implementeren die al deze tests doet slagen (test driven development). Ja, het is meer werk, maar de output is vrijwel altijd prima.

En uiteraard moet je de output altijd checken, dat zal blijven als je je werk serieus neemt.
Ik vrees er voor. Als ik rond mij kijk is er bijna geen enkele developer die nog zonder kan.
Ik zie dat ook op mijn werk waar we een oude Copilot mogen gebruiken. Ik weet nu al van te voren dat ze het hele AI gaan inperken wat 'te duur'', nog niet natuurlijk want iedereen is er nog steeds volop mee bezig.

Voor de grap zei een dialog alleen via copilot in elkaar gezet (Fromtend test) heb er 4 dagen (niet 8 uur per dag achterelkaar..) over gedaan. Iets wat ik zelf in een dag kan maken. Omdat ik steeds moet vertellen doe dit... doe dat.... nee, niet dat maar dit.. Het is niet alsof je een kind stap-voor-stap moet vertellen hij hij zijn kamer moet opruimen...

Maar goed, we zullen het zien..
ikzelf kan nog steeds prima programmeren zonder AI, en alhoewel met AI 'kan' ik versnellen. Heel veel sneller is het niet want de controles van de testen die het maken duren extra lang.
Dit is dus ook mijn ervaring, ik heb Copilot wat simpele taken in Excel proberen te laten uitvoeren... uiteindelijk 2u bezig geweest met de prompts te verduidelijken maar kreeg steeds (uitgaande op de cellcount) verkeerde informatie eruit, daarna maar opgegeven en het met de hand gedaan en was binnen 20 min klaar.

Overigens hebben ze bij ons het aantal licenties van de uitgebreide Copilot variant ingeperkt omdat daar ook de prijs van omhoog is gegaan.
Een LLM is best goed te vergelijken met een junior collega. Als je instructies geeft aan je collega die heel precies zijn, dan krijg je waarschijnlijk vrij precies wat je vroeg. Alleen je prompt was net niet zo precies om precies dat ene resultaat te krijgen.

Je moet het LLM wel zijn werk kunnen laten doen. Dus je omschrijf globaal welke resultaat je wilt hebben. En laat het denkwerk door de LLM doen, dan zul je zien dat het betere resultaten geeft.

Daarnaast is een out of the box LLM niet specifiek op jou afgestemd. Je moet met memory, additionele instructies en guardrails hem moeten afstemmen op jouw wensen. Je ziet na verloop van tijd dat het de patronen gaat oppakken zoals jij ze verwacht. Mits je niet al te binair bent en er maar 1 oplossing mogelijk is.

[Reactie gewijzigd door timonb op 22 april 2026 08:44]

Exact dit. Ook gaat het mis als b.v. een nieuwe API gebruikt moet worden van een framework. Zeker bij de wat gespecialiseerdere tools zie je vaak voorstellen voor de api van b.v. v3 terwijl nu v4 uit is (en v3 niet meer onderhouden wordt want slechts weinig developers)
Als je weet dat er een nieuwere versie is dan zn interne geheugen moet je zeggen dat hij niet op zn interne kennis moet leunen maar op de online documentatie ;)

Dat verpest dan weer het hele internet (want geen reclame inkomsten en flink wat extra page views) maar je resultaten zullen beter zijn
uiteraard, en dan nog gaat het vaak fout door nog incomplete documentatie. Copilot is nog erger, die pakt ook branches met experimentele code mee. (ik zit praktisch naast de developer en die gaf aan dat een bepaalde voorgestelde api functie nooit in een main branch heeft gezeten en uiteindelijk is vervangen door een geheel andere.)
Voor de grap zei een dialog alleen via copilot in elkaar gezet (Fromtend test) heb er 4 dagen (niet 8 uur per dag achterelkaar..) over gedaan. Iets wat ik zelf in een dag kan maken. Omdat ik steeds moet vertellen doe dit... doe dat.... nee, niet dat maar dit.. Het is niet alsof je een kind stap-voor-stap moet vertellen hij hij zijn kamer moet opruimen...
En dat is nou juist het mooie van Claude Code als je skills gebruikt. Die kun je helemaal uitleggen hoe je dingen gedaan wil hebben. Geef 'm een styleguide enzo en dan hoef je niet steeds weer te vertellen hoe dingen opgelost moeten worden. Het is inderdaad net een kind, of liever gezegd een stagière, die je moet leren hoe jullie het doen. Maar als je dat eenmaal goed hebt ingericht (en gefinetuned) gaat het steeds beter.
Een collega heeft zelfs een introspectie ingesteld: elke week moet Claude zelf even terugkijken naar de 'gesprekken' die gevoerd zijn om te kijken of hij vaak iets moest herhalen, of als Claude dingen niet had gedaan die opgedragen waren bv. En dan moet ie zelf even zijn eigen regeltjes bijwerken zodat het niet meer gebeurt.

Soms moet je ook van een AI assistent de gebruiksaanwijzing lezen :+
Redelijk bizar, want áls ik het al eens gebruik om iets te dubbelchecken slaat die vaak de bal nog steeds compleet mis.
Het grappige is dat AI eigenlijk veel beter werkt om te programmeren dan om 'm feiten uit te laten spuwen. Bij programmeren is er vaak niet maar 1 waarheid, er zijn meerdere wegen naar Rome. Terwijl bij feiten dat wel het geval is.

Natuurlijk zijn sommige dingen wel feiten, zoals hoe bepaalde API calls werken, maar daarbij kun je gebruik maken van een MCP server die 'm alsnog de exacte informatie voedt, of Claude Code doet zelf een web search, zodat hij daar niet zelf dingen verzint.

Daarnaast werken AI coding tools vaak met agents. Pak bijv. aparte agents om de spec te generen, tests te laten schrijven en een code review te laten doen. Dan valideer je ook al veel beter of de output klopt, terwijl het nog wel steeds door AI gegenereerd wordt en het jou niet veel meer werk kost.

Maar het blijft natuurlijk gewoon een stuk gereedschap. Een hamer gebruik je ook niet om een schroef in een houten plank te draaien. Als je eenmaal gevoel krijgt met waar AI goed in is, dan kun je het voor die specifieke taken inzetten. Maar ik zou het niet als een soort magisch ding zien wat je zomaar alles kunt vragen en dat je blind kunt vertrouwen op de output. Dan gooi je in essentie alleen maar tokens/geld weg.
Gaat prima zonder. (Dit is geheel persoonlijk) Ik werd compleet gestoord van die suggesties van de ai agents in phpstorm, dus heb ik al die plugins uitgezet. De suggesties sloegen voor mijn werk nergens op, omdat ik met een bak legacy custom moodle code werk (vermoed ik). Ik denk dat die agents dat niet kunnen bolwerken. Misschien als je strak in frameworks aan de gang bent dat het dan beter gaat.
Maar dat is omdat jij het gebruikt om snel iets te dubbelchecken. Dan moet de AI ineens een hele code stack gaan leren en onderzoeken, wat niet gebeurt, is er te weinig context en vertrekt deze met te weinig informatie.

Developers die veel AI gebruiken, gebruiken het net andersom. Zij laten AI grote delen van de code schrijven, en zij gaan dan de AI controleren en de code debuggen. De AI houdt context en controle en schrijft veel van het eenvoudige spul.
Wat is het verschil tussen kritisch nadenken over een StackOverflow post en kritisch nadenken over de output van AI?

Een developer die zonder validatie code van AI overneemt zal ook zonder validatie code van StackOverflow overnemen en is simpelweg geen goede ontwikkelaar.

Persoonlijk vind ik AI wel echt iets toevoegen aan m'n werk, het is een stuk gereedschap dat je goed in moet zetten en absoluut niet klakkeloos code moet laten produceren maar zeker boilerplate code is een stuk vlotter geregeld nu. Ook refactoren is AI zeer goed in, zet 1 of 2 voorbeelden klaar en vraag AI stap voor stap deze lijn door te zetten in de rest van de applicatie. AI produceert dan in een minuut of 10 waar ik zelf toch grofweg een uur voor aan het typen zou zijn.
Feit blijft wel, als je er niet mee gaat leren werken ga je flink achter lopen. Of je het nou fijn vindt of niet, het is wel de toekomst.
2 seconden kritisch nadenken over een StackOverflow post
Waar denk je dat een llm veel info vandaan haalt? Je kunt ook 2 seconden nadenken over wat een llm je voorschotelt. Een llm zoekt sneller dan jij dat kan, typt veel sneller en maakt bijna geen spelfouten. Dat is precies hetgene waar ik het veel voor gebruik, ik doe het denkwerk en laat de llm het voor me typen.

Ik geeft toe er loopt tegenwoordig een hele generatie rond die denkt dat vibecoding goeie software oplevert, of die zonder nadenken knipt en plakt en dat is best kwalijk. Maar op basis van dat gegeven meteen het afdoen als nutteloos vind ik wat overtrokken.

Wij zeggen altijd de mens is verantwoordelijk voor wat er wordt gecommit en gemerged, je kunt nooit je llm de schuld geven.
áls ik het al eens gebruik om iets te dubbelchecken slaat die vaak de bal nog steeds compleet mis.
Ik weet niet tot welke llm je toegang hebt, maar mijn ervaring is met claude code en dit wat jij beschrijft heeft veel te maken met het schrijven van een slechte prompt. Hoe beter de prompt hoe beter het antwoord is mijn ervaring. Het is een mathematisch model en heeft geen benul van of iets er goed uitziet, of iets dergelijks. Het voorspelt op basis van wat jij het vraagt en is getraind om altijd een antwoord te geven. Dus als jij de verkeerde vraag stelt gaat het voorspellen om tot een antwoord te komen en dat leidt tot onzin. Dus geef het nog eens een kans en formuleer dezelfde vraag anders, kijk eens wat het je oplevert. Want of je het nou leuk vindt of niet, de geest is uit de fles en gaat er niet meer in terug.

[Reactie gewijzigd door Elorad op 22 april 2026 10:06]

want áls ik het al eens gebruik om iets te dubbelchecken slaat die vaak de bal nog steeds compleet mis
Skill issue. Nee maar serieus, het schrijven van een goede prompt, goede context meegeven en goede standaardinstructies, geven een zoveel betere output dan dat je gewoon naar de eerste de beste vraag gaat. Het is net als goed een zoekmachine gebruiken of de juiste commando's en shortcuts van je tools kennen. Goede prompts maken je echt wel productiever. Natuurlijk moet je alles nalopen, maar dat is een stuk makkelijker als je al betere prompts schrijft.
Gaat toch nog steeds niets boven RTFM en 2 seconden kritisch nadenken over een StackOverflow post
2 problemen: de stackoverflow posts zullen verdwijnen nu meer mensen AI gebruiken en AI zal "leren" van wat mensen hem gebruiken. Dus niet alleen wordt het lastiger om op het web oplossingen voor bugs te vinden, ook zullen AI veel meer trainingsdata krijgen waardoor ze ook beter zullen worden in het oplossen van bugs. Daarnaast kun je AI gewoon vragen waarom iets fout gaat, zonder hem de oplossing te laten maken. Er zijn daarnaast nog genoeg andere use cases waar AI gewoon heel goed in aan het worden is en het is zonde als je door je afkeer van AI niet mee lift. Want je geeft jezelf wel degelijk een achterstand. En juist dat je hebt leren programmeren zonder AI is inderdaad een voordeel, maar deze vervolgens niet gebruiken is juist weer niet handig. Het maakt je echt minder productief. En bovendien kun je hem prima inzetten voor dingen die je wellicht gewoon wat minder leuk vind aan coderen en de rest zelf blijven doen, al dan niet soms geholpen met een informatieve vraag.
Dit gaat niet meer weg. Het scheelt echt personeel (die ook nog eens niet te krijgen is). Een paar honderd euro per maand uitgeven is makkelijker en goedkoper dan extra personeel vinden.
Je kunt AI ook gewoon vragen hoe iets in elkaar zit, en waarom niet gekozen is voor x of y en wat de voor en nadelen daarvan zijn.

Je kunt jouw en jouw team best practices ondubbelzinnig in een markdown bestand opnemen.
Zo weet de AI ook wat jij verwacht.

Ik heb starters die op die manier in 5 dagen een app maken waarvan de kwaliteit vele malen hoger is dan van de senior developers die geen AI gebruiken. Ook als ik de senior meer tijd geef.
En die conclusie trekken ook de senioren én de onafhankelijke testen (usability, security, code style, maintainability, etc.).

De meeste modellen weten wat de internationale standaarden en publiek goed gedocumenteerde best practice - en test criteria inhouden en hoe ze dat binnen context moeten toepassen.
Ik vind t wel meevallen met die €18 p/m. Ik heb al meerdere tools waarvoor ik een jaarlijkse licentie had kunnen nabouwen voor prive gebruik. Dat bespaart me redelijk wat kosten ieder jaar.

[Reactie gewijzigd door Bor op 22 april 2026 08:53]

Dit gaat niet om €18, maar om het weghalen van features uit hetzelfde abonnement. Dat is segmentatie richting duurdere tiers.

Die zelfpromo voegt zelfs nog minder toe aan de inhoud.
Reactie was op de ramprijzen comment. Ik vind de prijzen namelijk wel meevallen voor wat je ermee kan.
Dit is eerder het begin van het volwassen worden van AI. Het is immers razend populair en veel programmeurs kunnen inmiddels niet meer zonder.

Logische keuze dus om het abonnement voor consumenten deze pro tool hieruit te verwijderen.
Het tegenovergestelde is waar: Wat je hier ziet is dat de servers overbezet zijn. Daarom is Sora offline gehaald door OpenAI en wordt Mythos niet beschikbaar gesteld door Anthropic. Ze hebben te weinig compute om aan de vraag te voldoen. In de praktijk is dit een prijsverhoging: meer mensen zullen een Max abonnement gaan nemen om hun gewenste gebruik waar te kunnen maken.
Als je daadwerkelijk voor meer dan wat hobby programmeren het gebruikt, is €90 per maand natuurlijk geen enkel probleem om te betalen. Dus denk meer dat ze mensen daarheen willen duwen.

En als een Euro had voor elke keer dat iemand op Tweakers het had over einde van de AI hype, dan had ik genoeg geld gehad om 64GB RAM te kopen. Ik zie veel voorspellingen over het einde van de hype, maar vooralsnog zie ik niks daarvan in de praktijk. AI is gewoon enorm populair en effectief. (En imo ook na laatst het te gebruiken om iets te herschrijven ook wel eng: Als in, hoe afhankelijk worden we ervan? Maar wat eruit kwam was echt beter dan wat ik zelf had geschreven).
Ha, ik denk het absoluut niet. Met een Claude Max abotje kan 1 programmeur het werk van 5 juniors overnemen. Daarnaast zijn de nieuwere open source / gratis modellen die je lokaal kan draaien (bijvoorbeeld op een stevige Mac, of een AMD Ryzen AI Max 395+), tegenwoordig al zeker op 75% van het niveau van Claude en dat wordt iedere maand beter.

De geest is uit de fles. Net als bij de .com bubbel bleef internet daarna zeker wel relevant, dat zal met AI niet anders zijn.
Het artikel schrijft letterlijk dat AI populairder wordt dus reken er niet op dat de ramprijzen gaan dalen. Er zijn juist meer AI servers nodig.
Het probleem met AI-abonnementen, voor de aanbieders dan, is dat veel abonnementen onder de kostprijs worden verkocht. Dat kan uit, zolang er genoeg investeerdersgeld binnenstroomt en niet iedereen alle capaciteit waar ze voor betalen gebruiken. Hoe meer mensen de goedkope abonnementen zwaar gebruiken, hoe meer die abonnementen moeten worden beperkt of de prijs van abonnementen moet stijgen. Dat heeft natuurlijk direct een werking op hoe populair die abonnementen zijn.

Je zag het met OpenClaw en Claude: men betaalde voor een vage token-limiet en OpenClaw liep daar consistent tegen aan. Die mensen kosten Claude geld, dus hebben ze het gebruik van Claude voor tools van derden verboden in hun voorwaarden.

Er is een goede reden dat veel mensen die zwaar op AI-gebruik leunen veel liever een Claude abonnement nemen dan dat ze de modellen per token afrekenen via API billing of op een concurrerend platform als AWS Bedrock.

Als ik Forbes mag geloven, is het risico zo hoog dat een $200-abonnement ze makkelijk $5000 kan kosten (al zijn de werkelijke maximumkosten in de praktijk waarschijnlijk lager). Wat daar niet in zit, is de prijs om modellen te trainen.

De prijzen die AI-bedrijven nu rekenen, gaan ze geen 10 jaar volhouden. De strijd is nu, net als bij streaming-apps, taxi-apps en maaltijdbezorgapps, om een groot genoeg deel van de markt te winnen tegen verlies om dat geld weer terug te verdienen in de toekomst door de prijzen omhoog te gooien tot vlak onder waar het schaalvoordeel verdwijnt zodra de concurrentie om zeep is geholpen: dan kun je jarenlang geld verdienen met een verziekte markt en is de prijs om een concurrent op te zetten te hoog om rendabel te zijn.

Als er genoeg concurrentie blijft (wat goed is voor consumenten natuurlijk), zal het geld van investeerders op een gegeven moment opdrogen. Er moet straks ineens winst worden gemaakt en dat kan door bestaande deals af te knijpen of door prijzen te verhogen.

Met hoe de situatie nu zit en de prijzen nu zijn, verwacht ik dat we de komende tijd nog wel concurrentie gaan houden. Zodra Anthropic en hun vrienden stoppen met het delen van hun modellen met derden, verwacht ik de omslag in de LLM-industrie. Nu hebben ze Mythos al niet gedeeld vanwege "veiligheid" waar ik mijn twijfels over heb, maar we zullen zien hoe snel ze de volgende iteratie LLM-modellen delen.

Hoe dan ook zal het huidige model op een gegeven moment ophouden met werken. Als bedrijf doe je er wellicht goed aan om nu keihard die goedkope LLM-tokens tot je voordeel te gebruiken, want wat je nu vibecode, kan je concurrent volgend jaar mogelijk dubbel zoveel kosten.
Begin van het einde? Er staat letterlijk dat de vraag toeneemt en dat ze hun prijze gaan optrekken omdat aanbod niet kan volgen. Nergens is er sprake van een vertraging of einde.

We zitten nog maar aan het begin van de AI adoptie dus chips zullen duur blijven. Dat kan decennia duren want de vraag zal enkel maar toenemen.

Misschien dat HBM geheugen wel naar de consument komt want zo kan een fabrikant beide markten bedienen want niet alles is geschikt voor high-end servers. Maar goed, sowieso blijft DDR nodig want er valt ook veel geld te verdienen met lokale AI en dat werkt niet goed als consumenten geen RAM op overschot hebben. Maar dan zijn we 2030+
dont think so, er zijn genoeg Enterprise klanten die Claude Code en enterprise abonnement heb dat antropic voldoende geld verdienen :D
Een Pro-abonnement kost op dit moment 18 euro per maand, terwijl Max-abonnees maandelijks 90 euro betalen.
Dit is bij Claude wel ex-btw, dus komt uit op 21,78€ en €108,90 respectievelijk.
Nope, 90 Eur hier per maand. Is een US dienst, gefactureerd vanuit de US door een US bedrijf, dus geen BTW.

Google en andere partijen hebben vaak een EU entiteit voor hun diensten in Europa en vallen daardoor WEL onder de Europese BTW regels.
Er wordt zeer zeker wel 21% BTW gerekend, ze zetten het er wel bij onderaan de plans pagina: You will be charged 21% VAT, the standard rate in Netherlands, at checkout.

Bron: eigen ervaring.
Ik heb het zakelijk 😬 .. met BTW nummer dus geen BTW op de factuur. Voor een consument kan dat anders zijn idd.
Ja... op die fiets is er hier ook geen btw :+
Ik heb nochtans BTW betaald op de Pro max die zo van 180 naar 217,80 € gaat, 38,70 € BTW. Staat netjes ook zo op de factuur vermeld. (VAT - Belgium 21% on €180.00).
Die 18 euro is op basis van jaarplan. 180euro ex BTW = 217,80 inclusief / 12 = 18.15 dus niet helemaal 18euro precies maar klopt beter dan de 21.78
Toevallig komt dat ongeveer uit op 18, maar een maandabonnement is gewoon exact 18€ ex BTW.
Ik heb Claude Pro nu een week. Ik wilde de hype wel eens testen. Het is best een teleurstellende AI. Snel harde limieten als je enkele pdf-documenten upload voor analyse.

Gisteren twee grote fouten, waar ik Claude op moest wijzen in een simpele discussie en kreeg toen het advies dat ik zelf op bepaalde fora maar moest zoeken, omdat zijn adviezen niet betrouwbaar zijn. Wel eerlijk, maar niet wat ik verwacht.

Het zal vast briljant zijn voor code, maar als je deze optie verwijderd, dan betekent dat niet meteen dat mensen het 10-voudige willen betalen.

Trouwens, de prijs is rond de €23 per maand. Btw, komt een nog bij.

[Reactie gewijzigd door honey op 22 april 2026 08:04]

Ja de limieten zijn echt bizar. Ik ben na een dag gebruik ook al niet tevreden en heb voor de zekerheid opgezegd. Heb nog een maandje om te proberen, misschien zet ik hem aan.

Als ze met een los Code abo voor rond de 20 euro komen, zonder deze sessie limieten dan ben ik wel weer geïnteresseerd.
Er zal uiteindelijk niks zijn zonder limieten behalve een "pay as you go" model. Bij dat model ga je schrikken van je eigen gebruikt
Dat zeg ik ook niet, maar sessie limieten zijn niet handig. Helemaal niet als ze echt niets voorstellen. Ik geef de voorkeur aan maandelijkse limieten zoals van Cursor en daar ga ik dan wel naar het Pro+ subscription als ik die bereikt hebt. Heb nu ik de limieten van Cursor bereikt en had de mogelijkheid om naar plus te gaan, maar dacht in plaats daarvan ga ik Claud Pro eens proberen.
Mja het probleem is gewoon dat er veel mensen misbruik maken van wat ze gratis of goedkoop kunnen krijgen. Zolang een bedrijf marktaandeel probeert te verkrijgen en er genoeg investeringen tegenover staan is dat nog geen probleem, maar zodra er geld verdiend moet worden, houdt dat al snel op. En verder zijn ze vast nog op zoek naar de balans van wat ze wel of niet kunnen aanbieden. Maar het is te hopen dat de self-hosted AI nog snel beter wordt, zodat online AI ook daadwerkelijk concurrentie krijgt en niet te ver uit de pas kan lopen.
ik denk dat de balans een beetje zoek is bij hun. Het geld wat geinvesteerd is, en wat ze inmiddels verliezen weegt nog steeds niet op met wat ze verdienen denk ik zo. veel mensen zijn tegen het huidige model en zeggen op of worden gefrustreerd. Dan verdien je niks als bedrijf.
In principe kun je met dingen als OpenRouter of hun gigacouldconcurrentie onbeperkte sessies krijgen, mits je bereid bent te betalen voor de daadwerkelijke tokens die je verbruikt.

Mijn ervaring is wel dat je zo door die 20 euro heen bent als je het gebruikt zoals men adverteert.
Als je PDF documenten direct upload maakt hij basically 'screenshots' van de pagina(s) en dat tikt heel snel aan in token gebruik. Als het enkel om tekst gaat, kan je het veel beter eerst omzetten naar Markdown of een ander formaat. Daar kan een LLM veel beter mee overweg.
Zal mij niet verbazen als ze het liever omzetten naar afbeeldingen omdat ze zo meer geld kunnen verdienen. Veel diensten zijn nu echt veel tokens aan het verspillen om nog wat meer winst te kunnen maken. Niet realiserend dat ze daarmee hun product minder interessant maken.
De dag die je wist dat zou komen… Eerst ver onder kostprijs aanbieden om de markt te veroveren en dan prijzen verhogen als mensen niet meer zonder je kunnen. Typisch. En slim. Mag ook gezegd.
Overigens ook heel Amerikaans principe... Nu dat gezegd zijnde lijk ik in deze markt wel iets anders te zien waarbij ik me sterk afvraag hoe de EU zijn/haar consumenten gaat beschermen. Ze lijken niet alleen prijzen te verhogen maar ook de voorwaarde of features van bestaande abo's te veranderen.

Als je kijkt naar het artikel dat Tweakers ook hier zelf vermeld dan zie je dat ook Microsoft limieten (of bestaande afspraken) wijzigt terwijl je juist een abo hebt aangeschaft met bepaalde voorwaarde of features. Dat kan niet zomaar achteraf gewijzigd worden wanneer je contracten hebt afgesloten. Ik ben vooral benieuwd hoe dat zich evolueert de komenden maanden/jaren.
Als je kijkt naar het artikel dat Tweakers ook hier zelf vermeld dan zie je dat ook Microsoft limieten (of bestaande afspraken) wijzigt terwijl je juist een abo hebt aangeschaft met bepaalde voorwaarde of features. Dat kan niet zomaar achteraf gewijzigd worden wanneer je contracten hebt afgesloten.
Dat kan onder bepaalde voorwaarden, wanneer:

• Het contract aangeeft dat wijzigingen eenzijdig doorgevoerd kunnen worden.
• De aanbieder de klant tijdig van wijzigingen informeert.
• Een benadeelde klant de mogelijkheid heeft om het contract per direct op te zeggen.

Zo heb ik wel eens een tweejarig XS4ALL contract open laten breken omdat XS4ALL stopte met het aanbieden van een extra IPv4-subnet. Dat was de reden dat ik voor XS4ALL koos, want die was toen de enige in de markt die dit leverde aan particulieren. Door tussentijds het aanbod te veranderen werd ik benadeeld, want zonder de mogelijkheid om een extra IPv4-subnet af te nemen voor de gehele contractperiode had ik een andere keuze kunnen maken voordat ik het contract aanging.

Het gevolg: een belletje, een medewerker die dacht dat het niet kon, een gesprek tussen die medewerker en diens manager waarin duidelijk werd dat het wel kon, en ik was van de vaste contractperiode af en kon vrij overstappen.

[Reactie gewijzigd door The Zep Man op 22 april 2026 08:36]

Wat doet Claude Code? Alleen code schrijven? Of ook over code praten? Geeft de normale Claude (zonder code) wel code snippets?

Als programmeur gebruikt ik AI (Co-Pilot) vrij vaak, maar eigenlijk zelden om daadwerkelijk code te schrijven.
Als je Claude Code toegang geeft tot een GitHub repository waar je code in staat dan kan hij de code analyseren. Daarna kan je vragen stellen en opdrachten geven. Zoals "moeten er nog afhankelijkheden geüpdatet worden naar de nieuwere versies?" Of "analyseer de bug zoals beschreven in issue #314". Dan kan het zelf aan de slag gaan en in een aparte branch met een fix komen. Als je een goede test straat en CI/CD opgezet hebt dan wordt het nog beter omdat het zichzelf kan corrigeren en valideren.

Een opdracht als "maak een website voor mij" zal altijd tot teleurstelling lijden.

Je moet anders gaan kijken naar "programmeren" .. en Test Driven Design (TDD) werkt bijvoorbeeld heel goed. Denk na wat je zou willen, welke testen daar bij horen .. en daarna pas iets gaan (laten) maken wat past bij die testen.
Een opdracht als "maak een website voor mij" zal altijd tot teleurstelling leiijden.
Want?

Ik heb hem iig voor eigen gebruik wat simpele websites (in docker containers) laten maken, dat gaat prima.

[Reactie gewijzigd door pven op 22 april 2026 10:29]

Gisteren een jaar abbo afgesloten en ik kreeg Code nog.

Hopelijk blijft die wel nog even actief.
Het is goedkoper als je het abonnement via de website van claude zelf afsluit. Zij moeten een fee betalen aan google in de play store en die wordt door berekend aan de consument. Via de website heb je dat dus niet.
Ik betaalde rond de 23 euro voor Pro via de website.
Ik heb toevallig Claude Pro geprobeerd gisteren met Claude Code. Ik deed één prompt en was door 25% van mijn sessie limiet heen. Heeft dat hier iets mee te maken? Voor mij is het echt onwerkbaar om dit soort sessie limieten te hebben.

Ik heb het eigenlijk binnen een dag opgezegd en ben weer terug naar Cursor gegaan.

Ik vond ook dat Claude erg land deed om überhaupt iets te produceren.
Ik ben even in de war: het artikel begint ermee dat Claude code mogelijk uit Pro gaat verdwijnen, en vervolgens wordt er in de volgende alinea over een prijsverhoging gesproken. Beetje warrig zo.

Overigens: ik heb nu Pro, dat bevalt prima, maar als Claude code eruit wordt gehaald dan ga ik zeker niet meer betalen om het wel te kunnen gebruiken.

[Reactie gewijzigd door pven op 22 april 2026 09:26]

Wij gebruiken hier Claude Code Max 20, 200 dollar per maand. Dat is ook wel een beetje de max (ba dum tss) die ik er aan uit zou willen geven. De taken waarvoor ik hem nu inzet leveren niet direct geld op, maar zorgen vooral dat ik zelf minder tijd kwijt ben. Dat ansich is veel waard, maar levert niet direct geld op. Sterker nog, ik moet uitkijken dat ik niet minder verdien. Waar je eerder 5 uur bezig was wat je nu in 1 uur kunt doen, zorgt uiteindelijk voor minder inkomsten. Ik kan dat, mijn concurrent kan dat, dus zal ik ofwel mijn uren anders moeten doorberekenen of minder gaan verdienen. Dat terwijl de kosten wel flink oplopen als de AI duurder wordt. Uiteindelijk zul je zien dat er een balans komt als de kosten daadwerkelijk doorberekend worden. Er zullen genoeg mensen afhaken bij 1000 dollar per maand, maar er zullen er ook genoeg zijn die er mee door gaan. Het hangt er maar net vanaf hoe je de AI in kunt zetten en hoe je dat zelf kunt omzetten naar inkomen. Zodra je er geen inkomen uit kunt halen, of niet genoeg, dan is het de investering niet waard. Ongeacht hoeveel tijd je er ook mee bespaart.

Om te kunnen reageren moet je ingelogd zijn