Microsoft zet stop op GitHub Copilot-abonnees vanwege overbelaste servers

Microsoft stopt met het aannemen van nieuwe abonnees voor GitHub Copilot. Ook krijgen bestaande klanten krappere limieten. Daardoor moet het aantal storingen voor klanten de komende tijd gaan afnemen.

Microsoft GitHub Copilot gebruikslimiet
Microsoft GitHub Copilot

De wijzigingen gaan onmiddellijk in, zegt Microsoft. Die zijn nodig om de druk op de servers af te laten nemen. Klanten met een Pro+-abonnement krijgen een limiet die vijf keer zo hoog ligt als klanten met een Pro-abonnement. Die limiet is bovendien te zien in VS Code en Copilot CLI.

Daarnaast is het vanaf nu niet meer mogelijk om een abonnement af te sluiten. Ook is Claude Opus niet langer beschikbaar voor Pro-abonnees. Opus 4.7 is er voor Pro+-abonnees, maar oudere versies van Claude Opus zijn niet langer te kiezen als model.

Microsoft zegt dat klanten voor de maand april niet hoeven te betalen als het niet werkt. Het bedrijf zegt te werken aan een structurelere oplossing. "We zien een toename in het gebruik onder alle gebruikers, omdat ze de waarde inzien van agents en subagents bij het aanpakken van complexe programmeerproblemen. Deze langlopende, parallelle workflows kunnen veel waarde opleveren, maar ze hebben ook onze infrastructuur en prijsstructuur op de proef gesteld. De acties die we nu doen, stellen ons in staat om de best mogelijke ervaring te bieden aan bestaande gebruikers, terwijl we werken aan een duurzamere oplossing."

Door Arnoud Wokke

Redacteur Tweakers

21-04-2026 • 07:18

96

Submitter: Joelsuperstar

Reacties (96)

Sorteer op:

Weergave:

Gisteren nog een goed gesprek met een assistant professor op de universiteit over het gebruik van AI bij de bachelor vakken van computer science, en dan specifiek het vak waarbij je leert te programmeren. Aan het eind van het vak heeft hij een anonieme enquete eruit gedaan en ongeveer de helft heeft AI gebruikt, niet voor het schrijven van code, maar voor debugging.

Precies het lastige onderdeel van programmeren: Spotten waar problemen zitten, waar ze ontstaan, het lezen van code laten nieuwe programmeurs doen door AI. Hier zit dan ook het echte gevaar, hoewel AI goed bruikbaar zal kunnen zijn voor Senior software engineers omdat zij de skillset hebben om zelf code te lezen, is dat bij Junior engineers nog groeiende. Als zij dat nu al laten vervangen door AI zullen zij nooit begrijpen wat er nodig is om iets te laten werken, de simpele valkuilen herkennen etc. Dit is iets waar we in het vakgebied wel voor moeten gaan waken om te voorkomen dat we zometeen geen nieuwe Senior software engineers meer hebben maar alleen "Senior Vibe coders".
Dat is in de veronderstelling dat “ai coding” nooit de mens voorbij zal streven. In feite is dit een paardenforum waar de paarden discussies voeren over dat steeds meer boeren een mechanische kar aanschaffen die vaak vastloopt op allerlei terreinen en dat paarden beter zijn
Ik zou het eerder vergelijken met een kookforum waarop men over kant-en-klaar maaltijden praat.

En we weten allemaal hoe super gezond die in het algemeen zijn.
Denk dat de kant-en-klaarmaaltijden al langer spelen, denk libraries (ipv zelf schrijven) en / of Stack Overflow antwoorden copy / pasten.
Dit is precies wat ik vaak mis in de discussies, automatisering gemak en hergebruik is eigenlijk altijd al een onderdeel geweest van de evolutie van software ontwikkeling. Vrijwel niemand schrijft nog machine code en we hebben daar allerlei lagen bovenop gemaakt die dingen makkelijker maken in combinatie met zeer geavanceerde IDEs, hergebruik van libraries en frameworks.

Nu komt er iets nieuws wat best wel "disrupting" is voor de manier waarop we software ontwikkeld wordt en opeens is de tendens vaak best heel negatief (vocal minority?) Waar waren die mensen toen we node en python pakketjes gingen binnen halen? Of vroeger(?) de perl packages van CPAN.

Kritisch zijn is goed, maar blinde haat heeft echt niemand iets aan, er zal altijd ruimte blijven voor "artisan" software maar de meeste van ons waren al niet goed genoeg om dit te doen voor alle software ontwikkeling (Ik niet lig) en dat zal ook zo blijven voor de meerderheid. Dat wil niet zeggen dat we geen goede software kunnen maken met deze nieuwe tools.
Het is wel gemakkelijk die kant en klaar maaltijden. Of je er ook echt iets mee opschiet is inderdaad de vraag.
Programmeren is meer dan alleen coderen.

Met vibe coding zijn volstrekte leken in staat om werkende software te genereren. Maar dat is het dan ook, genereren. Iedere keer wanneer er een wijziging wordt doorgevoerd dan wordt de complete software opnieuw gegenereerd met nieuw geïntroduceerde bugs en wel. Dat is prima voor rapid prototyping maar ga het als je blieft niet in productie nemen.

Wanneer de Copilot service om wat voor reden dan ook enkele uren niet beschikbaar is gaan alle programmeurs dan meteen collectief duimendraaien omdat ze niets meer kunnen? Benieuwd wat er staat te gebeuren bij een flinke technische 'outage'.
Elke wijziging wordt door een AI ook gewoon opgepakt als een wijziging, die gaat niet elke keer de hele applicatie opnieuw genereren. Het is voorlopig nog wel goed opletten dat je het niet gebruikt als technical debt generator.
Het is de vraag of je AI coding volledig gaat vertrouwen en de AI ook al het L2 en L3 support gaat laten leveren. Want dat is waar straks de problemen ontstaan als er geen seniors meer zijn.
Behalve dat een AI nooit context en design choices kan begrijpen als de gene die inputs geeft geen kennis heeft.

Vrijwel geen enkele cliënt die een software bedrijf inhuurt weet eigenlijk wat ze willen hebben, als Software Engineer spendeer je meer tijd met het lezen van documenten en het bouwen van een architectuur en design dan het coderen.

Maar zonder de kennis van het programmeren kan je nooit een fatsoenlijke architectuur bouwen. Het is dan een catch22
Deels gelijk, er is namelijk wel veel informatie over bijvoorbeeld "wat de meeste mensen willen" of architectuur in de dataset die gebruikt wordt om AI te trainen.

Maar, dat is voornamelijk open source library code, terwijl (in mijn mening / aanname) het merendeel van de code bij bedrijven closed-source enterprise / functionele code is, dat zijn twee verschillende takken van sport.

AI is wel okee voor het genereren van utilities maar minder voor de grotere klussen... net als mensen.
Het enige wat je hebt gedaan is de veronderstelling omdraaien. Deel van het probleem is dat we het gewoon niet echt weten. Het is naïef om te doen alsof er geen invloed gaat zijn op de industrie maar het is ook totaal onbewezen dat producten die (voornamelijk) met AI gemaakt zijn echt doelmatig zijn, en dus tijd en moeite besparen.

De manier waarop AI en de producten die eruit komen nu worden benaderd lijkt helemaal niet op hoe softwareontwikkeling verloopt. Zaken die met AI gemaakt zijn worden héél makkelijk geaccepteerd, en dan wordt er vergeleken met de gevestigde procedure waarin iedereen overal zijn plasje over mag (en moet) doen.

Het doet een beetje aan als de junior die denkt dat hij de applicatie waar al een paar jaar aan is gewerkt wel even kan vervangen in een paar dagen met het nieuwe framework-du-jour. Als je je acceptatiecriteria onderuit schoffelt, alle regressies van eerder opgeloste bugs accepteert en de meest ingewikkelde features bewaart voor 'later' dan is het sowieso veel makkelijker om snel iets op te leveren.

Om nog maar te zwijgen over het feit dat je de combinatie van applicatiekennis en bewustzijn van alle functionele eisen in feite opslaat in een context window die op den duur verdwijnt (als het voor die tijd niet onbruikbaar is geworden omdat het te groot is geworden voor het model om er nog kaas van te maken).

EDIT: Dit staat overigens nog los van het feit dat het tot nu toe allemaal zwaar gesubsidieerd wordt door durfkapitaal. Als daar uiteindelijk partijen eieren voor hun geld gaan kiezen dan moet men helemaal opnieuw beginnen met bepalen of het nog wel zo aantrekkelijk is (of überhaupt nog uit kan).

[Reactie gewijzigd door Patriot op 21 april 2026 14:39]

Ik snap je punt en als programmeur met 20+ jaar professionele ervaring. Je hebt op dit moment volledig gelijk (IMHO). Maarrrr indien de AI een hoger niveau bereikt zal het helemaal niet meer zo'n probleem zijn dat je de code niet begrijpt. Dan wordt veel meer van belang, weet je op de juiste manier om te gaan met de tooling. Kun je inzien welke wijzigingen je wil en hoe je de tool zover krijgt die op een juiste manier te maken. En dan kan die vibe coding skillset ineens best van pas komen. Ik vraag me op dit moment heel erg af welke kant heb opgaat. We gaan het zien. Het zou me niks verbazen dat programmeren een aflopend beroep is, maar voor het zelfde geld, gaat het toch niet zo lukken met AI en met het huidige niveau van AI is idd wat programmeer kennis wel echt een pre.
Wat mensen lijken te vergeten is dat bestaande systemen nog heel lang zullen bestaan en je deze niet allemaal zomaar even gaat vervangen. "We bouwen er wel iets nieuws tegenaan.", klinkt gemakkelijk maar in de praktijk leer je snel genoeg dat je daar enorm mee moet oppassen. Voor je het weet draaien er een dozijn systemen met een dozijn verschillende versies van frameworks die stuk voor stuk ook allemaal moeten worden onderhouden. Rechtdoor coderen is gemakkelijk maar het zijn altijd de edge-cases en kleine compatibiliteitsverschillen tussen versies onderling waar de grote problemen zitten.

Vakkennis blijft een vereiste omdat volledige nieuwbouw in veel gevallen nu eenmaal geen passende oplossing is. Weggooi-code is duur omdat je telkens van voor af aan moet beginnen met testen en valideren.
In principe heb je gelijk, maar om een voorbeeld te nemen van mijn werk.

Ik heb onlangs een project overgenomen wat collega's +/- 10 jaar geleden voor het laatst aangeraakt hebben. De applicatie heeft al die jaren netjes gewerkt, maar nu wil men graag een aantal aanpassingen.

Nu kan ik weken besteden om uit te zoeken hoe dit toen allemaal opgezet was, waarom bepaalde keuzes qua ontwerp gemaakt was. Of ik druk de relatieve code (classes, database schema en usercontrols) in een ChatBot, geef aan wat de applicatie doet, wat ik veranderd wil hebben en welke stappen ik daarvoor het beste kan doorlopen. Binnen enkele minuten krijg ik een stappenplan om de wijziging door te voeren en binnen een uur heb ik de gewenste wijziging er correct in zitten.

Nu is de taak aan mij om er zeker van te zijn dat de applicatie het nog doet, dat er geen vreemde dingen gebeuren met de gegenereerde code en ontstaande fouten kan benoemen, maar ik was er verbaast over hoe accuraat (goed wil ik het nog niet noemen) deze code werkt.
Nu is de taak aan mij om er zeker van te zijn dat de applicatie het nog doet, dat er geen vreemde dingen gebeuren met de gegenereerde code en ontstaande fouten kan benoemen
Wat overigens niet uniek is aan AI gegenereerde code, hiervoor schrijven we (als het goed is) al sinds jaar en dag automatische regressietests.
Een microservices architectuur is wat mij betreft de oplossing om met legacy-code om te gaan.

En dan de vraag: wat zijn we nu allemaal aan het ‘vibe coden’? Informatica is het verwerken van informatie door data en werkstromen te digitaliseren en te automatiseren. Hoewel vibe coden het nu makkelijker maakt om data te transformeren en te leveren, verandert het niets aan hoe wij processen uitvoeren. Daarnaast heb ik nog geen chatbot gezien die een foutloze CI/CD pipeline kan opzetten, en als die er wel is, dan is daar nog steeds veel kennis voor nodig om het te onderhouden en binnen de budgetten te houden. Echter, wanneer ik een bucket policy in S3 genereer, dan vraag ik Codex inderdaad om alle rechten voor mijn doeleinde te valideren en de json te controleren op fouten. Wil ik dit proces automatiseren, dan vraag ik Codex om een shellscript te schrijven dat met de AWS CLI een IAM user aanmaakt voorzien van die policy, met een aangepaste variabele voor welke bucket ik wil toekennen. Kortom, nog steeds een proces dat ik bedenk en uitvoer, maar waar Codex de code netjes uitwerkt.

Andersom kan ik reflecteren en in Obsidian aan een chatbot vragen als een psychiater te reflecteren op mijn gedachtestromen. Nog steeds niets bijzonders, want een echte psychiater doorziet patronen die ik (en de chatbot) niet boven water krijgen achter mijn laptopje.

Kortom, ik vind het een evolutie van onze manier van werken, geen revolutie.

[Reactie gewijzigd door iApp op 21 april 2026 11:35]

Alleen bestaat dat soort AI nog lang niet en ondertussen gaan “senior” developers wel met pensioen …
Tja dat is dus wat de tijd zal uitwijzen. Hoe snel gaat die ontwikkeling.

grote kans dat je gelijk hebt, maar ook best wel een kans dat je dat niet hebt. Ik hoop mijn werk nog lange tijd te mogen doen. Maar interessant deze ontwikkeling wel
Op de middellange termijn denk ik dat de software ontwikkelaar wordt vervangen door (of samengevoegd met) analisten die met AI applicaties ontwikkelen. Als je alle requirements gestructureerd hebt gedocumenteerd, kan AI daar stapsgewijs (agile) een applicatie mee bouwen die steeds getest kan worden en de ontwikkeling bijgestuurd. Precies zoals het nu vaak ook gebeurt. Programmeertalen en design patterns zijn nu gemaakt voor menselijke ontwikkelaars en zullen ook wel vervangen worden door varianten die efficienter zijn voor AI.

Op de korte termijn zullen senior developers nog belangrijker worden. Als je een goede architectuur op kan zetten en vanaf het begin weet wat je wil, dan kan je 90% van het werk aan AI overlaten en voorkomen dat je een applicatie krijgt die vol met bugs zit of refactored moet worden om een simpele feature toe te voegen.

Een NullReferenceException kan AI nog wel vinden en oplossen, daar heb je straks geen ervaring voor nodig. Als je applicatie het verkeerde toont omdat je datastructuur helemaal verkeerd is of je autorisatieflow niet klopt, dan kan je wel in de problemen komen. Bijvoorbeeld een webshop waarbij elke klant de rol (en permissies van) "medewerker" krijgt omdat je in het begin de verschillende rollen niet duidelijk hebt gedefinieerd.
Ja ik denk ook wel dat het die kant op gaat.

Ik merk ook zeker dat het momenteel enorm helpt dat ik programmeer ervaring heb bij het aansturen van AI taken. Maar ik denk dat het daar steeds minder van belang wordt.

Maar het blijft interessant hoe ik een bugmelding in claude kan plempen, die onze enorme code base doorploegt en dan 9 van de 10 keer goed weet te analyseren wat de bug veroorzaakt. Dat scheelt natuurlijk enorm veel tijd. De fix zelf is dan vaak iets kleins, wat die zelf of ik zelf even snel kan doorvoeren. Ik merk nu al wel dat ik weer heel anders werk dan 2 jaar geleden, maar goed zo gaat dat al 20 jaar is ook niet erg. Vind het leuk. Maar ben wel benieuwd waar dit toe lijd.

En tja ook nu iedereen fototoestellen heeft, heb je nog steeds kunst schilders en rechtbank tekenaars. Dus tja, ik verwacht ook wel dat ik werk kan blijven vinden, maar het zal zeker veranderen.
Als je alle requirements gestructureerd hebt gedocumenteerd
Dat is al de eerste stap waar het fout gaat.
een applicatie mee bouwen die steeds getest kan worden
Als je de AI ook de tests laat maken, dan is de grootste vraag: kun je die tests wel vertrouwen?
Nu maken ontwikkelaars ook al regelmatig tests die geen goede validatie doen. Als je dan straks ook al niet meer weet wat de code doet, dan wordt het reëel dat je in de toekomst fouten krijgt bij een wijziging.
Programmeertalen en design patterns zijn nu gemaakt voor menselijke ontwikkelaars en zullen ook wel vervangen worden door varianten die efficienter zijn voor AI.
We hebben nu ook al Low-code, No-code en Model Driven Architecture. Daarmee zou in theorie met weinig werk voor een programmeur een applicatie gemaakt kunnen worden. Maar alsnog wordt dit minder gebruikt dan verwacht. Veelal omdat het toch meer werk is dan ze het voorstellen. Of dat er dusdanige limitaties aan zitten, dat men veel werk aan heeft om die te omzeilen en te maken wat de klant vraagt. Zo beheren wij nu een applicatie die "in december" vervangen gaat worden door een nieuwbouw systeem die met gegenereerde code wordt gemaakt. Alleen is het jaartal al drie keer verschoven.
Programmeren gaat niet weg, het is alleen maar groter geworden ondanks de groei in programmeertalen, libraries/frameworks, of alternatieven zoals low/no-code platforms.

Waar mogelijk wel minder tijd aan opgaat is het uittypen en itereren op code, maar ook dat is IMO eerder een evolutie dan een revolutie.
Zelfs als de AI beter wordt in programmeren dan een mens, is dat niet de ondergang van het programmeervak. Kijk naar alle low-code/no-code oplossingen die er zijn, gemaakt met het idee dat iedereen zomaar een workflow, tool, website etc kan bouwen. En tóch zijn er low/no-code programmeurs nodig.

Het vak programmeren verandert, het is altijd al aan verandering onderhevig. Aan de ene kant zijn programmeertalen makkelijker geworden, maar het landschap weer veel complexer, de eisen vaak hoger, de risico's groter.

De AI verandert een hoop in het vak, maar programmeurs blijven nodig. Misschien minder programmeurs of komt de nadruk op andere kennisvelden te liggen (bijv security, performance, quality assurance).

[Reactie gewijzigd door noes op 21 april 2026 13:36]

Deze heisa was er ook toen interpreted talen uitkwamen en "we straks geen programmeurs meer hebben die snappen hoe een compiler werkt".

Wat zou ik graag een AI hebben gehad die me kon assisteren om dingen uit te leggen tijdens mijn studie. De professoren bakten daar niks van.
Of toen een compiler uitkwam en mensen geen machinecode meer hoefden te schrijven. En in die transitie is in brede zin inderdaad veel kennis verloren gegaan over hoe een CPU zijn data ophaalt uit geheugen en in registers stopt voordat er gerekend kan worden. Voor >99% van de toepassingen niet interessant, maar voor performance-optimalisatie van die 1%, voor embedded systemen, en voor een enkele niche als het veilig implementeren van een cryptografisch algoritme.

Mensen vergeten vaak dat de opkomst van bijvoorbeeld SQL gepresenteerd werd als "het lijkt zoveel op natuurlijke taal dat nu iedereen het kan". Het gevolg was echter dat er sneller gewerkt werd en complexere systemen gebouwd konden worden, en om dat te bereiken had je nog steeds iemand nodig die die complexiteit doorzag en die zag hoe je zoiets schaalbaar kreeg. Niet-functionele requirements als beveiliging, onderhoudbaarheid, testbaarheid, en natuurlijk ook de requirements engineering zelf werden steeds belangrijker. Drie keer raden op welke gebieden "vibe coding" nu vaak nat gaat.

[Reactie gewijzigd door bwerg op 21 april 2026 10:15]

Gemini met de guided learning optie doet het al aardig goed op dat vlak.
Je kunt er wel voor waken, maar het kwaad is al geschiet denk ik. Zie ook de rekenmachine, hoeveel mensen kunnen nu nog dingen uit hun hoofd rekenen? Dat is sinds de rekenmachine ook echt een stuk minder geworden en zeker de jeugd die met de rekenmachine is opgegroeid kan soms amper nog hoofdrekenen. Ik zie dat met AI ook bij programmeurs, zeker de juniors gaan hier echt last van krijgen als AI het op een dag even niet meer doet.
Probleem oplossend vermogen werd toch al nauwelijks geleerd, met of zonder AI. Het is allemaal monkey see, monkey do. Zelfs in het hoger onderwijs. Het is al jaren enorm teleurstellend wat er van scholen afkomt. De docent verwachten alles om de manier die zij als goed hebben bepaald. Je word gedwongen specifieke talen te gebruiken. Want anders kan de docent het niet lezen. Het kunnen uitleggen en demonstreren zou moeten zijn wat telt. Maar dat kost docenten te veel tijd bij nakijken...

AI verergert het probleem, maar het probleem is allesbehalve nieuw.
Ach, in het bedrijfsleven zie je nu al dat door het outsourcen van cruciale kennistaken naar lage lonen landen zoals India ervoor heeft gezorgd dat we hier minder kennis hebben op dit vlak dan vroeger. We hebben nu heel veel Product Owners en Business Developers die, als je mazzel hebt, nog wel weten wat ze willen maar niet weten hoe het moet en volledig afhankelijk zijn van externe vendoren. Ondertussen zijn die lonen niet meer zo laag en worden die mensen ingevlogen en vast in dienst genomen. De shift naar ai zal een zelfde effect hebben, een die je niet makkelijk af kan vangen door het schuiven met mensen maar wel met abonnementsvormen. Knowledge as a service.

Kaas.

De opvolger van het poldermodel


(Edit: waar nu minder staat stond abusievelijk meer)

[Reactie gewijzigd door mijsk1974 op 21 april 2026 15:09]

We worden nu langzaam gecoordineerd in de hogere rekeningen al. Gisteren ook chatGPT down. Zogenaamd hebben ze allemaal nu tegelijk capaciteit problemen en nu gaan we langzaam naar de echte prijs van AI gebracht worden.

Met een beetje simpele reken sommetjes kom je al gauw uit op 50x duurder voordat deze bedrijven uberhaupt beetje winst beginnen te draaien. Weet niet hoe leuk de wereld AI nog vind als straks een GPT abbo 1000 per maand kost.
waar baseer je die kosten op ?

Mijn 800 euro video kaart die 24*7 staat te draaien kost 2,18 per dag aan stroom, of te wel voor 60 euro per maand heb ik 24*7 AI draaien, in een data center kost dat een heel stuk minder doordat het geen 24x7 is en de load is veel zuiniger,

Het Intrainen etc is waar de kosten zitten maar dat zijn eenmalige aanschaf kosten.
Wat dacht je van de kosten van aanleggen van de datacenters, running costs, internet aansluiting, ontwikkelingskosten AI en winstmarge.

Er komt veel bij kijken om AI uberhaupt rendabel te krijgen. Ik gok nog steeds dat de bel straks gaat knappen en dit kan een voorteken ervan zijn. Heel AI klopt cijfermatig gewoon niet en de bedrijven zijn in een bizar tempo door geld aan het raken.
Hoe is dat anders dan gewoon storage of compute ??

het zijn simple rekensommetjes, Maar men denkt alleen in de miljarden investering, Hoe is AWS en Azure ooit ontstaan, op de zelfde manier door een enorme start investering die in de lange termijn terug betaald.
Met jouw consumenten-videokaartje kan je dan ook bij lange na geen frontier models draaien. Die kunnen makkelijk 100x zo groot zijn. Dus dan hebben we het over 6000 euro/maand aan energie?
en die geven de hyperscalers ook niet weg tegen een gratis / 50 euro per maand abbo,

Je hebt het nu over iets heel anders en daar staan gewoon grove prijzen tegen over,

NDH200 series kosten 80K per maand op azure

Pricing - Windows Virtual Machines | Microsoft Azure
Mijn 800 euro video kaart die 24*7 staat te draaien kost 2,18 per dag aan stroom, of te wel voor 60 euro per maand heb ik 24*7 AI draaien, in een data center kost dat een heel stuk minder doordat het geen 24x7 is en de load is veel zuiniger,
En de maandelijkse kosten van de afschrijving van die GPU laat je weg? Die heb jij misschien niet zozeer omdat je je GPU al had (voor bijv gamen oid), maar als je die specifiek ergens voor koopt (wat voor die datacenters 100% zeker het geval is), dan moet je de afschrijving gewoon meerekenen (naast stroomkosten)!

Als ik een vraag agent start met (sub)agents dan staan daar meerdere instanties tegenover (en nee dat doe ik niet 24/7 maar het kan wel!) dat kan je echt niet afzetten tegenover één PC met een GPU erin.

[Reactie gewijzigd door watercoolertje op 21 april 2026 09:43]

Ik las laatst dat OpenAI voor elke dollar die zij verdienen momenteel 25 dollar aan kosten hebben. Aangezien de hoge investeringen en aandeelhouders verwachtingen zullen ze niet genoeg nemen met break even denk ik zo, dus prijs x25 zal niet genoeg zijn. Voor het gemak ga ik maar even uit van het dubbele voordat deze bedrijven echt lange termijn levens vatbaar zullen zijn, dus kom je al gauw op een x50 van de prijs. Iemand moet dit allemaal op een gegeven moment gaan betalan. Tenzij ze een ongeloofelijk goed advertentie model zullen ze vinden ben ik bang dat jij en ik dat gaan worden.

Veel plezier ermee, ik zal op het moment zeker nog niet mijn hele bedrijf aan een AI levenslijn hangen, want dat kan je nog duur komen te staan in de toekomst, waarschijnlijk een stuk duurder dan al dat personeel wat momenteel ontslagen wordt in de naam van dat het goedkoper kan met AI.

AI is helemaal niet goedkoop, dat is het nu alleen omdat wij het allemaal mogen gebruiken terwijl deze bedrijven harder door geld heen branden dan wij ons ooit kunnen voorstellen.
Uiteindelijk betaal je niet de prijs die het kost maar wat je er voor over hebt. Mensen die echt niet zonder kunnen betalen inderdaad binnenkort EUR 200 per maand of zelfs meer dan dat.
Krijgen (betalende) klanten dit ook nog direct van MS te horen of moet ik dit enkel via de media vernemen?
Dit is gecommuniceerd via github.blog. Een van de officiele kanalen via waar Github dingen communiceerd. Dit is dus niet onderhands gecommuniceerd naar de media om dan via die manier de buitenwereld te bereiken of iets dergelijks.
En toch is het better om iedereen die je product of dienst afneemt een e-mail te sturen.
Dat is natuurlijk niet heel erg pro-actief, je zou niet van je klanten moeten verwachten dat ze je blog in de gaten houden voor dit soort nieuws.
Ik ben benieuwd of je een blog-post op het 'officiele blog' van je internetprovider ook zou accepteren als ze zouden besluiten om je internetverbinding te halveren door een rate-limit in te voeren vanwege overbelasting.

Dit soort acties behoeven in mijn optiek gewoon directe communicatie naar jou als klant.

PS: Gezien ik zowel een abbo heb CoPilot en Claude Code, en ik al een tijdje op de wip zat CoPilot op te zeggen, heeft dit me het laatste zetje wel gegeven.
Precies, eigenlijk absurd dit en hiermee haal je je product en geloofwaardigheid hard onderuit. Waarom zou ik nog een jaar betalen voor een service die je middenin mijn abonnement in waarde hebt doen verminderen.
Volgens mij kun je gewoon maandelijks opzeggen, er is niet echt een jaarabbo ofzo.
Zeker wel, ik heb eenmalig betaald voor een jaar
Ah? Die optie heb ik niet gezien. Maar in dat geval mag je het gewoon verbreken neem ik aan..
Ze geven je de optie om je geld terug te vragen, als je niet meer blij bent na deze wijziging.
Ik zie opus gewoon nog staan bij mn github copilot enterprise, 4.5, 4.6 en 4.7. Maar is misschien andere copilot.
De Claude opus 4.6 is bij mij eruit (CoPilot Pro+) Alleen de opus 4.7 is er nog maar wel tegen 7.5x. De 4.6 was 3x. Best wel een dure jongen.
Jammer, ik gebruikte Opus binnen m'n Pro abbo vrij veel; duidelijk beter dan Sonnet. Maar eens twijfelen of ik Pro+ het waard vind..
Maar volgens het artikel heeft Pro+ nu Opus 4.7.

edit: ook volgens de blogpost: https://github.blog/news-insights/company-news/changes-to-github-copilot-individual-plans/

[Reactie gewijzigd door Noxious op 21 april 2026 07:51]

Pro+ heeft toegang tot Opus 4.7, maar tegen een 7,5x rate.... Opus 4.6 staat uitgeschakeld voor Pro+ en vereist een upgrade.
Yes, dat spreek ik ook nergens tegen.

Volgens @djwice en @vanviegen heeft Pro+ geen toegang meer tot Opus (in z'n algemeen), maar dat is dus geen waar.
De Opus werd ook daar beprekt en kost nu 7.5x waar Haiku 0.33x kosten en GPT 0x. Dus de vraag is op die switch je uberhaupt wat opleverd, het is bijna goedkoper om lokaal qwen3.6 fo qwen3-coder-next of een gemma 4 model te draaien, samen met Claude Code als IDE.

Of een ander model: https://docs.vllm.ai/en/s...integrations/claude_code/
https://ollama.com/library/qwen3-coder-next
ollama launch claude --model qwen3-coder-next
Nouja, je hebt ook 5x zoveel usage; dus netto kun je het twee keer zoveel gebruiken dan de 3x die je eerst op Pro had :P :'(
Sorry, even verduidelijken: ik zie wel Opus 4.7, maar geen 4.5 en 4.6 meer. Alleen kost die dus 2.5x zoveel credits - dat gaat wel heel hard!
Ja, daar ben je zo doorheen.
Komt niet echt als een verassing; dat je voor 100 dollar een heel jaar coding agents kon gebruiken die echt heel veel goed werk verrichten was bijna te mooi om waar te zijn. Het is echt bizar goed.
Nu kan/wil ik niet meer zonder dus we gaan het zien wat er mogelijk is.
Ja dat had ik ook. Baal er wel van. Ik gebruik het puur hobbymatig, was een leuke app voor het vriendenweekend aan het bouwen. Nu even kijken of ik nog uitkom en anders moet ik op zoek naar een alternatief.
Tja, want zelf programmeren is er blijkbaar tegenwoordig niet meer bij.
logisch, dit gaat zoveel sneller.
Waar je vroeger een spreekwoordelijk tuinhuisje kon programmeren in de avonduren, bouw met AI in dezelfde tijd een hele villa. De leuke dingen doe je zelf (architectuur uitzoeken en opzetten) en de tijdrovende simpele dingen (models, mappers, ORM dingen) laat je door AI genereren.
Dit lijkt me de keerzijde van programmeren laten doen door ai.

Ik vraag me af of het überhaupt houdbaar blijft met de tekorten aan alle kanten op processing power, geheugen, energie, water. Straks zitten we met z’n allen dorstig in het donker omdat er teveel mensen prompts aan het schrijven zijn. 😱
Laten we dan eerst even all video meuk stop zetten voor YT en Tiktok etc,

Al die compute die naar die onzin gaat om clickbait filmpjes te renderen is total waiste ten op zichte van compute voor serieuze applicaties.
Ja, ben het wel met je eens, veel teveel AI filmpjes ondertussen. Maar als advocate of the devil: waarom juist niet codering time limiteren, want mensen kunnen ook wel zelf prgrammeren, maar zulke videos genereren die er zo goed als echt uit zien niet. Wie ben jij om voor 'mij' te bepalen wat er wel of niet zinvol is. /Einde advocate of the devil.
Volgens mij kan AI in de huidige vorm uiteindelijk alleen bestaan met een vorm van betalen voor gebruik. En dan stel je jezelf wel de vraag of het echt nodig is om dat filmpje te maken of dat je die kleine aanpassing in de code niet beter zelf kunt doen.
Er wordt honderden miljarden ingepompt voor apparatuur, gebouwen en infrastructuur, dus het moet wel geld op (gaan) leveren anders is het een niet houdbaar bedrijfsmodel.

Ook het energieverbruik is natuurlijk fenomenaal hoog en echt niet gratis.

Alles bij elkaar genomen weet ik nog zo zeker niet of het goedkoper is dan zelf denken en maken.
Je mag kiezen,

AI voor Eten of AI voor Yt

je kunt het maar 1x gebruiken
Aha, ik zag als pro+ gebruiker gisteravond opeens geen Opus meer staan als keuze, en de mogelijkheid om het thinking-level op high in te stellen was ook weg. Jammer dat ik dan hier moet lezen dat dit geen foutje was. Hoe moeilijk is het om je klanten even te mailen?

Hoe dan ook... dit zat er aan te komen. Je kreeg echt een bizarre hoeveelheid Opus gebruik voor je geld. Ik dank Microsoft vriendelijk voor alle verleende subsidie. :-)
Ik had mijn pro abonnement bij Claude opgezegd, omdat de limiet in een paar minuten opgebrand is.
Gelukkig had ik nog Github co-pilot... Zeer sterk en ongeacht het aantal tokens, gewoon dezelfde prijs (3x 0.04)
Straks moet ik nog zelf gaan programmeren. Wat een leven O-)
Wat ik begrijp is dat ze bestaande abonnementen hebben gedevalueerd. Mag dat zomaar?
Ze geven aan hoeveel je ruwweg kunt gebruiken, maar geen exacte cijfers. Hetzelfde geldt voor Anthropic: ik heb zelf hun Max 20×-abonnement en ben ook actief op de subreddit van Claude. Daar zie je bijvoorbeeld dat mensen wekenlang een bepaalde output kregen met een bepaalde prompt, om vervolgens op een dag met exact dezelfde prompt nog maar 20% van de oorspronkelijke output te ontvangen.

Zelf heb ik daar nog niet veel van gemerkt, maar ik heb dan ook het duurste abonnement. Het zou me niet verbazen als over een aantal jaar alle gratis varianten door alle aanbieders worden afgeschaft en de prijzen een stuk marktconformer worden (€100+), want het energieverbruik is ook gewoon enorm. Dat is ook de reden dat OpenAI gestopt is met hun videomodel.

Om te kunnen reageren moet je ingelogd zijn