Anthropic laat klanten extra betalen als ze Claude via OpenClaw willen gebruiken

Claude-abonnees mogen Anthropics chatbot niet langer als onderdeel van hun abonnement gebruiken via externe agents als OpenClaw. Dat kan voortaan alleen nog als ze bovenop hun abonnement extra tokens aanschaffen.

Het is volgens Anthropics voorwaarden al sinds februari niet meer toegestaan om met een Claude-account in te loggen bij tools van derden via OAuth, maar voortaan gaat het bedrijf dit verbod ook handhaven. Dat meldt Anthropic in een e-mail aan klanten. OpenClaw kan per direct niet meer gebruikt worden als onderdeel van een abonnement, maar dat gaat geleidelijk gelden voor alle agentische AI-tools die gebruikmaken van Claude.

OpenClaw is een AI-agent die ervoor zorgt dat een AI-chatbot 24/7 op computers aan de slag kan, vaak met volledige systeemrechten. Volgens Anthropic zorgen zulke tools voor een 'buitenproportionele druk op onze systemen'. Eerder blokkeerde Google al het gebruik van OpenClaw bij zijn AI-abonnementen. OpenAI staat OpenClaw daarentegen wel expliciet toe.

Gebruikers kunnen OpenClaw nog wel laten draaien op Claude-modellen, maar dan betalen ze per gebruikte input- en outputtoken. Anthropic geeft huidige klanten eenmalig extra verbruikbare tokens. De hoeveelheid staat gelijk aan de prijs die ze per maand voor het abonnement betalen. Ook geeft het bedrijf abonnees tot dertig procent korting op extra tokens en kunnen klanten een terugbetaling voor de abonnementskosten aanvragen.

OpenClaw stock. Bron: NurPhoto/Getty Images

Door Kevin Krikhaar

Redacteur

04-04-2026 • 12:40

167

Submitter: bartbh

Reacties (167)

Sorteer op:

Weergave:

Tokens worden het nieuwe abonnement naast internet en streaming diensten. En let er maar op dat ze fors duurder gaan worden de komende tijd. Het eerste rondje van de dealer is vaak gratis 💸
De prestaties per token groeien nog steeds exponentieel. De vraag is meer of AI straks net zo goedkoop en toegankelijk als het internet in de jaren 90.

Het is leuk dat silicon valley zich suf investeert, maar als de Chinezen het binnen 2 weken voor een Apple en een ei nabouwen. Dan zie ik geen toekomst voor dure AI
Ik denk als de mensen gaan realiseren dat zij als mens overbodig gaan worden door AI de hele bubbel instort , het gezegde van ene George Carlin "This is what the system produce Garbage In - Garbage Out" en dat is precies wat AI doet , kost enorm veel geld en gaat ten koste van heel veel , economisch is dan nog een groot punt maar de als maar verslindende energie consumptie is niet meer uit te leggen als wij als mensen de gas en de energie kraan dicht moeten draaien en de rekening niet meer kunnen betalen.
Mhua. Over een tijdje is wat de AI produceert gewoon "de waarheid", omdat mensen niet meer zelf kunnen nadenken. Net zoals dat alles wat nu op Facebook staat waar is. /s
Bij objectieve zaken is dit mogelijk sschien mogelijk, maar ik zie toch steeds vaker met OpenAI dat waar een antwoord dat fout is direct opvalt, toch wel vaak voorkomt. Te denken. Aan het oplossen van beetje complexere Excel formules of basis berekeningen dat gaat niet vaak goed. Ik geloof er ook niet in dat dit ooit goedkomt. Ook valt me op dat OpenAI soms antwoorden geeft die ronduit onzin zijn, zo vroeg ik de scores van een specifieke fles wijn op ok er vervolgens achter te komen dat deze regio nooit scores heeft ontvangen.
Laatst claude gevraagd voor de dichtstbijzijnde hanos vestiging. Hij gaf er drie en zei dat nummer 2 op de kargaweg in amersfoort het dichtst bij was. Amersfoort heeft geen kargaweg en ook geen Hanos. Toen ik dat zei kreeg ik de melding 'dat adres heb ik verzonnen. Had ik niet moeten doen'.
Interessant voorbeeld. Wat was je verwachting t.a.v. de capaciteit van deze tool? Had je verwacht dat “het” dit zou weten (e.g. dat het kennis heeft hiervan) of dat het automatisch het internet zou afstruinen voor deze informatie, en dan een routeplanner zou gebruiken om de dichtstbijzijnde te vinden?

AI is geen magie, en als je er magie van verwacht dan gaat het je sowieso te kort schieten. Maar als je weet hoe het werkt (en dus wat de limitaties zijn), kan het krachtig werken. Maar het kost alsnog tijd, inzicht en kennis om het dan voor je laten werken natuurlijk.
Sorry hoor. Maar 'dichtstbijzijnde hanos vestiging' is geen magie. Sterker nog hij vond netjes de dichtstbijzijnde twee echte vestigingen had een tabel van alledrie met de afstanden. Geen idee waarom die niet bestaande derde vestiging werd toegevoegd. Dat vind ik pas magie.
wat ik grappig vind is dat Tweakers toegang blokkeert voor Claude. ik vroeg iets over Tweakers:

" Tweakers.net is geblokkeerd voor mij, maar ik ken het systeem wel."
Veel sites blokken de toegang voor chatbots omdat ze zien dat veel traffic wegblijft nadat een chatbot de gebruiker heeft geholpen. En dus niet meer naar de site gaat en op advertenties klikt.
Hoe was dat met de opkomst van zoekmachines? Wellicht soortgelijk. AI zal eea overnemen, maar websites zoals Tweakers leveren nog steeds de data. Daar zal wellicht toch ook een businessmodel in zitten.
Tip om bij alles in je prompt mee te geven dat ie de data moet verifiëren. Dat helpt enorm.
Maar de vraag was, hoe had het moeten werken volgens jou? Geen gotcha vraag, gewoon benieuwd. Ik zou ChatGPT niet vertrouwen met dit soort vragen als ik niet heel specifiek weet hoe het dit zou moeten ophalen en formuleren.
Claude wist de twee bestaande hanosvestigingen die het dichtst bij waren blijkbaar uit zijn hoofd of via een query. Inclusief afstand. Verzon er een derde hanos bij en zei dat die de dichstbijzijnde was. Dus op de halluciantie na werkte het prima
Waar ik mij meer over verbaas is waarom liegt hij daarover?
Waarom vraag je zo iets niet gewoon aan Google Maps denk ik dan...Claude kan dan weer wel heel goed helpen met software maken.
Omdat Google Maps geen antwoord geeft bij mij. Dat is een app met kaarten. Claude is niet specifiek voor software bouwen.
Hanos intypen en klaar ben je.
Fijn dat jij Google Maps fan bent. Ik was niet op de plek vanaf waar ik de dichtsbijzijnde hanos zocht dus jouw snelle werkwijze geeft het verkeerde antwoord. Ik vroeg iets aan Claude. En ik verbaasde me dat die het niet goed deed en over de manier waarop.
Ik ben geen fan. Ik gebruik wel graag de juiste tool voor de juiste vraag.

De weg zoeken, (of een Hanos) via een LLM doe ik in elk geval niet. Dat is niet de tool voor die vraag.

Een Hanos zoeken kan wel heel goed met google maps. Ook als je ergens anders bent. Sneller en beter dan een LLM. (verder zijn er maar 19 Hanos vestigingen in nederland) Dus zelfs intypen Hanos is gewoon voldoende. Of heel ouderwets, hanos.nl intypen in je browser ;-)

[Reactie gewijzigd door HansvDr op 6 april 2026 14:21]

Heel ouderwets is de gouden gids en een plattegrond van nederland. Als ik 'Hey google - Navigeer naar de dichstbijzijnde hanos' zeg dan weet ik vrij zeker dat er meerdere LLM's gebruikt worden;eerst om me te begrijpen en dan om het antwoord te vinden. Als ik de hanos vraag in google in tik kan ik links ook 'AI Modus' kiezen en dan krijg ik in drie zinnetjes het goede antwoord.

De 'goede tool' is een ouderwets iets. Het duurt niet lang meer of AI (al dan niet met LLM als basis) kan gewoon al dit soort dingen prima. En dan is de google maps methode misschien iets efficienter maar waarom zou je nog een google maps gaan onderhouden als je AI gewoon de route doet voor je.
Je kunt ook gewoon toegeven dat je LLM verkeerd gebruikt en daarmee probeert aan te geven dat het niks is.

Een Hanos zoeken via LLM is niet snugger.
In Claude staat nergens dat ie alleen voor programmeren werkt. Sterker nog bij veel vragen gaat ie zelf op internet het antwoord zoeken. Chatbots kunnen heel veel vragen beantwoorden die je inderdaad old skool met andere tools ook beantwoord kan krijgen. Ik vind het niet snugger dat Claude de dichtstbijzijnde twee hanosvestigingen vindt en er dan een derde bij hallucineerd. Gemini doet dat niet blijkt als je het google'd en de AI tab bekijkt. En fijn dat jij jezelf slim vindt dat je google maps gebruikt hiervoor en het niet snugger vindt als iemand daar AI voor gebruikt.
Wie weet leer je er nog wat van dan ...
Liegen kan ie niet, de waarheid spreken ook niet. Geeft gewoon statistisch meest waarschijnlijke woord op basis van de input. Dat is de basis van AI op dit moment.
Probabilistische modellen gebruiken voor complexe exacte zaken is exact hoe je de mist in gaat.

Ongeveer en veelvoorkomend is voor veel zaken genoeg maar waar men de fout in gaat is de aanname hoe "slim" ze zijn. Er komt namelijk geen intelligentie of zelfcorrectie aan te pas, bovendien valt al snel alles uit de rolling context window en dikke onzin, zelfs als je 90% van je tijd aan het meesturen bent.

Mensen laten zich snel en graag bedonderen (beloven). Hoeveel tijd ik wel niet kwijt ben aan corrigeren tot ik er genoeg van heb.
Snap ik allemaal. Maar dit was een simpele vraag met weinig context. En als er geen derde vestiging bij gehallucineerd was was het antwoord correct geweest.
Das toch bijzonder. Ik heb al anderhalf jaar excel niet meer aangeraakt. Opus 4.6 die python schrijft met een CSV is echt vele malen krachtiger en sneller dan Excel. Je laat de LLM dus niet berekenen, je laat de LLM het script schrijven dat de berekening doet.

[Reactie gewijzigd door cmegens op 4 april 2026 19:58]

En wederom een aspect van 'idiocracy' dat waarheid word.
helaas je ziet het nu al dat mensen ai geloven voor alles. En ook google. die ai summary super leuk zeg..
Wat je zegt klopt. En scammers weten er ook al gretig gebruik van te maken. In mijn branche zien we het de laatste tijd echt flink misgaan, zie bijvoorbeeld: https://wereldreizigers.nl/reisnieuws/nep-klm-nummers-google-ai-scam en https://wereldreizigers.nl/reisnieuws/reizen-boeken-chatgpt-gevaren-scams/. De schade loopt inmiddels al in de miljarden...
Het probleem is daarbij natuurlijk dat de fysieke realiteit geen enkele fuck geeft om wat mensen denken dat wat waar is. Alle fysieke dingen (waar wij hartstikke afhankelijk van zijn) zullen niet werk werken als een robot probeert ze op basis van een AI-versinsel te produceren. In de fysieke wereld is precisie onafdingbaar.

En bedrijven die nu proberen AI het denkwerk van mensen te laten overnemen zullen binnen kortste keren erachter komen dat je je de opeenstapeling fouten niet kunt permitteren. Het werkt enigszins in de overgangsfase terwijl de medewerkers nog al de institutionele kennis hebben die nodig is om fouten te herkennen. Maar zelfs dan gaat het aantal fouten al meetbaar omhoog (het aantal tech incidenten door AI fouten stijgt bij veel bedrijven al in rap tempo). En de mensen die al die AI slop code & teksten moeten reviewen worden er moe van, want het is alsof je kijkt naar een raar mengsel van het aantal (vaak fundamentele) fouten van een junior met het zelfvertrouwen en het jargon/functiegebruik van iemand met 20 jaar ervaring.
Das toch menselijk. Die liegen ook.
Wanneer

- dit soort systemen niet continu meer en meer “vers bloed” krijgt onder de vorm van nieuwe, originele gedachten en ideeën van menselijke hersenen en men doorkrijgt dat dit een simpele recombinator is

- er ondertussen exponentieel meer en meer energie/kost staat tegenover beperkte verbetering

- de nood aan resultaatcontrole groter en groter wordt

Dan kan dat bubbeltje eindelijk barsten en gereduceerd worden tot wat het eigenlijk is. Het duurt alleen naar maarschappijkost spijtig genoeg te lang, met stevige systeemschokken als gevolg. Hier gaat geen Adam uitkomen hoor, alleszins niet uit deze architectuur of een simpele iteratie ervan.

[Reactie gewijzigd door neowulf op 5 april 2026 06:22]

Ze worden niet overbodig. Onze economie draait om ons mensen. Zonder heb je geen economie. Zonder die economie heeft AI geen bestaansrecht. Het is een nieuwe automatiseringsslag net als de industriële revolutie. En daar kun je, je tegen verzetten, maar dat is zinloos. We evolueren mee door te adapteren. Doe je dat niet, ga je het erg moeilijk krijgen. Alles in het leven veranderd constant, dat is de enige constante.

Er zijn zat mogelijkheden om de energie consumptie door AI te verminderen. Er wordt alleen geen fuck mee gedaan omdat er nul incentive is om dat na te streven. In tegendeel, als ze 1bit modellen zouden trainen in plaats van 16bit, zou men die modellen lokaal kunnen draaien op consumenten hardware. Dat wil men koste wat koste voorkomen, want dan stort hun verdien model in elkaar. De AI is geen bubbel en stort niet in elkaar. Hoogstens de bedrijven achter openAI, Deepseek en andere consorten kunnen ten onder gaan als blijkt dat je hen niet nodig hebt om AI effectief te kunnen gebruiken.
Er zijn genoeg incentives om de energie consumptie van AI te verlagen, dat is een gigantische kostenpost voor die bedrijven. Los van de beschikbaarheid van datacenters waar die energie gebruikt kan worden.
En is Microsoft niet bezig met BitNet om juist hier onderzoek naar te doen? Kleine 1bit modellen?

Verder ben ik het met je eens. De techniek zal blijven bestaan, alleen de namen die we nu kennen kunnen over 10 jaar verdwenen zijn.
Het gegeven dat het zoveel resources en energie kost maakt juist dat zij het kunnen exploiteren.
Dat overbodig worden van mensen is bijna onmogelijk omdat de huidige techniek alleen maar bestaande taken en domeinkennis, dus niet de logica waarmee deze tot stand kwam, kan automatiseren.

Als je bijvoorbeeld een nieuw idee hebt kun je dat wel tegen een chatbotje gooien, maar wat je zoekt zal er niet uit komen zonder heel lang het resultaat bij te schaven :)
Er zijn een hoop mensen die heel dom routinewerk doen dat prima vervangen zou kunnen worden door AI, al dan niet in een fysieke robot. Het grootste probleem is niet AI maar de mens zelf en de neiging om, of het nou kapitalisme heet of niet, er een paar mensen heel rijk mee te maken. Als AI of welke technologische vooruitgang nou gepaard ging met een basisinkomen en dergelijke dan was het helemaal geen probleem en zelfs een vooruitgang voor de mensheid. Maar zo zijn we niet.
En hoe zie je dat voor je, als bijna niemand meer werkt en wel iedereen geld moet ontvangen? Waar komt dat geld vandaan? Loonbelasting? :+ Of moet de BTW naar 50% zodat je effectief maar de helft krijgt en je er niet meer van rond kunt komen? Zo'n basisinkomen werkt alleen als mensen blijven werken, en dat is een aanname die zonder AI al niet eens ergens op gebaseerd is. De gemiddelde mens kennende stoppen ze er gewoon helemaal mee. Met AI als vervanger voor al het domme werk wordt het nog erger want de arbeidsmarkt krimpt dan met 90%.
Zover is het nog lang niet want robots zijn ook een kapitaalinvestering die terugverdient moet worden.

Juist door die enorme kapitaal kosten is dat proces vrij langzaam.
Je gaat uit van dat de mensheid als geheel slim is, maar dat is niet zo... Even los van of AI echt mensen kan vervangen of niet en wat dan precies, de meeste mensen zullen alleen de afweging maken of zij individueel er beter van worden.

Stel je hebt een knop waarmee je leven een factor duizend verbetert, maar het leven van alle andere mensen wordt een factor 0,000001 slechter, dan drukt bijna iedereen op die knop. Maar als iedereen in Nederland op die knop drukt dan is ieders leven geruïneerd. Dat is namelijk 1000 keer 0,999999 tot de macht 18,4 miljoen. En dat is 0,00001... Zelfs als maar 9 miljoen mensen op die knop drukken, dan zit gemiddeld iedereen die op die knop drukte nog maar op 12% van waar ze voor dit hele verhaal zaten. En wie niet op de knop drukte is gewoon helemaal weg.

Zo ook bij AI. De mensheid als geheel zal misschien compleet onderuit kunnen gaan er door, maar als het jou helpt om in je bestaan te voorzien door je werk beter te kunnen doen, door jou net wat effectiever te maken... Dan doen de meeste mensen dat.
Mensen en traditionele systemen zijn net zo garbage in garbage out.

Ik zie dergelijke AI echt als een klein kind; heeft nog niet alle antwoorden, voelen zich soms wel tot antwoorden verplicht en verzinnen dus en hebben nog onvoldoende ervaring om om te gaan met emoties en eventueel creativiteit. Dat is allemaal niet gek, want ze leren pas net. AI is wat dat betreft niet veel anders. Echter, met de ontwikkelingen en het lerende mechanisme, zal AI ook uitgroeien tot tiener, adolescent en later als volwassen met een daarbij horend niveau.


Energie is inderdaad momenteel een probleem, maar de systemen worden steeds zuiniger en er wordt steeds meer met groene(re) energie gewerkt. Ooit was de PC ook immens groot (qua energieverbruik geen idee).
De kosten zitten niet in de ontwikkeling, maar in de compute die eindgebruikers nodig hebben. OpenAI is niet voor niks gestopt met Sora
Bedoel je niet dat de prestaties per watt exponentieel groeien?

Wellicht dat je het met code anders kan interpreteren maar voor tekstuele vragen is het aantal tokens gerelateerd aan het aantal woorden en de prestatie is de kwaliteit van het antwoord. Dat groeit niet meer exponentieel hoor.
De prestaties per token groeien nog steeds exponentieel.
{{Citation needed}}
Tokens (op de schaal voor thuisgebruik) kosten al geen bal via de API. Wil je er een chatinterface bij van de tokenboer, dan mag je de portemonnee trekken. Maar voor tweakers zijn zulke kosten echt niet nodig.
Enerzijds worden gigantische investeringen nu gedaan terwijl dezelfde investeringen gigantisch snel afschrijven. Anderzijds hebben we ook van doen met steeds complexere modellen die meer vereisen echter de verbeteringen vlakken snel af. Ik vraag me dan ook af hoe men zoals OpenAI tientallen miljarden kan investeren met betrekkelijk weinig omzet/winst in goederen die over een paar jaar niks waard zijn en waar nog steeds geen omzet tegenover staat.

Ook is dit geen winner takes all, leuk die modellen maar de verschillen zijn minimaal .
Tokens worden het nieuwe abonnement naast internet en streaming diensten. En let er maar op dat ze fors duurder gaan worden de komende tijd. Het eerste rondje van de dealer is vaak gratis 💸
Met heel logisch nadenken weten we allemaal dat AI in zijn algemeen flink duurder zal gaan worden de komende jaren. Precies wat je zegt.. de "dealer" maakt je eerst verslaafd en afhankelijk om vervolgens geld van je weg te plukken.

Ik verwacht dat open source AI modellen en LLM's ook drastisch in aantallen zullen dalen wanneer het winst motief naar boven komt drijven.
"Geld van je weg te plukken"... Je neemt toch gewoon een dienst af? Je hebt zelf de keuze of je dat bedrag waard vindt of niet.
"Geld van je weg te plukken"... Je neemt toch gewoon een dienst af? Je hebt zelf de keuze of je dat bedrag waard vindt of niet.
In hoeverre is het nog een vrije keuze als de hele wereld met AI zich verder ontwikkelt en je vervolgens niet meer mee komt omdat AI de standaard is geworden en omdat iedereen niet meer zonder kan? Je AI geletterdheid achter blijft. Zo'n snelle vaart zal het niet lopen, maar de nieuwe generatie zal straks al vanaf de middelbare schoolbanken met AI werken.

Het is het effect wat social media ook had... en mode voor een hele grote doelgroep heeft. Iets met FOMO? Velen zijn overstag gegaan om maar bij te blijven met zijn of haar familie kring. En inderdaad netzoals drugs... eerst is het een vrije keuze, daarna kan je niet meer zonder. En blijf je tegen je zin maar betalen.

Ik zeg niet dat massaal dit gaat gebeuren, maar een grote groep is hier wel degelijk gevoelig voor. Er ontstaat "brain rot", waardoor je voor de meest eenvoudige vragen AI blijft gebruiken en vooral nodig hebt.
[...]

In hoeverre is het nog een vrije keuze als de hele wereld met AI zich verder ontwikkelt en je vervolgens niet meer mee komt omdat AI de standaard is geworden en omdat iedereen niet meer zonder kan? Je AI geletterdheid achter blijft. Zo'n snelle vaart zal het niet lopen, maar de nieuwe generatie zal straks al vanaf de middelbare schoolbanken met AI werken.
En de vraag is of dit daadwerkelijke goed is voor de ontwikkeling van jonge mensen. Ik durf bijna zeker te stellen dat AI geen goeie zaak is op dat vlak. Zaken uitzoeken brengt je in contact met verschillende redenen en meningen waardoor je vervolgens zelf kan beslissen en zien waarom iets goed of juist niet goed is. Je leert nog steeds het meeste van je fouten.

Ik blijf erbij, AI wordt primair toegepast om nog sneller nog meer rommel te produceren, niet primair omdat het de kwaliteit verbetert.

Daarnaast maakt het je ook volledig afhankelijk van de AI producenten om iets gedaan te krijgen. Want worst case scenario ken je zelf niks van wat de AI tooling voor je heeft gemaakt. Ik vergelijk het op dat vlak met IDE's. Leuk zolang ze werken, maar het moment dat ze het niet meer doen en je kent niks van wat ze achterliggend eigenlijk voor je uitvoerden, have fun :).

[Reactie gewijzigd door Powerblast op 4 april 2026 15:14]

Arjan Lubach heeft hier een mooi item over gemaakt en liet een fragment zien over twee groepen kinderen waarvan eentje dus zelf moest uitzoeken en de ander het door AI liet doen. De eerste groep ging inderdaad heel veel informatie bij elkaar zoeken en kwam in aanraking me allerlei verschillende concpeten. De tweede groep was binnen no time klaar en kon lekker buiten spelen, maar had geen snars begrepen van wat ze deden en wat er bedoelt wordt.
Dat. Als een taak 10 uur kost om uit te voeren en je laat AI het oplossen in een uur heb je geen 9 uur tijd gewonnen, maar 9 uur ervaring verloren.

Want de volgende keer dat je die taak moet uitvoeren schrijf je een scriptje, of je formatteert je data beter, of je organiseert je spreadsheet zo dat het nog maar 6 uur duurt. En die kennis en ervaring neem je mee naar de volgende taak.
Het beste is toch om die 1 uur te gebruiken voor AI en de 9 uur te gebruiken om kennis te vergaren en te toetsen lijkt me. Het is niet zo zwart wit. Hybride vorm van werken is het krachtigst. Het punt is dat AI te veel gebruikt als uitgangspunt in plaats van te kijken naar een hybride vorm waarbij kennis en kunde gewaarborgt blijft.
Hetzelfde geldt voor drugs. De eerste paar keer is vrijwillig maar daarna kan je niet meer zonder. En nee AI is geen verslaving maar als je eenmaal aan een gemak gewend ben is het loslaten van dat gemak ook niet makkelijk. Een auto is ook niet verplicht / verslavend maar ik zou niet graag terug gaan naar een fiets of paard en wagen.
Drugs en AI gebruik vergelijken gaat me persoonlijk wat te ver :), maar ik snap je punt. Maar op zich de auto kun je soms niet zonder omdat je dan je werk niet kan uitvoeren (je komt niet op je werkplaats, je komt te laat, enzovoort). Zonder AI kan je alsnog gewoon je werk uitvoeren. We doen het al zovele jaren zonder, dus waarom zou het dan plots een vereiste zijn om je werk te kunnen doen. Beter wordt het er in ieder geval ook niet van, zie maar de onvermijdelijke AI slop die overal begint op te treden.

Ik blijf er persoonlijk gewoon ver van weg. Het haalt gewoon alle plezier uit wat ik graag doe, bijleren en zaken uitzoeken. Ik heb het even geprobeerd maar bij elke response stel ik me direct de vraag, klopt dit wel? Tja, dan kan ik het beter zelf opzoeken. Bespaart me tijd en ik blijf actief zelf zaken uitzoeken.
Die auto is een prima voorbeeld. Je kon prima zonder auto. Maar omdat de meeste mensen een auto hebben, verplaatst het werk uiteindelijk naar een industrieterrein. En dan kan je niet meer zonder.

Net zoals je niet meer zonder internet kan.
Ook dat is nu toch stilaan aan het keren. We beginnen steeds meer in de file te staan wat er weer als gevolg heeft dat iedereen in de buurt werk zoekt om met de fiets te kunnen. Het cirkeltje is bijna rond ;). Dat is op zich wel het mooie aan de mens, we zijn erg goed in ons aan te passen. Niet perse morgen, maar op de lange termijn brouwen we altijd wel een oplossing in elkaar.
Maar het werk is vooral in de steden en daar kun je geen huis kopen. Dus voordat iedereen met de fiets kan moeten bedrijven eerst verplaatsen 😀
Drugs en AI gebruik vergelijken gaat me persoonlijk wat te ver :), maar ik snap je punt.
Het is niet specifiek bedoeld als vergelijking (als in slecht) maar maar dat drugs dus de eerste keer ook gewoon vrijwillig is. En waarschijnlijk de tweede keer ook.
Maar op zich de auto kun je soms niet zonder omdat je dan je werk niet kan uitvoeren (je komt niet op je werkplaats, je komt te laat, enzovoort).
Ben ik niet met je eens. Vroeger hadden ze ook geen auto's en kwamen ze ook opdagen en meestal op tijd. Ja er zijn beperkingen en nadelen. Iemand van Limburg zal niet gauw in Amsterdam meer werken en fiets duurt wat langer. Maar onmogelijk om te werken dus niet.
Als er nu al behoorlijk onthutsende gebeurtenissen gecombineerd met parasociale relaties met LLMs onder hoofdrol is het nu nog te vroeg om er van uit te gaan dat ze geen verslavend effect kunnen hebben. Het lijkt erop dat veel mensen niet goed bestand zijn tegen het eindeloze geslijm en vleierij kunnen wat deze chat bots (constant*) doen

Onthutsend qua verkeerd uitpakkende gezondheidszorg (https://www.livescience.c...with-bromide-intoxication), zelfdoding (https://www.bbc.com/news/articles/ce3xgwyywe4o), mensen die hun eigen advocaat spelen en daarmee hun verdediging ontslagen hadden en in gevaar brachten. Zo zijn er ongetwijfeld nog meer gevallen die een onwenselijk (bij)resultaat hebben.

* Ookal worden ze per system prompt of user prompt er aan herinnerd dat niet te doen (anekdotisch: lokaal draaiende LLMs lijken hier meer last van te hebben dan commerciële.)
Het verschil is dat drugs geen economische of toegevoegde waarde brengt aan je leven. Als jij voor stel 400 euro per maand en een paar uur per week schaven aan opdrachtregeltjes je eigen werk kan automatiseren en de rest vakantie nemen, is dat het waard?
Dat roep je nu wel, maar bespeur bij velen toch een soort dopamine kick .. of dat is van als GenAI weer iets heeft geproduceerd of meer richting woedeaanval als ie iets werkends breekt laat ik in het midden.
Nou, prima toch. Dan wordt je toch ook niet "geplukt" door je autofabrikant? Je neemt gewoon een product af dat waarde voor je heeft.
Dat van die drugs is altijd zo een onzin uitspraak. Dealers geven echt geen drugs gratis weg. Die moeten mensen niet overtuigen om iets te kopen hoor.

Bij bedrijven werkt het inderdaad dikwijls wel zo :).
Tenzij China de markt overspoelt met ongezien krachtige en goedkope AI-chips.
Onpopulaire mening waarschijnlijk maar het kan van mij niet snel genoeg gebeuren aangezien het enorme energie en waterverbruik.

De verbruiker/vervuiler moet betalen.

[Reactie gewijzigd door er0mess op 4 april 2026 13:23]

Al diegene die nu heel blij zijn met AI, gaan straks echt niet een abonnementje nemen van 750 euro per maand. Het is geen eerste levensbehoefte.
Zeker niet als zoals de AI profeten voorspellen en ons willen doen geloven, we allemaal zonder job zitten. Dus op dat vlak is het eigenlijk een sector die zichzelf ondergraaft. Hoe meer AI, hoe minder jobs, hoe minder personen die het nog maar kunnen betalen. Want zoals je zegt, het is geen levensbehoefte. Je kan perfect zonder (toont ook de laatste pakweg 150j).
Een programmeur voor 750 euro per maand is spotgoedkoop.
Even kort door de bocht, maar je hebt dan ook geen programmeur maar een tooltje dat op basis van statistieken wat bij elkaar rammelt. Een programmeur is met veel meer bezig dan enkel code typen, maar dat lijken de vibe coders en consoorten even (bewust) te vergeten.

[Reactie gewijzigd door Powerblast op 4 april 2026 18:53]

Je hoeft het niet te gebruiken natuurlijk. Het scheelt mij gewoon heel veel tijd en personeel.
Dan doe je wel de aanname dat AI = programmeur en die vlieger gaat gewoon niet op. Ja output is hoog maar of het de juiste output is... Nog los van het feit dat code zelf typen eigenlijk al voor AI bijzaak is.

Het is daarbij gewoon eng dat totale leken nu applicaties online zetten zonder ook maar het besef te hebben wat je allemaal wel niet moet regelen voor een productie waardige app. Voor een poc is het prima maar daar blijft het helaas niet bij.
Ja, de heb je echt thuis nodig.
Als.ik thuis werk wel ja 😀
Op een gegeven moment kun je beter een dikke mac mini kopen en een lokaal model draaien, dat haal je er dan zo uit als je een heavy user bent.

We gaan weer terug van cloud naar lokaal, want cloud wordt onbetaalbaar.

Valt me bij mezelf ook op dat ik steeds meer lokaal wil draaien en cloud onafhankelijk wil zijn. Zeker van Amerikaanse diensten.
Ik ben iemand doe absoluut niet van abbonementen is, tenzij nodig (water, gas, electra, internet, huur, etc). De enige abbonementen op digitaal gebied voor mij zijn proton mail en mijn eigen domein, thats it. Toch heb ik (als niet-programmeur) wel een Claude Code abbonementje afgesloten. Puur om dingen voor mezelf te bouwen en/of te customizen). Ik ben bang dat ik zelf niet snel een lokale llm kan draaien voor een redelijke prijs die dezelfde kwaliteit levert. Als ik dit mis heb zou ik ontzettend graag een recommendation hebben, dan kan ik dit proberen voordat ik mij claude code abo omzet naar een jaar :p


Ben bang dat een mac mini met genoeg ram een klein kapitaal kost tegenwoordig.

[Reactie gewijzigd door Teun! op 4 april 2026 15:16]

Mac mini is beter te betalen dan een PC met nVidia GPU zo ondertussen als lokale LLM draaien het doel is
Maar een enkele GPU is niet echt afdoende voor een knap model denk ik. Mac mini ook niet.
Ligt eraan wat je wilt doen. Als je inderdaad hele grote modellen wilt draaien dan heb je al snel 64 GB RAM nodig en dan zit je aan de 2500 euro. Maar als je een developer bent haal je dat er heel snel uit.

Maar wil je wat kleine modellen draaien en niet veel bijzonders doen heb je voor 600 euro ook al de basis Mac mini met 16 GB. Maar dan kun je misschien beter een Nvidia kaart halen 2e hands ergens als je al een PC hebt.
Misschien een goeie vraag voor je lokale LLM, stel je betaald 17 euro per maand, hoe lang duurt het voordat je 2500 euro hebt gegeven? En wat is het voordeel en nadeel van het zelf hosten van een LLM gedurende die tijd?

Zelfs als je naar de 100 dollar tier gaat zie ik echt geen economische use case voor een Mac Studio (heeft de power voor een stevig model) laat staan een Mac Mini (is populair als OpenClaw host niet LLM host).
Naja ik heb eens openclaw getest met tokens en dat gaat echt keihard. Je hoeft niet gek te doen om zo 10 euro per dag te verstoken, en dan zit je al aan 300 euro per maand, dan heb je het er in 8-9 maanden uit.

Laat staan als je een developer bent die al zijn code werk door claude laat doen.

Plus je bent niet afhankelijk van de cloud en van prijsfluctuaties, dat is ook veel waard.
Maar dat ligt aan OpenClaw niet aan de kosten of limieten van een 20 of 100 dollar account, lokaal krijg jij niet de prestaties voor minder dan een Mac Studio met 128GB of je hebt hele simpele automation die eigenlijk geen LLM werk zijn maar gewoon in N8N of Node-RED kunnen werken, en het één sluit het ander niet uit. Veel van mijn sessies sluit ik dan ook af:
Finally, review the tasks completed in this session and flag any that were repetitive, multi-step, or manual enough that a script or reusable tool would save meaningful time in future.
De paar geautomatiseerde agents dienen een weekly review in (bijna een soort retro voor agents).
At the start of each new week, review the session logs from the previous week. Identify patterns in the tasks completed — noting anything that was repetitive, manually intensive, error-prone, or took longer than expected. For each pattern found, propose a concrete improvement: a script, a reusable tool, a CLAUDE.md instruction update, a new workflow step, or a change to how future tasks should be approached. Output these as a prioritised list with a brief rationale and suggested implementation path for each.
Misschien voor een paar mensen, ik ken praktisch niemand die tokens koopt zelf ook nog nooit gedaan.
Als het niet meer gratis werkt dan gebruik ik het niet meer, ik denk dat dat voor de grote meerderheid geld.
Euhm, binnen bedrijven wordt dat wel degelijk afgenomen.
Ongetwijfeld, maar daar ging de reactie van Chiller niet over.
Ik reageer dan ook op jou, en ik denk dat een grote meerderheid gaat betalen voor tokens ;)
Bor Coördinator Frontpage Admins / FP Powermod @ChiLLeR4 april 2026 13:11
Natuurlijk gaan de prijzen omhoog. Men investeert nu grof om een zo groot mogelijk marktaandeel te veroveren. Zodra de markt gestabiliseerd is wordt het melken. Dit zijn allemaal commerciële bedrijven en naast het terugverdienen van de erg hoge investeringen wil men natuurlijk winstoptimalisatie.
Eens, maar er is genoeg concurrentie gelukkig.

Maar inderdaad, dit is een kwestie mensen verslaafd maken en de duimschroeven aandrukken. Daarom nu gassen!
Wat is dat nu weer? Echt waanzin. En maar klagen dat AI onzin uitspuwd om dan het zelfde te doen zonder enige vorm van schaamte.

Inference is net goedkoper geworden. Veel goedkoper en dat gaat niet stoppen want de concurrentie is vol aan de gang. Efficiëntere modellen en goedkopere chips.

Ook gaat lokale AI vaker voorkomen omdat PC hardware sneller wordt en zich aanpast aan de lokale AI behoeften.
Je ziet het ook al met perplexity. Eerst gebruikte ik 20-30x per maand deep research, gewoon via hun eigen interface.

In april gebruikte ik het letterlijk 1 keer een hij zegt nu al dat ik aan mijn maandelijkse limiet zit. Komt denk ik doordat ze willen dat je hun nieuwe product "computer" gebruikt (wat je apart moet betalen) maar 1 per maand op een 20€ abonnement is echt ziek :r
Als het te duur wordt, switch je van AI provider. Beetje zoals openAI eerst the hot guy in town was, en nu is dat claude. Als zij zich niet meer interessant kunnen voordoen komt er een andere provider in de plaats
Tja, zo gaan die dingen. Maar ja, het scheelt mij zo veel tijd dat het makkelijk uit kan.
De prestaties (tokens/per Watt) groeien omdat er nu heel veel ontwikkeling plaatsvindt op allerlei vlakken
Ook zijn er al ASICs gemaakt die specifieke modellen in hardware draaien en dus heel goedkoop kunnen inferencen (los van R&D kosten).

Er komt dus een punt dat het 'commodity' gaat worden en we heel goedkoop een basaal model kunnen draaien tegen een fractie van de kosten. Een Claude Opus in je broekzak is niet heel ver weg op deze manier. We zijn net een paar jaar bezig.

Het internet in het begin was toen ook niet goedkoop. Nu zijn er op het gebied van connectiviteit al verschillende doorbraken gemaakt die we eerder nooit voor ogen hebben gehad. Om maar een voorbeeld te noemen: Star-link. Op de meest remote locaties kan je nu 4K Netflixen. Door out-of-the box te denken hebben is er een hele dure complexe infrastructuur stap overgeslagen.

Met AI gaat dat net zo gebeuren. Kwestie van tijd.
Gewoon een router gebruiken als openrouter.ai, over het algemeen veel goedkoper.
Tokens zijn zeer arbitrair en afhankelijk van de keuze van de tokenizer.

Recent werd mijn vraag gestopt niet omdat de tokenlimiet of de context grote in gevaar kwam (9%), maar omdat de complexiteit (een openapi specificatie) te veel rekentijd kostte.

Elke tokenizer heeft voor de meeste vragen en antwoorden een andere hoeveelheid tokens.
Dus zijn de prijzen per tokens niet onderling tussen verschillende modellen te vergelijken.

Zie uitleg hier: https://gpt-nl.nl/nieuws/tokenizer/
En de link naar een demo onderaan de pagina.

[Reactie gewijzigd door djwice op 5 april 2026 16:01]

Nu kan het nog, alles eruit persen tot er een ai model komt wat zo licht is en elke telefoon en oude pc het kan draaien
Ik moet zeggen dat ik Anthropic een wel hele agressieve koers zie varen de laatste tijd met betrekking tot het gebruik ervan. Ja, de modellen zijn goed (zeker voor coding en planning), maar de limieten gaan nergens meer over. Vanochtend nog een relatief simpele prompt met Opus gebruikt om een scaffold voor een codebase op te zetten, en dat kostte meteen zo’n 66% van mijn dagelijkse tokenlimiet (als Pro-gebruiker nota bene).

Het lijkt erop dat Anthropic een strategie volgt die je wel vaker ziet bij de grote jongens de laatste tijd: eerst gebruikers aantrekken met ruime limieten, ze afhankelijk maken van het product, om vervolgens die limieten zodanig aanscherpen dat upgraden bijna onvermijdelijk wordt om het nog enigszins normaal te kunnen gebruiken.

Vanuit businessperspectief snap ik dat wel, maar voor de gemiddelde gebruiker is dit behoorlijk frustrerend. Gelukkig zie je dat de concurrentie snel terrein wint, al is de vraag hoelang het duurt voordat zij dezelfde strategie gaan hanteren.

Uiteindelijk hoop ik dat we een echte doorbraak gaan zien in open-source modellen: vergelijkbare kwaliteit, draaiend op eigen hardware, zonder extreme systeemeisen en met meer controle over privacy. Ben alleen bang dat dit nog even op zich laat wachten.

Dat gezegd hebbende, vind ik deze wijziging ergens wel logisch. Dit soort agentic AI framework tools vragen waarschijnlijk veel van de capaciteit van Anthropic, iets wat je nooit kan afdekken in de huidige abonnementsvorm. Pay-per-use lijkt me in dit geval dan ook onvermijdelijk.

[Reactie gewijzigd door Craetive op 4 april 2026 13:34]

Blijkbaar zijn er issues met de caching waardoor iedere query + de geschiedenis elke keer opnieuw worden aangerekend. Zit dagelijks ook zeker 2x aan men pro limiet metwat licht gebruik.
Neem Github Pro, dan heb je voor $10 per maand 300 prompts met Claude Sonnet 4.6, of ChatGPT 5.4, of 100 prompts met Claude Opus 4.6 en met Github pro+ voor $40 per maand zelfs 5 keer zoveel. En het quota reset zich op de eerste van de maand, dus als je bijvoorbeeld credits voor 300 prompts krijgt bij het Pro plan halverwege de maand, dan krijg je de eerste van de volgende maand er 300 bij. Dan zeg je het abonnement op en start je het weer opnieuw, waardoor je altijd dubbele limieten hebt. Dus in het goedkoopste geval heb je met het pro+ plan, credits voor 3000 prompts met Sonnet 4.6 of GPT 5.4 per maand, inclusief de (extra) high effort modus, dus dan kun je helemaal losgaan voor een schijntje.
Klopt niet. Je bedoelt 300 x premium requests ipv prompts.
Dat is in de meestal gevallen hetzelfde.
Niet als je Opus 4.6 gebruikt.
Ik zei expliciet “300 prompt voor ChatGPT 5.4 of Sonnet 4.6, of 100 prompts voor Opus 4.6
Je hebt helemaal gelijk :D
Dit zie je niet alltrechtstreeks, ook apps zoals Fabric en Kin die op de achtergrond AI gebruiken zie je worstelen met token limiten. Of je gebruik moet omlaag, of je miet naar een duurder abonnement.

DeepSeek is hierin spotgoedkoop, geen maandelijks bedrag, maar gewoon per token en dan aanvullen als ze op zijn.
ik heb een Max abonnement en liet claude cowork werken op mijn nas aan orderenen van mijn ebook bibliotheek. Liep continu tegen limits aan
Ik moet zeggen dat ik Anthropic een wel hele agressieve koers zie varen de laatste tijd met betrekking tot het gebruik ervan.
Dit moet je denk ik anders zien. Een LLM trainen, maar ook gebruiken kost gigantisch veel energie. Ze moeten dus, willen ze uberhaupt overleven, snel een (pittig) verdienmodel erop gooien, anders is het afgelopen en zijn ze zo door hun investeerdersgeld heen..
een codebase op te zetten, en dat kostte meteen zo’n 66% van mijn dagelijkse tokenlimiet
Even kijken wat mijn LLM hier van zegt:
Groot model, klein werk

Opus schrijft je boodschappenlijst

Geld vloeit de put in
Hint :+
Lijkt me terecht in dit geval. Als je een abbonement verkoopt en je zet de prijs op basis van menselijk gebruik dan ga je uit van lange momenten dat iemand het niet gebruikt of niet kan gebruiken omdat ze bijvoorbeeld slapen.

Dus die X euro per maand is dan gebaseerd op een realistisch gebruik van een mens. Sommigen zullen er over heen gaan en somiggen zullen er onder zitten en zo kun je het voor een aantrekkelijke prijs aanbieden ten opzichte van de losse tokens.

Gaat iemand dan een agent gebruiken die continu requests in spamt neem je dus continue de resources in beslag die ook voor anderen bedoeld zijn. Dus heel logisch dat je dan moet betalen voor dat gebruik.

Zelfde princiepe dat je geen telefoon sim in een kantoor router mag stoppen.

Zelf ben ik weer fan van lokale AI en daar zou je de agent nonstop op los kunnen laten met enkel de energie kosten, mits je een systeem hebt die modellen kan draaien die groot genoeg zijn natuurlijk.
Zeker met de nieuwe Gemma4 is lokaal echt prima te doen!
Ben zelf meer fan van Qwen3.5-27B veel efficientier model. Met Q4_K_S is het op een 3090 makkelijk te doen met 65K context (en mogelijk zelfs 80k).
Hier ook! E4B is erg capabel voor eenvoudige agents en 26b versie presteert erg prettig voor regulier werk.
Ik spaar zo ontzettend veel tijd uit door geen AI te gebruiken. Heerlijk om je nooit druk te hoeven maken over abonnementen en tokens en agents en telkens nieuwe modellen. Gewoon je eigen goede code schrijven waar geen enkele AI met z'n vingers en z'n hallucinaties aan heeft gezeten. Ik kan het iedereen aanraden.
Ik snap je uitgangspunt, maar de realiteit haalt je zowel van links als rechts in.

Programmeurs die niet mee gaan met het gebruik van AI gaan straks dusdanig achterlopen op de output, dat je te duur gaat worden.

Zie het als een boer die niet geloofd in machines..
Het kan ook altijd de andere kant uitgaan, AI slop begint overal in te sijpelen. Dus ik durf te stellen dat programmeurs die hun skills up to date houden meer waard gaan zijn in de toekomst.

Ik zeg daarmee niet dat je alle AI toestanden niet moet volgen, maar kennis van wat AI uitvoert blijft belangrijk, ook in de toekomst. Die kennis bouw en onderhoud je alleen door zaken zelf te doen. Niet door elke simpele zoekopdracht door AI uit te laten voeren. Dat is je kennis en kunde exporteren naar een tool, die mogelijk de ene fout na de ander maakt.

Mijn persoonlijke ervaring met AI is dat er nog genoeg momenten zijn dat het maar wat ineens flanst onder het motto: what works, works. Zonder rekening te houden met performance en onderhoudbaarheid. Ik accepteer dat standpunt van een junior programmeur ook niet, dus dan doe ik dat ook niet van een AI tooltje :).

Maar daarnaast en dat is voor mij persoonlijk een grotere reden om AI niet overal te gebruiken. Het haalt alle plezier uit programmeren uit. Als het professioneel verplicht wordt, in die zien dat je anders te traag werkt (al zijn we daar nog ver vandaan), zal ik zeker en vast meegaan, maar privé bedank ik er vriendelijk voor.

Op dat vlak is het een beetje hetzelfde als iedereen die als hobby broodjes bakt of iets kleinschalig doet maar volledig handmatig. Kan al jaren machinaal wat veel sneller gaat (vooral dat dus, niet perse beter) maar toch is er een markt voor alles wat manueel gemaakt is.

[Reactie gewijzigd door Powerblast op 4 april 2026 15:38]

Ja, maar dat zijn dus twee apparte zaken. Ik zou zeggen dat je juist kennis van zaken nodig hebt om een LLM goed te gebruiken voor programmeren, maar als je het dan gebruikt dan wordt je echt vele malen productiever.
Je moet niet alleen kijken naar wat AI op dit moment kan, maar waar je je op de AI ontwikkelingscurve bevind. Er is straks een aanbod van programmeurs die de AI boot hebben gemist (al dan niet opzettelijk) en heel weinig vraag naar 'ambachtelijk geproduceerde' software. Er is vast een niche waar die vraag wel is, net zoals ambachtelijke leerlooiers, maar dat worden meer hobby's voor mensen die de luxe hebben om dit te kunnen blijven doen.
Dat is bij ons heel hard gaande, en bv GitHub gaat heel hard met de ontwikkelingen hier in. Men schrijft vooral je opzet nauwkeurig uit in markdown (zie je opencode vanzelf doen) of Toon die efficiënter om gaat met tokens en betere code levert. Op de achtergrond gaat alles vanzelf, inclusief testen.
Denk dat de enige relevante developer een developer is die zowel met als zonder AI kan werken, en vooral de focus heeft op kwaliteit (en dus niet alle AI slop accepteert die uit dergelijke tools komt rollen).
Bedrijven die altijd al voor kwantiteit zijn gegaan zullen liever AI gebruik afdwingen, goede werkgevers zal het niet uitmaken zolang je maar kwaliteit levert
Vandaag kwam Google met een Gemma 4. Ik denk dat dit soort initiatieven dure amerikaanse LLM's kapot maken uiteindelijk.

Gemma 4 laat zien hoe snel dit gaat. Google levert open modellen onder Apache 2.0, gebouwd op dezelfde basis als Gemini 3, die lokaal draaien op gewone hardware. De 31B staat al op plek 3 in de open model rankings. En serieus, deze zijn best goed!

Ja, voor de grotere varianten heb je nu nog een flinke GPU nodig (16-24GB VRAM). Maar de kleinere E2B en E4B draaien al op een Raspberry Pi en een Android-telefoon, in minder dan 1,5GB geheugen. Dat zet de "je hebt dure cloud nodig" redenering behoorlijk onder druk.

De trend is duidelijk: over een jaar of twee los je als techsavvy gebruiker, en zeker als Tweaker, zo'n 80-90% van je AI-taken lokaal op. Gratis, privé, zonder abonnement. Alleen voor de echt zware gevallen (complexe redenering, grote context, multimodale taken) betaal je dan nog voor een cloud-model. De businesscase voor dure gecentraliseerde AI-diensten wordt daarmee elk kwartaal dunner.

En heel eerlijk, ik ben een noob op dit vlak, maar stel unified memory wordt mogelijk met zelfbouw PC's? Dan is de sky the limit toch? Ik heb begrepen dat dit nu nog niet kan vanwege een compleet andere architectuur van hardware. Maar ik mag aannemen dat hier wel iemand in gaat duiken zodat niet alleen Apple deze oplossing kan bieden?

Unified memory oplossingen + nog betere modellen (apache 2.0 based) en we hebben geen betaalde modellen meer nodig :-)
We zijn net bijgekomen van al het Opus 4.6 geweld en de volgende step up dient zich aan... Mythos. Hopelijk is de inner circle die op uitnodiging komt bij Anthropic (om alle belangrijke software libs en packages te scannen op CVE's) snel klaar met alles patchen en releasen ze dat model. Dan ligt de opensource weer achter. Prachtig kat en muis spel. Wij zijn uiteindelijk de winnaars
De trend is duidelijk
Nou ja, dat weet ik niet hoor.
Een knap model is vele tientallen GB's groot (80GB+) en draait vanwege geheugengebruik op meerdere GPU's in datacenters.
De afgeslankte versies die op een rpi draaien zullen een stuk minder zijn in het oplossen van IT problemen en vooral goed zijn om een praatje mee te maken denk ik.,
Op een mac mini met aardig wat geheugen kan je Google Gemma4 al prima draaien toch? Dat zijn machines van $1200 per stuk ruwweg. Dus er is al veel mogelijk op consumenten hardware.
Ja, maar performt die gemma4 dan hetzelfde als zn grote broer die in de datacenters draait?
Ik vind LLM's sowieso ongeschikt voor een abbonementsvorm. Pay per use is veel eerlijker en voor de meesten veel goedkoper. En dan heb je een stel developers zoals wij die de tokens verstoken maar die verdienen er ook geld aan of halen er tijdswinst uit.
Logische move. Vrijwel elke aanbieder verkoopt meer capaciteit dan er feitelijk beschikbaar is. Zware gebruikers die de dienst intensief benutten worden daarbij gecompenseerd door mensen die er weinig gebruik van maken, en dat is doorgaans de grote meerderheid. OpenClaw is zo’n autonome zware gebruiker die rond de klok tokens slurpt. De toenemende populariteit ervan had onvermijdelijk tot één van twee dingen geleid: duurdere tokens of het zou worden geblokkeerd om de prijs voor gewone gebruikers betaalbaar te houden.
Wat wel handig is te vermelden is dat Anthropic zijn eigen Claude Code heeft die ook nu volledig de computer kan besturen. Ze hebben dus concurrerende software. Dat zal ook meespelen.
Ja die reageert al een week niet op men prompts omdat de servers overbelast zijn, vermoedelijk loopt Anthropic echt tegen limieten aan nu.

Wel indrukwekkend wat dat ding kan trouwens, onlangs op basis van een bestaand document laten kijken wat de style guide is (kopjes. kleuren, lettertypes,..) en alle nieuwe documenten rollen er vanaf nu met de zelfde layout uit. Uiteraard is dat voor de basis output en gaan we erna aan de slag met de inhoud, er wordt niets zomaar llm-vers doorgestuurd.
Ergens snap ik dat ze dit doen, hun servers kunnen de groei niet aan. Ze gaan snijden in 3rd party om te zorgen dat hun eigen tools beschikbaar blijven. Daarnaast mooi pushen op Cowork als side-effect.

Wel vervelend, heb net 2 weken openclaw draaien en was er mee aan het spelen..
Ik heb een pro abonnement. Op dit moment verbrand je in een enkele prompt je gehele liniet van 5 uur. Reddit gaat helemaal los hierover. Ik snap wel dat ze ergens gaan beperken.

intussen heb ik wel mijn subscription gecancelled.
ik was gisteren ook met stomheid geslagen ik was even aan het rommelen met Excel enkele vragen (6) en uploaden van een screenshot en ik was al door me current session limiet heen.
nu vandaag één vraag en ik ben al 11% kwijt.

gaat helemaal nergens meer over.
Deze week was ik bezig met een refactoring van de code (een behoorlijke codebase), voor dat de refactoring compleet was, door mijn limiet heen. Daar ben je lekker mee...
maar Opus? Of Sonnet? want dat scheel wel een heleboel.
Ja momenteel zelfs met Sonnet, Opus is helemaal onwerkbaar.

Om te kunnen reageren moet je ingelogd zijn