Anthropic gaat Claude trainen op data van gebruikers en klanten

Anthropic gaat zijn AI-model Claude trainen op gesprekken van zijn gebruikers en betalende klanten. De optie is wel uit te zetten. Iedere gebruiker en klant krijgt komende maand een pop-up. Die staat standaard aan.

De optie heet 'you can help improve Claude' en is gelijk of op elk willekeurig moment daarna via instellingen uit te zetten, zegt Anthropic. Het gaat om gebruikers van Free-accounts en betalende klanten met een Max- of Pro-abonnement. Anthropic gaat de data niet verzamelen bij Claude for Work, Claude Gov en Claude for Education of klanten die werken via de api.

Behalve de dataverzameling verlengt Anthropic ook de termijn waarna het data verwijdert. Dat is nu standaard dertig dagen en dat wordt vijf jaar. Als gebruikers daar niet voor kiezen, blijft de retentie op dertig dagen. Anthropic gaat alleen nieuwe chats vanaf donderdag gebruiken. Dat geldt ook voor sessies met coding.

Claude gebruikt data
Claude gebruikt data

Door Arnoud Wokke

Redacteur Tweakers

28-08-2025 • 21:03

63

Reacties (63)

Sorteer op:

Weergave:

Ik heb alvast geen popup gehad. De optie kun je nu al vinden onder Privacy. Die is ook lichtjes "obscured" door een kleine popup dat ze hun T&C hebben aangepast. Ik vind het persoonlijk niet zo netjes gedaan.

Het lijkt er op dat ze het zo obscuur mogelijk hebben willen houden om zo weinig mogelijk mensen het te laten afvinken. Best teleurstellend vind ik als je al voor een dienst betaald. Dat je dit voor nieuwe gebruikers standaard aanvinkt tot daar toe.

[Reactie gewijzigd door kayjay op 28 augustus 2025 21:10]

Ik had de popup ook en uitgezet. Maar net nog even gecheckt en hij stond weer aan...
Als je hem uitvinkt moet je alsnog 'accept' selecteren om de nieuwe voorwaarden te accepteren (heel sneaky gecombineerd en bewust ingewikkelder gemaakt). Als je 'not now' kiest dan zet ie em weer aan. Dus uitvinken en dan accept, dan staat ie uit. Als de pop-up al weg is kan je het vinden onder: Settings > Privacy > Privacy Settings.
Ik snap niet zo goed dat de ACM of AP of allebei (i really don’t care) hier niet NÚ opspringen. Dit mag helemaal niet hier.

Dit moet opt in zijn, mag niet met dark patterns aan elkaar hangen, moet van te voren actief medegedeeld en niet ambigu.

Het is nu opt out, obscured met dark patterns en niet ambigu.

Over 6 maanden een keer wat doen heeft niet zoveel zin meer. Dan heeft iedereen toch al niet nee gezegd.
Probleem is vooral dat ze onvoldoende capaciteit hebben en bedrijven weten dit en maken er gewoon misbruik van
Ja maar met dit soort high profile bedrijven wil je er nu toch juist iemand volle bak direct op, dat dit al gelijk de kop in wordt geduwd voor het echt de markt op komt? Nu is het nog een soort van aankondiging.

Besteed er even nu een uurtje aan om wat templates in te vullen en een bericht te sturen, en niet over 6 weken.

Dit zijn ook gewoon tijdsgevoelige dingen. 4 weken na introductie nog even een brief sturen heeft geen zin.

je hoeft niet direct een heel onderzoek te gaan doen, maar meld lekker even pro actief dat je vermoed dat er dingen niet pluis zijn (zoals opt out) en dat je dat wel degelijk gaat onderzoeken en dat er dan met terugwerkende kracht wel degelijk sancties worden opgelegd.
Ik weet niet wat er dark pattern aan is (ik weet wel wat een dark pattern is, is de popup wellicht gewijzigd ondertussen?)

Ik heb pro, ik doe F5, ik krijg een nette duidelijke popup, heldere uitleg en een schuifje. Ik zet die uit, Ik klik op accept. Popup verdwijnt.

Ik ga naar profile, privacy, help improve staat uit.

Ik zie niets verstopt, geen dark patterns en geen misleidende informatie.

:?


ps. de auto opt-in is niet volgens de regels, dus die klopt absoluut!

[Reactie gewijzigd door InflatableMouse op 29 augustus 2025 10:59]

Als je hem uitvinkt moet je alsnog 'accept' selecteren om de nieuwe voorwaarden te accepteren (heel sneaky gecombineerd en bewust ingewikkelder gemaakt). Als je 'not now' kiest dan zet ie em weer aan.
Als dit het is, is het dus met opzet zo gemaakt. Die knoppen kunnen gewoon dynamisch wijzigen. Dat gebeurt bij cookiewalls ook vaak.

Het deel “not now” kan ook betekenen dat je nu niet wil dat de data gebruikt wordt, maar dat ze het best over een tijd nog een keer mogen vragen.

not now is ook mogelijk een “ik kies later”, maar dat mag nooit resulteren in een vinkje dat aan staat. En dat doet het wel, want de default is niet goed.

Dus door de keuze uit te stellen is dat onder water nog steeds een afgegeven toestemming, want ze interpreteren het als een “ik kies later wel of ik het niet wil” en dat is wel degelijk een dark pattern.


Anyhow. Megaconfusing spul allemaal als je niet van happyflow uitgaat.
Ik had een halve popup, tekst was onzichtbaar.
Ik ook. Dankzij het artikel weet ik dus dat het geen reclame was voor het Atomium :+
Ik dacht ik controleer het ook direct even. Kreeg in de App een pop-up die ongeveer driekwart van mijn scherm beslaat inclusief verder extra donkere achtergrond. Duidelijke titel en text. Supergrote slider om 'You can help improve Claude' uit te zetten (staat wel standaard op 'yes').
Allemaal dark patterns, heel normaal tegenwoordig in de wereld van de enshitification.
Bij bij kreeg ik de popup, aangegeven het niet te willen en het staat ook gewoon uit. Ik vond de popup gewoon duidelijk verwoord, geen dark UI patterns. Misschien ben ik getrained op nog ergere UI patterns dat deze wel te doen was voor mij, haha.
Maar dit mag toch helemaal niet volgens de AVG/GDPR. Dit is een vorm van preticked boxes lijkt me


Bron: https://curia.europa.eu/juris/document/document.jsf?docid=218462&doclang=EN
Lijkt mij ook. Eerst contact zoeken, dan aangifte doen.
Heb niet het idee dat iemand hier ook maar enigszins op handhaaft, want er zijn ontelbaar (ook grote) websites die standaard nieuwsbrieven aangevinkt hebben.

Of nog erger zijn de websites die zich uberhaupt niet aan het vinkje houden en alsnog allemaal tjak gaan sturen
Helaas wordt er helemaal niets aan gedaan en komen bedrijven er prima mee weg. Klachten over bijvoorbeeld de NS die de e-mail opt-in structureel aangevinkt laat staan als je een kaartje koopt via de app belanden ook in niemandsland.
Ik ben benieuwd naar hoe de beveiliging is van dergelijke data, zoals code met database inloggegevens, en dat je via een slimme AI prompt daar achter kunt komen. Het 'programmeren' met een AI tool heeft al een naam, namelijk 'vibe coding', programmeren met prompts die code genereren, waarbij de prompt je programmeertaal is, en de code maar output. Je hebt ook al prompt generators die prompts van een A4tje voor je genereren waarbij aan veel instructies wordt gedacht om de juiste output te krijgen voor een heel project, dus met een dergelijke tool url's, gebruikersnamen en wachtwoorden achterhalen zal vast een keer fout gaan. Er zijn ook beschermde prompts om misbruik te voorkomen, maar die kan je soms weer omzeilen door spelfouten te gebruiken, waardoor de regex niet werkt om misbruik te voorkomen, maar de AI tool wel begrijpt wat je wil. Hoe dan ook, je speelt met een gigantische bak met data, wat heel mooi is voor heel veel dingen, maar zo nu en dan ook mis zal gaan. En als je data eenmaal erin staat, dan staat het er voor 5 jaar dus in.
Ik zou er maar van uitgaan dat die beveiliging bagger is, een after thought at best. Er zit te veel geld in AI om zich om zulke triviale zaken druk te maken: het moet slagen, kosten wat het kost.
De beveiliging is vibe-coded waarschijnlijk 8)7
het moet slagen, kosten wat het kost.
Dat is idd een punt. Ze zijn allemaal bang de boot te missen en allemaal hebben ze meer data nodig en ook hebben ze allemaal veel geld geinvesteerd in AI....uiterst slechte combinatie voor privacy. :|

Targeting voor reclame kon mislukken door foute data of te weinig data maar daar merkt men weinig van. Falende AI valt wel op....
Dit is niks nieuw. Vroeger was het zo dat gevoelige gegevens als "niet langer veilig" worden beschouwd als ze eenmaal in git belanden. Nu gaat gewoon hetzelfde gelden nog voordat ze in je git belanden, maar hoe dan ook... er zouden nooit dit soort gegevens in je code mogen staan. Als dat wel het geval is ben je echt iets totaal verkeerd aan het doen. (Niet dat het niet gebeurt overigens: er zouden wel meer dingen nooit mogen gebeuren.)
En hoe gaat dat met externe providers die claude gebruiken? bv windsurf of cursor of copilot?
Ik denk dat die uitgesloten zijn (uit de blogpost):
They do notapply to services under our Commercial Terms, including Claude for Work, Claude Gov, Claude for Education, or API use,
Die gebruiken de API, zoals ze hebben aangegeven wordt daar geen data verzameld voor trainingen.
Tja, ze moeten wel, want er wordt nu een stuk minder geplaatst op stackoverflow, reddit, github en andere plekken. Vooral een groot gebrek aan werkende oplossingen voor nieuwe versies van libraries en frameworks.
Ik gok dat ze prima aan de hand van de documentatie van zulke libraries en frameworks, zulke posts kunnen augmenteren en terug kunnen voeden aan hun model als ze het trainen. Het enige nadeel daarvan is dat Anthropic zelf in de gaten moet houden welke frameworks en libraries belangrijk genoeg zijn om dat voor te doen, en bij welke ze dat niet hoeven.
Ik denk dat een model trainen op documentatie niet werkt. Een model moet dan vanuit tekst leren hoe het code moet schrijven, doorgaans train je een model juist op code waarin het gebruikt word.

Sowieso is documentatie vaak beperkt en onvolledig. Je schets er een aantal scenario's en gaat er van uit dat iemand die het leest weet waar je het over hebt.

Ik ken een aantal veel gebruikte libraries waarvan de documentatie bestaat uit de readme pagina van github. De rest zoek je zelf maar uit aan de hand van code completion.

Met de fouten die modellen nog steeds maken weet ik vrij zeker dat die niet begrijpt wat er in tekst gedocumenteerd staat en hoe zich dat naar code vertaald in veel gevallen. Aangezien daar precies staat waarom het niet werkt.
Ik denk dat LLMs beter op de source code van de frameworks/libraries getrained kan worden, zo kun je ook niet gedocumenteerde functies terugvinden. En ik denk dat de meeste LLMs wel git en andere repos neemt om op te trainen. Cutting edge frameworks waren altijd al een zwak punt van LLMs die in principe op historische data wordt getrained. De meest gebruikte versie heeft doorgaans de bias dus als een framework de boel heeft omgegooid van ene versie naar de andere dan krijg je meestal voorbeelden van de 'oude' manier. Maar goed, het blijft lastig om 'best practice' te trainen bij LLMs, dat is wat je met name in stack overflow vaak wel op geattendeerd werd.
Heeft een taalmodel juist niet meer nodig dan puur documentatie? Documentatie is voornamelijk veel theorie met wat voorbeelden, terwijl user input juist het veel meer zou voeden met praktijk voorbeelden.

Documentie zou bijvoorbeeld 1 voorbeeld zijn, terwijl vroeger je 100 verschillende manieren kon vindennop stackoverflow voor het zelfde resultaat.
Je kunt een LLM juist gebruiken om die honderd voorbeelden te genereren en dié dan gebruiken om de volgende versie van je model te trainen.
De hele reden waarom ChatGPT5 zo slecht performed is het feit dat het steeds meer getraind wordt op output van LLMs. Dit hele fenomeen wordt door de ontwikkelaars gezien als de reden waarom LLMs nauwelijks meer beter worden en in de toekomst waarschijnlijk steeds slechter zullen worden.

LLMs trainen op hun eigen output is al helemaal funest. Vraag me niet om de technische beredenering hier achter maar als er geen menselijke input meer is zullen LLMs steeds slechter worden. Sommige specialisten stellen al dat we op dit moment waarschijnlijk op peak-LLM zitten en het niet beter gaat worden dan dit zonder investeringen die 5-8 orde-groottes hoger liggen dan vandaag de dag.
Ja dat klopt, als je teksten genereert die 99% goed zijn, die gebruikt om een model te trainen dat ook weer 99% juiste antwoorden geeft op basis van de kennis die je er in hebt gestopt dan komt dat effectief uit op ~98%, en zo wordt elke iteratie weer wat slechter.

Dat staat los van dat je sommige data wel kunt verreiken. Als je voor het trainen van je model bijvoorbeeld geen formele softwaredocumentatie kunt gebruiken (omdat het niet echt teksten zijn maar eerder een lijst van attribute=value) en je verwerkt dat eerst tot een tekst, dan heb je dus wél extra bruikbare input.

De manier waarop modellen nu getraind worden (alle beschikbare data ter wereld zo lang mogelijk met zulke krachtige mogelijke CPUs verwerken) is overigens ook niet heel schaalbaar. Ik denk dat je uiteindelijk toe wilt naar een model dat klein (en snel) genoeg is zodat het perfect teksten in alle bestaande talen kan analyseren, en dat dan koppelen aan een (heel effectieve) database met daarin alle mogelijke kennis, in plaats van één model dat zowel de taal moet kunnen analyseren en ook alle kennis moet bevatten. Als je de kennis dan zo kunt ordenen dat het model altijd zo effectief mogelijk dingen op kan zoeken om daarna hier de benodigde informatie uit te destilleren die nodig is om de vraag te beantwoorden kun je dat model in "zijn vrije tijd" lekker de gang laten gaan en overal kruisverbanden tussen te laten leggen zodat daar nieuwe inzichten uit kunnen ontstaan (en misschien bijvoorbeeld er achter komen hoe we de algemene relativiteitstheorie en de kwantummechanica kunnen combineren, etc).
Ja dat klopt, als je teksten genereert die 99% goed zijn, die gebruikt om een model te trainen dat ook weer 99% juiste antwoorden geeft op basis van de kennis die je er in hebt gestopt dan komt dat effectief uit op ~98%, en zo wordt elke iteratie weer wat slechter.
En als je dan weet dat het meest nauwkeurige model met heel veel moeite aan 70% komt dan snap je hoe snel dit naar beneden gaat....
Dat staat los van dat je sommige data wel kunt verreiken. Als je voor het trainen van je model bijvoorbeeld geen formele softwaredocumentatie kunt gebruiken (omdat het niet echt teksten zijn maar eerder een lijst van attribute=value) en je verwerkt dat eerst tot een tekst, dan heb je dus wél extra bruikbare input.
En hoe wil je dat tot tekst verwerken dan? Ook door de LLM laten doen? Met diezelfde 70% nauwkeurigheid? Dan weet je al dat de eerste vraag nog niet de helft van de tijd juist beantwoord zal worden....
De manier waarop modellen nu getraind worden (alle beschikbare data ter wereld zo lang mogelijk met zulke krachtige mogelijke CPUs verwerken) is overigens ook niet heel schaalbaar. Ik denk dat je uiteindelijk toe wilt naar een model dat klein (en snel) genoeg is zodat het perfect teksten in alle bestaande talen kan analyseren, en dat dan koppelen aan een (heel effectieve) database met daarin alle mogelijke kennis, in plaats van één model dat zowel de taal moet kunnen analyseren en ook alle kennis moet bevatten. Als je de kennis dan zo kunt ordenen dat het model altijd zo effectief mogelijk dingen op kan zoeken om daarna hier de benodigde informatie uit te destilleren die nodig is om de vraag te beantwoorden kun je dat model in "zijn vrije tijd" lekker de gang laten gaan en overal kruisverbanden tussen te laten leggen zodat daar nieuwe inzichten uit kunnen ontstaan (en misschien bijvoorbeeld er achter komen hoe we de algemene relativiteitstheorie en de kwantummechanica kunnen combineren, etc).
Ook die "nieuwe inzichten" vallen onder dezelfde diminishing returns regels. De hoeveelheid totale onzin die er uit zal komen gaat velen malen groter zijn dan de hoeveelheid zinnige inzichten. En geen LLM die het kan controleren want die komt in dezelfde diminishing returns terecht. Het resultaat zal zijn dat er hele bergen bullshit uit komen die door wetenschappers door gegraven moet worden in de hoop er iets zinnigs uit te krijgen. Ik gok dat je geen enkele wetenschapper gaat vinden die hier behoefte aan heeft.
LLMs zijn heel goed in het herwoorden van een tekst. Als je specifiek een pagina uit de documentatie van een nieuwe (of niet bestaande) library geeft met daar een specifieke opdracht aan gekoppeld, is het deel waar het op stuk loopt niet het implementeren van de library zelf.

Geef je diezelfde documentatie echter mee tijdens het trainingsproces, dan kan het er weinig mee.

De 70% die jij noemt is afhankelijk van waar je de LLM op test. De meeste benchmarks zijn opgezet met de zo moeilijk mogelijke en uitgebreide vragen (zie bijvoorbeeld Humanity's Last Exam als voorbeeld), maar als je het de Cito-toets laat maken zal het waarschijnlijk vrijwel foutloos zijn.

Softwaredocumentatie omzetten naar voorbeeldscripts met daar vragen en antwoorden omheen, lijkt meer op Cito-toetsniveau dan op de benchmarks waar jij over spreekt.
In theorie zou dat kunnen, maar dan moet de techniek verder zijn dan nu. Vooralsnog genereert een AI veel foute en niet werkende code als het puur naar documentatie moet kijken.
Maar dan kan je dus een farm voor bouwen waarbij de AI z’n eigen code controleert dmv unit tests en efficiency.
Ja dat geldt voor die andere bronnen toch ook? Ook daar moet het kaft van het koren gescheiden worden.
Ik hoor dit altijd, maar mijn Claude Code maakt 80% van de tijd tegenwoording (zeker Opus 4.1) gewoon goed werkende code. Die controleer ik dan, en dan verbaas ik me hoevaak het goed werkende code heeft geschreven.

Ik snap dus niet zo goed waar dit sentiment nu vandaan komt. Ja, de Claude client of ChatGPT client maakt inderdaad vaak fouten, maar Claude Code, doordat die de gehele codebase kan zien. Maakt vaak gewoon werkende code.

Niet beter dan ik dat kan, vandaar dat ik de code snippets altijd controleer en hier en daar aanpas. Maar het was wel gewoon goed werkende code. Soms maakt bij code snippets exact hoe ik het ook zou doen.

Ik laat het nu soms voor de grap mijn code “controleren”, maar daar haalt hij tegenwoordig soms ook foutjes uit die ik over het hoofd zag.

Ik merk gewoon dat huidige LLMs prima code kunnen schrijven, als ze maar de correcte tools hebben (zoals claude code heeft), anders gaan ze sneller onderuit.

[Reactie gewijzigd door Ricco02 op 29 augustus 2025 08:25]

Het hangt heel erg af van of de code die je schrijft veel gebruikt is om het model te trainen. Als je ook maar enigszins afwijkt of stricter bent, dan gaat het al heel snel de mist in.

Verder is 4.1 Opus ook wel zo'n beetje het duurste model dus daarvan mag ik hopen dat ie minder fouten maakt, maar velen gebruiken die niet omdat je dan elke dag 30 dollar mag aftikken voor het gebruik ervan...
Ah nee. Ik ben een Claude Max gebruiker. Ik heb dan 30 uur per week toegang tot Opus 4.1. De API is veel te duur. Daarnaast ben ik geen vibe coder dus tik die 30 uur nooit aan.
Dus nog steeds veel minder praktijk voorbeelden om mee te trainen en een veel groter kans dat het traint op 100(of een aantal daarvan) niet werkende voorbeelden, omdat het model 'denkt' dat het werkt.
Terwijl de 100 voorbeelden van Stackoverflow (als voorbeeld) ook komen met context, reacties, votes en discussies etc.

Zelf 100 voorbeelden genereren kan leiden op trainen op basis van foute informatie. Daar wordt een model niet betrouwbaarder van.
Het wordt zo natuurlijk steeds meer werk, maar het model kan natuurlijk ook op voorhand een testplan opstellen en die gebruiken om te controleren of de gewenste functionaliteit juist is geïmplementeerd.

De context en discussie mis je inderdaad wel, al gok ik dat die bij 99 van de 100 libraries uitwisselbaar zijn. De meeste libraries die het afgelopen jaar zijn geschreven zijn denk ik alleen een kleine verbetering ten opzichte van reeds bestaande libraries, maar niet radicaal anders of nieuw. We gebruiken nog massaal programmeertalen die zijn afgeleid van concepten die 25 tot 50 jaar geleden zijn bedacht.
Ja dat is dus inderdaad meer dan alleen "aan de hand van de documentatie van zulke libraries en frameworks". Dan ben je ook niet meer aan het trainen maar ook data aan het genereren.
Verder mee eens dat er qua programmeren weinig echte innovatie is, in de zin van compleet nieuwe concepten, maar toch komt er veel bij. Concepten zijn dan wel 25+ jaar oud, maar het praktijk gebruik niet.
Op basis van het MVC concept snap je niet ineens alle programmeer talen en de daarbij horende lib, maar ik begrijp je punt.

En dit is dan programmeren, wat een computer kan uitvoeren en testen, maar AI bedrijven willen natuurlijk veel meer data, dan alleen een maar code.
En dit is dan programmeren, wat een computer kan uitvoeren en testen, maar AI bedrijven willen natuurlijk veel meer data, dan alleen een maar code.
Ik weet niet of bedrijven meer data willen om het taal"begrip" van hun modellen te verbeteren, of om te zorgen dat het minder onwaarheden schrijft. Veel mensen gebruiken LLMs nu namelijk eerder als vraagbaak voor kennis, dan als hulpmiddel voor (tekst)logica.

Alles wat testbaar is, zou een (programma dat draait op/is gegenereerd door een) LLM proefondervindelijk kunnen onderzoeken en op basis daarvan weer nieuwe data genereren. AlphaFold is bijvoorbeeld zo een project waarbij ze de interacties tussen proteïnen voorspellen, en daar komen zo veel valide combinaties uit dat ze steeds een stapje hoger moeten gaan kijken (welke zijn toepasbaar op mensen, op planten, op dieren, wat is de uitwerking, etc etc) alleen is nog niet duidelijk hoe.
Eerste stuiptrekkingen... langzaam voorwaarden aanpassen, meer data, meer geld... investors worden onrustig
Als je deze cijfers bekijkt:

https://www.reuters.com/business/anthropic-hits-3-billion-annualized-revenue-business-demand-ai-2025-05-30/

Dan is de annualized growth:
Eind december 2024: 1 miljard
Eind maart 2025: 2 miljard
Eind mei 2025: 3 miljard

Met deze cijfers heb je je hockeystick te pakken, waar alle investors dol op zijn.

En iets verderop in het artikel:
This demand is setting Anthropic apart among software-as-a-service vendors. Its single-quarter revenue increases would count Anthropic as the fastest-growing SaaS company that at least one venture capitalist has ever seen.

[Reactie gewijzigd door gorgi_19 op 29 augustus 2025 06:24]

ARR is niet echt de meest betrouwbare of extrapoleerbare metric. Je kan niet een maand op je hoogste slope pakken en dan voorbij de s curve flattening extrapoleren bv. Bovendien zegt het niks over winst. Je ziet niet hoe de kosten schalen per dollar revenue. Die zijn niet fixed voor AI want de compute per request is heel duur.
OpenAI doet dit al een tijdje, en af en toe zetten ze de functie weer aan zonder dat je het weet.
Doen ze aan Data Privacy Framework, of moet je de optie ‘don’t train’ expliciet uitzetten.
Bewaren "even" verlengen van 30 dagen naar 5 jaar, dat is maar 60x meer.

Was die 30 dagen ooit gebaseerd op "opslag kost geld" en dan nu er een verdienmodel is kan het wel bewaard worden.
Maximaal 5 jaar. Kan best zijn dat als 60 dagen genoeg blijkt omdat ze genoeg input hebben steeds ze die 5 jaar niet doen.
Ik gebruik gewoon de API en gelukkig gebruiken ze die data niet voor training. Het is met mijn gebruik van Claude nog gunstiger ook. Ik loop vaak tegen de limieten van de free tier aan, maar 20 euro per maand betalen is ook wat overkill. Nu betaal ik weliswaar “on demand” (namelijk per input en output tokens), maar uiteindelijk ben ik vaak nog geen 10 euro per maand kwijt. En ik heb meer vrijheid qua instellingen (zoals temperature)
Onze developers gebruiken via de API meer dan 25 euro per dag, dus je bent dan een vrij rustige gebruiker :)
Wou net zeggen… ik brand er 50 euro per dag doorheen als ik een goede 8 uur bezig ben.
Claude gebruik ik ook alleen privé. Wat ik er op m’n werk doorheen gooi weet ik niet precies, maar ik gebruik daar meer GPT5 momenteel.

Maar je hebt gelijk, m’n gebruik ligt niet heel hoog :)

Op dit item kan niet meer gereageerd worden.