Anthropic zegt dat Chinese AI-bedrijven modellen proberen te trainen op Claude

Anthropic claimt dat drie Chinese AI-bedrijven proberen om interacties met zijn AI-dienst Claude aan te gaan, om zo hun eigen modellen te trainen. Dat gebeurt onder meer via proxybedrijven. Het gaat onder meer om DeepSeek.

Behalve DeepSeek gaat het om Moonshot en MiniMax, zegt Anthropic. Door interacties proberen die bedrijven Claude te destilleren tot een kleiner en efficiënter model. Dat gebeurt via API-toegang tot Claude via tienduizenden accounts, waarna de bedrijven proberen om detectie te ontlopen.

Het destilleren van modellen is legitieme technologie en een manier om kleine maar toch capabele AI-modellen te maken. Dat gebeurt doorgaans binnen een bedrijf, waarbij een AI-bedrijf dus het eigen grote AI-model destilleert. Toen DeepSeek vorig jaar doorbrak, leek het er ook al snel op dat het was getraind op bijvoorbeeld ChatGPT.

Het gebruiken van data van anderen om eigen AI-modellen te trainen is iets dat alle AI-bedrijven hebben gedaan. Anthropic traint Claude bijvoorbeeld op data die het vaak ongevraagd van internet heeft gehaald. Volgens Anthropic is het gevaar dat de Chinese bedrijven AI-modellen maken die capabel zijn zonder de veiligheidsregels die Claude ingebouwd heeft rond het gebruik als bijvoorbeeld wapen voor hacking.

AI-modellen Claude kunstmatige intelligentie

Door Arnoud Wokke

Redacteur Tweakers

24-02-2026 • 08:00

27

Submitter: MoonRaven

Reacties (27)

Sorteer op:

Weergave:

AI bedrijven die klagen over onrechtmatige gebruik van data. Hoe ironisch.
Precies dat, zó ongelooflijk hypocriet!
Ze hebben zelf eerst het hele internet geplunderd (waaronder mijn website), zonder toestemming en zonder enige vorm van vergoeding, en gaan nu anderen beschuldigen van hetzelfde.

Geen medelijden mee dus.
Fijn, dan hebben wij goedkoop open source modellen!

Alsof Anthropic rechtmatig aan hun trainingsdata is gekomen, ze moeten niet zo zeuren.
Goedkoop is duurkoop

Waar denk je dat de innovatie gebeurd
In ieder geval niet bij de AI boeren. Die doen al sinds het begin gewoon leentje buur bij de buurman, zonder dat het eigenlijk mag. Dus op dat vlak moeten ze niet klagen, ze zijn er zelf ook groot mee geworden.
Copyright omzeiling, wie is er niet groot mee geworden?
De grootste AI innovatie komt uit China (efficiënter omgaan met compute resources) en 38% van de elite AI onderzoekers in Amerikaanse AI bedrijven zijn van Chinese herkomst en hebben opleiding gevolgd in Chinese universiteiten volgens Macopolo en het Paulson Institute.
Dit is een klein beetje misleidend. Sliding attention is bijv. voor het eerst grootst ingezet in EU (mistral!), de papers kun je zelf opzoeken. We weten niet wat er gebeurd bij partijen als openai, google en anthropic omdat ze nu eenmaal closed source zijn (even los van gemma en gpt-oss). De eerste image doorbraken kwamen uit de EU oorspronkelijk. En ga zo maar verder.

En transformers, de basis van alles zo'n beetje, kwam van google. En de hele open weights explosie is gestart met meta.

Het is gewoon een illusie om te denken dat er een werelddeel/land is waar alle innovatie plaats vindt. Ik haal zelf regelmatig projecten uit China aan, vooral als het gaat om MoE (ook weer iets dat eerst open source is gemaakt door mistral, dat dus in de EU zit) in combinatie met RDMA, omdat dat een mooie techniek is om grotere trainingsclusters op een efficientere manier in te zetten. Dat is omdat ze het publiceren en de rest niet.

Niet om door te zeuren, ok, kan misschien zo opgevat worden, maar is niet zo bedoeld. De claim is ook apart opgeschreven, je schrijft dat de innovatie in China plaats aan het vinden, maar de onderzoekers werken volgens je eigen reactie in de Amerikaanse bedrijven. Dus dat spreekt elkaar dan tegen. Want wat is het dan?
Daar waar het durfkapitaal naartoe gaat. Het idee dat je een gezond bedrijf nodig hebt voor innovatie is allang achterhaald.
Zo'n magische term, innovatie. Geclaimd vaak door mensen die het hardste roepen dat ze de eerste zijn en dan even vergeten dat zij ook weer gebruik maken van de resultaten en ontdekkingen van anderen. Voor de gebruiker maakt het geen zak uit of je bij de eerste iets laat doen door AI of bij een opvolger. Ze jatten allemaal data, van elkaar en avn iedereen. Gebruikersgemak en kosten zijn veel meer bepalend.
In dit veld komt het grootste deel van innovatie door het delen van informatie. Of omdat het openbaar is, of door auteursrechten te negeren, of door onder de tafel doorgeven door (voormalige) werknemers, of door distillatie.

Als OpenAI al zijn trade "secrets" had weten te behouden dan was Anthropic nergens geweest, maar natuurlijk nemen mensen mee wat ze in hun hoofd hebben.
Die uitspraak is een dooddoener voor vrijwel iedere context. In AI zitten investeringen in van miljarden. Het is alles behalve goedkoop. Het is een bubbel.

Open source is de drijfveer van innovatie waar zo n beetje de hele wereld van afhankelijk van is.
Moonshit? Volgens mij is het Moonshot.
Ik vond het ook al opmerkelijk
Volgens Anthropic is het gevaar dat de Chinese bedrijven AI-modellen maken die capabel zijn zonder de veiligheidsregels die Claude ingebouwd heeft rond het gebruik als bijvoorbeeld wapen voor hacking.
Hele gevaarlijke uitspraak als je meerekent dat de manier waarop LLM's zijn 'beveiligd' erg gefocused is op wat er in de VS als 'gevaarlijk' bestempeld wordt, terwijl dat hier in Europa vaak heel anders is. Echt veel onderwerpen waar Amerikaanse LLM's niet over willen praten die gewoon onder censuur vallen.
Los van dat het allemaal héél makkelijk te omzeilen is natuurlijk, want Claude doet ook prima een pentest op je eigen code, alleen niet die van iemand anders, dus net als alle andere 'roots' een kwestie van 'm overtuigen dat het wel binnen zijn regels valt..
Alle slms die in de guardrail zitten voor het 'main model' kan je makkelijk passeren als je de juiste fliptokens hebt gevonden.

Er is nog geen 1 'LLM' veilig.
Behalve DeepSeek gaat het om Moonshit en MiniMax
Shit he ;)

Stille hint wat @arnoudwokke denkt van de modellen van Moonshot?

Het verrast me helemaal niet. Je ziet steeds dat sommige modellen ineens als eerste een sprongetje maken en de rest daar dan in verloop van een paar maanden (hooguit!) ook ineens dat sprongetje maken. Nou zie je dit wel aan beide kanten van de "AI strijd".
Auteurarnoudwokke Redacteur Tweakers @markg8524 februari 2026 09:07
[quote]Stille hint wat @arnoudwokke denkt van de modellen van Moonshot?[/quote]

Haha gefikst :)
Ik denk dat je Moonshot ipv Moonshit bedoeld.
Vandaar dat de CEO in zijn laatste blog post zo hamerde op 'de CCP'* als het gaat om bedreigingen omtrent AI. Terwijl het overduidelijk is dat de US hard hetzelfde pad bewandelt als het gaat om massa-surveillance en het opzetten van een politiestaat met behulp van AI.

Hier een grafiek van en volgens MiniMax, hoe dicht ze nu zitten bij Anthropics top tier modellen. Vermoed dat het voornamelijk om "persoonlijk" financieel gewin is dus.

Ben het ook niet eens met het programma van de CCP maar dat moge duidelijk zijn, de hypocrisie is wat ik hier aankaart. Don't bite the hand that feeds you enzo.

[Reactie gewijzigd door ZpAz op 24 februari 2026 09:18]

No honour among thieves, zoals een wijs man eens zei
De nieuwe GLM-5 van Ziphu AI zit hier waarschijnlijk ook in. Een vraag van zoals wie ben jij wordt als volgt beantwoord met GLM-5:
User: Hello who are you

GLM-5: I'm Claude, an AI assistant made by Anthropic. I help with writing, analysis, coding, research, and general questions. What can I help you with?

Om te kunnen reageren moet je ingelogd zijn