Anthropic zegt dat Chinese AI-bedrijven modellen proberen te trainen op Claude

Anthropic claimt dat drie Chinese AI-bedrijven proberen om interacties met zijn AI-dienst Claude aan te gaan, om zo hun eigen modellen te trainen. Dat gebeurt onder meer via proxybedrijven. Het gaat onder meer om DeepSeek.

Behalve DeepSeek gaat het om Moonshot en MiniMax, zegt Anthropic. Door interacties proberen die bedrijven Claude te destilleren tot een kleiner en efficiënter model. Dat gebeurt via api-toegang tot Claude via tienduizenden accounts, waarna de bedrijven proberen om detectie te ontlopen.

Het destilleren van modellen is legitieme technologie en een manier om kleine maar toch capabele AI-modellen te maken. Dat gebeurt doorgaans binnen een bedrijf, waarbij een AI-bedrijf dus het eigen grote AI-model destilleert. Toen DeepSeek vorig jaar doorbrak, leek het er ook al snel op dat het was getraind op bijvoorbeeld ChatGPT.

Het gebruiken van data van anderen om eigen AI-modellen te trainen is iets dat alle AI-bedrijven hebben gedaan. Anthropic traint Claude bijvoorbeeld op data die het vaak ongevraagd van internet heeft gehaald. Volgens Anthropic is het gevaar dat de Chinese bedrijven AI-modellen maken die capabel zijn zonder de veiligheidsregels die Claude ingebouwd heeft rond het gebruik als bijvoorbeeld wapen voor hacking.

AI-modellen Claude kunstmatige intelligentie

Door Arnoud Wokke

Redacteur Tweakers

24-02-2026 • 08:00

70

Submitter: MoonRaven

Reacties (70)

Sorteer op:

Weergave:

AI bedrijven die klagen over onrechtmatige gebruik van data. Hoe ironisch.
AI bedrijven die klagen over onrechtmatige gebruik van data. Hoe ironisch.
Ze klagen niet over hun gescrapte data, want dat kunnen Chinese AI bedrijven ook wel door het hele web te gaan scannen. Ze klagen over de manier waarop er getraind is met deze data. Dat is een enorm verschil. De manier waarop je traint met de gescrapte data is naar mijn mening een techniek wat gewoon patentwaardig is, en dus strafbaar is om te stelen.
Gescrapte data is ook gestolen data. Ze hebben ook "trucjes" toegepast om bv de Harry Potter boeken te scrapen.
Nu zegt Antropic dat hun manier van "stelen" legitiem is en die van de Chinezen niet.
Pot en ketel in mijn optiek. Als ze de eigenaars van hun trainings data netjes hadden betaald, dan hebben ze een punt. Nu is het gewoon huilen en zeggen dat de anderen een geavanceerde manier van "stelen" toepassen.
Er staat letterlijk in de tekst dat Anthropic hetzelfde heeft uitgehaald. En dan lopen ze zielig te doen over veiligheid. neh, geen verschil en geen medelijden.
Waar lees jij letterlijk in de tekst dat Anthropic ook andermans model gedestilleerd heeft?
Ik zat niet goed op te letterlijken en heb dat ergens in de comments gelezen, excuses
Als je zelf op grote schaal copyright negeert moet je niet zeuren als anderen dan ook op die manier met jouw api omgaan. En destilleren van een model is gewoon een bekende techniek die voor zover ik weet niet gepatenteerd/patenteerbaar is
Precies dat, zó ongelooflijk hypocriet!
Jaah, schandaaaliiig, het moest verboden worden... :+ ;)
Ze hebben zelf eerst het hele internet geplunderd (waaronder mijn website), zonder toestemming en zonder enige vorm van vergoeding, en gaan nu anderen beschuldigen van hetzelfde.

Geen medelijden mee dus.
Admin-edit:Link naar eigen website verwijderd.

[Reactie gewijzigd door RoD op 26 februari 2026 13:31]

In de strijd tegen AI scrapers heb ik de IP reeksen van tientallen landen geblokkeerd. Als je je richt op bezoekers uit een bepaald land is dat nog relatief makkelijk te doen. Het viel mij op dat vooral IP adressen uit Zuid-Amerikaanse landen vaak gebruikt worden tijdens het scrapen. Scrapers komen juist verrassend weinig uit China zelf. Dit doet het gebruik van proxies dus ook wel een beetje vermoeden.
We zijn al te laat, denk ik. Het echte scrapen gebeurde al vóór de AI hype echt op gang kwam. Ik heb er uiteindelijk voor gekozen om mijn website maar volledig open te gooien voor een aantal AI bots, in de hoop nog wat referral traffic te krijgen. Ze hadden 99% namelijk toch al, en om het nu te blokkeren voor alleen de nieuwe content heeft denk ik weinig zin. Ook zijn er verschillende bots die allerlei blokkades omzeilen, robots.txt regels negeren en linskom of rechtsom alsnog proberen om de data van je stelen.

Had het graag anders gezien maar helaas is dit de harde realiteit. Ertegen vechten heeft nauwelijks effect gehad.
Heb je enig idee hoe groot het percentage bezoeken via AI is? Ik vrees dat het nihil is en er in de toekomst een hoop websites minder rendabel worden.
Gelukkig geef je zelf al aan dat het mogelijk -minder- rendabel zal worden. Mijn overpeinzing hierbij: "Zouden websites altijd maar (financieel) rendabel moeten zijn?" Als je een blog schrijft omdat het leuk is, moeten daar steeds maar advertentieinkomsten tegenover staan? Een hobby kost nou eenmaal geld; voor de een is het de contributie voor de tennisclub, voor de ander een account bij een serviceprovider. Wanneer een site algemeen nut heeft en gedekt wordt door overige omzet, donaties, whatever - moet deze dan gestaakt worden in het kader van winstoptimalisatie? Ontlenen vele sites het bestaansrecht niet aan het ondersteunen of verkopen van een fysiek product waar op verdiend wordt? Zeker in de begindagen van het publieke digitale domein was het doel van veel sites om simpelweg te informeren, in plaats van te verkopen. De inkomsten werden elders gegenereerd; ik zie niet in waarom dat nu per se anders moet zijn. Het grootste probleem m.i. is het schaamteloos gebruik van data op een manier zoals deze nooit bedoeld is. Als jij iets publiceert voor menselijke lezers, zou een AI of machine-machine-integratie deze informatie links moeten laten liggen en volgens een expliciete aanvraag of opt-in moeten verkrijgen. Helaas ligt de digitale ethiek al meer dan een decennium in de vuilnisbak.
Dat hangt helemaal van de website af, maar ik vind het niet gek dat sommige sites die waardevol zijn ook winst willen maken. Er gaat enorm veel tijd in zitten en veel mensen halen daar plezier uit. Die markt was er ook, genoeg sites die rendabel zijn of in elk geval genoeg binnen krijgen waardoor de eigenaar er tijd in wil blijven steken.

Als Tweakers.net minder verkeer via Google zou krijgen en de Pricewatch steeds minder clicks zou krijgen omdat een AI de prijzen voor je in een overzicht zet, moet Tweakers dan maar gewoon stoppen? Ergens kun je zeggen dat er dus geen ruimte meer voor is. Maar eigenlijk was die ruimte er en wordt het ingenomen door een andere partij. Die andere partij haalt ook nog eens over je rug om al jouw werk binnen. Met name dat laatste is niet eerlijk. Bij Google Search is die discussie ook vaak zat geweest, maar daar was een aantal jaren geleden een balans ontstaan die naar mijn idee 'ok' was. Veel macht bij 1 partij is sowieso niet oke en Google is ook vaak op haar vingers getikt. Maar er was een vrij stabiel systeem.

Dat systeem is momenteel compleet aan het veranderen. Zoals vaker is dat ten nadele van kleinere spelers. Dus tegen kleine spelers die het werk leveren moeten we zeggen 'waarom zou je rendabel willen zijn?', terwijl de grote partijen miljarden binnenhalen op basis van content die nooit van hun was. Zo gaat het al jaren. Niet alleen in de online wereld, maar ook daarbuiten. Grote partij X investeert miljarden en loopt eerst verlies. Kleine spelers zijn genoodzaakt af te haken. Grote partij X gaat winst maken en heeft het rijk alleen. Op deze manier verschuift, vind ik, een hoop geld en macht weer naar de verkeerde richting. Veel sites zullen wel mee moeten doen. Kiezen tussen kruimels of geen kruimels.
Op dit moment, voor mijn website, pakweg 1%. Ik ken collega's die pakweg 2 tot max 3% traffic krijgen vanuit ChatGPT, maar daar houd het een heel eind op. Om het even in perspectief te zetten: Google zorgde tot voor kort voor 70-75% van het totale traffic. Dit is voor de meeste websites zo. Maar ook via Google gaat het hard naar beneden, omdat Google steeds meer ads toont (vrijwel geheel pagina 1) en ook AI overzichten geeft.

Het is precies wat je in je andere reactie al aangeeft: men krijgt via AI op basis van onze content, het gehele antwoord van AI, maar hoeven vervolgens niet meer door te klikken...

[Reactie gewijzigd door Wereldreiziger op 24 februari 2026 20:27]

OpenAI haalt data onderandere uit common crawl. Heb je de instructies van common crawl voor niet opname al gevolgd? https://commoncrawl.org/b...undation-opt-out-registry

[Reactie gewijzigd door djwice op 24 februari 2026 12:32]

Ik betwijfel of Chinezen die via Zuid-Amerikaanse proxies data scrapen zich aan een opt-out zullen houden.
Tja, ligt dat bij jou of bij de partij die jij wantrouwt?
Partijen die ongeacht welke opt-out toch je data scrapen zijn toch zeker het probleem? Het dataverkeer (en serverbelasting) die zij daarmee veroorzaken overstijgt regelmatig alle normale bezoekers gezamenlijk. En ik vind het geen probleem om bepaalde bots toe te staan maar dan wel een selectie die ik zelf goedkeur.
Partijen die ongeacht welke opt-out toch je data scrapen zijn toch zeker het probleem? Het dataverkeer (en serverbelasting) die zij daarmee veroorzaken overstijgt regelmatig alle normale bezoekers gezamenlijk. En ik vind het geen probleem om bepaalde bots toe te staan maar dan wel een selectie die ik zelf goedkeur.
Helemaal mee eens. Zelfs al zou een bot zich netjes houden aan jouw wensen, dan nog komen ze langs. Bij onze websites komt het merendeel van het verkeer van bots. Soms gaat dat ook met geweld. Naast de 'goede' bots zijn er ook een hoop scanners voor WordPress lekken (wij hebben geen WordPress overigens) en andere scanners van bijvoorbeeld security bedrijven die reclame maken via hun user-agent... Zowel de goede als foute bots / crawlers / scanners komen regelmatig met honderen requests in een paar seconden. Een AI kan eenvoudig de sitemap vinden en alle pagina's tegelijk proberen binnen te trekken.

Bepaalde partijen zien ook wanneer Lets Encrypt vernieuwd wordt en dan zie je gelijk weer een stijging van verkeer. Meerdere sites draaien op dezelfde server en hun certificaten worden tegelijk vervangen, dus er komen maar zo (tien)duizenden requests in een korte tijd binnen. Voorheen heb ik nooit een rate limiter nodig gehad, maar inmiddels kan ik niet zonder. Gelukkig kan Google daar mee omgaan wanneer je een nette 429 melding geeft.
Zonder toestemming vind ik toch wat lastig te zeggen. Je bied je website toch aan op het openbare netwerk op een manier dat iedereen er gewoon bij kan. Of dat nou een mens is of een computer. Waarschijnlijk wil je zelfs graag dat de crawlers van Google en co met regelmaat langskomen om bezoekers jouw kant op te sturen. Waarom zou een ai bedrijf dat dan niet mogen?
Omdat het niet één persoon betreft die persoonlijk informatie komt halen voor persoonlijke doeleinden (en waarop ik iets kan verdienen, bijvoorbeeld commissies), maar een AI bot die op industriële schaal alles leegrooft zonder mij daarvoor te crediteren en waar ik niets aan kan verdienen. Sterker nog, ze verdienen nu geld over mijn rug, over mijn werk.

Google had (vroeger) nog wel het fatsoen om je traffic te sturen, zodat je nog iets kon verdienen. Win-win.

AI is echter geen win-win meer.
Ja ik snap best dat dat vervelend voelt. Maar het lijken mij toch een beetje de regels van het spel. Wat als iemand iets van jouw website gebruikt als bron voor Wikipedia? Dat is wezenlijk toch niet echt anders? Het zou misschien wel netjes zijn als de AI bedrijven een goede manier bieden waarmee je hun crawlers kan blokkeren? Maar dat zou dan uit good will moeten want ze staan wel gewoon in hun recht om de informatie op een openbare website te gebruiken zou ik denken.
Wat als iemand iets van jouw website gebruikt als bron voor Wikipedia?
Daar staat dan vaak een bronvermelding bij. Bovendien gaat het meestal om kleine stukken tekst. Een quote of paragraaf gebruiken is wel iets anders dan volledige artikelen op kunnen dreunen. Een AI model kan tot 96% een volledig boek van Harry Potter opdreunen. Wanneer een AI je zoveel tekst voorschotelt heb je als gebruiker ook geen behoefte meer om door te klikken. Wanneer een AI mij alle informatie van de website van @Wereldreiziger geeft, hoef ik niet meer naar die website te gaan. De Google Search van een aantal jaren terug zonder AI was wat dat betreft heel anders. Je zag een klein stukje en de rest moest je zelf lezen. Dat is wellicht minder handig voor de gebruiker, maar voor een website wel zo prettig.
Maar het lijken mij toch een beetje de regels van het spel.
Het is maar net hoe je er naar kijkt. Het is spel is veranderd en niet meer zoals het vroeger was, begrijpelijk dat mensen daar van kunnen balen. De 'regels' die er een paar jaar geleden waren, zijn hedendaags niet meer relevant. Ja het internet is open, maar op die schaal mis-/ge-bruik maken van andermans content was nooit aan de orde. Google Search kon je nog vrij gemakkelijk tegenhouden of beinvloeden, maar met AI is het hek van de dam. Sowieso was de inhoud al geript voordat AI groter werd, je traint immers eerst je modellen voordat je er wat mee doet. Maar los daarvan is het erg lastig AI te blokkeren. En het is maar de vraag of je het moet willen, want eigenlijk heb je geen keuze. Zodra techgiganten bepalen waar het internet naar toe gaat kun je enkel slikken of stikken.
Fijn, dan hebben wij goedkoop open source modellen!

Alsof Anthropic rechtmatig aan hun trainingsdata is gekomen, ze moeten niet zo zeuren.
Goedkoop is duurkoop

Waar denk je dat de innovatie gebeurd
In ieder geval niet bij de AI boeren. Die doen al sinds het begin gewoon leentje buur bij de buurman, zonder dat het eigenlijk mag. Dus op dat vlak moeten ze niet klagen, ze zijn er zelf ook groot mee geworden.
Copyright omzeiling, wie is er niet groot mee geworden?
De grootste AI innovatie komt uit China (efficiënter omgaan met compute resources) en 38% van de elite AI onderzoekers in Amerikaanse AI bedrijven zijn van Chinese herkomst en hebben opleiding gevolgd in Chinese universiteiten volgens Macopolo en het Paulson Institute.
Dit is een klein beetje misleidend. Sliding attention is bijv. voor het eerst grootst ingezet in EU (mistral!), de papers kun je zelf opzoeken. We weten niet wat er gebeurd bij partijen als openai, google en anthropic omdat ze nu eenmaal closed source zijn (even los van gemma en gpt-oss). De eerste image doorbraken kwamen uit de EU oorspronkelijk. En ga zo maar verder.

En transformers, de basis van alles zo'n beetje, kwam van google. En de hele open weights explosie is gestart met meta.

Het is gewoon een illusie om te denken dat er een werelddeel/land is waar alle innovatie plaats vindt. Ik haal zelf regelmatig projecten uit China aan, vooral als het gaat om MoE (ook weer iets dat eerst open source is gemaakt door mistral, dat dus in de EU zit) in combinatie met RDMA, omdat dat een mooie techniek is om grotere trainingsclusters op een efficientere manier in te zetten. Dat is omdat ze het publiceren en de rest niet.

Niet om door te zeuren, ok, kan misschien zo opgevat worden, maar is niet zo bedoeld. De claim is ook apart opgeschreven, je schrijft dat de innovatie in China plaats aan het vinden, maar de onderzoekers werken volgens je eigen reactie in de Amerikaanse bedrijven. Dus dat spreekt elkaar dan tegen. Want wat is het dan?
Daar waar het durfkapitaal naartoe gaat. Het idee dat je een gezond bedrijf nodig hebt voor innovatie is allang achterhaald.
Zo'n magische term, innovatie. Geclaimd vaak door mensen die het hardste roepen dat ze de eerste zijn en dan even vergeten dat zij ook weer gebruik maken van de resultaten en ontdekkingen van anderen. Voor de gebruiker maakt het geen zak uit of je bij de eerste iets laat doen door AI of bij een opvolger. Ze jatten allemaal data, van elkaar en avn iedereen. Gebruikersgemak en kosten zijn veel meer bepalend.
In dit veld komt het grootste deel van innovatie door het delen van informatie. Of omdat het openbaar is, of door auteursrechten te negeren, of door onder de tafel doorgeven door (voormalige) werknemers, of door distillatie.

Als OpenAI al zijn trade "secrets" had weten te behouden dan was Anthropic nergens geweest, maar natuurlijk nemen mensen mee wat ze in hun hoofd hebben.
Dat is de artifact, de source innovatie zit hem in de Llm neural network.


De trainings data heeft ook niks met innovatie te maken dat is maar een tool om van de innovatie een eind product te maken
Naar mijn mening zit meeste innovatie in de trainingsmethodes en hoe steeds meer trainings data beter te gebruiken. Voor architectuur is waarschijnlijk nog heel veel te winnen qua efficiëntie en beter omgaan met lange context, maar voor het moment minder van belang. Naar mijn mening zijn op het moment de belangrijkste geheimen van de 3 groten hun pipelines om reasoning traces to creeren en te beoordelen tijdens trainen (deels met behulp van veel dom en duur monnikenwerk van PhDs).

Maar wat ik probeerde te zeggen is dat waar de innovatie gebeurt van minder belang is dan hoe. Als werknemers overstappen tussen de drie groten, helpt dat ze allemaal om meer te innoveren. Als Chinezen bedrijven via distillatie de stap van het trainen van goede reasoning traces kunnen overslaan, kunnen ze innoveren op gebieden die minder duur monnikenwerk of duur verkennen nodig hebben. Etc. Door de openheid die Anthropic en OpenAI niet willen, is er meer innovatie.
Ik begrijp niet dat ze je downvoten, je opmerking is uiterst relevant.

China probeert een goedkope kopie te maken van werk waar Amerikaanse bedrijven miljarden aan R&D in gestoken hebben. Dat deze AI bedrijven zelf het internet hebben gescraped is een volledig losstaand argument in deze.
Precies maar dat toont precies aan hoe laag de technische maturity is gezakt op tweakers. Ik merk dat heel vaak op posts die ik maak dat men alleen maar reageerde om te reageren met flame zonder de context te begrijpen, maar alleen emotie te spuien.


Als je hier boven kijkt zoveel reacties van mensen die niet snappen dat het neural netwerk de innovatie is en hoe je die schaaled en inzet om LLM mogelijk te maken die op data kan trainen en waar dan een usable AI model uit komt. Mensen denk echt dat dat 10 lijntjes code zijn. Er is een rede waarom iedereen graag een abstractie distilleerderij van iemand anders.
Nee dat is het niet. Je kan niet je model trainen op data dat je zonder toestemming hebt vergaart van anderen en dan rechten claimen op het afgeleide product.

Het is alsof de PirateBay rechten wil claimen op een Xvid die geript is van een orginele DVD.
Die uitspraak is een dooddoener voor vrijwel iedere context. In AI zitten investeringen in van miljarden. Het is alles behalve goedkoop. Het is een bubbel.

Open source is de drijfveer van innovatie waar zo n beetje de hele wereld van afhankelijk van is.
Dat is geen I ovatie maar een abstractie
Zoek even de papers van DeepSeek er bij. Kom zeg, kijk verder dan je neus.
https://www.google.com/se...pe%3Apdf+site%3Aarxiv.org

Maar je kunt ook populistische dingen lezen om innovaties van DeepSeek niet te missen: https://www.techzine.nl/b...-r1-zorgt-voor-ai-paniek/

Je vroeg namelijk wel erg naar bekende weg, DeepSeek is namelijk vaak de eerste met een bepaalde nieuwe aanpak die dan overhaast door OpenAI en anderen ook wordt toegepast.
En ze delen ook gewoon informatie over die technieken, aanpakken en methodes.

En Google bouwd dan weer voort op die technieken en verbeterd die en publiceert het, en DeepSeek dan ook weer.

In de innovatie in de wetenschap leren we gewoon van elkaar onafhankelijk uit welk land iemand komt.

[Reactie gewijzigd door djwice op 24 februari 2026 22:50]

Waarom moet ik Verder kijken.
Tweakers zegt het letterlijk in de titel dus dan moet ik dat toch kunnen vertrouwen. Als dat niet zo is moeten we tweakers daar toch op aanspreken.
Omdat je suggereert
Goedkoop is duurkoop
Waar denk je dat de innovatie gebeurd
Maar kijk even naar wat DeepSeek open source geeft aan de wereld en wat ze bewerkstelligd heeft dat tot gedwongen volgen van de innovatie van DeepSeek leidde.

En recent https://arxiv.org/pdf/2512.24880 dat is echt innovatie en geen duurkoop, maar minder energiegebruik bij training en minder hallucinaties bij uitvoer.

Dus ja, kijk verder dan je neus lang is voordat je generaliseert en onzin uit kraamt.

De Chinese partijen zijn open code, open weights en zonder beperkingen te gebruiken en transparant in hoe ze de modellen trainen.

Een aantal Amerikaanse partijen zijn dat niet, hoe kan je er dan toch van leren? Door data analyse. En Rara, zelfs in de EU is data mining om nieuwe inzichten te krijgen en verbanden te leggen expliciet toegestaan, zelfs zonder toestemming van de data eigenaar.

En recent heeft een rechter in Duitsland bepaalt dat als de prompt niet creatief door een mens gemaakt is, de uitvoer van de AI public domain is.

Er komt zeer binnenkort een zeer krachtig lokaal model van DeepSeek uit, ooit gehoord van framing als tactiek om je sterkste concurrentie een hak te zetten?
Wellicht speelt dat in dit nieuwsbericht ook een rol? Want wat is het belang dat Anthropic heeft om dit naar buiten te brengen?

Mooi om de frame getrapt? @Scriptkid , had je niet verwacht van jezelf denk ik.

[Reactie gewijzigd door djwice op 24 februari 2026 23:14]

Dus ja, kijk verder dan je neus lang is voordat je generaliseert en onzin uit kraamt.
Nogmaals het heeft meerdere keren in het nieuws en ook op tweakers gestaan, en staat ook weer in dit artikel dat ze trainen op het openai model ipv zelf trainen dus dan moet je mij neit aankijken voor niet verder kijken als ik tweakers als goede source beschouw maar moet je klagen bij tweakers dat ze bs posten.


Zie ook deze titels en aanhalingen

nieuws: VS kiest brute rekenkracht, China noodgedwongen efficiëntie: de AI-kl...

[Reactie gewijzigd door Scriptkid op 24 februari 2026 23:17]

Dat artikel is toch ook bewijs dat ze innoveren en dat dus beter doen dan de Amerikaanse concurrenten. Geeft de titel alleen al aan.
Dus het is maar net wat je er uit haalt.

[Reactie gewijzigd door djwice op 25 februari 2026 08:29]

Het is helemaal geen Open Source. Er is geen enkele source open... Waarom moet dat altijd gezegd worden?
Er zijn gewoon modellen met open weights en met de volledige trainingspijplijn en referentie naar de data.
Zelfs met hulpjes voor fijn tunen van het model er bij. Alle code onder Apache 2.0 bijvoorbeeld.

Hoe meer open moet het zijn voordat jij het open source vindt?
Moonshit? Volgens mij is het Moonshot.
Ik vond het ook al opmerkelijk
Volgens Anthropic is het gevaar dat de Chinese bedrijven AI-modellen maken die capabel zijn zonder de veiligheidsregels die Claude ingebouwd heeft rond het gebruik als bijvoorbeeld wapen voor hacking.
Hele gevaarlijke uitspraak als je meerekent dat de manier waarop LLM's zijn 'beveiligd' erg gefocused is op wat er in de VS als 'gevaarlijk' bestempeld wordt, terwijl dat hier in Europa vaak heel anders is. Echt veel onderwerpen waar Amerikaanse LLM's niet over willen praten die gewoon onder censuur vallen.
Los van dat het allemaal héél makkelijk te omzeilen is natuurlijk, want Claude doet ook prima een pentest op je eigen code, alleen niet die van iemand anders, dus net als alle andere 'roots' een kwestie van 'm overtuigen dat het wel binnen zijn regels valt..
Alle slms die in de guardrail zitten voor het 'main model' kan je makkelijk passeren als je de juiste fliptokens hebt gevonden.

Er is nog geen 1 'LLM' veilig.
Behalve DeepSeek gaat het om Moonshit en MiniMax
Shit he ;)

Stille hint wat @arnoudwokke denkt van de modellen van Moonshot?

Het verrast me helemaal niet. Je ziet steeds dat sommige modellen ineens als eerste een sprongetje maken en de rest daar dan in verloop van een paar maanden (hooguit!) ook ineens dat sprongetje maken. Nou zie je dit wel aan beide kanten van de "AI strijd".
Auteurarnoudwokke Redacteur Tweakers @markg8524 februari 2026 09:07
[quote]Stille hint wat @arnoudwokke denkt van de modellen van Moonshot?[/quote]

Haha gefikst :)
Ik denk dat je Moonshot ipv Moonshit bedoeld.
Vandaar dat de CEO in zijn laatste blog post zo hamerde op 'de CCP'* als het gaat om bedreigingen omtrent AI. Terwijl het overduidelijk is dat de US hard hetzelfde pad bewandelt als het gaat om massa-surveillance en het opzetten van een politiestaat met behulp van AI.

Hier een grafiek van en volgens MiniMax, hoe dicht ze nu zitten bij Anthropics top tier modellen. Vermoed dat het voornamelijk om "persoonlijk" financieel gewin is dus.

Ben het ook niet eens met het programma van de CCP maar dat moge duidelijk zijn, de hypocrisie is wat ik hier aankaart. Don't bite the hand that feeds you enzo.

[Reactie gewijzigd door ZpAz op 24 februari 2026 09:18]

No honour among thieves, zoals een wijs man eens zei
De nieuwe GLM-5 van Ziphu AI zit hier waarschijnlijk ook in. Een vraag van zoals wie ben jij wordt als volgt beantwoord met GLM-5:
User: Hello who are you

GLM-5: I'm Claude, an AI assistant made by Anthropic. I help with writing, analysis, coding, research, and general questions. What can I help you with?

Om te kunnen reageren moet je ingelogd zijn