Broncode Claude Code is naar verluidt gelekt via npm-register

Anthropic heeft naar verluidt de broncode van Claude Code gepubliceerd via een .map-bestand in het npm-register van het bedrijf. Het bestand verwees naar een onbeveiligde R2-bucket, een opslagdienst van Cloudflare, waar de volledige broncode kon worden gedownload.

Het lek werd als eerste ontdekt door Chaofan Shou en is inmiddels opgenomen in een GitHub-repository. Volgens de repo zijn 1900 bestanden en meer dan 512.000 regels code uitgelekt. Het gaat onder meer om de tools die Claude Code kan gebruiken, de opdrachten die de bot kan uitvoeren en de communicatielaag die Claude Code verbindt met ontwikkelomgevingen als VS Code en JetBrains.

Het lek bevat ook het bestand QueryEngine.ts, dat ongeveer 46.000 regels code bevat. Dit bestand beschrijft hoe Claude Code verschillende api-calls verwerkt. Het bestand tool.ts definieert alle tools die Claude Code kan gebruiken en commands.tx beheert de registratie en uitvoering van slashcommando's.

Claude Code is de AI-programmeertool van Anthropic. De tool is onder meer te draaien als stand-aloneprogramma, via de browser of direct in de terminal.

Update, 17.36 uur – De auteur van de GitHub-repository heeft de repository inmiddels aangepast, naar eigen zeggen onder juridische druk van Anthropic. Het artikel is in eerste instantie geschreven op basis van deze versie.

AI, Claude, Anthropic (beeld: Anthropic)

Door Imre Himmelbauer

Redacteur

31-03-2026 • 17:06

29

Submitter: TheNephilim

Reacties (29)

Sorteer op:

Weergave:

Vrijwel direct heeft iemand de source code met AI vertaald naar Python (of rust) https://bsky.app/profile/gergely.pragmaticengineer.com/post/3mieex2i5cc2e. Voelt als een koekje van eigen deeg.
Vrijwel direct heeft iemand de source code met AI vertaald naar Python (of rust) https://bsky.app/profile/gergely.pragmaticengineer.com/post/3mieex2i5cc2e. Voelt als een koekje van eigen deeg.
Waarom koekje van eigen deeg?
Anthropic ligt net als andere AI bedrijven zwaar onder vuur bij makers van content voor copyright / eigenaarschap claims.

Maar deze repository heeft de code herschreven met Python, dus er is geen sprake van auteursrechtenschending en de code kan dan niet worden verwijderd met DMCA or door rechter.

Ik vermoed hierom.
Dus ik mag een copyright boek inlezen en herschrijven?
Vele mensen zien deze AI modellen als het stelen van werk van anderen maar dat is lastig hard te maken doordat de output getransformeerd is. Nu wordt het werk van Antrhopic gestolen en getransformeerd tot iets anders. Ik zie de ironie wel.
"De broncode" gaat hier om een wrapper, niet om Opus of Sonnet
Gaat het niet om de code van de tool?
Claude Code is de AI-programmeertool van Anthropic. De tool is onder meer te draaien als stand-alone programma, via de browser of direct in de terminal.
Dus het invoerscherm waar je je commando intypt en alle tools die je kunt gebruiken in je AI. Er zijn al vele plugins voor VS Code, dus tenzij Claude Code nog speciale functies heeft, is de meeste functionaliteit al bekend en ook elders op een of andere manier beschikbaar.
Als die code die gehost is binnen enkele uren geport kon worden naar Python, dan lijkt het mij dat het niet zoveel voorstelt.

Zolang het LLM model niet gelekt is, dan is de IP van Anthropic nog veilig. Want dat is hetgeen wat de code genereert en de kennis bevat.
Dat lijkt mij inderdaad de wrapper te zijn. Want de LLM zelf draait op servers en niet lokaal op een apparaat. Claude Code doet requests naar die servers.

[Reactie gewijzigd door Mayonaise op 31 maart 2026 17:51]

De meeste innovatie van dit jaar vind plaats in de wrappers en niet perse in de LLM
De titel beschrijft ook Claude Code.
Er staat toch duidelijk in het artikel dat het om claude code gaat? Dat is de tool niet de LLM's.
Vergeet de beursgang in oktober dan maar....
Zo te zien is nog niet alles gelekt en ik denk dat we daardoor vooral moeten afwachten wat de experts van de code zelf vinden. Uiteraard is het een domme fout, maar ik denk dat deze info best handig kan zijn om het bedrijf op waarde te schatten en te kijken of ze ook handelen naar wat ze zeggen.
dat is "klode"

Zonder gekheid, zou dit een menselijke fout zijn gekomen of is er iets door hun eigen AI 'aangepast'

[Reactie gewijzigd door divvid op 31 maart 2026 17:10]

we gaan het nooit weten denk ik. Beide zijn mogelijk. De LLM maakt ook heel menselijke fouten :)
Het lek bevat ook het bestand QueryEngine.ts, dat ongeveer 46.000 regels code bevat.
Hoeveel regels?!

Daar heb je inderdaad AI voor nodig om alles bij te kunnen houden :X :p
Ze kennen daar niet de DRY methode niet denk ik, haha
Het zijn vooral tools dus hebben veel json overhead.
Ik verwacht dat het sneller is als dat soort files gecompileerd worden tot 1 bestand
Waarschijnlijk interessant voor andere partijen die gelijksoortige tools bouwen etc. Maar in dit soort gevallen zou ik er toch vanaf blijven.

Stel dat Mistral ontwikkelaars die werken aan Vibe hier naar kijken .. en op basis daarvan ideeën krijgen en toepassen .. dan kan dat vast wel voor wat "gedoe" zorgen in de toekomst.

Dat je de code hebt betekent nog steeds niet dat er ook wat mee mag doen nml. Het is niet in eens "open source" geworden doordat het gelekt is.

Mistral Vibe is dat trouwen wel .. dus als je geïnteresseerd bent in dit soort tools .. dan kan je daar eens naar kijken. De achterliggende LLM kan je zelf koppelen en op je eigen hardware draaien, of je neemt een abonnement bij Mistral die je toegang geeft tot hun laatste modellen en hun rekenkracht (net als Claude Code je dat geeft)

En allemaal Europees .. dus je sponsort er ook nog eens een Europese ontwikkeling mee .. ipv een Amerikaanse.
Die partijen gebruiken allemaal AI, die waarschijnlijk GitHub scrapen en de code staat al op GitHub, dus is vereeuwigd in trainingsdata.

[Reactie gewijzigd door joint_me op 31 maart 2026 17:33]

Trainings data is wat anders dan de code daadwerkelijk lezen en toepassen.

En de oprichters van Mistral heeft ook zijn eigen idee hoe er met die data moet omgegaan worden

Mistral CEO: AI companies should pay a content levy in Europe
Nou dat is straks nog maar de vraag. Men is redelijk op drift om ook copyright te krijgen op het werk waar AI mee getrained is.

Wat ik zelf op zich nog niet zo'n vreemde vind.

[Reactie gewijzigd door batjes op 31 maart 2026 17:49]

Ja, ik vraag LLM netjes om te rapporteren waar de code over gaat, maar lees de code zelf niet. Dan mag het. ;)
Dat wat op Github staat, is niet de originele gelekte bestanden. Dat mag je immers niet publiceren, want beschermd onder copyright. Maar omzettingen in andere programmeertalen (afgeleid werk) vallen niet onder Amerikaans copyright, dat veel letterlijker opgevat is dan het Europese, en niet het moreel/conceptueel eigenaarschap als basis heeft zoals bij ons. Daarom staat in de bovenvermelde repository het lek, geport van Typescript naar Python (middels Codex).
Dit lijkt simpelweg een reguliere source map te zijn. Bij het gebruik van TypeScript of vergelijkbare build-tools leggen deze bestanden de koppeling tussen de uitgevoerde JavaScript en de originele broncode, puur om debugging te vergemakkelijken. Typisch gezien zet je dit inderdaad uit op je productie (of op z'n minst heb je inlineSource uit staan). De betreffende JavaScript code was dus al (waarschijnlijk) lokaal aanwezig (in de betreffende cli.js), dus de logica was technisch gezien al toegankelijk; de source map maakt het alleen een stuk leesbaarder. Een interessante vondst, maar in de praktijk kon je die code hiervoor ook al prima aanpassen en draaien. Niet alsof er "echt" nieuwe code gelekt lijkt te zijn.

[Reactie gewijzigd door AlRoke op 31 maart 2026 18:00]


Om te kunnen reageren moet je ingelogd zijn