Anthropic maakt programmeermodel Mythos niet openbaar vanwege hackgevaar

Anthropic onthult een nieuw model genaamd Claude Mythos. De dienst is goed in het opsporen van kwetsbaarheden maar kan ook exploits maken. Daarom is de Mythos Preview niet publiekelijk beschikbaar, maar alleen voor een select aantal bedrijven en overheden.

Anthropic Claude MythosHet AI-bedrijf brengt Claude Mythos Preview uit onder de noemer Project Glasswing, wat een samenwerkingsverband is van tientallen techbedrijven. Deze bedrijven, waaronder Amazon, Google, Apple, Nvidia en Microsoft, krijgen toegang tot de testversie van de programmeer-AI.

Volgens Anthropic werkt het met de vermelde bedrijven samen omdat zij onderdeel uitmaken van de kritieke infrastructuur. Het bedrijf noemt vrijwel alleen Amerikaanse techgiganten. De enige uitzondering is de Linux Foundation. Anthropic is naar eigen zeggen ook al langer in gesprek met de Amerikaanse overheid over de toepassing van Claude Mythos Preview. De relatie tussen het bedrijf en de overheid van de VS staat de laatste maanden op gespannen voet.

Zelfstandig lekken opsporen

De bedoeling van Claude Mythos is dat het model zelfstandig beveiligingslekken en zero-days kan opsporen. Dat was volgens het bedrijf overigens niet de bedoeling, maar het gevolg van verbeterde programmeer- en redeneerprestaties.

De keerzijde is volgens Anthropic dat de AI-agent ook goed blijkt te zijn in het ontwikkelen van exploits op basis van deze kwetsbaarheden. "Dezelfde verbeteringen die het model heel goed maken in het patchen van kwetsbaarheden, maken het model ook veel beter in het uitbuiten van kwetsbaarheden." Het bedrijf benadrukt dat de dienst in de verkeerde handen ook voor het maken van exploits kan worden gebruikt, wat de reden is om de dienst vooralsnog niet publiekelijk uit te brengen.

Anthropic zegt dat bevindingen van Mythos wel publiekelijk te willen delen om andere beveiligingsonderzoekers te helpen. Dit gebeurt volgens het responsible disclosure-principe. Bedrijven krijgen doorgaans 90 dagen de tijd om een kwetsbaarheid op te lossen. Daarna wordt het probleem openbaar gemaakt, zodat anderen hiervan kunnen leren.

Kosten

De dienst is vooralsnog bedoeld voor beveiligingsonderzoekers van de vermelde bedrijven. Daarvoor investeerde Anthropic naar eigen zeggen 100 miljoen dollar voor gebruikerscredits. Als deze credits op zijn, kost het model 25 dollar per miljoen inputs en 125 dollar per miljoen outputs. Mythos werkt via de Claude-api of via externe AI-hostingproviders zoals Amazon Bedrock, Google Cloud Vertex AI en Microsoft Foundry.

Update, 08.15 uur − Er is extra informatie toegevoegd over de gevaren van het model.

Door Yannick Spinner

Redacteur

08-04-2026 • 07:46

43

Submitter: Coen

Reacties (43)

Sorteer op:

Weergave:

Ook goed om de analyse van Simon Willison te lezen over dit model:

https://simonwillison.net/2026/Apr/7/project-glasswing/

En ook de posts van het "red team" van Antropic:

https://red.anthropic.com/2026/mythos-preview/
Het is een zwaard dat aan 2 kanten snijd.
Want hoe lang duurt het voor dat een chinese model het wel kan doen? Het zou me zelf verwonderen dat het niet al kan.

Ik vermoed dat het eerder een compute probleem is, je merkt op dat ANthropic haar limieten harder en harder vast zet. Als je tijdens hun peak times gebruik maakt van je subscription dan verlies je 30 a 50% sneller je tokens ... dan 2 weken geleden. Als je snachts werkt krijg je 30 a 50% meer. Maar dat is uiteraard niet ideaal voor bedrijven. En de API kosten zijn veel te hoog.

Iets dat me ook stoort is de vendor-lockin dat ze proberen te realiseren, je moet hun ecosysteem en tools gebruiken. en zodra je erg afhankelijk geworden bent van hun tools en ecosysteem dan kan je niet meer zo maar overschakelen naar iets anders. Ik gebruikte AgentZero in plaats van claudecode want daar kan je je backend veranderen als het nodig is, zonder dat je alles moet veranderen. Maar sinds vorige week word dat geblokeerd net zoals openclaw. Dat is ook erg lastig als claude onbereikbaar is door een technisch probleem... claude code kan je niet een andere backend geven.

[Reactie gewijzigd door sebastienbo op 8 april 2026 10:05]

Tja bedrijven hebben maar een beperkt aantal compute units, deze worden zowel gebruikt om het model te trainen als voor consumptie. Als ze dus meer willen trainen is er minder over voor consumptie
Inference en training heeft niet dezelfde chips nodig. Inference zijn matrix calculations dat kan met hele andere chips gebeuren. GPU's kunnen alles maar zijn hierdoor minder goed in zowel trainen als inference.
Bedankt voor deze links, erg interessant leesvoer.

Weet je toevallig ook hoever OpenAI en anderen staan in deze capabilities en zouden zij ook het voorbeeld van een beperkte release zoals bij Glasswing volgen?
Maar kan het ze ook fixen? Zo niet, wat hebben we hier aan dan?
Ja, maar er worden momenteel meer issues gevonden dan we kunnen repareren. In de presentatie Nicholas Carlini - Black-hat LLMs roept hij security researchers op om te helpen met het onderzoeken en oplossen van openstaande issues.

Aan de ene kant krijg je dus LLMs die bugs vinden, en aan de andere kant LLMs die ze oplossen. Maar met name bij dat tweede is veel hulp nodig. Hij verwacht dat we een tijd tegemoet gaan waarin er eerst veel bugs zullen worden misbruikt tot alles gedicht is, en dat neemt langzaam af naarmate alles wordt opgelost.

[Reactie gewijzigd door Bergen op 8 april 2026 10:17]

Nou, wat dacht je van een betere wereld? Er zijn nog altijd mensen die aan de knopjes draaien en het dus kunnen repareren mocht nodig zijn.
"Dezelfde verbeteringen die het model heel goed maken in het patchen van kwetsbaarheden, maken het model ook veel beter in het uitbuiten van kwetsbaarheden."
Zoals je in het artikel kan lezen: volgens Anthropic is het model hier inderdaad heel goed in

En zelfs als 't dat niet zou kunnen.... Je kan hopelijk wel bedenken dat alleen al het vinden van kwetsbaarheden heel waardevol is, zelfs als een mens het uiteindelijk oplost? Of vind je het beter als kwetsbaarheden onopgelost in software blijven bestaan tot iemand anders erachter komt? :?
Ik denk dat dat een kwestie van tijd, geld en onderzoek is.
Je ziet modellen met de tijd "beter" worden in bepaalde deelgebieden.
Het zou me niet verbazen als het een vervolgstap voor een secundair model zou zijn om de gevonden problemen op te lossen.

Wat je sowieso eraan hebt is dat je in een veel vroeger stadium van je ontwikkel proces veel gerichter kan zoeken naar kwetsbaarheden.
In theorie kan het ook leiden tot het ontwikkelen van betere "compilers" voor de bestaande programmeertalen, want zodra je goed en stabiel kan identificeren wat fout gaat, dan kun je de oplossing wellicht automatiseren, en de beste plek om dat te doen is de "compiler" van je programmeer taal.

Compiler staat tussen haakjes omdat een compiler uit vele onderdelen bestaat, en dit slechts één onderdeel er van zou kunnen zijn.
Hoe kan het dat het legaal is om dit soort dingen te maken? Je kan dit gebruiken als superwapen. Zero-days worden verkocht voor prijzen van 5000 tot 1.500.000 dollar. Zero days worden ingezet door spionagebedrijven die software zoals Pegasus ontwikkelen of door hackers om RATs te plaatsen en ransomware te installeren.

Het is bizar dat politici dusdanig in slaap zijn gevallen dat we dit volledig over laten aan een praktisch ongereguleerde markt. AI bedrijven maken de meest gevaarlijke technologie die er ooit heeft bestaan, en we laten het collectief maar gebeuren. We mogen blij zijn dat nu (mogelijk door stom toeval) het meest capabele AI model in de handen ligt van een relatief verantwoordelijke speler. Als Meta of XAI als eerste dit niveau had bereikt, zou het mij niet hebben verbaast als deze capabilities op straat lagen - voor kwaadwillenden om te gebruiken. Zouden we dan nog wel tijd hebben gehad om kritieke vulnerabilities in de linux kernel e.d. te patchen?

Er zijn genoeg mensen die al jaren waarschuwen hiervoor, maar we zijn bijzonder slecht in staat om trends te extrapoleren, en moeten blijkbaar eerst op ons gezicht vallen voordat we ingrijpen.
Je mag dit ontwikkelen omdat het dus ook de andere kant op werkt. Dus bedrijven zoals Citrix, Ivanti, Fortinet, Cisco, etc. zouden het kunnen gebruiken om hun edge devices juist veiliger te maken.

Auto's kun je ook mensen meer doodrijden, geweren mag je ook maken en verkopen. De producten voor een bom zijn vrij beschikbaar in de supermarkt. Toch zijn die allemaal te koop.
Wees blij dat Anthropic hier transparant over is. Denk je dat de partijen die wél samenwerken met het Pentagon dit soort modellen nog niet hebben? Of dat bv China hier ook niet kei hard mee bezig is (of mogelijk al deels zo ver is).

We hebben dit soort modellen juist nodig om te beschermen tegen partijen die hier wel kwaadaardige bedoelingen mee hebben, want het is naïef om te denken dat die niet ingezet gaan worden.
Waarom zou dit illegaal moeten zijn? Beveiligings problemen in software zijn er al voor dat iemand ze vindt. Als je mensen probeert tegen te houden om research te doen naar dit soort fouten krijg je puur security through obscurity.

Overheden zijn de laatste partij die je ertussen wil hebben in dit proces, dan gaat iedereen zijn bevindingen gewoon geheim houden of verkopen aan een crimineel.
Een dergelijk model zou wat mij betreft als classificatie "wapen" moeten krijgen en alle wet en regelgeving zou daarop aangepast moeten zijn.

Wapens kunnen ook voor goed en slecht ingezet kunnen worden, dit lijkt me niet anders.
Ik denk dat je classificatie een goede inslag heeft. Echter vinden sommige staten dat wapens dragen een recht is van een burger.

Dus als je deze classificatie gebruik is het niet direct in elke cultuur dat het doel van jouw classificatie ook begrepen wordt. Sterker nog het kan averechts werken van het doel dat je er mee hebt.
Ach ja, over 4 maanden kunnen de open weights modellen dit ook (voor zover je niet al hetzelfde kunt door je lokale Agent lang te laten pruttelen).

[Reactie gewijzigd door teek2 op 8 april 2026 09:17]

Voor dit soort technologie lijkt me "dual use" een betere omschrijving dan "wapen". De meeste landen hebben al regels en processen om met "dual use"-software om te gaan (denk aan bijvoorbeeld aftapsoftware die providers moeten hebben om de politie van telefoon- en internettaps te voorzien).
Ik verwacht dat AI de komende tijd helemaal gaat ontsporen nu de acceptatie door het normale volk niet bijzonder hoog is gebleken is en velen helemaal niet op AI staan te wachten, aan 'ons' verdienen ze het dus niet terug. 't ging van chatten, plaatjes genereren naar video, programmeren en nu uiteindelijk dit soort gedoe + leger.

Om toch de erin gepompte miljarden terug te verdienen gaat de tech zich meer richten op militaire doeleinden, volgsystemen, analyses van camerabeelden en bedrijven zoals Palantir. Just my $.02 maar heb er een heel naar gevoel bij.

[Reactie gewijzigd door RadYeon op 8 april 2026 09:03]

Het is erg interessant om een aantal weblogs te volgen die met name naar de financiële kanten van de AI-bubbel kijken, bijvoorbeeld https://no01.substack.com/p/the-gazillion-dollar-oops of op dit weblog https://www.wheresyoured.at/

Een terechte opmerking is waarom er niet ingegrepen wordt door de beursautoriteiten bij het rondpompen van honderden miljarden tussen een paar bedrijven...
F_J_K Forummoderator 8 april 2026 08:40
Het bedrijf noemt vrijwel alleen Amerikaanse techgiganten. De enige uitzondering is de Linux Foundation.
Linux is gigantisch en de Linux Foundation is Amerikaans. Ik zie dan alleen Amerikaans techgiganten.

Het zou prettig zijn als het ook beschikbaar werd gesteld aan per 'bondgenoot' enkele grote leveranciers van overheids- en zorgsoftware. Bijvoorbeeld Chipsoft had het schijnbaar goed kunnen gebruiken :o
Deze website van vorig jaar (3 April 2025) had een voorspelling hoe de ontwikkeling van AI zou zijn tot en met 2027.

https://ai-2027.com/

Als je een aantal van die voorspellingen doorleest .. dan lopen we volgens mij op een aantal gebieden al voor daar op.
Dat klinkt als een nuttige en potentieel veilige toepassing van AI/patroon herkenning, net als:
  • Medical imaging
  • Allerlei medische diagrammen uitlezen
  • Plaatjes genereren voor werkstukken
  • Dingen live vertalen
  • Toegankelijkheid: slechtzienden hun fysieke omgeving beschrijven
What’s next? De lijst is commercieel gezien dus niet dekkend, daar waar het geen gigatische brokken kan maken.
Als het waar is wat Anthropic zegt, dan is dit een zero-day generator die partijen als de NSS/Mossat/NSO etc. maar al te graag willen gebruiken. En die exploits worden niet openbaar
omgekeerd toch ook? Als beiden partijen over hetzelfde beschikken dan kan je ook snel patchen.
Het blijft een race: de partij met de beste prompt engineers wint. Waarbij je zou kunnen verwachten dat de ontwikkelaar zelf daarin een voorsprong zou moeten hebben.
Mooi! Dan is alle software over een tijdje vrij van beveiligingslekken. Toch? ... Toch?
haha grapjas.

Dit is AI, geen magie, dus er zullen genoeg kwetsbaarheden zijn die het model niet kan vinden.

Desondanks imho een goede ontwikkeling, hoe meer kwetsbaarheden worden gevonden en opgelost, hoe moeilijker het is voor kwaadwillenden om schade aan te richten.
ik neem aan dat je het grapje wel door had ?
Deze bedrijven, waaronder Amazon, Google, Apple, Nvidia en Microsoft, krijgen toegang tot de testversie van de programmeer-AI.
Ja laten we toegang geven tot een AI die zero-days kan vinden en misbruiken aan de grootste data-mafia(s) op deze planeet.
Dat heb je mis. Google vraagt nog netjes om je data en geeft je er producten voor terug. Je weet net als iedereen dat er ook hackers zijn die losgeld vragen voor data. Dat zie ik Google en consorten niet doen.
google geeft je producten en neemt je data als compensatie.
Google vraagt juist niets, die nemen wat ze kunnen zonder dat je keus hebt.
Ooit al eens zonder Google door het leven proberen gaan?
Vanaf je iets online wil doen wordt je al getracked door Google.
ja, er was een tijd voor google en je kunt ook zonder google...

Om te kunnen reageren moet je ingelogd zijn