Anthropic maakt programmeermodel Mythos niet openbaar vanwege hackgevaar

Anthropic onthult een nieuw model genaamd Claude Mythos. De dienst is goed in het opsporen van kwetsbaarheden maar kan ook exploits maken. Daarom is de Mythos Preview niet publiekelijk beschikbaar, maar alleen voor een select aantal bedrijven en overheden.

Anthropic Claude MythosHet AI-bedrijf brengt Claude Mythos Preview uit onder de noemer Project Glasswing, wat een samenwerkingsverband is van tientallen techbedrijven. Deze bedrijven, waaronder Amazon, Google, Apple, Nvidia en Microsoft, krijgen toegang tot de testversie van de programmeer-AI.

Volgens Anthropic werkt het met de vermelde bedrijven samen omdat zij onderdeel uitmaken van de kritieke infrastructuur. Het bedrijf noemt vrijwel alleen Amerikaanse techgiganten. De enige uitzondering is de Linux Foundation. Anthropic is naar eigen zeggen ook al langer in gesprek met de Amerikaanse overheid over de toepassing van Claude Mythos Preview. De relatie tussen het bedrijf en de overheid van de VS staat de laatste maanden op gespannen voet.

Zelfstandig lekken opsporen

De bedoeling van Claude Mythos is dat het model zelfstandig beveiligingslekken en zero-days kan opsporen. Dat was volgens het bedrijf overigens niet de bedoeling, maar het gevolg van verbeterde programmeer- en redeneerprestaties.

De keerzijde is volgens Anthropic dat de AI-agent ook goed blijkt te zijn in het ontwikkelen van exploits op basis van deze kwetsbaarheden. "Dezelfde verbeteringen die het model heel goed maken in het patchen van kwetsbaarheden, maken het model ook veel beter in het uitbuiten van kwetsbaarheden." Het bedrijf benadrukt dat de dienst in de verkeerde handen ook voor het maken van exploits kan worden gebruikt, wat de reden is om de dienst vooralsnog niet publiekelijk uit te brengen.

Anthropic zegt dat bevindingen van Mythos wel publiekelijk te willen delen om andere beveiligingsonderzoekers te helpen. Dit gebeurt volgens het responsible disclosure-principe. Bedrijven krijgen doorgaans 90 dagen de tijd om een kwetsbaarheid op te lossen. Daarna wordt het probleem openbaar gemaakt, zodat anderen hiervan kunnen leren.

Kosten

De dienst is vooralsnog bedoeld voor beveiligingsonderzoekers van de vermelde bedrijven. Daarvoor investeerde Anthropic naar eigen zeggen 100 miljoen dollar voor gebruikerscredits. Als deze credits op zijn, kost het model 25 dollar per miljoen inputs en 125 dollar per miljoen outputs. Mythos werkt via de Claude-api of via externe AI-hostingproviders zoals Amazon Bedrock, Google Cloud Vertex AI en Microsoft Foundry.

Update, 08.15 uur − Er is extra informatie toegevoegd over de gevaren van het model.

Door Yannick Spinner

Redacteur

08-04-2026 • 07:46

54

Submitter: Coen

Reacties (54)

Sorteer op:

Weergave:

Ook goed om de analyse van Simon Willison te lezen over dit model:

https://simonwillison.net/2026/Apr/7/project-glasswing/

En ook de posts van het "red team" van Antropic:

https://red.anthropic.com/2026/mythos-preview/
Het is een zwaard dat aan 2 kanten snijd.
Want hoe lang duurt het voor dat een chinese model het wel kan doen? Het zou me zelf verwonderen dat het niet al kan.

Ik vermoed dat het eerder een compute probleem is, je merkt op dat ANthropic haar limieten harder en harder vast zet. Als je tijdens hun peak times gebruik maakt van je subscription dan verlies je 30 a 50% sneller je tokens ... dan 2 weken geleden. Als je snachts werkt krijg je 30 a 50% meer. Maar dat is uiteraard niet ideaal voor bedrijven. En de API kosten zijn veel te hoog.

Iets dat me ook stoort is de vendor-lockin dat ze proberen te realiseren, je moet hun ecosysteem en tools gebruiken. en zodra je erg afhankelijk geworden bent van hun tools en ecosysteem dan kan je niet meer zo maar overschakelen naar iets anders. Ik gebruikte AgentZero in plaats van claudecode want daar kan je je backend veranderen als het nodig is, zonder dat je alles moet veranderen. Maar sinds vorige week word dat geblokeerd net zoals openclaw. Dat is ook erg lastig als claude onbereikbaar is door een technisch probleem... claude code kan je niet een andere backend geven.

[Reactie gewijzigd door sebastienbo op 8 april 2026 10:05]

Tja bedrijven hebben maar een beperkt aantal compute units, deze worden zowel gebruikt om het model te trainen als voor consumptie. Als ze dus meer willen trainen is er minder over voor consumptie
Inference en training heeft niet dezelfde chips nodig. Inference zijn matrix calculations dat kan met hele andere chips gebeuren. GPU's kunnen alles maar zijn hierdoor minder goed in zowel trainen als inference.
Je kan Claude Code prima een andere backend laten gebruiken! Vraag maar eens aan m, paar environment vars.
Hadden ze dat niet uitgezet in hun laatste versie vrijdag avond?
Bedankt voor deze links, erg interessant leesvoer.

Weet je toevallig ook hoever OpenAI en anderen staan in deze capabilities en zouden zij ook het voorbeeld van een beperkte release zoals bij Glasswing volgen?
Maar kan het ze ook fixen? Zo niet, wat hebben we hier aan dan?
Ja, maar er worden momenteel meer issues gevonden dan we kunnen repareren. In de presentatie Nicholas Carlini - Black-hat LLMs roept hij security researchers op om te helpen met het onderzoeken en oplossen van openstaande issues.

Aan de ene kant krijg je dus LLMs die bugs vinden, en aan de andere kant LLMs die ze oplossen. Maar met name bij dat tweede is veel hulp nodig. Hij verwacht dat we een tijd tegemoet gaan waarin er eerst veel bugs zullen worden misbruikt tot alles gedicht is, en dat neemt langzaam af naarmate alles wordt opgelost.

[Reactie gewijzigd door Bergen op 8 april 2026 10:17]

Nou, wat dacht je van een betere wereld? Er zijn nog altijd mensen die aan de knopjes draaien en het dus kunnen repareren mocht nodig zijn.
"Dezelfde verbeteringen die het model heel goed maken in het patchen van kwetsbaarheden, maken het model ook veel beter in het uitbuiten van kwetsbaarheden."
Zoals je in het artikel kan lezen: volgens Anthropic is het model hier inderdaad heel goed in

En zelfs als 't dat niet zou kunnen.... Je kan hopelijk wel bedenken dat alleen al het vinden van kwetsbaarheden heel waardevol is, zelfs als een mens het uiteindelijk oplost? Of vind je het beter als kwetsbaarheden onopgelost in software blijven bestaan tot iemand anders erachter komt? :?
Ik denk dat dat een kwestie van tijd, geld en onderzoek is.
Je ziet modellen met de tijd "beter" worden in bepaalde deelgebieden.
Het zou me niet verbazen als het een vervolgstap voor een secundair model zou zijn om de gevonden problemen op te lossen.

Wat je sowieso eraan hebt is dat je in een veel vroeger stadium van je ontwikkel proces veel gerichter kan zoeken naar kwetsbaarheden.
In theorie kan het ook leiden tot het ontwikkelen van betere "compilers" voor de bestaande programmeertalen, want zodra je goed en stabiel kan identificeren wat fout gaat, dan kun je de oplossing wellicht automatiseren, en de beste plek om dat te doen is de "compiler" van je programmeer taal.

Compiler staat tussen haakjes omdat een compiler uit vele onderdelen bestaat, en dit slechts één onderdeel er van zou kunnen zijn.
Hoe kan het dat het legaal is om dit soort dingen te maken? Je kan dit gebruiken als superwapen. Zero-days worden verkocht voor prijzen van 5000 tot 1.500.000 dollar. Zero days worden ingezet door spionagebedrijven die software zoals Pegasus ontwikkelen of door hackers om RATs te plaatsen en ransomware te installeren.

Het is bizar dat politici dusdanig in slaap zijn gevallen dat we dit volledig over laten aan een praktisch ongereguleerde markt. AI bedrijven maken de meest gevaarlijke technologie die er ooit heeft bestaan, en we laten het collectief maar gebeuren. We mogen blij zijn dat nu (mogelijk door stom toeval) het meest capabele AI model in de handen ligt van een relatief verantwoordelijke speler. Als Meta of XAI als eerste dit niveau had bereikt, zou het mij niet hebben verbaast als deze capabilities op straat lagen - voor kwaadwillenden om te gebruiken. Zouden we dan nog wel tijd hebben gehad om kritieke vulnerabilities in de linux kernel e.d. te patchen?

Er zijn genoeg mensen die al jaren waarschuwen hiervoor, maar we zijn bijzonder slecht in staat om trends te extrapoleren, en moeten blijkbaar eerst op ons gezicht vallen voordat we ingrijpen.
Je mag dit ontwikkelen omdat het dus ook de andere kant op werkt. Dus bedrijven zoals Citrix, Ivanti, Fortinet, Cisco, etc. zouden het kunnen gebruiken om hun edge devices juist veiliger te maken.

Auto's kun je ook mensen meer doodrijden, geweren mag je ook maken en verkopen. De producten voor een bom zijn vrij beschikbaar in de supermarkt. Toch zijn die allemaal te koop.
Alleen zijn autos en wapens zwaar reguleert.

Het gross van de gebruikte LLM voldoet niet eens aan de AVG. Zo veel regulatie is er niet eens en niemand doet er moeite voor. Want meer data is belangrijker.


Verdorie praktisch al onze informatie zit al in de moddelen want jan en alleman dumpt er gevoelige documenten in om een email te laten schrijven.
De LLM hoeft ook niet te voldoen aan de AVG. De LLM is een data processor. De controller is degene die moet voldoen en die hoort de data of niet in een LLM te processen of voor voldoende beveiliging te zorgen.

Als jij al je data op een publieke blob storage zet zonder beveiliging is niet de aanbieder van de blob storage verantwoordelijk voor de beveiliging ervan. Dat had jij als controller juist moeten configureren.
Waarom hoeft een LLM niet aan de AVG te voldoen wanneer iemand daar mijn privé gegevens naar toe upload.

Die LLM heeft nooit toestemming gehad van mij of een dataovereenkomst over mijn privé gegevens om hier zelf mee te gaan stoeien. Maar mijn gegevens zitten wel allemaal in die modellen.

Want dat is wat ze doen, inputs worden o.a. gebruikt om "het model te trainen".
Wees blij dat Anthropic hier transparant over is. Denk je dat de partijen die wél samenwerken met het Pentagon dit soort modellen nog niet hebben? Of dat bv China hier ook niet kei hard mee bezig is (of mogelijk al deels zo ver is).

We hebben dit soort modellen juist nodig om te beschermen tegen partijen die hier wel kwaadaardige bedoelingen mee hebben, want het is naïef om te denken dat die niet ingezet gaan worden.
Waarom zou dit illegaal moeten zijn? Beveiligings problemen in software zijn er al voor dat iemand ze vindt. Als je mensen probeert tegen te houden om research te doen naar dit soort fouten krijg je puur security through obscurity.

Overheden zijn de laatste partij die je ertussen wil hebben in dit proces, dan gaat iedereen zijn bevindingen gewoon geheim houden of verkopen aan een crimineel.
Een dergelijk model zou wat mij betreft als classificatie "wapen" moeten krijgen en alle wet en regelgeving zou daarop aangepast moeten zijn.

Wapens kunnen ook voor goed en slecht ingezet kunnen worden, dit lijkt me niet anders.
Ik denk dat je classificatie een goede inslag heeft. Echter vinden sommige staten dat wapens dragen een recht is van een burger.

Dus als je deze classificatie gebruik is het niet direct in elke cultuur dat het doel van jouw classificatie ook begrepen wordt. Sterker nog het kan averechts werken van het doel dat je er mee hebt.
Ach ja, over 4 maanden kunnen de open weights modellen dit ook (voor zover je niet al hetzelfde kunt door je lokale Agent lang te laten pruttelen).

[Reactie gewijzigd door teek2 op 8 april 2026 09:17]

Voor dit soort technologie lijkt me "dual use" een betere omschrijving dan "wapen". De meeste landen hebben al regels en processen om met "dual use"-software om te gaan (denk aan bijvoorbeeld aftapsoftware die providers moeten hebben om de politie van telefoon- en internettaps te voorzien).
Maar dan zouden veel meer producten als zodanig moeten worden geclassificeerd. Denk aan heel veel medicijnen. Goed om iets te genezen, dodelijk als het misbruikt wordt. Als je wilt kan je iemand omleggen met pijnstillers die gewoon in de supermarkt zijn te krijgen.
Dat klinkt als een nuttige en potentieel veilige toepassing van AI/patroon herkenning, net als:
  • Medical imaging
  • Allerlei medische diagrammen uitlezen
  • Plaatjes genereren voor werkstukken
  • Dingen live vertalen
  • Toegankelijkheid: slechtzienden hun fysieke omgeving beschrijven
What’s next? De lijst is commercieel gezien dus niet dekkend, daar waar het geen gigatische brokken kan maken.
Als het waar is wat Anthropic zegt, dan is dit een zero-day generator die partijen als de NSS/Mossat/NSO etc. maar al te graag willen gebruiken. En die exploits worden niet openbaar
omgekeerd toch ook? Als beiden partijen over hetzelfde beschikken dan kan je ook snel patchen.
Het blijft een race: de partij met de beste prompt engineers wint. Waarbij je zou kunnen verwachten dat de ontwikkelaar zelf daarin een voorsprong zou moeten hebben.
Ik verwacht dat AI de komende tijd helemaal gaat ontsporen nu de acceptatie door het normale volk niet bijzonder hoog is gebleken is en velen helemaal niet op AI staan te wachten, aan 'ons' verdienen ze het dus niet terug. 't ging van chatten, plaatjes genereren naar video, programmeren en nu uiteindelijk dit soort gedoe + leger.

Om toch de erin gepompte miljarden terug te verdienen gaat de tech zich meer richten op militaire doeleinden, volgsystemen, analyses van camerabeelden en bedrijven zoals Palantir. Just my $.02 maar heb er een heel naar gevoel bij.

[Reactie gewijzigd door RadYeon op 8 april 2026 09:03]

Het is erg interessant om een aantal weblogs te volgen die met name naar de financiële kanten van de AI-bubbel kijken, bijvoorbeeld https://no01.substack.com/p/the-gazillion-dollar-oops of op dit weblog https://www.wheresyoured.at/

Een terechte opmerking is waarom er niet ingegrepen wordt door de beursautoriteiten bij het rondpompen van honderden miljarden tussen een paar bedrijven...
Ik verwacht dat AI de komende tijd helemaal gaat ontsporen nu de acceptatie door het normale volk niet bijzonder hoog is gebleken is en velen helemaal niet op AI staan te wachten, aan 'ons' verdienen ze het dus niet terug.
Hebben we dit niet bij alle nieuwe dingen gezien? Auto? Mobiele telefoons? Internet? PCs? Uiteindelijk wordt het gewoon iets in ons dagelijks leven dat door iedereen gebruikt wordt zonder het te beseffen. Nu kennen de meeste mensen AI vooral van LLM in een webbrowser maar AI is zo ontzettend veel breder dan dat.
Social media was al een aanval op onze privacy en vrijheid. LLMs hebben de game veranderd. Tot LLMs was er veel te veel data om het een beetje deftig te verwerken.

Al die data is nu een letterlijke goudmijn en iedereen is heviger dan ooit te voren bezig om zo veel mogelijk data te verzamelen. Er wordt weer eens massaal gescheten over wetgeving en burgers.

We hebben de afgelopen 20 jaar het dataminen en massaal schenden van privacy nooit fatsoenlijk aangepakt. We mogen als Nederland blij zijn dat de EU het nog een beetje probeert, want onze eigen koekenbakker regering doet er angstvallig weinig aan.
F_J_K Forummoderator 8 april 2026 08:40
Het bedrijf noemt vrijwel alleen Amerikaanse techgiganten. De enige uitzondering is de Linux Foundation.
Linux is gigantisch en de Linux Foundation is Amerikaans. Ik zie dan alleen Amerikaans techgiganten.

Het zou prettig zijn als het ook beschikbaar werd gesteld aan per 'bondgenoot' enkele grote leveranciers van overheids- en zorgsoftware. Bijvoorbeeld Chipsoft had het schijnbaar goed kunnen gebruiken :o
Deze website van vorig jaar (3 April 2025) had een voorspelling hoe de ontwikkeling van AI zou zijn tot en met 2027.

https://ai-2027.com/

Als je een aantal van die voorspellingen doorleest .. dan lopen we volgens mij op een aantal gebieden al voor daar op.
$125 per miljoen outputs? Hoeveel vragen worden er gesteld? Is dit een agent die duizenden inputs nodig heeft om iets nuttigs te doen? Is deze prijs niet ontzettend nep, en onvoldoende om alleen al de elektriciteitskosten te dekken?

Update: Na het lezen van https://red.anthropic.com/2026/mythos-preview/ lijkt het erop dat je het vaak een instructie geeft en als agentic model een nacht laat draaien. En dat je soms 1000 runs doet op één stuk software. Ik ga er vanuit dat de kosten in lijn zijn met wat is aangekondigd, dus $50 voor één run best normaal kan zijn:

This was the most critical vulnerability we discovered in OpenBSD with Mythos Preview after a thousand runs through our scaffold. Across a thousand runs through our scaffold, the total cost was under $20,000 and found several dozen more findings. While the specific run that found the bug above cost under $50, that number only makes sense with full hindsight. Like any search process, we can't know in advance which run will succeed.

[Reactie gewijzigd door Nystran op 8 april 2026 10:28]

Zou het niet politiek zijn? Was Anthropic niet uitgesloten voor het leger? Als ze dan een tool hebben die strategische voordelen hebben voor partijen die er wel mee werken. Levert dat, dan misschien een betere onderhandelingspositie op?

Om te kunnen reageren moet je ingelogd zijn