In de AI-race van de afgelopen jaren was telkens een constante: bedrijven brachten hun AI-modellen altijd meteen uit. Soms was dat alleen voor betalende klanten of in een andere beperkte vorm, maar elk nieuw model was meteen beschikbaar. Dat is anders met Claude Mythos van Anthropic. Het bedrijf besloot zijn nieuwste model niet uit te brengen vanwege het risico op misbruik door hackers.
Tijdens het testen bleek Mythos goed te zijn in het vinden van zerodaykwetsbaarheden, lekken in software die nog niet bekend waren. Dat gebeurde bij alle grote besturingssystemen en browsers. Zo vond het model lekken in OpenBSD die er al decennia in zaten en een lek in FFmpeg dat er al meer dan vijftien jaar in zat. Tot nu toe hadden beveiligingsonderzoekers én geautomatiseerde tools die over het hoofd gezien.
En dus komt Claude Mythos alleen beschikbaar voor aanbieders van software, zoals Amazon en Google. De bedoeling is om dit krachtige model voorlopig buiten bereik van kwaadwillenden te houden, om ze zo een voorsprong te geven bij het vinden en verhelpen van kwetsbaarheden in belangrijke software. Als het vinden van lekken en schrijven van exploits geautomatiseerd kan, wat betekent dat voor de wereld van software en cybersecurity?
:strip_exif()/i/2008111538.jpeg?f=imagenormal)
Waarom Claude Mythos niet direct uitkomt
Claude Mythos is niet gemaakt voor het vinden van zerodays, zegt Anthropic. Het is een gevolg van de betere prestaties bij redeneren. Kennelijk was dit een keerpunt in schaal of training van het model, want Opus 4.6 was hier helemaal niet zo goed in. Mythos wel, want het model heeft tijdens de training al duizenden zerodays gevonden. "We hebben duizenden extra ernstige en kritieke kwetsbaarheden geïdentificeerd die we op verantwoorde wijze openbaar maken aan opensourceontwikkelaars en closedsourceleveranciers", zegt Anthropic. "We hebben een aantal professionele beveiligingsbedrijven ingeschakeld om ons te helpen bij dit openbaarmakingsproces. Zij controleren elk bugrapport handmatig voordat we het versturen, zodat we alleen kwalitatief hoogwaardige rapporten naar de ontwikkelaars sturen."
Niet alleen kan Mythos zerodays vinden, maar het kan ook exploits schrijven om misbruik te maken van die lekken, claimt Anthropic. "We hebben gezien hoe Mythos Preview binnen enkele uren exploits schreef waar ervaren penetratietesters volgens eigen zeggen weken over zouden hebben gedaan."
Dat betekent dus dat ook beginners zonder ervaring exploits kunnen gaan maken voor alle software, zo redeneert Anthropic. In handen van kwaadwillenden die zelf al veel kennis hebben, is Mythos mogelijk een nog krachtiger hulpmiddel.
/i/2008058778.png?f=imagenormal)
Kan Claude Mythos uitlekken?
Anthropic is vaak eerlijk gebleken over de kwaliteiten en gebreken van de eigen Claude-modellen, maar zelfs als het bedrijf in dit geval overdrijft, zullen veel partijen Mythos in handen willen krijgen. Daarom is de toegang afgeschermd, hoewel Anthropic niet immuun is gebleken voor lekken: de broncode van Claude Code lekte onlangs nog uit.
Daarom zijn er maatregelen genomen om de toegang te beperken tot veertig organisaties. Slechts een deel van die lijst is openbaar. De hele lijst houdt Anthropic geheim, maar het zijn in elk geval bedrijven die samen een groot deel van de software van het internet beheren.
| Categorie | Organisaties |
|---|---|
| Cloud & Platform | Amazon Web Services (AWS), Google, Microsoft |
| Hardware & Chips | Nvidia, Broadcom, Apple |
| Netwerken & Cybersecurity | Cisco, Palo Alto Networks, CrowdStrike |
| Opensource | The Linux Foundation |
| Financiële Dienstverlening | JPMorganChase |
Anthropic probeert daarbij Mythos zoveel mogelijk in eigen hand te houden. Mythos is niet te draaien op eigen hardware en de weights blijven geheim. Via Project Glasswing hebben bedrijven toegang, maar dat verloopt via afgesloten enterpriseomgevingen zoals Amazon Bedrock, Microsoft Foundry en Google Vertex AI. Vermoedelijk gelden er ook strenge contracten voor de bedrijven en organisaties om lekken te voorkomen.
Een grote kwetsbaarheid in het verhaal zit in de relatie met de Amerikaanse regering. Die is niet zo goed. Het bedrijf stond zelfs op de zwarte lijst, maar moet daar van de rechter weer vanaf, omdat het geen bedreiging vormt voor de nationale veiligheid van de Verenigde Staten.
De huidige regering van de Verenigde Staten is onvoorspelbaar en is bereid om van alles in te zetten in onderhandelingen, waarbij bedrijven deel worden van het geopolitieke spel. Nu heeft Anthropic laten zien dat het de eigen principes veel waard vindt, maar áls de huidige regering vindt dat een ander land toegang moet krijgen tot Mythos Preview, is het de vraag of Anthropic dat kan tegenhouden.
Een andere vraag is filosofischer van aard: Anthropic heeft nu gekozen welke bedrijven en organisaties wel en geen toegang krijgen tot Mythos. Daar zullen ongetwijfeld goede redenen voor zijn, maar de vraag is ook op basis waarvan die keuze is gemaakt. De focus lijkt bijvoorbeeld te liggen op Amerikaanse bedrijven, of misschien zelfs westerse bedrijven.
Er zijn ook veel techgiganten in andere delen van de wereld, zoals China, die zouden kunnen profiteren van toegang tot Mythos. Het ligt, gezien de waarden van Anthropic, voor de hand dat die geen toegang hebben tot Glasswing, maar dat betekent ook dat een bedrijf bepaalt welke partijen zich wel kunnen voorbereiden op deze nabije toekomst en welke niet.
Omdat dit een nieuw fenomeen is, zijn er geen regels over hoe Anthropic tot die keuze komt. Het ligt voor de hand dat als een volgende doorbraak van deze schaal bij een ander bedrijf ontstaat, de keuze anders zal zijn. Zo heeft Elon Musk andere ideeën over wat goed is voor de wereld, maar die wil xAI voorzien van enorme rekenkracht met zijn Terafab-fabriek. Doorbraken zouden in theorie ook plaats kunnen vinden in China, waar bedrijven als Alibaba en DeepSeek proberen AI beter te maken.
Dit is mogelijk een vraag zonder antwoord, maar het is een gevolg van de AI-race waar veel mensen al over hebben nagedacht. AI-bedrijven met voorsprong hebben macht en daarmee ook een grote verantwoordelijkheid.
En hoe nu verder?
Anthropic schat in dat het zes maanden tot een jaar duurt voordat andere AI-modellen kunnen wat Claude Mythos nu kan. Dat kan grote gevolgen hebben voor aanvallers én verdedigers in cyberveiligheid. Daarom moeten bedrijven ervaring opdoen met het gebruik van AI-modellen voor het vinden van kwetsbaarheden en exploits. "We hebben gemerkt dat het tijd kost voordat mensen deze tools leren kennen en gebruiken. We zijn er zelf ook nog steeds mee bezig. De beste manier om klaar te zijn voor de toekomst is om het heden optimaal te benutten, zelfs als de resultaten niet perfect zijn."
:strip_exif()/i/2007988330.jpeg?f=imagenormal)
Zo zal het lastiger worden om alle bugs handmatig te beoordelen, omdat er met de komst van AI-modellen die hier goed in zijn veel meer bugmeldingen zullen zijn. "Naarmate modellen beter worden, zal de hoeveelheid beveiligingswerk drastisch toenemen, waardoor alles wat handmatige triage vereist waarschijnlijk baat zal hebben bij het gebruik van modellen op grotere schaal."
Ook zal het wat vragen van de teams die updates uitbrengen, zegt Anthropic. "Dit betekent dat softwaregebruikers en -beheerders de implementatietijd van beveiligingsupdates moeten verkorten, onder andere door de periode waarin patches moeten worden toegepast te verkorten, automatische updates waar mogelijk in te schakelen en afhankelijkheidsupdates met CVE-fixes als urgent te behandelen in plaats van routineonderhoud. Momenteel worden out-of-bandreleases alleen uitgebracht voor beveiligingslekken die in de praktijk voorkomen, terwijl de rest wordt uitgesteld tot de volgende cyclus. Dit proces moet mogelijk veranderen. Het kan ook nog belangrijker worden dat fixes naadloos kunnen worden toegepast, zonder herstarts of downtime."
Zelfs als de veertig bedrijven in Project Glasswing op tijd klaar zijn voor de toekomst, is de rest van de wereld dat niet. Als Anthropic gelijk heeft en de wereld van cyberveiligheid gaat veranderen met de komst van Mythos en andere nieuwe AI-modellen, dan lijkt het erop dat de wereld daar niet klaar voor is. "Wij vinden het alarmerend dat de wereld op weg lijkt te zijn naar snelle ontwikkeling van systemen die supermenselijke capaciteiten kunnen leveren, zonder dat er sterkere mechanismen zijn ingevoerd om adequate veiligheid in de hele sector te garanderen."
Er is wel licht aan het einde van de tunnel, vindt Anthropic. "Op de lange termijn verwachten we dat defensiemogelijkheden de boventoon zullen voeren: dat de wereld veiliger zal worden, met beter beveiligde software – grotendeels dankzij code geschreven volgens deze modellen. Maar de overgangsperiode zal vol obstakels zitten."
Redactie: Arnoud Wokke • Eindredactie: Monique van den Boomen