OpenAI brengt net als Anthropic cybersecuritymodel uit voor kleine groep klanten

OpenAI heeft GPT-5.4-Cyber aangekondigd, een AI-model dat specifiek is ontwikkeld voor cybersecuritydoeleinden. Het model komt vooralsnog alleen beschikbaar voor een beperkt aantal klanten. Anthropic kondigde vorige week een vergelijkbaar model aan: Claude Mythos.

GPT-Cyber is 'bewust geoptimaliseerd voor extra cybersecuritymogelijkheden en met minder beperkingen', schrijft OpenAI. Het gaat om een versie van GPT-5.4 die minder snel cybersecurityvragen en -opdrachten zal weigeren, 'zoals binary reverse engineering capabilities'. Die laten beveiligingsonderzoekers gecompileerde software analyseren op kwetsbaarheden, zonder dat ze toegang moeten hebben tot de broncode.

Omdat dit model meer kan, laat OpenAI 'in het begin' alleen specifieke gebruikers toe. Het gaat om goedgekeurde cybersecurityverkopers, organisaties en onderzoekers. Overigens had OpenAI al een programma voor cybersecurityonderzoekers – Trusted Access for Cyber – die GPT-versies kregen met minder beperkingen. De Cyber-variant is dus een overtreffende trap hiervan.

Het GPT-Cyber-model lijkt een reactie te zijn op Anthropics Claude Mythos. Anthropic introduceerde dit model vorige week. Het model bleek tijdens de ontwikkeling onverwacht goed te zijn in het opsporen van beveiligingslekken en zerodays. Om te voorkomen dat hackers Mythos zouden misbruiken, besloot Anthropic de tool niet breed te delen.

OpenAI ChatGPT Bron: NurPhoto/Getty Images
Bron: NurPhoto/Getty Images

Door Hayte Hugo

Redacteur

15-04-2026 • 14:16

14

Reacties (14)

Sorteer op:

Weergave:

Natuurlijk kondigen ze dit aan, ze kunnen niet zomaar achterblijven.

De release naar een beperkte set klanten is hele goede marketing. Het doet men denken dat het nieuwe model heel krachtig is, zonder dat dit eenvoudig geverifieerd kan worden. De release naar een beperkte set klanten helpt ook veel in de kostprijs. Wanneer een nieuw model erg intensief is qua rekenkracht, kunnen de kosten hiervoor binnen de perken worden gehouden door deze maar beperkt beschikbaar te stellen. De prijzen kunnen ook onder NDA worden gehouden, zodat deze beter in verhouding kunnen zijn tot de kosten, zonder dat er meteen een paniek bij investeerders ontstaat over het verdienmodel.

De AI partijen hebben allang gezien dat er alleen geld te verdienen is met AI via de enterprise markt. Door een model beperkt beschikbaar te stellen kan er een pivot gemaakt worden richting enterprise. De marketing campagne rondom hoe "gevaarlijk" en "krachtig" dit model is, zorgt ervoor dat het publiek nog steeds interesse heeft en de naam actief blijft in de pers. Wanneer ze zich enkel zouden richten op enterprise zal vrijwel niemand er nog over praten buiten de experts in het vakgebied. Aangezien AI nu nog veel op hype draait, is dit niet gewenst.
Lijkt me de nieuwe marketingtruuk te zijn.
Of een voorbode van welke tools de VS/Pentagon straks kan gaan inzetten of (stiekem) delen met USA (staats) hackers?
Straks? Ga er maar van uit dat het US Cyber Command en de verschillende diensten van andere departments hier al een véél krachtigere versie van in gebruik heeft zonder restricties en inclusief offensieve mogelijkheden.
Dat is het ook gewoon. Ze moeten toch nieuwe 'functies' bedenken om relevant te blijven.
Kan. Hoeft niet. Als het echt serieus goed is, dan is het een bedreiging. De AI ontwikkelen gaan iig sneller dan de Quantum computer (die ook een bedreiging voor encryptie breken zou gaan vormen c.q. we zijn nu al jaren verder en het moment is daar nu (nog) niet (geweest).

Krachtige tools in handen van mensen met kwade bedoelingen of gebrek aan verantwoordelijkheid is natuurlijk wel een bedreiging voor ICT en de gewone burger.

[Reactie gewijzigd door kdekker op 15 april 2026 15:01]

Precies dat. Anthropic is beter dan ons dus wij moeten ook net doen alsof ons model te gevaarlijk is om in het wild los te laten.
Als dit straks in het wild beschikbaar komt gaan we wel enorme uitdagingen krijgen in de ict, want als ik het zo her en der goed gelezen heb zijn die modellen behoorlijk goed in vinden van ongediertje en gaatjes die nog niet voorzien zijn van een pleister. Maar je zou het zelf in je organisatie dan ook kunnen testen en alvast hansa plast te voorschijn halen.
Ergens heb ik de indruk dat het allemaal weinig uitmaakt in grote zin.

Alles is al sinds jaar en dag zo lek als een mandje, toch hebben we massaal besloten alles aan het internet te hangen. Overheden verzopen toch al in de zero-days en er zijn volledige all-in-one hack&scam pakketten die je gewoon online kan kopen.
Het ligt er aan hoe serieus een bedrijf of instelling beveiliging neemt. Als je niks doet heb je inderdaad op den duur een zwitserse kaas als ict met hele grote gaten. Ga je wel lagen aanbrengen in je security and andere maatregelen nemen ben je in ieder geval iets beter beschermd.
Goeie marketingtruuk van OpenAI. :')
Al deze AI-Ceo's hebben geen Cyberpunk 2077 gespeeld denk ik
Ik vraag me af in hoeverre het hier enkel om het model gaat, en niet ook het harnas of framework eromheen. Anthropic modellen kunnen prima code schrijven, maar in Claude Code neemt de kwaliteit en volledigheid echt significant toe. Hetzelfde voor OpenAI en Codex, Qwen en Qwen Code, Google en Antigravity, etc.
Voor de geïntereseerden heb ik ook een cybersecuritymodel uit voor kleine groep klanten uitgebracht. Doorbreekt zelfs de cyberblockchain van Rian.

Om te kunnen reageren moet je ingelogd zijn