MIT haalt na kritiek paper offline dat stelde dat ransomware veel AI gebruikt

Een bekritiseerde paper die claimt dat ransomwareaanvallen vorig jaar voor ruim 80 procent AI-aangedreven waren, is offline gehaald door de businessschool van MIT. De hoofdauteur antwoordt op vragen van Tweakers dat het om een vroege onderzoekspaper gaat die nu wordt bijgewerkt.

De MIT-paper die minstens een half jaar terug al uitkwam, kreeg recent flinke kritiek van beveiligingsexperts. Zo claimden de auteurs van de paper dat bijna elke grote ransomwaregroep gebruikmaakt van AI om hun hackaanvallen en afpersingscampagnes uit te voeren. Daarbij verwijzen de auteurs naar het Amerikaanse cybersecurityorgaan CISA. Volgens securityonderzoeker Kevin Beaumont is de claim van AI-gebruik door afpersers geheel niet onderbouwd en, in zijn ervaring, ook niet waar. De paper vermeldt zelfs de ransomwaregroep Emotet, maar die bestaat al jaren niet meer.

Het lijkt erop dat kort na de kritiek van Beaumont meer kritische ogen hebben gekeken naar de paper, die via de Wayback Machine nog steeds te lezen is. Het document is bij MIT echter offline gehaald. Het oorspronkelijke adres van het pdf-document gaf eerst een 404-foutmelding. Inmiddels staat daar een vervangend pdf-document met dezelfde bestandsnaam waarin de korte mededeling staat dat de paper nu wordt bijgewerkt. Dat is ook de reactie die Tweakers krijgt van hoofdauteur Michael Siegel.

Siegel is directeur bij Cybersecurity at MIT Sloan en reageert op vragen over de betwiste inhoud en het offline halen van de paper. "Excuses voor de blanco pagina", mailt hij over de 404-melding. Hij geeft aan dat daar 'binnenkort' de mededeling komt dat bezoekers de sectie hebben bereikt met 'Early Research Papers' op de website van de organisatie. De 'working paper' wordt bijgewerkt 'op basis van enkele recente reviews', aldus Siegel en de inmiddels online gekomen verklaring.

Inhoudelijke vragen beantwoordt hij vooralsnog niet. Siegel schrijft in zijn antwoord wel dat hij zal laten weten wanneer een bijgewerkte versie van de paper beschikbaar is. Verder is er nog geen reactie van de Nederlandse medeauteur en de twee medeauteurs van cyberbeveiligingsbedrijf Safe Security, waaronder de medeoprichter en chief information security officer van die Indiase leverancier. Safe Security biedt onder meer 'autonoom cyberrisicobeheer met agentic AI' en heeft Siegel als lid van de technische adviesraad.

Het document dat nu 'wordt bijgewerkt' is uitgegeven door Cybersecurity at MIT Sloan, een academisch forum dat is verbonden aan het gerenommeerde Massachusetts Institute of Technology. MIT Sloan is de businessschool van de Amerikaanse technische universiteit. Tweakers heeft naast de vier auteurs van de paper nog andere betrokkenen benaderd.

Onder de benaderde personen bevindt zich ook de communicatiedirecteur van MIT Sloan die een artikel over de AI-ransomwarepaper schreef. Dat artikel van 8 september is net als de paper toen door enkele media opgepikt, maar daarna stilletjes aangepast op de website van de businessschool. De artikeltekst vermeldt nu niet meer de bekritiseerde paper met de omstreden claim dat AI zou zijn gebruikt in 80 procent van de ransomwareaanvallen vorig jaar. Het adres van het oorspronkelijke artikel, met het gewraakte percentage in de titel, linkt wel door naar het aangepaste artikel.

Door Jasper Bakker

Nieuwsredacteur

03-11-2025 • 20:34

8

Reacties (8)

Sorteer op:

Weergave:

Ik heb de hele saga zitten volgen en het is echt bizar wat er in deze paper staat. Emotet noemen als AI gebruiker terwijl die al niet meer bestaan en vooral actief waren voor het AI tijdperk. Dit is een door een vendor gesponsord stuk om de AI angst onder 'business leaders' aan te wakkeren in de hoop dat ze meer AI tools kunnen verkopen.

Ook Marcus Hutchins (de persoon die Wannacry gestopt heeft) heeft een aardige post geplaatst op LinkedIn: https://www.linkedin.com/posts/malwaretech_lmao-kevin-beaumont-roasted-that-80-of-activity-7390142279480619010-QzKu

edit: Kevin Beaumont heeft net een uur geleden nog een aardige post er over online gezet: https://doublepulsar.com/cyberslop-meet-the-new-threat-actor-mit-and-safe-security-d250d19d02a4

[Reactie gewijzigd door BytePhantomX op 3 november 2025 21:36]

Dat is inderdaad een scherpe analyse. Marcus verwijst zelf naar dit uitgebreidere artikel, waarin ook de zogenaamde bron van MIT wordt aangehaald: een ENISA studie over ransomware. Daarin wijst ENISA echter in een heel andere richting: AI wordt (natuurlijk) wel degelijk gebruikt door malware-verspreiders, maar niet voor grootschalige geautomatiseerde AI-ransomware verspreidingen. Juist voor spearphishing wordt het ingezet, en dan nog zelfs als onderdeel van handmatig begeleide projecten.
Instead, ENISA describes incremental, real-world uses of AI across the cybercrime ecosystem, from AI-generated phishing emails that mimic legitimate correspondence, to voice cloning and deepfake impersonation used in social engineering, to AI-powered data scraping and correlation that helps identify high-value targets.
Het artikel van MIT lijkt inderdaad vooral een poging om de sponsoren in de cybersecurity te bedienen die willen inspelen op de angsten van hun klanten:
The study found that 38% of CISOs ranked “AI-enabled ransomware” as their top concern but offered no evidence of such attacks in the wild.
Mischien is het handig om je research papers zelf niet door AI te laten schrijven. Maar zelf research te doen..

Als je research een oude hack groep beschrijft die al lang niet meer bestaat, dan gaan er bij mij alarmbelletjes rinkelen, aangezien LLM models ook meestal oude data bevatten, en de meest recente data niet in hun model hebben zitten.
Zou het paper ook voor 80% door AI geschreven zijn?

Zo'n vage claims met verwijzing naar een ransomewaregroep groep die niet meer bestaat...?

Lijkt mij een rare fout voor iemand die goed in de materie zit.
Het gebruik van AI zal wel gaan toenemen maar 80 percent lijkt me bijzonder hoog op dit moment en zeker niet op alle type cyberaanvallen toepasbaar. Voor het generen van effectieve Phishing mails en de obfuscatie van malware code is het gebruik van AI tools kinderspel, niemand die eraan twijfelt dat dit dagelijks wordt toegepast.
Ik heb het artikel niet gelezen maar ik zou als researcher kijken naar pentesters en zien of die ook AI gebruiken om bugs en aanvalsvectors te testen want het zijn immers legale hackers met het zelfde doel.

Ik hoorde vandaag nog van een bedrijf dat de ook de meest senior developers AI gebruiken om ‘al’ hun code te schrijven. Het idee is dat goede devs betere promts kunnen schrijven omdat ze opereren als architect en dus code in de prompt kunnen verwerken om AI exact te laten doen wat ze voor ogen hadden.

Dus 80% zou best wel kunnen.
Crypto is het kwaad en wordt door criminelen gebruikt (aldus het verhaal). AI daarentegen springt er een hoop voor als men zegt dat het door criminelen wordt gebruikt. Hmmmm

[Reactie gewijzigd door Mitchelllll op 3 november 2025 21:02]

Het grote probleem met research papers is dat tegen de tijd dat het artikel live komt de technologie rond AI coding in tijden van het onderzoek bij publicatie al achterhaald is.

Zelfs 6 maanden is nu veel voor AI omdat de modellen en het ecosysteem er rond in een sneltempo verbeteren.

Het is net zoals je een paper zou schrijven over de modus operandi van een Ukrainse drone brigade. Tegen de tijd dat je paper uit is zijn uw claims al compleet achterhaald. Je kan hoogstens de stand van zaken van periode x in kaart brengen. Je beschrijft letterlijk de geschiedenis.

Voor dit type fast-paced-research heb je eigenlijk een nieuwe format nodig die toelaat om continu nieuwe inzichten te implementeren om de ‘state of the art’ in kaart te brengen. Dat wil dus ook zeggen dat de peer review continu moet plaatsvinden. Ik weet niet of dit principe al bestaat in wetenschappelijke kringen?


Om te kunnen reageren moet je ingelogd zijn