Wie afgelopen weken de beurskoersen van de grote techbedrijven bekeek, kan zomaar de conclusie trekken dat de AI-hype inmiddels voorbijgetrokken is. Maar naast de waarde van Nvidia-aandelen is ook op hackersbeurzen Black Hat en DEF CON weinig te zien van de grote hype én angstbeelden die de afgelopen jaren de ronde deden rondom AI. Hackers en experts waar Tweakers mee sprak hebben sindsdien een veel genuanceerder beeld gevormd over hoe (generatieve) AI en large language models cybercriminelen ondersteunen, maar ook hoe AI kan worden gebruikt om cybercrime te bestrijden.
Toegegeven, boven het grote, niet te missen welkomstbord in de Black Hat-beurshal hangt een grote poster van securitybedrijf Palo Alto Networks met de woorden: it's time to fight AI with AI. En in de beurshal, waar ieder denkbaar securitybedrijf een stand heeft, staat AI wel ergens op een bordje of scherm. Toch valt het mee met hoeveel je om je oren wordt geslagen met de term. Tweakers sprak met meerdere fabrikanten die uitleggen wat ze verstaan onder 'AI' in hun beveiligingsproducten, of dat nu endpoint-, cloud- of andere securityproducten zijn.
Dat blijkt in de praktijk minder spannend te zijn dan het klinkt. De antwoorden zijn behoorlijk eensgezind. Patronen vinden in grote datasets, nieuwe soorten aanvallen sneller opsporen, sneller bepalen of een bestand malware bevat of een bericht een phishingmail is, of een verdachte inlogpoging niet toch legitiem kan zijn... Het klinkt allemaal herkenbaar. Is dat niet wat securityproducten altijd al deden?
AI is niet nieuw
"Je kunt zeggen dat je nu AI gebruikt, maar we gebruiken al tien jaar AI", zegt Raj Samani, chief scientist bij Rapid7. Met 'we' refereert hij niet alleen naar zijn eigen securitybedrijf, maar naar de beveiligingsindustrie in het algemeen en specifiek bedrijven die bijvoorbeeld aan endpointdetectie doen. "Beveiliging is, in essentie, het opsporen van malafide gedrag of software. Je moet daarin altijd op de een of andere manier een onderscheid proberen te maken en dat doen we al een decennium met een vorm van AI of machinelearning." De meeste securityfabrikanten op de beursvloer beamen dat beeld. De AI waar nu veel mee wordt geschermd, is geen revolutie, maar vooral een evolutie van modellen die al langer worden gebruikt.
Die modellen zijn wel beter geworden door de opkomst van generatieve AI en llm's, zeggen de meeste experts waar Tweakers mee sprak. "Maar het heeft het allemaal wel sneller gemaakt", zegt een van hen. "Detectie kan bijvoorbeeld sneller gaan en in beveiliging is snelheid belangrijk." Ook het feit dat er steeds meer data beschikbaar komt voor beveiligers helpt mee. Het aantal aanvalspogingen stijgt, er zijn grotere databases met malwaresamples en die kunnen allemaal met machinelearningmodellen worden gebruikt om te leren wat een potentiële dreiging is.
Individuele onderzoeken
Hetzelfde sentiment speelt bij individuele en vaak onafhankelijke beveiligingsonderzoekers. Nee, is het overweldigende antwoord van meerdere onderzoekers waar Tweakers op DEF CON mee sprak op de vraag of AI hun werk makkelijker maakt. "Toen ChatGPT net uitkwam heb ik het wel eens gebruikt om rapporten mee te schrijven", zegt een ethisch hacker die staat te wachten om de Bug Bounty Village binnen te komen. Hij wil zijn naam niet geven, maar wel vertellen dat hij zijn geld voornamelijk verdient met 'een beetje crypto en wat bughunting', met een specialisatie in webshells. "Dat had alleen weinig zin. Je bent zo lang bezig al die data uit je onderzoek in ChatGPT te gooien, dan kun je het net zo goed maar meteen uitschrijven. Ik gebruik het wel eens na afloop om een rapport op te schonen en spelfouten eruit te halen, maar voor technische dingen gebruik ik het niet."
Cybercriminelen
Ook aan de andere kant van het scherm is de apocalyps uitgebleven. Twee jaar geleden was er nog een vage, ongespecificeerde angst voor grootschalige AI-aanvallen van cybercriminelen. Daar heeft tot nu toe niemand directe voorbeelden van gezien, zeggen experts uit de hele breedte van het vak. Een rechercheur bij een Amerikaanse opsporingsdienst, die anoniem wil blijven, merkt op dat grote, internationaal opererende bendes weinig behoefte hebben aan hippe AI-tools als ChatGPT. "Dat zijn miljoenenoperaties. ChatGPT gaat echt niks bijdragen aan de code die zij hebben."
Phishing
Er is in ieder geval een aspect van cybercriminaliteit waar llm's een voordeel bieden: phishingmails. Generatieve AI wordt door heel veel criminelen, zeker die uit niet-Engelstalige landen, ingezet voor het schrijven en opschonen van phishingmails en andere social engineering. Het grootste voordeel van llm's zit voor criminelen in taal en niet in code.
Niemand met wie Tweakers sprak, heeft tot nu toe een operatie gezien die grotendeels werd aangestuurd door kunstmatige intelligentie of waar AI op technisch gebied een leidende rol speelde. "We hebben wel eens een studie gedaan naar hoe criminelen gezichtsherkenning met AI omzeilen", zegt Raj Samani van Rapid7, "maar in zulke onderzoeken gaat het om een kleine schaal."
De meningen verschillen wel over de reden achter de uitblijvende groei in AI-gestuurde cyberaanvallen. Sommige experts wijzen bijvoorbeeld op het feit dat ChatGPT, maar ook GitHubs Copilot of andere llm's niet zelden slechte code uitbraken. De meeste programmeurs zegt dat die code niet een-op-een kan worden ingezet in een operatie omdat je niet zeker weet hoe stabiel het is. Eerder dit jaar vertelden experts al aan Tweakers dat moderne ransomwareaanvallen veel gecompliceerder zijn dan vroeger, omdat moderne netwerksystemen er beter tegen gehard zijn. Het is technisch veel moeilijker geworden om een goede ransomwareaanval uit te voeren, met name bij het ontsleutelen. Daar willen criminelen waarschijnlijk liever geen experimentele code voor gebruiken.
Niet nodig
'Waarom zou je fancy nieuwe tools gebruiken als bestaande ook goed werken?'
Samani van Rapid7 heeft een andere lezing. "Simpel. Je hebt het niet nodig." Hij legt uit dat er nog zo veel werkende aanvalsmethoden zijn, dat 'fancy' nieuwe tools als llm's en AI daar niets aan toevoegen. "De belangrijkste ontwikkeling die we zien bij cybercriminelen is het gebruik van zerodays, bugs die nog niet bekend zijn. Die worden veel vaker ingezet en ook veel sneller weggegooid, wat ons doet vermoeden dat er nog veel meer in het veld zijn dan waar we zicht op hebben." Zerodays waren jaren geleden nog zeldzaam. In aanvallen werden ze voornamelijk gebruikt voor zaken met een hoog profiel, zoals door staatshackers of bij ransomware-infecties bij zeer grote bedrijven. Samani zegt dat zulke bugs inmiddels veel toegankelijker zijn geworden voor criminelen. Er zijn er meer op de markt en ze zijn makkelijker te vinden.
Mede om die reden is het niet nodig voor ransomwarecriminelen om ook nog generatieve AI te gebruiken voor hun aanvallen. "Waarom zou je, als andere aanvalsmethoden net zo goed werken?" Niet alleen zerodays, maar ook aanvalsmethoden die al jaren oud zijn, worden nog veelgebruikt. Samani: "Het Remote Desktop Protocol is en blijft het grootste aanvalsvlak. Criminelen zoeken nu eenmaal de weg van de minste weerstand. Je hoeft het wiel niet opnieuw uit te vinden omdat oude aanvalspatronen nog steeds net zo goed werken, ondanks alle waarschuwingen die de securityindustrie al jaren afgeeft."
Hergebruik
Hij verwijst ook naar hergebruik van oude ransomwarevarianten. "We analyseren de broncode van veel ransomware-infecties en zien dan heel veel overlap. Een bende wordt opgerold en de volgende gaat door met delen van de oude broncode. Die wordt wel aangepast, maar minimaal. Ook daarin speelt mee dat hergebruik veel makkelijker is dan iets heel nieuws ontwerpen."
Het is uiteraard niet uit te sluiten dat criminelen op de een of andere manier alsnog AI gebruiken om hun code op te poetsen. "Ik denk dat veel criminelen ChatGPT of een alternatief op een of andere manier heus wel inzetten", zegt een malwareanalist. "Maar dan heb je het over kleine dingen, zoals het debuggen van code. Dat is geen revolutie, dan gebruik je AI als een van de vele tools in je gereedschapskist."
Ransomware door ChatGPT
Het is niet dat zo dat kunstmatige intelligentie helemaal niet door cybercriminelen wordt ingezet. Criminelen, maar ook onderzoekers en wetenschappers onderzoeken methoden waarbij llm's kunnen helpen malware te schrijven. Mudassar Yamin van de Noorse Universiteit voor Wetenschap en Technologie vertelt in een talk op DEF CON bijvoorbeeld hoe hij onderzoek deed naar het bouwen van ransomware via llm's.
ChatGPT, Copilot en andere consumententools voor generatieve AI hebben al jaren stevige begrenzingen die het moeilijk maken om malware te schrijven. Het is niet onmogelijk daar omheen te werken. Vragen of ChatGPT een keylogger schrijft levert een 'nee' op, maar vragen naar 'een tool voor het helpen met het registreren van toetsenbordaanslagen' zou zomaar bruikbare code kunnen opleveren, al zijn bedrijven streng met het verbieden van zulke jailbreaks. Yamin zegt dat hij in zijn onderzoek geen gebruik maakt van jailbreaks. Hij gebruikt een combinatie van 'gecensureerde en ongecensureerde' llm's. Van die laatste staan er enkele honderden online, met name op platformen zoals Hugging Face.
"Ongecensureerde llm's zijn in staat werkende ransomwarecode te schrijven", toont hij in een presentatie aan. "Die kun je gebruiken om de code te genereren. Vervolgens kun je overstappen op gecensureerde tools als ChatGPT om het te verbeteren. ChatGPT is erg goed in debugging", legt hij uit. Dat blijkt te werken: in een demo toont hij aan dat de ransomware werkt op Windows.
Onderzoek naar LLM's
Hoewel de revolutie rondom AI in cybercrime dus uitblijft, beschrijven sommige experts wel een genuanceerd beeld. Geen stortvloed, maar wel degelijk een tool die het bestaande arsenaal van criminelen uitbreidt. Daarom blijft het belangrijk voor onderzoekers om te kijken naar AI-gebruik in cybercrime, stellen onder andere Michael Kouremetis, Marissa Dotter en Alexander Byrne van de non-profitbeveiligingsorganisatie Mitre. In hun presentatie op Black Hat tonen ze een nieuwe tool en methodologie aan waarmee het mogelijk is llm's te evalueren op hoe goed ze werken voor zogenaamde 'offensive cyber operations' of oco's.
Ook deze onderzoekers zeggen dat ze geen grote cyberoperaties zien waarbij llm's een hoofdrol spelen. "Maar er is ook weinig bewijs voor, dus we weten het eigenlijk niet", zeggen ze. "Er is op dit moment geen allesomvattende manier om llm's te ontdekken in oco's." De methode die ze ontwikkelen, maakt het mogelijk om nieuwe taalmodellen te testen op hoe praktisch ze kunnen worden ingezet voor cyberaanvallen. Deze Threat Actor Competency Test for LLM's of Tactl gebruikt voorbeeldscenario's om te kijken hoe een taalmodel reageert en om uit te zoeken wat het praktische risico van een uitkomst kan zijn.
Conclusie
De securityindustrie heeft soms de neiging om tot 'FUD' te vervallen: fear, uncertainty and doubt. Ogenschijnlijk kleine dreigingen worden dan opgeblazen tot grote risico's. Soms zijn de waarschuwingen terecht, maar vaak ook niet. In de afgelopen jaren kreeg AI al snel het stempel van groot gevaar. Het risico werd echter vaak vaag gehouden, waardoor je in de waarschuwingen al snel kon zien wat je erin wilde zien. Was er gevaar voor geautomatiseerde aanvallen, zou AI-malware moeilijker te detecteren zijn, of was het juist de hoeveelheid aanvallen die explosief zou stijgen?
In de praktijk lijkt kunstmatige intelligentie weinig grote problemen te hebben veroorzaakt. Experts waar Tweakers mee sprak denken allemaal dat cybercriminelen wel degelijk op zoek zijn of zijn gegaan naar de mogelijkheden om tools als ChatGPT in te zetten voor malwarecampagnes, maar dat leidde niet tot een revolutie. Llm's en AI lijken dan ook vooral een van de vele nieuwe tools te zijn in het arsenaal van de hacker, net als hoe StackOverflow en GitHub dat zijn. Evolutie, maar zeker geen revolutie.
Bannerafbeelding: MASTER / Getty Images