Staatshackers uit China, Rusland, Iran en Noord-Korea misbruikten ChatGPT voor cyberaanvallen. Dat melden OpenAI en Microsoft in een gezamenlijk onderzoek. Ze misbruikten de diensten bijvoorbeeld voor onderzoek en om content voor phishingcampagnes te schrijven.
OpenAI deed samen met Microsoft onderzoek naar het gedrag van de hackersgroepen. Volgens de twee bedrijven is dit de eerste keer dat op deze manier wordt gedocumenteerd hoe staatshackers generatieve AI gebruiken bij hun cyberaanvallen. De diensten van OpenAI werden vooral gebruikt om aanvallen te ondersteunen, en niet om volledige aanvallen te genereren.
Samen met Microsoft heeft het Amerikaanse AI-bedrijf vijf hackersorganisaties 'verstoord' die in opdracht van een staat werken. Het gaat om twee threat actors uit China en hackersgroepen uit Rusland, Iran en Noord-Korea die aan de overheid gelieerd waren. De groepen wilden volgens het bedrijf AI-diensten misbruiken om 'kwaadaardige cyberactiviteiten' te ondersteunen. De OpenAI-accounts die bij deze actoren hoorden, zijn opgeschort.
"Cybercrimegroepen, nation-state threat actors en andere tegenstanders onderzoeken en testen verschillende AI-technologieën in een poging inzicht te krijgen in de potentiële waarde voor hun activiteiten en de beveiligingsmaatregelen die ze mogelijk moeten omzeilen", schreef Microsoft op woensdag.
Hackers misbruikten de diensten van OpenAI over het algemeen voor het opvragen van openbare informatie, het doen van vertalingen, het vinden van fouten in code en het uitvoeren van basale programmeertaken. Zo misbruikte de Russische staatshackersgroep Forest Blizzard, ook wel bekend als Strontium, ChatGPT vooral voor onderzoek naar satellietcommunicatieprotocollen en radarbeeldtechnologie en voor ondersteuning bij scriptingtaken.
De Noord-Koreaanse hackersgroep Emerald Sleet, ook wel Thallium, heeft grote taalmodellen als GPT-4 gebruikt om onderzoek te doen naar openbaar bekende kwetsbaarheden en om phishingcontent te genereren. Het Iraanse Crimson Sandstorm, vroeger ook bekend als Curium, misbruikte diensten van OpenAI voor ondersteuning bij scripting voor app- en webdevelopment, gerichte spearphishingcampagnes en onderzoek naar veelvoorkomende manieren waarop malwaredetectie omzeild kan worden.
De twee gedetecteerde Chinese groepen, Chromium en Sodium, misbruikten de tools om onderzoek te doen naar bedrijven, cybersecuritytools en inlichtingendiensten. Ze zetten de diensten ook in voor het vertalen van technische papers, assistentie bij het programmeren en meer. OpenAI heeft al langer beveiligingstechnieken waardoor de tool niet kan worden misbruikt om malwarecode te schrijven zoals ransomware of keyloggers.
Microsoft en OpenAI hebben nog geen 'grote aanvallen' gedetecteerd waarbij grote taalmodellen worden ingezet. Tegelijkertijd zijn de bedrijven naar eigen zeggen van mening dat het belangrijk is om 'vroege, stapsgewijze bewegingen van dit soort hackergroeperingen bloot te leggen' en om informatie te delen over hoe die pogingen worden geblokkeerd. Het bedrijf waarschuwt ook voor toekomstige technologieën die gebruikt kunnen worden bij cyberaanvallen, zoals neptelefoongesprekken waarbij stemmen worden nagebootst met AI.