Amerikaanse onderzoekers hebben een videoanalysetool gemaakt die kan herkennen of het beeldmateriaal is gemanipuleerd, waardoor bijvoorbeeld mensen iets lijken te zeggen dat ze in werkelijkheid niet hebben gezegd. Dit moet de verspreiding van deepfakes tegengaan.
De tool is ontwikkeld door Amerikaanse onderzoekers afkomstig van UC Berkeley en University of Southern California, en zou in minstens 92 procent van de gevallen gemanipuleerde beelden kunnen ontdekken. Dat meldt MIT Technology Review op basis van een paper dat door de onderzoekers is geschreven. Het werkt met kunstmatige intelligentie die wordt getraind op hoofdbewegingen, iets dat de onderzoekers de 'softbiometrische handtekening' van de desbetreffende persoon noemen. Vervolgens kan het model onderscheid maken tussen de natuurlijke bewegingen die een persoon maakt, en die door een computer zijn gegenereerd.
Om de ai te testen maakten de onderzoekers zelf een aantal deepfakes, waarbij zij gemanipuleerde video's maakten met een aantal gangbare tools. De ai keek vervolgens naar de beelden om te bepalen of er overgangen in de frames zitten waarbij onnatuurlijke bewegingen voorkomen, iets dat wijst op manipulatie. In 92 procent van de gevallen wist de door de onderzoekers ontwikkelde tool dus de nepvideo eruit te pikken. Dat lukte ook als er artifacts door recompressie in de video werden geïntroduceerd; dergelijke trucs worden vaak uitgehaald om detectiemethoden voor deepfakes om de tuin te leiden.
Er zijn al verscheidene manieren ontwikkeld om deepfakes te ontdekken, maar de methode ontwikkeld door de Californische onderzoekers zou aanzienlijk minder rekenkracht vereisen, en zou bovendien minder gemakkelijk te omzeilen zijn dan tools die zich richten op een enkele specifieke eigenschap, zoals oogbewegingen.