Het Amerikaanse ministerie van Defensie heeft tools gecreëerd om zogeheten deepfakes te 'ontmaskeren'. Dit zijn video's waarbij machinelearning wordt toegepast om het gezicht van een persoon te vervangen door het gezicht van een ander.
De tools zijn gecreëerd door een Amerikaans overheidsprogramma genaamd Media Forensics, dat wordt geleid door de Defense Advanced Research Projects Agency. Het programma is opgezet om bestaande forensische tools te automatiseren, waarbij onlangs ook het vervalsen van video's en afbeeldingen onder de aandacht is gekomen. Matthew Turek, het hoofd van het programma, zei tegen MIT Technology Review dat subtiele aanwijzingen in huidige gemanipuleerde afbeeldingen en video's zijn ontdekt, waardoor het mogelijk werd om de aanwezigheid van aanpassingen te detecteren.
Professor Siwei Lyu van de Universiteit van Albany vertelt dat traditionele forensische methodes voor het 'ontmaskeren' van nepvideo's niet altijd even goed werken. Hij maakte samen met een student vijftig verschillende nepvideo's, waarna een aantal bestaande methodes erop werden toegepast. Sommige methodes leverden resultaat op, maar andere weer niet.
Bij het bedenken van verbeterde tools, realiseerde de hoogleraar zich dat de vervangen gezichten in deepfakes zelden met de ogen knipperen; als dat al gebeurt dan gaat het op een onnatuurlijke manier. Dat hangt samen met het feit dat deepfakes worden 'getraind' op stilstaande afbeeldingen waarbij een persoon meestal zijn of haar ogen geheel open heeft. Lyu erkent dat een goede vervalser hier iets op kan verzinnen, bijvoorbeeld door plaatjes te verzamelen van een persoon die met de ogen knippert. De professor zegt ook hier iets op te hebben verzonnen, al wil hij niet prijsgeven wat. Volgens hem is hij met deze tool de vervalsers nog te slim af en dat wil hij graag zo houden.
Andere onderzoekers werken aan vergelijkbare technieken waarbij het draait om het automatisch herkennen van opvallende signalen, zoals rare hoofdbewegingen of een vreemde oogkleur. De wetenschappers richten zich op aspecten die moeilijk zijn om goed na te bootsen in deepfakes.
Het vervalsen van video's kwam bijvoorbeeld in de publiciteit toen een tool werd gepubliceerd waarmee het relatief eenvoudig is om met behulp van machinelearning hoofden van veelal bekende vrouwen toe te voegen aan pornovideo's. Dit betrof de tool Fake App, waarbij een neuraal netwerk wordt getraind aan de hand van in video's gedetecteerde gezichten om de gezichtsuitdrukkingen, belichting en positie te bepalen. De echt ogende video's die dit oplevert, kunnen volgens critici een destabiliserend effect hebben, omdat het moeilijk is om nog onderscheid te maken tussen echt en nep.