@
WoutF Er is natuurlijk een verschil tussen een neuraal netwerk trainen en het toepassen. Het trainen (m.a.w. het iteratief leren van de juiste structuur en gewichten) van een (diep) neuraal netwerk kost inderdaad veel rekenkracht. Maar het toepassen van zo'n model (om dus beelden te genereren) kost veel, veel minder rekenkracht. Dat is gewoon het toepassen van de geleerde gewichten op de data en kan inderdaad in (near) real-time. Het trainen van het model hoeft verder niet tijdens de call te gebeuren; dit kan makkelijk offline op basis van archief materiaal van de persoon in kwestie.
Overigens is het (realtime) ontmaskeren van een deepfake ook weer niet heel complex. Vraag de persoon gewoon iets te doen waar het model zeer waarschijnlijk niet op getraind is; een rondje draaien, op zijn / haar hoofd te gaan staan, hoofd kantelen, hand voor de ogen, vinger in je neus, tong uitsteken, verzin het maar. Al heel snel zul je dan rare artefacten gaan zien bij deepfakes, omdat het model dat soort acties niet tegengekomen is in het archiefmateriaal waarop het getrained is.
Het wordt een ander verhaal als het een filmpje is dat online gepost wordt; daar kan de maker controle houden over de acties die de acteur uitvoert en kunnen eventuele artefacten in post-processing worden weggewerkt. Voor dat soort scenario's is detectie software meer ontworpen.
[Reactie gewijzigd door Morrar op 29 april 2021 10:57]