Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Google maakt videodataset beschikbaar voor onderzoek naar deepfakes

Onderzoekers van Google hebben een database vrijgegeven met meer dan 3000 zogenaamde deepfake-video's. Die dataset kan worden gebruikt door andere onderzoekers en ontwikkelaars om tools te bouwen die dergelijke nepvideo's en afbeeldingen beter kunnen herkennen.

De dataset is toegevoegd aan de FaceForensics Benchmark. Dat is een een systeem waarin meerdere technologieën voor het maken en detecteren van deepfake-video's en ander materiaal te vinden zijn. De Benchmark is gebouw door de Technische Universiteit van München en de Federico II-universiteit van Napels, en wordt gesponsord door Google.

Deepfake-technologieën bestaan inmiddels al een paar jaar. De technologie erachter wordt steeds beter. Deepfakes zijn foto's of video's die automatisch zijn gemaakt op basis van deep learning, en hebben vaak niet meer dan een paar bronbeelden nodig om nauwelijks van echt onderscheiden te zijn. Google zegt dat deep learning veel nuttige toepassingen kan hebben, maar dat er ook veel risico's en uitdagingen aan verbonden zijn. Deepfakes zijn zo'n uitdaging, omdat ze volgens het bedrijf steeds vaker worden gebruikt om individuen of zelfs hele gemeenschappen te schaden. Zo ontstond er onlangs nog ophef over een website waarbij de controversiële Canadese psycholoog Jordan Peterson werd geïmiteerd.

Google heeft nu zelf een dataset ontwikkeld van video's. Het bedrijf betaalde acteurs om video's op te nemen, en bouwde op basis daarvan duizenden deepfake-video's door er bestaande deepfake-algoritmes op los te laten. Die dataset is door iedereen te gebruiken. Onderzoekers kunnen de video's bestuderen om beter te begrijpen hoe deepfakes in elkaar zitten, en hoe zij tools kunnen maken die die video's kunnen herkennen. Eerder dit jaar stelde Google al een andere dataset beschikbaar van deepfake-audio-bestanden.

Door Tijs Hofmans

Redacteur privacy & security

27-09-2019 • 20:27

31 Linkedin Google+

Reacties (31)

Wijzig sortering
Geniaal, nu heeft men dus een goede dataset om GAN’s mee te trainen om nog betere deepfakes mee te maken...

-_-
Heerlijk dit! Kan nu al niet wachten om morgen ochtend vroegevogels.nl terug te luisteren!
Volgens mij niet. Wat ik uit het artikel begrijp is dat ze een set met veel video's beschikbaar hebben gemaakt om software die deepfakes moet herkennen te trainen.

Wat jij volgens mij bedoelt is dat ze een tool beschikbaar maken om deepfakes te herkennen. Dat kan je inderdaad je app/algoritme testen en optimaliseren totdat hij niet meer als deepfake herkent wordt.
Hoe train je een neural netwerk?
Met source data,
Dit kan zowel, dit is goed, als dit is niet goed zijn.

Er waren niet extreem veel georganiseerde datasets van deepfakes die redelijk goed waren,

Die is er nu dus wel, als ik zou proberen het algoritme te verbeteren zou de eerste stap zijn te vergelijken met deze datasets.
En evt een GAN (generatice adversarial network) te trainen, waar de discriminator leert heel goed te herkennen wat “deepfaked” data is en hoe het er uitziet.

dat kan daarna dus de generator verder verbeteren,

Zie het als het uitbrengen van hoe andere criminelen gefaald inbraakpogingen hebben gedaan, waar je kan zien wat wel en niet heeft gewerkt.
Moet je mee oppassen.
Dit is ook iets waar ik me zorgen om maak. Nu kan je een Deepfake gewoon trainen tot het resultaat goed genoeg is. Wat weerhoudt men er van die training nu gewoon door te zetten tot óók de tools getraind op deze dataset om de tuin zijn geleid? Wordt niet gewoon een kat en muis spel, of een wapenwedloop zogezegd?

[Reactie gewijzigd door belastingdizzle op 28 september 2019 00:36]

Ja precies dat, dit is hoe deepfakes in eerste instantie al worden getraind!
1 neuraal netwerk om beelden te genereren en 1 ander om te herkennen of het een fake is.
Die gaan in onderlinge competitie totdat het eindresultaat "goed genoeg" is. En dat is al akelig goed.

Dus nog meer informatie over hoe te ontdekken dat het een fake is maakt de fakes alleen weer beter.

Dingen die hierboven genoemd zijn met hashes andere algorithmes gaan echt niet werken.
Het is uiteindelijk de plek vanwaar de eerste post plaatsvind die belangrijk is, en of je die bron kan vertrouwen... En dan zijn er weer lekken, usb stickjes die "opduiken".
De geest is uit de fles zeg maar.
Hhmmm misschien moet men is zien of video's gecombineerd kan worden met blockchain zodat je altijd kan valideren of wat je naar kijkt ook echt oorspronkelijk is van het originele bron...
I dont know ik ben maar een beetje luidop aan het denken wanneer ik iets lees over deepfakes.
Dan ga je ervanuit dat Jan Modaal de moeite doet om de originele bron te controleren... Wat dus niet gebeurd. De gemiddelde gebruiker heeft een aandachtscurve van 8 sec. blijkbaar. Daarna is het kwaad al geschied.

Mijn hoop zit op bewustwording en algemene kennisverhoging van de mensheid.
(maar dan ben ik waarschijnlijk ook naief... :p)
video websites zoals Youtube, Facebook, Vimeo, browsers en mediaplaers kunnen toch prima iets implementeren dat dit controleerd en voor jan modaal een leuk groot groen icoontje tonen ? :Y)

En een deepfake versie krijgt een boos rode icoontje :( :D achja er is altijd wel een manier om iets complex visueel gemakkelijker aan te geven. ( Trust the minority of smart people to dumb things down for the majority of humankind. )
Tante Beppie ziet de video gewoon op Facebook en gelooft het nog ook wat ze ziet. Vervolgens drukt tante Beppie gelijk op de share button.
Daar hebben we toch ook al een hash voor ? Zie niet hoe een blockchain hier nuttig kan zijn.
Om te bepalen wanneer welk bestand gemaakt is?
Om te bepalen dat je naar het origineel kijkt. Post een video en post de hash erbij. Een video die er op lijkt maar is aangepast heeft sowieso een andere hash. Je kan niets aanpassen zonder dat je de hash veranderd.
Wat schiet je daarmee op? Dan post je de aangepaste hash alszijnde de bronhash.
Daar schiet je ook niets mee op, maar hetzelfde geldt voor iets met de blockchain. Het punt was dat we geen blockchain nodig hebben omdat we al hashes hebben. Hoe nuttig dat in de praktijk is, dat is weer een ander verhaal. Je kan bepalen of iets origineel is of niet. Een deepfake kan je op die manier onderscheiden van het origineel.
Klopt. Als 2 video's op elkaar lijken en je weet zeker welke het origineel is; dan wel. Maar als je uit 2 moet kiezen zonder dat je weet welke de originele is omdat de deep fake zo goed is, dan heeft het ook geen zin om hashes te vergelijken.
-

[Reactie gewijzigd door jabwd op 28 september 2019 02:40]

Zolang het met een "middle-out" compressie opgeslagen wordt moet dat prima kunnen.
Waarheid zelfs met cijfers, maakt het nog niet dat mensen het niet geloven.
Dit is wel inderdaad een leuke use-case voor blockchain. Denk ook dat videobeelden van overheids figuren zo langzamerhand cryptografisch ondertekend moeten worden door de overheid. Een publieke blockchain infrastructuur kan hier uitkomst bieden, maar zolang je de overheid vertrouwd kunnen ze natuurlijk ook zelf een non blockchain applicatie opzetten die dit kan ondersteunen.
Overheid en ict gaan niet altijd goed samen. Ongeacht het betrouwbaarheidsniveau
Of gewoon met een 'ouderwets' certificaat wat werkt met een handvol bytes zodat het makkelijk te controlleren is aangezien elke Nederlandse pc het root certificaat van de Nederlandse overheid al klaar heeft staan. Hoef je niet over een paar jaar gigabytes aan blockchain data te downloaden of een centrale website daarvoor te gebruiken waarmee het doel van blockchain ook verslagen wordt...
Deepfakes beperken zich niet alleen tot het aanpassen van de originele video, een persoon inclusief spraak in een andere video zetten is ook mogelijk
Deepfakes, toch iets waar we zorgen over moeten gaan maken. Kan er geen soort van lock(of duidelijk automatisch watermerk bij aangepaste hash) worden ontwikkeld dat je niet online kan uploaden zonder originele hash en media verplichten hun bronnen altijd in orde te hebben als het op dit soort media aankomt?
Natuurlijk, dat heet gewoon PKI. Maar het probleem is dat je als bron niet altijd bekend wil zijn, maar het nieuws wel echt is. Dan moet je misschien toch de video op zijn waarde schatten.
Deepfakes in combinatie met propaganda, ik hou mijn hart vast. Het is dan ook mijn hoop dat dit gaat werken.
Diverse dictaturen hebben door de jaren heen al laten zien dat deepfakes niet nodig zijn voor propaganda en geschiedsvervalsing.
Mooi! Hiermee kan je deepfake detectie algoritmen (eigenlijk één woord, maar zo duidelijker leesbaar) trainen, die weer gebruikt kunnen worden om betere deepfake algoritmen te ontwikkelen.

Mes snijdt aan twee kanten. ;)
deepfake detectie algoritmen (eigenlijk één woord, maar zo duidelijker leesbaar)
Daar hebben we koppeltekens voor uitgevonden: deepfake-detectie-algoritmen
Een gevaar van deepfakes dat ik nog niet gehoord heb (volgens mij), is dat van "plausible deniability". Als er een schadelijke video van iemand boven water komt, dan kun je tegenwoordig makkelijker claimen dat het nep is. Vroeger was zo'n video bijna onweerlegbaar bewijs, nu niet meer.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Elektrische auto

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True