Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'Vervangen van gezicht in pornovideo's met ai neemt grote vlucht door tool'

Een fenomeen dat vorig jaar de kop opstak, het met behulp van machine learning toevoegen van hoofden van veelal bekende vrouwen aan pornovideo's, heeft aan populariteit gewonnen door de release van een tool die dit proces sterk vereenvoudigt.

De website Motherboard, die vorig jaar ook al aandacht aan het fenomeen besteedde, schrijft nu dat er kort daarna een subreddit in het leven is geroepen waar Reddit-gebruikers hun creaties met elkaar delen. De tool draagt de naam FakeApp en is ongeveer twee weken geleden door de gebruiker 'deepfakeapp' online gezet. Deze zou hebben bijgedragen aan een grote groei van het aantal video's en gifjes met verruilde hoofden.

De maker van de tool zegt tegen de site dat hij FakeApp in de toekomst zo gebruiksvriendelijk mogelijk wil maken, zodat gebruikers alleen maar twee video's hoeven te selecteren en een knop hoeven in te drukken om de gezichten te verwisselen. De tool maakt gebruik van een neuraal netwerk en traint het aan de hand van in video's gedetecteerde gezichten om gezichtsuitdrukkingen, belichting en positie te bepalen.

Eerder waarschuwde een onderzoeker van de Amerikaanse burgerrechtenorganisatie Electronic Frontier Foundation al dat het al snel eenvoudiger zou worden om dergelijke verwisselingen uit te voeren. Nu†zegt een hoogleraar ethiek tegen Motherboard dat er geen twijfel aan is dat de techniek op een gegeven moment zodanig verbeterd zal zijn dat er geen onderscheid meer te maken is tussen echt en nep. Volgens haar heeft dit een 'destabiliserend effect' en ondermijnt dit vertrouwen en betrouwbaarheid.

De tool wordt volgens Motherboard soms ook ingezet voor andere doeleinden dan het aanpassen van een pornovideo. Zo combineerde een gebruiker een video van Hitler met beelden van de Argentijnse president Mauricio Macri. In het verleden hebben wetenschappers kunstmatige intelligentie voor soortgelijke doeleinden ingezet, bijvoorbeeld voor het genereren van realistische mondbewegingen aan de hand van audio. Vorig jaar uitte het Defensie Cyber Commando bovendien zijn zorgen over de manipulatie van live video.

Het gezicht van Star Wars-actrice Daisy Ridley gebruikt in een video

Door Sander van Voorst

Nieuwsredacteur

25-01-2018 • 11:48

281 Linkedin Google+

Reacties (281)

Wijzig sortering
Dit hadden ze toch al lang in 1987? :)
Ben "Butcher of Bakersfield" Richards: It's showtime. ( The Running Man (1987) )
"Killigan, I will be back!"

"Only in a rerun "
Dit hadden ze toch al lang in 1987? :)
Ik kan mij inderdaad een soortgelijke discussie uit de jaren 90 nog herinneren toen dit soort dingen mogelijk werden. Specifiek ging het toen om een reclame waarin Fred Astaire tien jaar na zijn dood een stofzuiger demonstreerde. De aanpassingen waren wat subtieler en minder hoogstaand dan wat vandaag de dag mogelijk is, maar het materiaal was er niet minder controversieel om en het was vanaf toen ook wel duidelijk dat je videomateriaal niet meer op echtheid kon vertrouwen.
Ik vind de techniek interessant maar tegelijkertijd vind ik dat in kader van Privacy een ieder het recht om dit te stoppen. Ik kan me niet voorstellen dat deze bekende 'gewone' actrices en andere beroemdheden dit nu zo'n fijne ontwikkeling vinden. Ik ben een voorstander van dat iedereen het copyright krijgt op zijn eigen gezicht!
Dat heb je al, heet portretrecht.
tot hoe ver zal dat gaan? In muziek mag je bijvoorbeeld samples van een ander gebruiken tot op zekere hoogte. Waarschijnlijk is er binnenkort een handige harry die de grenzen gaat zoeken.
Dit is voer voor nog een reeks rechtszaken in veel landen volgens mij.
Nog een gebied waarop copyright wetgeving niet zal werken.
tot hoe ver zal dat gaan? In muziek mag je bijvoorbeeld samples van een ander gebruiken tot op zekere hoogte.
Volgens mij hebben ze daar tegenwoordig nog al flinke beperkingen aan gesteld. Vroeger was geloof ik alles onder de 15 seconde vrij te gebruiken. Tegenwoordig is alle commercieel gebruik verboden. Aan de andere kant zijn we in Nederland (en de rest van Europa) niet echt scheutig met schadevergoedingen. Je kan dan de (verdere) verspreiding verbieden, maar als je niet aan kan tonen dat er sprake is van inkomstenderving zal het lastig zijn om schadevergoeding te krijgen.
Dat heb je al, heet portretrecht.
Een portret zonder recht. Bewijs maar dat je het bent.
Ik ben een voorstander van dat iedereen het copyright krijgt op zijn eigen gezicht!
Moeten er wel duidelijke verschillen zijn bij snel kijken. Anders is een meerling al gauw in de problemen.
Laat de opmerkelijkste verschillen buiten beeld en je ziet zo even snel geen verschil tussen Tim Alfa en Tom Romeo Coronel.

De stand-in en body-double heeft weer een kans. Monteer een hoofd.
Misschien dat ik het mis, maar wat is het verschil in het Star Wars filmpje wat als voorbeeld gegeven word?

edit:

Met dank aan @Ryan_ voor de Reddit link, Tweakers heeft het filmpje van Reddit afgeplukt, en de OP daar geeft aan dat de bovenste uit de originele Rogue One film gehaald is met een budget voor 200m waarbij de CGI funky uit ziet (aldus hem).

Onder heeft hij zelf in elkaar geknutselt met de tool.

SFW: https://www.reddit.com/r/...xed_that_for_you_edition/ (in een NSFW reddit)
De insteek is dat je hetzelfde resultaat kan krijgen als een filmstudio die CGI gebruikt. Er zouden dus zo min mogelijk verschillen in moeten zitten.

Ik denk dat Tweakers betere (SFW) voorbeelden had kunnen vinden waar het effect duidelijk word.

[Reactie gewijzigd door ThaStealth op 25 januari 2018 12:06]

Gezicht van Leia. Boven is anders dan onder. Waarschijnlijk is dit dus met de genoemde software gedaan.
De bovenste versie is van ILM (uit de originele film), een met de hand gemaakte digitale look-alike, terwijl de onderste versie door de app is gemaakt.
Deze was gekozen omdat het het enige side by side-voorbeeld was. Maar het is inderdaad slecht te zien en misschien niet het beste voorbeeld. Daarom is het nu aangepast.
Ja, zag dat er geen andere SFW voorbeelden waren behalve die jullie nu hebben. Misschien was het wel handig geweest om erbij te zetten hoe de side-by-side gemaakt was/ wat het doel was, ik was namelijk aan het zoeken wat de verschillen waren :).
Ik moest ook 8x kijken..

Met het filmpje op pauze is te zien dat vooral de mond en ogen net wat anders zijn.
Je kunt het onderstaande beeld manipuleren, door bijvoorbeeld een hele andere tekst te laten opzeggen waardoor het beeld beneden iets heel anders gaat zeggen. (Door jou ingesproken?..) je ziet nog wel dat het onderstaande beeld wat onnatuurlijker oogt.. maar de techniek wordt rap beter, wat implicaties kan veroorzaken in de toekomst. (Fake News???)

[Reactie gewijzigd door WouterL op 25 januari 2018 12:01]

Kan dus gebruikt worden in landen waar ze nasynchroniseren.

Maar goed in het algemeen is het straks de vraag hoe betrouwbaar is een video als bewijsmateriaal als er dus mee geknoeid kan worden.

Neem een beveiligingsvideo zet iemand anders zijn gezicht er in en verklaar maar waarom jij dat was ?
Deze techniek zorgt er dus voor dat in de toekomst video als bewijs niet meer bruikbaar is, of manipulatie aangetoond kan worden.
Nee, dat is niet het punt. Het onderstaande plaatje, zal realistisch meebewegen op de door JOU ingesproken tekst, met de stem van wie-je-ook-na-doet. Je kunt zelfs zelf in de video gaan staan, en met deze software het gezicht van iemand anders op de jouwe plaatsen met een bijbehorend stemgeluid.

[Reactie gewijzigd door WouterL op 25 januari 2018 12:09]

Zoals gezegd dat is het begin,

Andre van duin deed dit jaren terug al met jaap aap, zag er natuurlijk niet zo natuurlijk uit als dit.
Volgende stap is vervangen van het hele gezicht door ander gezicht. Dat heeft puur te maken met cpu kracht maar zou zo maar kunne.
Zoals gezegd dat is het begin,

Andre van duin deed dit jaren terug al met jaap aap, zag er natuurlijk niet zo natuurlijk uit als dit.
Het grote verschil is dus dat zo'n 'jaap aap' met de hand is geanimeerd in een studio, in plaats van compleet automatisch gegenereerd door een app op een telefoon.

Je kan geen Jaap Aap-filmpje maken van een willekeurige video wat met deze app wel kan. Het is dus ook een kwestie van tijd voordat iemand dat gaat gebruiken voor allerlei komische video's met Donald Trump...
Je bent niet de enige. Raar om een filmpje te plaatsen zonder enige vorm van uitleg.
+1, volgens mij niet het meest geweldige voorbeeld.
Dit voorbeeld is inderdaad niet het neusje van de zalm.. hinthint :+

Pauzeer op 3.54s

[Reactie gewijzigd door Blinkiej op 25 januari 2018 12:02]

Volgens mij is het onderste beeld het echte gezicht van Carrie Fisher uit 'A new hope'. Lijkt in ieder geval niet zo zeer een andere actrice te zijn, maar het is ook zeker niet het CGI gezicht van de bovenste filmpje.
Interessante techniek, het is echter maar waar je het voor wilt gebruiken... Zoals met alles kan je er goede en slechte dingen mee, maar ik denk dat professionele meme'ers hier wel wat mee kunnen!
Tja in snap niet waarom mensen hier blij van worden. Is de wereld nog niet genoeg naar de klote zonder dit soort onzin.
Straks moet je gaan bewijzen dat je het niet ben...
Gelukkig ziet het er nu nog lekker fake uit maarja of dat zo zal blijven..
Toen ik die voorbeelden bekeek was ik vrij geschokt hoe realistisch het er uit ziet. Je bent dan ook nog biased omdat je weet dat het fake is natuurlijk, iemand op straat zou wellicht al geloven dat het authentiek materiaal is.

Moet je nagaan, dit staat nog in de kinderschoenen. Je kunt hier (straks) echt levens mee verzieken als je die intentie hebt.
Maar dat gebeurd nu ook al op grote schaal. Foto's worden bewerkt, video's geknipt en met cgi kan een videostudio al heel erg veel. Alleen nu is er dus een soort 'photoshop' voor video's voor gewone mensen.
Juist niet, op een gegeven moment gaat iedereen gewoon denken dat alles nep is en verliest het vanzelf de aandacht.
Je kunt hier (straks) echt levens mee verzieken als je die intentie hebt.
Hoe dan? Zolang bij het grote publiek bekend is dat dit mogelijk is zal er niet zo gek veel aan de hand zijn toch? Het was vroeger algemeen bekend dat er met foto's niet geklooid kon worden, totdat "photoshoppen" een werkwoord werd. Nu gebeurt hetzelfde voor video.

R.I.P. "Pics or it didn't happen" zullen we maar zeggen...
Straks moet je gaan bewijzen dat je het niet ben...
Omdat dit bestaat kan je nu claimen dat je homevideo nep is. Het is maar hoe je het bekijkt.
De kans dat iemand zijn echte homevideo nep kan verklaren valt natuurlijk compleet in het niets bij de mogelijk tienduizenden mensen die hierdoor benadeeld gaan worden.
en hoe bewijs je dat dan? De metadata van de filmpjes opeisen? Kan ook mee geknutseld worden. Aan alles zit een hele vervelende keerzijde.
Voordat we technologie ontwikkelden waarmee geluid en beeld wordt opgenomen kon je nooit zeker weten of iemand iets gezegd had als je er niet bij was. Dat zal in de toekomst ook weer zo zijn. We zullen het wel overleven.
Tuurlijk maar hoeveel mensen moeten slachtoffer worden van deze gimmick voordat we het overleven?
Het zal het gezicht van jou kind maar zijn omdat iemand online of op school zijn of haar zin niet kreeg.
Of die van je echtgenote die daardoor ontslagen word en je je huis niet meer kan betalen.

Er zijn gekkere dingen gebeurd zonder deze software dusehhh..

[Reactie gewijzigd door computerjunky op 25 januari 2018 13:18]

Deze techniek was toevallig laatst op de tv serie Blue Bloods, daar werd nog een specialist nerd ingezet om dat te doen. Nu is het op Tweakers.net bekend, maar in de komende dagen/weken zal dat overal in het nieuws zijn geweest, als het niet al vandaag is. Het is door het internet nu al 'gemeen goed', of echter meteen al de stap kunnen maken om geen beeldmateriaal meer als 'echt' te bestempelen is nog maar de vraag.

Elke journalist en/of nieuwsprogramma, website, krant of maand/week blad zal nu echt dergelijke vermelding moeten doen als ze niet absoluut 100% zeker weten dat de data niet gemanipuleerd is. Anders is het wachten op de eerste mega claims en boetes voor dergelijke organisaties...

[Reactie gewijzigd door Cergorach op 25 januari 2018 13:39]

Aan de andere kant; bij (per ongeluk of expres) verspreide filmpjes kun je nu heel eenvoudig zeggen dat het AI is. Daarmee zijn de filmpjes opeens veel minder interresant en blijft de schade wellicht veel beperkter.

Dit is maar net zo spannend als dat de samenleving het maakt toch?
Als man kun je nu zeggen: "Kijk dan, dat moet wel fake zijn, zo'n grote pik heb ik niet!" Niemand zal denken dat je dat zult zeggen om er onderuit te komen. ;)
Pesten 2018 manier?
En hoeveel ouders van kinderen die hiervan de pineut zijn geloven hun kinderen niet dat het nep is - en die koters plegen zelfmoord omdat ze niet weten wat ze moeten doen?
Precies ik verwacht ook donkere tijden.
En hoe ik technologie leuk vind, vind ik dit alles behalve leuk.
Het zal me niet verbazen dat er door een overheid misbruik van wordt gemaakt. CIA zal het wel leuk vinden als ze kunnen zeggen dat er een Putin is die een nep filmpje maakt van China heerser die zegt dat ze morgen de wereld overnemen en dan reactie filmpje op Trumps twitter en de beurs die zakt in elkaar. Prima moment om geld te verdienen. Naja, Tom Clancy had er wel een boek over geschreven waarschijnlijk als hij nog leefde.
Dit is ook alles behalve leuk... alles wordt nep. het enige wat er mee kan worden gedaan is misleiding. of zijn er positieve doeleinden die ik mis?
Nou, lelijke, goedkope acteurs hebben straks ook kans op een hoofdrol in een film. Ze plakken er gewoon een knap hoofd op... :+
Sorry dat je het uit de lucht gegrepen voorbeeld niet snapt. En ja, er zijn heel veel mensen en helemaal jonge kinderen die problemen hebben met opgroeien. Als ze al zelfmoord plegen omdat er iemand op school hun constant pest.. dan kan ik me voorstellen dat als er dit soort videomateriaal is en je ouders geloven niet dat het nep is .. dat een jong persoon geen uitweg denkt te hebben.
Ga maar eens de zelfmoord informatie en stats opvragen, ik denk dat je misschien een verkeerde blik hebt op de realiteit van deze wereld.
Nog even en je kunt samen met je vrienden meespelen in je favoriete film :) ... moet het nog wel even real-time gebeuren
Real-time is niet nodig toch? Je hebt al heel lang van die boeken die je kunt bestellen met de naam van je kind (bijvoorbeeld). Het verhaal is een template geworden waarbij je zelf in de rol van de acteur kan kruipen.

Goede acteurs blijven nodig natuurlijk want het acteerwerk van die goedkope C-lijst acteur wiens hoofd vervangen zal worden laat waarschijnlijk te wensen over.
Goede acteurs blijven nodig natuurlijk want het acteerwerk van die goedkope C-lijst acteur wiens hoofd vervangen zal worden laat waarschijnlijk te wensen over.
Mogelijkheden te over. Kevin Spacey vervangen nu hij ongewenst is, bijvoorbeeld.
Oja dat is wel een ziek punt. Dat was ook in zo een aflevering van bojack horseman, ze scande die gast z'n hoofd in voordat ze een voor een film gingen filmen. Als hij dan overlijdt ofzo kunnen ze gewoon door met de scan. Dit kan natuurlijk ook met terugwerkende kracht als software binnen de komende 10 jaar zo goed wordt dat het rendabel is.
Hebben ze al gedaan met Paul Walker. Zijn laatste scenes zijn ook digitaal gecreeerd.
Dan mag ik toch hopen dat je geen pornofilm bedoelt :+.
Dat is nou niet bepaald iets wat op mijn nummer 1 bucketlist staat: in een pornofilm spelen met alleen m'n vrienden. :p Ik haak persoonlijk al af als er een andere vent bij zou zijn. :p
Ah, dacht dat er "vriendin" stond. In that case, never mind me :+
Krijgen wij dalijk ook nog dat er fake wraakporno filmpjes online worden gezet, dit kan best gevaarlijk worden denk ik.
Want we hebben nu al een plaag aan wraakporno foto's met photoshop? Weinig nieuws hier, behalve dat het nu videos zijn ipv fotos
Toch is dit wel anders. Met photoshop kan je Trump niet iets laten zeggen wat hij niet gezegd heeft, bijvoorbeeld. Zo'n video zal toch meer impact maken.

Als we denken dat iets photoshop is, dan vragen we vaak naar bewegende beelden om zeker te weten of iets echt is of niet. Dan kan straks niet meer omdat zelfs een noob met 1 druk op de knop zo'n filmpje kan maken. Uiteraard kan je nu ook video bewerken, maar dat is een langdurig en lastig proces om realistische resultaten te krijgen. Straks kunnen internettrollen binnen een uur zo'n filmpje online zetten. Dat is toch wel wat anders.

[Reactie gewijzigd door Atmosfeer op 25 januari 2018 15:23]

Als we denken dat iets photoshop is
Ja nu denk je dat, maar nog geen [whatever hoeveelheid] jaar terug kon je ervan uitgaan dat een foto gewoon legit was en was foto-bewerking niet gebruikelijk of makkelijk. Over 10 jaar zien we een video en weten we dat het net zo goed een fake kan zijn, net zoals je dat nu denkt bij foto's.
Dat snap ik. Ik bedoel dat video nu gebruikt kan worden om vast te stellen of een gebeurtenis op een foto echt is of niet. Dat valt straks weg, maar 'daarboven' is verder niks wat gebruikt kan worden om het dan wel vast te stellen.
Ja dat klopt inderdaad, maar dit lijkt makkelijker te maken dan een foto met photoshop
Straks kan je eigen videootje die per ongeluk of per wraak-express gewoon ontkrachten door nep te roepen :o
Geweldige techniek om dode mensen tot leven te wekken, vooropgesteld dat van die dode mensen beeldmateriaal bestaat. Zo kan in de volgens Star Wars film princess Leia (Carrie Fisher) toch nog meedoen!
De oude princess Leia zat toch al via computer animaties in de laatste scene van Rogue One.
Dat is toch een totaal andere techniek?
Maar die dode mensen moeten dat maar willen!
Ik kan mij voorstellen dat je als acteur/actrice niet wil dat je na je dood nog figureert in films waar je zelf niet voor hebt gekozen. Zie het al helemaal voor me: sci-fi porn "This isn't Star Wars" starring (the ghost of) Carrie Fisher. Zullen haar nabestaanden blij mee zijn.
en toch zitten er genoeg mogelijkheden voor de Porno industrie om te gebruiken.

Je hoeft een film maar 1 keer op te nemen en je kunt je favoriete actrice of acteur er als DLC bijkopen, of je houd een "goede" actrice op die manier eeuwig jong , mogelijkheden genoeg :+
Je vergeet dat er ook nog een tegenpartij is die het op een gegeven moment met een bejaarde actrice moet doen. Hij heeft niet zoveel aan de 'post-processing'...
Je vergeet dat er ook nog een tegenpartij is die het op een gegeven moment met een bejaarde actrice moet doen. Hij heeft niet zoveel aan de 'post-processing'...
Gezien het gezicht van de actrice in kwestie niet meer uitmaakt kunnen ze die actrice dus prima ontslaan en vervangen door iemand anders.

Uiteindelijk heb je dan geen actrices meer nodig maar alleen stunt-doubles.
Mijn punt was dat het gezicht van de actrice dus nog wel uitmaakt, tenminste in pornofilms. Ik zou niet graag pornoacteur zijn als ik alleen maar met lelijke vrouwen naar bed moest waar dan later pas mooie gezichten op geplakt worden. Maar de een z'n afkeer is de ander z'n fetisj, misschien?
Misschien op de omgekeerde manier voor de granny-fetish films.
Na Fake News nu Fake Porn.

Nou ja, porno was al nep dus zoveel verandert er niet.
Met deze tool loopt elke nieuwsvideo kans om fake news te zijn. Je kan zo Trump iets laten zeggen wat hij nooit gezegd heeft (Let's not build that wall). Als deze techniek beter wordt, wordt het vrijwel onmogelijk het authentieke van fake te onderscheiden.
Zo veel veranderd er niet denk ik behalve dat er nu nog een medium is dat niet langer als bewijs kan worden gezien. Zo is de maatschappij sinds een jaar of 10 eraan gewend dat een afbeelding van Bigfoot net zo goed gefotoshopt kan zijn en daarmee waardeloos. Een tijdje terug lazen we al dat geluidsfragmenten op zeer overtuigende wijze vervormd en geknipt konden worden zodat iemand letterlijk woorden in de mond kunnen worden gelegd. Dit maakt het plaatje gewoon compleet.
Het plaatje was al compleet, nou het filmpje ook :+
Nog even wachten tot dit real-time gedaan kan worden en alle beelden zijn niet meer betrouwbaar.
Misschien dat er dan wat minder aandacht komt voor Amerika en Trump in de Nederlandse media.

Elk nadeel heeft zijn voordeel.
wat is er fake bij porn?
De Liefde? Daarvoor kijk je geen porno.
De rest was tot nu toe, volgens mij vrij echt.
Wat er fake is? Dat het klaarkomen van de kerel eerst gefilmd wordt en daarna pas het neuken. Al maakt dat voor het 'verhaal' van de film verder niet zoveel uit....
En dit mag gewoon? Kan me voorstellen dat het een vorm van laster is als er ineens pornofilms verschijnen met gezichten van bekende acteurs en actrices.
Tuurlijk mag dit niet. (in vele delen van de wereld)
Net zoals bij foto's heb je portretrecht (In NL althans, in BE heb je recht op afbeelding).

Er zullen erg weinig rechters meegaan in pleidooien die recht op vrije meningsuiting of artistieke vrijheid zullen aanvaarden bij pornofilms.
Maar als het eenmaal op The Pirate Bay staat is het niet meer zo relevant wat een rechter er van vind.
De relevantie blijft m.i gelijk. Of er wat aan te doen valt is iets anders..
Maar goed, dat is naast te kwestie of iets mag of niet. De wet of een rechterlijke uitspraak negeren kan altijd wel.
Een rechterlijk vonnis is relevant als je er iets aan hebt om een situatie te veranderen. Dat kun je wel alsiemand een filmpje op een prive server zou hebben in een land dat zich iets van de Nederlandse rechter aantrekt, maar niet als het ergens anders staat zoals op TPB. En dat is maar goed ook, anders zijn er nog wel een hoop overheden die hun onwelgevallig materiaal willen verwijderen.
Het kan al met foto's hoor, alleen nu ook makkelijk met videos. Weinig nieuws

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True