Britse overheid wil maken en verspreiden deepfakeporno expliciet strafbaar maken

Het Britse ministerie van Justitie zegt in een wetsvoorstel expliciet het maken en verspreiden van deepfakeporno strafbaar te willen maken. Het gaat om een amendement op de huidige Online Safety Bill.

Als de aanpassing aan de betreffende wet door het parlement wordt aangenomen wordt het in het Verenigd Koninkrijk illegaal om neppe 'intieme beelden' van iemand te maken of te delen. "Mensen die zogenoemde deepfakes - expliciete afbeeldingen of video's die gemanipuleerd zijn om te lijken op iemand zonder toestemming van diegene - worden zo strafbaar gemaakt waarbij daders een celstraf riskeren." De aanpassing van de Online Safety Bill moet in december in behandeling genomen worden in het parlement.

Het amendementsvoorstel moet het vervolgen van het delen van intieme afbeeldingen van slachtoffers gemakkelijker maken en neemt ook in acht of de beelden bijvoorbeeld gedeeld zijn om het slachtoffer te vernederen. Daarbij wordt expliciet het maken van deepfakes genoemd.

In Nederland werd eerder deze maand een man opgepakt voor het maken van deepfakeporno van presentatrice Welmoed Sijtsma. Onder dat nieuwsbericht stelt ict-jurist Arnoud Engelfriet dat dit ook in Nederland strafbaar is onder Artikel 139h; het vervaardigen van een 'afbeelding van seksuele aard' en het eventuele delen hiervan kan respectievelijk maximaal een en twee jaar celstraf of een geldboete opleveren.

Door Yannick Spinner

Redacteur

25-11-2022 • 20:06

54

Lees meer

Reacties (54)

54
53
40
3
0
5
Wijzig sortering
Anoniem: 532949 25 november 2022 20:34
Het bedrijf hierachter zag het al aankomen
"Stable Diffusion 2.0 verwijdert mogelijkheid om nsfw-beelden te genereren"
Dit is niet het bedrijf achter deepfake porn. Stable Diffusion is niet een tool om deepfakes te maken. Stable Diffusion is een tool om AI afbeeldingen te maken. Het gebruikt hiervoor een model dat getraind is met een grote dataset aan afbeeldingen. Je geeft in de tool vervolgens een aantal prompts en de AI zoekt in het model de juiste onderdelen om samen te voegen in een interpretatie op basis van deze prompts. In de datasets van 1.5 en eerdere versies zitten ook ook afbeeldingen die NSFW zijn, afbeeldingen van kinderen en afbeeldingen van bekende mensen. In sommige kringen wordt deze tool gebruikt om afbeeldingen met een combinatie van deze onderwerpen te maken.

Voor het maken van deepfake porn worden hele andere tools gebruikt. De maker van deze video's maakt een model van het gezicht van iemand (doorgaans een beroemd persoon, of een bekende uit eigen omgeving), en laat de AI software dit gezicht plaatsen op die van een porno-actrice.

Dit zijn twee volledig verschillende modellen die behalve dat ze beide AI gebruiken, niets met elkaar te maken hebben.
Nou, "niets met elkaar te maken". Het zou een redelijke tentamenvraag kunnen zijn: "Noem 5 overeenkomsten tussen Deep Fake technologie en Stable Diffusion, en 2 verschillen".

Zo zijn beiden bijvoorbeeld neurale netwerken, beginnen beiden normaal gesproken met Convolutional Layers, zijn beiden het Generative models, maar is de input van Stable Diffusion tekstueel terwijl de input fan Deep Fake visueel i.

En als je dieper kijkt, zie je dat de verschillen nog kleiner zijn. Ik kan me prima voorstellen dat in de toekomst een prompt kunnen mengen: deels tekst, deels beeld. "Polar bear in this style: [URL]". Moderne AI heeft daar geen heel groot probleem mee.
Technisch gezien heb je gelijk. Maar wat ik bedoel dat ze niets met elkaar te maken hebben, is dat ze afzonderlijk van elkaar zijn als entiteit en de organisatie die er achter zit. Gezien mijn reactie doelt op dat Stable Diffusion niet 'het bedrijf' achter deepfake is.
Lastige wet want mag dan porno met fictieve mensen niet? Blijkbaar als die genoeg op een echt persoon lijken niet. In wezen moet je alle gezichten op aarde controleren voor je simulated porn maakt. Ik zie uitdagingen.
Mja, stel dat je op een bestaande porno acteur lijkt? Dat is dan ook een probleem? Of deepfake van iemand die het niet erg vindt (en er toestemming voor geeft?). Deepfake is niet per se slecht. Er lijken me talloze uitzonderingen mogelijk. Voor comedy is het ook een mooie techniek (net zoals het Britse spitting image vroeger met die poppen).

Ik denk dat het meer gericht is op daadwerkelijk slecht gebruik, gericht op een specifiek persoon om die zwart te maken. Zoals in dat Nederlandse geval. Het lijkt me beter om het meer op het doel te richten. Wordt het voor kwaad gebruikt, dan strafbaar maken. Uiteindelijk gaat het om het gebaar, niet om de techniek.

Aan de andere kant is de Britse overheid heel erg preuts geworden en ze hebben sowieso allerlei soorten porno verboden (vreemd genoeg vooral die waarbij vrouwen aan hun trekken komen zoals facesitting). Dus het zou me niet verbazen als dit weer iets is puur voor hun conservatieve achterban (om de aandacht af te leiden van de complete chaos in hun partij)

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 13:56]

Bij Spitting Image en Kopspijkers en Koefnoen weet je dat het komedie betreft; persiflage. Bij bijvoorbeeld Twitter blauw vinkje weet je dat niet meer, en bij deepfakeporno ook niet.

Maar volgens mij betreft het hier gewoonweg schending van auteursrecht, of iets als smaad/laster.
Bij deepfakeporno weet je best dat je naar porno kijkt, net zoals je weet dat je bij Kopspijkers/Koefnoen naar komedie kijkt. Ik bedoel, het zijn in 99% van gevallen bekende actrices/zangeressen/beroemdheden waarvan je 99.99% zeker weet dat ze het niet echt zullen zijn - als was het alleen maar omdat ze er anders zelf wel de miljoenen mee zouden verdienen. Daarnaast kun je het aan de standjes, de belichting en het geluid ook direct mekren dat het niet natuurlijk is.

Praktisch gezien heb je voor zover ik weet een behoorlijke data set nodig om een goed filmpje te krijgen, juist daarom 'lenen' beroemdheden zich hiervoor perfect, daar zijn duizenden uren opnames van beschikbaar. Op het moment dat iemand een Facebook/instagram profiel van z'n buurmeisje, collega of klasgenoot leeg trekt heb je volgens mij nog lang niet genoeg om het echt te laten lijken.

Anyway, op zich een logische stap denk ik, maar dit gaat volgens mij gewoon ondergronds door.
Praktisch gezien heb je voor zover ik weet een behoorlijke data set nodig om een goed filmpje te krijgen,
Historisch wel. Dit verandert in hoog tempo, met name door de ontwikkeling van "few shot learning". Als je miljoenen uren video hebt van duizenden personen, dan heb je nog maar een paar minuten extra nodig om te herkennen wat de volgende persoon uniek maakt. De AI leert letterlijk welke karakteristieken mensen onderscheiden. "Zwaaifrequentie benen"? Misschien, ik weet het niet, maar een moderne AI zou dat kunnen leren.
en wat te denken van 'portretrecht' ? Volgens mij mag je geen foto's publiceren, en ik denk dus ook bewegend beeld, van iemand als die persoon daar niet expliciet toestemming voor heeft gegeven.
Zit ietsje complexer. Iemand die zich in de openbare ruimte begeeft mag je een foto van maken. Maar met iemand's privé film (of een scene uit een serie/film) mag je standaard niets. Hoogstens in de vorm van parodie of quoten, maar dat is dit niet. In dit geval doe je lijken alsof diegene seksuele handeling maakt, en daarmee breng je diegene in diskrediet. Daarnaast de persoon/personen die je naakt gebruikt (de originelen), daar zit auteursrecht op.
Mwoah. We doen het al eeuwen zonder deep fakes. Gezien het massale misbruik, niet alleen in porno, dat ermee gepaard gaat en zal gaan denk ik dat het de moeite waard is om te onderzoeken of het verboden kan worden. Zeker voor de gewone consument. Het is op termijn zeer de vraag hoe realistisch het is zo'n verbod te kunnen handhaven alleen.
En mag je dan een lookalike vinden die toestemming geeft en is hetzelfde doen dan wel oke?
Een lookalike lijkt me geen probleem. Het hele idee van een lookalike is nou juist dat hij/zij erop lijkt, maar dat je ook direct wel ziet dat het niet echt is. Bij de beste lookalikes zie je direct wie het moet voorstellen, maar ook dat het diegene duidelijk niet is.
Het lijkt me in de praktijk eenvoudiger dan jij doet voorstellen. Mensen die porno-deepfakes maken gaat het juist om de gelijkenis met de betreffende persoon, dus die maken ze zo duidelijk mogelijk, en als het niet al 100% duidelijk was, dan zetten ze de naam erbij.

Als deze wet ervoor zorgt dat ze de gelijkenis terugbrengen tot een grijs gebied van "lijkt het wel/lijkt het niet" én ze bovendien de naam van de persoon er niet meer bij vermelden, om mogelijke straf te ontlopen, dan is het doel van de wet al wel bereikt.
Niet echt, ze zetten er gewoon een naam bij die er op lijkt, voordat je het weet heeft iedere bekendheid een alias. Dit is gewoon kansloos en het is ook niet een dringend issue, wetten moet handhaven en er zijn genoeg wetten die veel belangrijker zijn waar nog veel werk is.
Zolang het duidelijk is wie er bedoeld wordt, lijkt me vervolging eenvoudig. Zodra dat niet meer duidelijk is, is de lol er voor de verspreiders volgens mij snel af. Een "naam die er op lijkt" is nou echt zo'n truc waar rechters over het algemeen zó doorheen prikken.
"Zolang het duidelijk is wie er bedoeld wordt, lijkt me vervolging eenvoudig." nee, je moet het juridisch dicht timmeren.
"Een "naam die er op lijkt" is nou echt zo'n truc waar rechters over het algemeen zó doorheen prikken." gelukkig werkt de wet zo niet.
Het gaat hier over het VK. @thomas_n heeft gewoon gelijk. De standaard is daar de fictieve "reasonable person on the omnibus to Clapham". Zou een willekeurige burger, niet bijzonder opgeleid, oordelen dat een alias een verwijzing is naar die bepaalde bekende persoon? Onder die standaard is "The Terminator' gewoon Arnold Schwarzenegger, ook al zegt de wet dat niet letterlijk zo.
Ze zetten er tegenwoordig bij: NOT

Dus:
NOT Jennifer Swift having sex with old guy

En iederen weet natuurlijk dat het een diepe fake is
Vraag me af of dat strafbaar is.
De kans dat iemand precies op jouw figuur lijkt, ook qua stem, is denk ik redelijk klein. Los daarvan denk ik dat tenzij die persoon beroemd is of een bekende van je, toeval niet telt.

Ook kun je proberen om je filmpje iets minder realistisch te maken, zodat te zien is dat het niet echt is. Een disclaimer met "niet gebaseerd op werkelijke personen" kan ook helpen.
Kwam toch vanmorgen een NPC tegen die me bij naam kende, enge tijden.
Ik denk dat je het om moet draaien in wat eigenlijk is toegestaan.

Kinderporno maken mag niet, ook niet als dat virtueel (geanimeerd of niet) is. Porno maken met als doel iemands goede naam te schaden mag ook niet. Ook niet als dat virtueel is (persiflage, satire etc. zullen altijd grijze gebieden blijven en zal de grens eerder op het expliciete vlak liggen).

De uitdaging zit hem in waar de grenzen van porno liggen, wat iemand die "bekend" is moet tolereren en wat nou eigenlijk de intentie van de maker is
En waar is de grens tussen porno en erotiek? Dit blijft een subjectief gebied. en het zal dan ook heel moeilijk zijn om hier concrete wetgeving over te smeden.
Probleem is dat overheden een soort algemene wet maken en in plaats van het misbruik bestraffen eigenlijk iedereen die deepfake wil maken wil bestraffen.

Dat de techniek gevaarlijk kan zijn snapt iedereen. Maar er zijn ook zoveel toepassingen die legitiem zijn of inderdaad met toestemming. Bv acteurs in een seks scene (als het dan toch over seks gaat) die zo dus de scene kunnen doen zonder deze te doen.

Maar ook andere film renders, foto renders die gewoon normaal zijn.
Nee, dat wil de Britse overheid niet, en al zouden ze 't willen, dan nog werkt het niet onder hun rechtssysteem.

De Britse rechters hechten veel meer waarde aan mens rea, letterlijk "schuldige geest". Daaronder vallen concepten als opzet of roekeloosheid. Maar wat jij beschrijft is op z'n best act rea, "schuldige daad", en dat is simpelweg maar de helft van wat er nodig is voor een veroordeling.

De aanklager moet die mens rea ook aantonen. Dat is dus compleet kansloos als de verdediging kan laten zien dat er toestemming is.

Omdat het een fundamenteel concept in het Britse recht is, moet de Britse overheid dus expliciete uitzonderingen maken voor wetten waar mens rea geen verdediging is. Denk dan aan snelheidsboetes; daar hoeft de aanklager het niet aan te tonen.
Ik zie het probleem van deepfake (porno) niet.
Als je een foto van een hoofd op een playboykalender plakt, is dat dan erg? lijkt me (gezien er niemand last van heeft) toch niet? En als je hier beter in bent, en dit zelfs met meerdere achter elkaar afgespeelde frames doet zou dat m.i. hetzelfde moeten zijn.
Als iemand kan denken dat het de persoon in kwestie is, maakt dat dan uit? Waarom zou diegene dan 'geschaad' zijn? De 'schade' is puur de aandacht die het 'slachtoffer' hier zelf aan schenkt.
Als je zelf weet dat het filmpje nep is, waarom zou je je er dan iets van aantrekken? Als een ander masturbeert en denkt dat jij het was, waarom zou je daar dan last van moeten hebben? We leven blijkbaar nog steeds in een cultuur waarin er met een vingertje wordt gewezen naar personen die in filmpjes met 'seksuele aard' betrokken zijn, op basis waarvan we (beginnend in UK) het nu blijkbaar nodig vinden om filmmateriaal te verbieden waarvan niemand last heeft? Wetten zijn er om personen, eigendommen en vrijheden te beschermen, niet om het gevoel van een sneeuwvlokjes te waarborgen.

Er zijn genoeg wetten om afpersing, smaad of portretrecht te beschermen, maar 'deepfake'wetten specifiek gericht op seksuele aard lijkt me echt zinloos.
Het is zo erg als de eigenaar van het gezicht dit vindt. Hoe zou jij het vinden een deepfake porno aan te treffen met het gezicht van je partner? Niet erg? Het gezicht van je ouders? Iets erger? Het gezicht van je minderjarige kind? Die vervolgens op school moet komen waar iedereen die video gezien heeft? Betrek het op mensen in je eigen omgeving.

Bij nieuwe technieken zal je altijd de overweging moeten maken "Wat is het ergste dat ze hier mee kunnen doen?" en "Is het ethisch verantwoord".
Het feit dat iemand een filmpje heeft gezien waarin ze denken mij gezien te hebben waarin ik seksuele handelingen verricht... tja al zou het een filmpje zijn van mijn partner, mijn ouders of mijn minderjarige kind zou het me nog niets doen (zo lang ik voldoende vermoed dat het een fake is).

Die vervolgens op school moet komen waar iedereen die video gezien heeft?
Waarom zou je je iets aantrekken dat de hele school een filmpje heeft gezien van een handeling die je niet hebt verricht? Dat is exact hetzelfde als ingaan op een roddel of een gerucht: ook niet verboden.

En: Waarom zou de hele school een filmpje gaan kijken van een deepfake? Laat de techniek maar zó gangbaar worden dat je er van uitgaat, of zodat er genoeg tools zijn om ze direct te detecteren.
Er plegen kinderen (maar ook vrouwen en mannen) zelfmoord omdat ze gepest worden met roddels. En jouw oplossing is: trek je schouders op omdat je weet dat het nep is?

Die pragmatische vlieger gaat in werkelijk simpelweg niet op.
En wat is het probleem hier.

En dan niet interpreteren dat mensen zelfmoord plegen. Uiteraard is dat een probleem.

Het probleem is het gebrek aan respect voor elkaar, maar ook het goed moeten doen in de samenleving. De constante druk.

Ook het naakte lichaam direct als seks zien wat we echt te veel doen is een probleem. Mensen moeten zich veiliger voelen of het normaler vinden. En sta je naakt op internet, tja het is zo. We moeten echt leren dat het allemaal niet zo erg is. Het is zo erg als je het zelf in je hoofd maakt. En ja dat kan verschrikkelijk moeilijk zijn zolang er nog allerlei taboes zijn.
Je hebt helemaal gelijk. Het echte probleem zit niet bij de mensen die porno of andere vervalste beelden maken, maar bij het publiek dat deze beelden gelooft, verspreidt en gebruikt om het onderwerp te pesten of belachelijk te maken.

Er is helemaal niks bijzonders aan een foto van je borsten of geslachtsdeel. Iedereen heeft er een. Toch vinden sommigen het blijkbaar nodig om iemand te pesten als een dergelijke foto uitlekt. Waarom? Wat heeft diegene dan fout gedaan? Nou ja, laten we het erop houden dat veel mensen gewoon te dom en te bekrompen zijn. Helaas hebben ook die mensen stemrecht.
Ik heb mij (ook) lang afgevraagd wat er zo bijzonder is aan iemands naaktheid en/of handelen; en dit niet los is te zien van een eigen - diepgeworteld ? - verlangen of weerzin.

De argumentaties van voor -en tegenstanders, doen een beroep op wat iemand daarvan als repliek zelf vindt. Niet moeilijk ook want er is altijd wel een moois of lelijks te bedenken van techniek.
Voorstanders willen graag hun whatever visualisatie verbeelden en tegenstanders voorkomen dat hun geliefde daar (onder)deel vanuit gaat (of kan) maken.

Kan alleen maar bedenken dat doorgedraaide wetgeving bedoeld is om het irrationele "publiek" dat daaruit dan aannames ontwikkeld tegen zichzelf en zo hun indirecte slachtoffers - van datzelfde publiek - daarmee te beschermen.
Kromme wetgeving onder het mom van en vooral meer om "eigen" associaties de kop in te drukken die een uiting als beeld kan geven.

Nog een paar decennia verder, krijgen we naast het verbod van visualisatie wellicht (opnieuw) "opvoedkundige" wetgeving die iemand verbied op eigen wijze een beleving te ervaren die middels technologie eenvoudig kan worden gerealiseerd.
We leven helaas nog niet in dat mooie tijdperk waarin het niemand wat boeit, dus moet men beschermd worden tegen het ongewild delen van dit soort beelden.

Ik vind geld en menselijke bezittingen ook maar een ouderwets idee. Dat betekent echter niet dat ik mensen ga beroven, of dat ik het oké vind als iemand mij of een ander beroofd.
De pragmatische vlieger is dat het heel lastig zal worden om het te handhaven. Wat als de makers alleen bepaalde zeer herkenbare details van een echt persoon gebruiken of zoals nu ook al soms in videos of films wordt aangegeven: "elke vergelijking of relatie met echte personen berust op toevalligheid". Het zal uitermate lastig worden voor rechters. Het kan daarnaast ook gevolgen hebben voor de artistieke vrijheid.

Dat pesten nu al enorme gevolgen heeft staat los van deze wetgeving.
Dat iets lastig is te handhaven is geen reden om er dan maar geen wet van te maken. Zolang er geen wet is is handhaven onmogelijk omdat het dan niet verboden/strafbaar is. De eerste stap is dus iets bij wet verbieden. Vervolgens kan je gaan kijken wat er nodig is om te handhaven.
Je kan beter geen wet hebben dan een slechte wet die allerlei onbedoelde gevolgen kan hebben. Je moet je ook afvragen of een dergelijke wet ECHT nodig is of dat er met bestaande algemene wetgeving kan worden gewerkt.
Mee eens, maar handhaven ook in juridische zin.
Anoniem: 361276 @R0000D25 november 2022 23:56
Waarom zou je je iets aantrekken dat de hele school een filmpje heeft gezien van een handeling die je niet hebt verricht?
Maar dat is juist het probleem mensen denken dat je het WEL hebt verricht, net als iemand expres verkeerd quote kan dit verstekende gevolgen hebben, dat jij toevallig niks geeft om je reputatie wil niet zeggen dan andere mensen daar geen schade aan kunnen ondervinden, als iemand jouw deepfaked dat je roept dat je kinderporno prima vind en daarna bozen buren jouw op je neus botsen dan roep je ook wel anders.
Toch knap dat je zo ver van de werkelijkheid af kan staan, of zo weinig empathie kan hebben, dat je niet begrijpt dat a: Je partner of kind er echt wel mentaal aan kapot kan gaan dat anderen denken dat hij/zij dat gedaan kan hebben. en b: Waarom zou de hele school zo'n filmpje kijken? Waarom kijken zoveel mensen naar de filmpjes op Dumpert of 4Chan? Omdat het kan. De afvoerputjes van het internet zijn populair.
Plus dat er genoeg mensen zijn die een dergelijk middel aangrijpen om zichzelf verheven te kunnen voelen boven anderen, of er voordeel uit halen.

Innocent until proven guilty zeggen ze. Maar in de publieke opinie ben je gewoon schuldig tot de onschuld bewezen is. Dat jij er geen last van zegt te hebben wat anderen over je denken is mooi voor je. Maar dat is voor ieder persoon een ander verhaal.
Volgens mij refereer je nu naar beroemdheden die nu in deepfakes terechtkomen? Een Scarlett Johansson in een pornofilm snapt iedereen wel dat het nep is.
Maar wat als het gangbaarder wordt, en iemand een geintje met jou wil uithalen door jou in een willekeurig filmpje te plaatsen? Dat kan best wat problemen veroorzaken... Lijkt mij iig.
Genoeg beroemdheden met een porno verleden. En hoeveel zijn er niet gehakt met prive filmpjes op hun iPhone?
Ik zie het probleem van deepfake (porno) niet.
Als je een foto van een hoofd op een playboykalender plakt, is dat dan erg? lijkt me (gezien er niemand last van heeft) toch niet? En als je hier beter in bent, en dit zelfs met meerdere achter elkaar afgespeelde frames doet zou dat m.i. hetzelfde moeten zijn.
Op zich geen probleem maar het hangt ervan af wat je er mee doet.

Als je zelf een deepfake porno maakt van je collega en dat gebruikt voor je eigen 'pleziertjes' dan is dat wellicht wel verontrustend maar lijkt me ook niet echt iets om te verbieden, en bovendien is er gewoon niks aan te doen want niemand weet het.

Ga je het echter op social media aan mensen doorsturen van "gelekte seksvideo van ...." dan kan je iemand er heel erg mee beschadigen natuurlijk. Zelfs het 'per ongeluk' laten zien kan heel erg kwalijk zijn.
We leven blijkbaar nog steeds in een cultuur waarin er met een vingertje wordt gewezen naar personen die in filmpjes met 'seksuele aard' betrokken zijn,
Het gaat om toestemming van die mensen die er bij 'betrokken' zijn. Sommige mensen vinden het fijn zichzelf helemaal bloot te geven in filmpjes en dat moet gewoon kunnen en dat mag ook. Anderen vinden dat echter niet en dat moet ook gerespecteerd worden. Iedereen heeft zijn eigen grenzen en het is juist een fundamentele vrijheid in onze maatschappij dat we die respecteren.

Ik vind ook dat de wet wel moet gaan om het doel en niet deepfake porno als geheel verbieden. Misschien vind je het wel fijn om je eigen hoofd op die van porno acteurs te monteren bijv. Moet ook gewoon kunnen vind ik.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 13:56]

Het doet me denken aan de docu van VICE news over manga/lolicon vandeweek. Lolicon lijkt ook een victimless crime, maar je kunt er verschillend naar kijken.

En wat je zegt, van knippen en plakken naar photoshop naar deepfake.. klinkt als een logische evolutie. Als je het voor jezelf houdt is daar volgens mij weinig mis mee. Als je het gaat verspreiden wordt het een ander verhaal natuurlijk, zeker als dat met slechte intenties is.

Wat ik me afvraag, zouden ze "bezit" hier bewust niet genoemd hebben? Als je het alleen download en verder niet deelt, ben je dan niet strafbaar?
Dit is een extreem naïeve manier van denken.

Deepfake wordt gebruikt om misinformatie te verspreiden.
Je kunt iemand z'n leven ermee kapot maken door een deepfake rond te sturen van iemand die je haat of pijn wil doen.
Als het eenmaal verspreid is, kun je er weinig aan doen om het tegen te houden.
Deepfake technologie kan onschuldig zijn, maar in verkeerde handen kan het levens kapot maken. Zeker met het oog op wraakporno is het heel goed dat een overheid hier iets tegen doet.
Geldt dit ook voor niet sexueel materiaal? Ik zou ook niet op andere manieren vernederd willen worden met een filmpje dat net echt lijkt. Een getekende cartoon van een politicus is een ding, een levensecht fimpje niet.
Dan is het waarschijnlijk al snel smaad (zie comment van Engelfriet). Ik denk dat de intentie bepaalt of iets onder een mening, cartoon, of regelrechte smaad valt; dat mag dus ook niet zomaar. Ik weet niet hoe dat overigens in de praktijk bepaald wordt. Bij (deepfake)porno lijkt het altijd strafbaar te zijn om dit zonder toestemming van de persoon te maken dan wel publiceren.
Je kan ook gewoon wachten tot het realistisch genoeg is en je gewoon over iedere video kan claimen dat het een deepfake is. Nu kan men later gewoon in een amateur video zitten, er later spijt van hebben en dan claimen dat het een deepfake is. Allemaal best vreemd
Je kan ook gewoon wachten tot het realistisch genoeg is en je gewoon over iedere video kan claimen dat het een deepfake is. Nu kan men later gewoon in een amateur video zitten, er later spijt van hebben en dan claimen dat het een deepfake is. Allemaal best vreemd
Met een deepfake is er altijd een origineel. Zeker met porno gaat men natuurlijk niet speciaal een video maken voor dit doel. Voor politieke beinvloeding wellicht maar voor dit soort laaghangend fruit niet.

Maar wat zou het als mensen het kunnen ontkennen? Zelf nooit ergens spijt van gehad?
Ontkennen mij best, maar als het een strafbaar feit is komt iemand anders dus met de gebakken peren te zitten...
Dit is natuurlijk geen wet die gemaakt is voor alleen de jaren 2022 en 2023. Stable Diffusion kan vandaag nog geen complete video's maken, maar die technologie is een kwestie van afwachten. Het zou me verbazen als het in 2025 nog steeds onmogelijk is.

Overigens denk ik dat we minstens een net zo groot effect kunnen bereiken door de publieke bekendheid met deep fakes te vergroten. Als iedereen al weet dat Deep Fakes bestaan, en makkelijk te maken, dan is deep fake porno automatisch ongeloofwaardig. Als jij nu een pornovideo zou zien met Joe Biden, dat weet jij nu al dat het fake is. We moeten er naar toe dat iedereen het standaard in twijfel trekt.
Is dit al niet strafbaar? Smaad? Portretrecht?
Dus binnenkort deepfake wetten… Hoe zou dat uitpakken.

Op dit item kan niet meer gereageerd worden.