Reddit sluit 'deepfakes'-subreddit met porno waarbij gezicht vervangen is

Reddit heeft de subreddit 'deepfakes' gesloten. Op die subreddit deelden gebruikers pornofragmenten, waarin makers het gezicht van acteurs en actrices via machine learning vervangen door een ander gezicht.

Het sluiten van de subreddit ging gepaard met een nieuwe regel op Reddit, die expliciet porno verbiedt waarbij gezichten vervangen zijn. Een eerdere versie van de regel verbood alleen porno die gebruikers plaatsten zonder toestemming van de mensen die erin te zien zijn. De deepfakes-subreddit had 91.000 volgers.

De regel volgt snel op een verbod van Twitter op porno waarin gezichten zijn vervangen. Het maken van zulke porno is enkele weken geleden makkelijker geworden door het verschijnen van FakeApp, waarmee dat zonder kennis van machine learning of programmeren mogelijk is.

Het verbod van Reddit treft alleen de subreddit voor porno. Een aan de app gewijde subreddit is nog steeds online, net als een versie met creaties zonder pornografisch materiaal.

Reddit-ban DeepFakes

Door Arnoud Wokke

Redacteur Tweakers

07-02-2018 • 20:06

156

Reacties (152)

152
126
76
19
0
26
Wijzig sortering
Bij Pornhub worden de video's ook verwijdert: https://www.theverge.com/...e-ai-celebrity-porn-video

“We do not tolerate any nonconsensual content on the site and we remove all said content as soon as we are made aware of it,” the company told Motherboard, which first reported on the deepfakes porn phenomenon last year.
En je schrijft Tweakers ook met een hoofdletter omdat het een benaming is. :+
Op Reddit hebben ze voor mensen zoals jou een speciale plek gemaakt zodat je contact kan zoeken met allemaal andere mensen die graag op niveau communiceren.

Overigens vind ik het wel een beetje scheef. Privacy, tuurlijk dat verhaal weer. Probleem is alleen dat normale mensen niet van dit soort bescherming mogen genieten. Als ik nu zelf even naar de situatie kijk gebeurt dit alleen omdat de gezichten van bekende mensen gebruikt worden voor zulke zaken. Het is niet zo alsof de gezichten van Joop en Koos belangrijk en/of ze in staat zijn het tegen te houden. Wederom speelt geld een veel te grote rol en de juiste redenen (Je medemens in zijn/haar waarde laten?) alleen maar minder.
Een examen leg je af. Je schooltijd doorloop je.
Hoewel ik ook mijn best doe om spelfouten te beperken en mij ook stoor aan taalfouten in officiële documenten, ligt de lat wat mij betreft wat lager bij reacties online. Zolang het een leesbaar verhaal wordt (dus niet VOL spelfouten), erger ik me niet zo aan d/t-fouten.

Maar om het ontopic te houden: als Pornhub zo tegen nonconsensual content is, beweren ze daarmee dan serieus dat al die ex-GF video's gecheckt zijn? Ik geloof er niks van. Beetje hypocriet dus, waarschijnlijk omdat al die meisjes niet zoveel kunnen beginnen tegen het releasen van hun video (schaamte, gebrek aan kennis, etc), terwijl een celeb zo'n linkje doorgeeft aan hun advocaat die ermee aan de slag gaat. Daar is ook meer te verliezen (financieel gezien dan): zij worden door veel meer mensen herkend.

[Reactie gewijzigd door Grrrrrene op 22 juli 2024 21:49]

Ze zeggen wel dat ze actie ondernemen nadat ze erop zijn gewezen dat een video inbreuk maakt. Als ze er niet op worden gewezen blijft de video dus beschikbaar.
Wat een kortzichtige reactie. Er zijn meer talen dan Nederlands. En er zijn ook mensen uit het buitenland of met dyslexie die ontzettend hun best doen om mee te discussiëren op dit forum. Laat deze mensen ook in hun waarde.
Wat een kortzichtige reactie. Er zijn meer talen dan Nederlands. En er zijn ook mensen uit het buitenland of met dyslexie die ontzettend hun best doen om mee te discussiëren op dit forum. Laat deze mensen ook in hun waarde.
En wat nu als die mensen uit het buitenland OOK dyslexie hebben ?
Maak me meer zorgen voor welke doeleinden deze technologie nog gebruikt gaat worden.

Doet me denken aan toen er geruchten waren dat Julian Assange meegenomen was en er fake videos van hem werden gepost: https://www.youtube.com/watch?v=ApG1XdI-Dd4
Kon dus toen ook al. Er verandert dus niks, behalve dan dat hopelijk nog meer mensen zich realiseren dat alles te manipuleren is en dat je dus bronnen moet leren checken en waarderen.
Tuurlijk kon het al. De vraag is, hoevaak is dit al in praktijk gebruikt? En enger is dat het in de toekomst enkel meer zal worden.

Fake news in landen met minder vrije toegang tot het net word dan wel heel erg realistisch
Hoe zeker ben jij van jouw zaak dat dat alleen fake news betreft in landen met minder vrije toegang?

Misschien zelfs in de landen met de meeste toegang waaronder Nederland, Het Verenigd Koninkrijk, Duitsland, de V.S. Etc? Door bronnen als Reuters, ANP, etc?
Denk wel dat hij er een punt heeft. Met minder vrije toegang kan een land nog meer laten zien wat ze willen of nog makkelijker dingen veranderen in hun eigen voordeel. In het vrije Nederland zijn er zoveel meer bronnen, zeg niet dat de Reuters, ANP te vertrouwen zijn. Ze kunnen nogal snel een bron overnemen bang dat ze de boot missen. Dat is in mijn optiek anders als het met opzet zelf naar je hand zetten.
Juist in Nederland zijn er niet echt 'meer' bronnen. Alle mainstream media in Nederland geeft exact zelfde nieuws of het nou werkelijkheid is of fake maakt niet uit.
In 'minder vrije' landen zijn de burgers ten minste nog sceptisch en geloven ze niet alles. Omdat hier alles 'vrij' is denken burgers bij voorbaat al dat er geen neppe nieuws op Nederlandse zenders / kranten kunnen zijn, zelfs mensen hier op tweakers zie reacties. Dat vind ik gevaarlijker.
Reporter: "En hoe weet u dat?"

Mevrouw in kwestie: "Uuh dat heb gestaan op Facebook!"

http://www.dumpert.nl/med...ouw_weet_hoe_het_zit.html
Dit dus. De mens is slim genoeg om zich aan alle veranderende omstandigheden aan te passen en te evolueren. Al zal het niet vanzelf gaan en zullen er vele fouten gemaakt worden. er zullen uiteraard altijd zwakkere groepen mensen zijn, maar die kun je dan vaker ook met andere overduidelijke dingen voor de gek houden.
Waar veel mensen niet van lijken te leren is de vrees voor verandering en nieuwe dingen. Uiteindelijk valt het allemaal mee en toch wordt er steeds weer opnieuw gevreesd voor het ergste.
Dat is een Morph Cut en da's héél wat anders dan wat Deepfakes deed. Soms heb je een interview waar je wat dingetjes uit knipt omdat er een foutje in zit, of om het verhaal wat in te korten. Als je geen tussenshots hebt om die geknipte stukjes te verbloemen dan heb je drie keuzes:
- Het beeld 150/200% croppen waardoor het lijkt alsof het met meerdere camera's is opgenomen.
- Gewoon een harde knip erin laten zitten.
- Een Morph Cut gebruiken. Premiere zorgt dan voor een zo goed mogelijk overgang tussen beeld 1 en 2 door die twee aan elkaar te 'morphen'.

Heeft weinig met fake video's te maken maar is gewoon een trucje om ervoor te zorgen dat de beelden lekker smooth blijven lopen.
Dat klopt - maar op dat moment werd geïnsinueerd dat Assange dood was, en dat men fake interviews postte om de schijn hoog te houden. Was een hele conspiracy theory.
voor de menig conspiracy theorist en slecht onderlegd persoon zou het er verdacht uitzien, maar uiteindelijk is het een echte interview waar een editor overheen is gegaan. Het een feature in een bekend video edit pakket, iets wat in Adobe Premiere zit genaamd Morph Cut.

https://www.youtube.com/watch?v=J6wPUtKg-Ac

daarnaast wordt Photoshop word al jaren ge(mis?)bruikt voor het maken van fake porn fotos met gezichten van bekende mensen. Deepfakes doet dat met videos. het is "scary technology" los van de porno. Nicolas Cage in alle films, je moet er niet aan denken!
Klopt, ik haalde het filmpje gewoon als een voorbeeld aan omdat mensen destijds meteen begonnen te roepen dat het fake was :-)
Of aan Lincoln Burrows van Prison Break :)
Heb een aantal filmpjes bekeken op pornhub voor research. De techniek werkt vrij goed. Soms zie je wat glitches.
De beste vond ik die van Sophie Turner, Margot Robbie, Ivanka Trump, Gal Gadot.
Van een paar andere kloppen de gezichten niet helemaal. Te groot/uitgerekt om het passend te krijgen.

Geen fakes van mannelijke celebs trouwens.
Mijn collega heeft ook enkele voorbeelden gemaakt in iets minder gevoelige context: http://svencharleer.com/b...fe-onto-the-tonight-show/
Hoewel dit soort dingen te verwachten was en nu dus meer doorbreekt is het ook wel beangstigend. Neem video opnames als bewijsmateriaal, hoe betrouwbaar zijn die nu dan nog wel nadat dit soort dingen mogelijk zijn? Stel je voor je neemt een opname van een inbraak en je plakt iemand anders eroverheen. Of een geheime dienst die jou niet zo ziet zitten ... Ik kan nog wel even doorgaan met talloze voorbeelden waarbij bewijsmateriaal dat voorheen als onomstotelijk werd beschouwd, nu toch wel erg gevaarlijk kan zijn.
Zeker, vooral als je er wat korrelige bewakingscamera achtige beelden van maakt
Ik ben geen expert maar ik dacht dat ze wel in staat zijn om na te gaan of een video of geluidsfragment bewerkt is of niet.
En dat je je daar zorgen over maakt...
Ze werken nog steeds met getuigen. Wat al oneindig vaak bewezen is als de meest onbetrouwbare bron ooit. Zelfs in een perfecte situatie laten je hersenen je soms nog geloven dat je bepaalde dingen gezien gewoon puur door hoe onze hersenen werken.
Andere voorbeelden, haarnalyse wat onzin is en fingerprints die niet uniek zijn. John Oliver heeft er een filmpje over btw. https://www.youtube.com/watch?v=ScmJvmzDcG0&t=918s


Dat terzijde waren ze al heel lang in staat om dit te doen met beelden maar is het nu gewoon toegankelijk voor het algemene publiek omdat er toegankelijke software voor gemaakt is.
Voordien was het meer computer expert werk.
Dave Lee heeft een filmpje gemaakt waarin hij zich veranderd door TLD en Unbox Therapy: https://www.youtube.com/watch?v=S6fjNq0PGYo
En ook wat uitlegt hoe hij het doet.

Ik moest lachen want daarin gaf hij aan dat we wel verantwoordelijk moesten omgaan met deze techniek. In de comments had iemand gereageerd "Responsible? This is the internet..." :D
Je kunt het ook anders bekijken. Nu het aantoonbaar is dat videomateriaal eenvoudig aan te passen is, wordt het ook meteen obsolete als bewijs materiaal.
Andersom is ook een probleem.
De échte inbreker, die écht op de film staat kan beweren dat de opname nep is.
  • Vingerafdrukken kunnen tegenwoordig vervalst worden
  • Stemmen kunnen tegenwoordig vervalst worden
  • Videobeelden kunnen tegenwoordig vervalst worden
  • Enz.
Hoe bewijs je straks dat iemand wél de dader is ?

Ook betrapte politici proberen er nu als mee weg te komen: "You are fake news!"
Fantastisch, ik krijg persoonlijk ook zin om er zelf mee aan de slag te gaan. Gewoon jezelf in Die Hard of wat dan ook plakken, nee wacht Rambo :P
Er zijn zeker wel fakes van mannelijke celebs.
Nicolas Cage is meerdere malen gebuikt, en zijn video's zijn ook verreweg het beste gelukt.

https://www.youtube.com/watch?v=UwiagqaX4fA

De grap er even buiten gelaten, zelfs de belichting is goed meegenomen.
Heb een aantal filmpjes bekeken op pornhub voor research.
Ik vind hem goed :P
Anoniem: 890159 @LordLuc8 februari 2018 11:32
Geen fakes van mannelijke celebs trouwens.
Gezien het anti-homo beleid in Rusland wacht ik op de eerste fake homo-porno tussen Trump en Putin. :)
Tom Scott heeft begin deze week een video gepubliceerd over het vervangen van gezichten in video. Hierin legt hij onder andere uit dat de software om deze fragmenten te maken nu nog relatief ingewikkeld is, maar dat er waarschijnlijk binnenkort apps komen waarmee iedereen dit gemakkelijk kan doen.
https://youtu.be/OCLaeBAkFAY
Ehm .. het hele gedoe rond deepfakes gaat juist erom dat het nu enorm makkelijk is geworden met deze app http://www.fakeapp.org/
Ik snap alleen niet waarom Tom, en eigenlijk iedereen met een vergelijkbaar verhaal, doet alsof deze techniek in een vacuüm is ontstaan. Alsof er niet al jaren vergelijkbare technieken op de markt zijn die hun toepassing vinden op afbeeldingen in plaats van video's.

"Photoshoppen" is tegenwoordig gewoon een term die ze op TV durven te gebruiken, zonder dat ze denken dat ze het uit hoeven te leggen. Voor genoeg mensen is het geen probleem om aan de realiteit grenzende nepfoto's te maken. Toch is er in die jaren geen epidemie ontstaan van chantagezaken met nepfoto's. Dat heeft overigens, o.a., te maken met het feit dat het nog steeds ontzettend veel tijd/geld, moeite en expertise kost om een niet van echt te onderscheiden nepfoto te maken.

Ik heb nog niet echt overtuigende argumenten gehoord waarom we ervan uit moeten gaan dat dit bij deze technologie heel anders zal gaan.
Tja, hek van de dam vrees ik. Het is strafbaar, ongeacht wat reddit ervan vindt, maar je vindt het ook op pornhub etc, die hebben gezegd het te wissen maar hebben dat nog niet gedaan. Ik denk niet dat je er veel aan kunt doen.
Tja, hek van de dam vrees ik. Het is strafbaar.
Oh? Bron? Het digitaal manipuleren van beelden is in principe niet strafbaar, hooguit dat het gebruik van die beelden zonder toestemming onrechtmatig is, maar daarvoor gaan ze niemand in de cel gooien.
Naast dat portretrecht is het ook een soort grove vorm van laster he - niet zomaar onwaarheden vertellen over iemand, maar dat zelfs beeldend in elkaar knutselen. En dat staat wel degelijk in het strafrecht:

Artikel 261

1. Hij die opzettelijk iemands eer of goede naam aanrandt, door telastlegging van een bepaald feit, met het kennelijke doel om daaraan ruchtbaarheid te geven, wordt, als schuldig aan smaad, gestraft met gevangenisstraf van ten hoogste zes maanden of geldboete van de derde categorie.
2. Indien dit geschiedt door middel van geschriften of afbeeldingen, verspreid, openlijk tentoongesteld of aangeslagen, of door geschriften waarvan de inhoud openlijk ten gehore wordt gebracht, wordt de dader, als schuldig aan smaadschrift, gestraft met gevangenisstraf van ten hoogste een jaar of geldboete van de derde categorie.

http://www.wetboek-online.nl/wet/Sr/261.html
Onder smaad of schending van de eerbaarheid zou je het in sommige gevallen ook nog kunnen gooien, maar dan heb je hooguit de maker van de nepfilmpjes te pakken.

De filmpjes krijg je nooit meer van het internet af, want juist als zoiets in het nieuws komt en een filmpje wordt door de rechter ergens vanaf gehaald, dan duiken er gelijk twintig kopieën op andere plaatsen op.
Volgens mij is dit geen smaad of schending van eerbaarheid zolang je aangeeft dat het fake is en valt het ook niet onder portretrecht als het een publieke foto is zonder dat je er inkomsten mee vergt. Anders zouden al die celebs andere mensen ook kunnen gaan aanklagen voor het photoshoppen van een plaatje(hoe slecht dan ook).

Op dat moment zou zelfs iemand een persoon kunnen aanklagen omdat ze (bijv.) hun hoofd op een foto van een aap geplakt hebben.

[Reactie gewijzigd door MrFax op 22 juli 2024 21:49]

Ik vraag me overigens wel af hoe ver dit gaat. Strikt genomen kun je op basis van die wet, in mijn ogen, niet zeggen dat je bij het publiceren van een deepfake kunt spreken van aanranding van iemands eer of goede naam, in ieder geval zolang duidelijk is aangegeven dat het om een (deep)fake gaat.

Wel kan ik me voorstellen dat een rechter het oordeel velt dat daar toch sprake van is als niet duidelijk is vermeld dat het gaat om nepperij. Als je dat niet duidelijk maakt dan wek je op zijn minst de indruk dat je hebt geprobeerd anderen werkelijk te laten geloven dat het om de betreffende persoon gaat.

[Reactie gewijzigd door Patriot op 22 juli 2024 21:49]

Moet voor laster niet de pretentie worden gewekt dat het echt is?

Is het laster als ik een photoshop maak van Mark Rutte die steekpenningen aanneemt en deze duidelijk label als nep, kan dat dan nog steeds laster zijn?
Is Reddit Nederlands?
.oisyn Moderator Devschuur® @Stoney3K7 februari 2018 21:10
Het is gewoon een inbreuk op het portretrecht.
Overigens wordt dat ook nog eens twijfelachtig als je bijvoorbeeld gehackte bewakingscamera's gebruikt als bronmateriaal voor je fakes, want die beelden zijn met toestemming gemaakt. "Je mocht mij niet filmen" is dan geen argument.

En als een deepfake dusdanig anders is dat er niet meer te achterhalen is waar het portret van iemand vandaan komt dan wordt het discutabel, dat hebben we in rechtspraak-land nog niet gezien. In het meest extreme geval kun je dat zelfs nog onder een karikatuur scharen, want het is feitelijk geen portret maar een gegenereerde afbeelding.

Klinkt als een goed item voor de blog van @Arnoud Engelfriet . :)

[Reactie gewijzigd door Stoney3K op 22 juli 2024 21:49]

.oisyn Moderator Devschuur® @Stoney3K7 februari 2018 22:12
Bij portretrecht doet het er volgens mij niet echt toe hoe het materiaal verkregen is, maar gaat het erom wat ermee gedaan wordt. En het is bij deepfake porno vrij evident dat dat een grove inbreuk is op het imago van een persoon.
Bij portretrecht doet het er volgens mij niet echt toe hoe het materiaal verkregen is, maar gaat het erom wat ermee gedaan wordt. En het is bij deepfake porno vrij evident dat dat een grove inbreuk is op het imago van een persoon.
Met andere woorden, wettelijk gezien zou je onder het portretrecht ook iets kunnen doen tegen Mohammed-cartoons?

Niet om ze te veroordelen maar gewoon om te willen weten hoe het recht precies in elkaar zit. Valt een verzonnen maar duidelijk herkenbare beeltenis van iemand er ook onder?
Anoniem: 998261 @Stoney3K7 februari 2018 22:24
De persoon van wie het portretrecht is geschonden (of zijn wettelijke vertegenwoordigers) moet een civielrechtelijke procedure starten. Dat wordt lastig voor Mohammed...
Het portretrecht vervalt 10 jaar na het overlijden van de persoon, dus dat houdt meteen op. Bij een cartoon met een herkenbaar levend persoon is een portretrechtschending mogelijk, het hoeft niet perse om een foto te gaan voor portretrecht. Maar bij een cartoon is er meestal wel een satire/meningsuiting tegenargument dat hout snijdt. En dan is portretrecht dus niet evident.
Daarvan kun je best beargumenteren dat alle imams in de wereld wettelijk gerechtigd zijn om aangifte te doen namens Mohammed...
Het doet niet ter zake wat de bron is van het portret, het gaat erom wat de impact is van de publicatie van het portret. Als jij uit je hoofd mijn portret tekent en daar bv. iets seksueel expliciets van maakt, dan heb ik een duidelijke zaak met een portretrechtclaim. Dat iets een karikatuur is kan een tegenargument zijn maar je moet dan wel een inhoudelijk punt hebben waarom je mij moet karikaturiseren. "Gewoon om te lachen" is wat magertjes.
Het is gewoon een inbreuk op het portretrecht.
Probleem hierbij is dat het een Amerikaanse website betreft.
Het is strafbaar omdat het portretrecht van de afgebeelde persoon schendt.
Dat is onrechtmatig maar niet strafbaar. De persoon zelf kan je ervoor aanklagen en een schadevergoeding eisen, maar de politie en het OM zullen niets doen als je aangifte doet van schending van portretrecht.

Civielrechtelijke kwestie, geen strafrecht.
Niet helemaal waar, het kan ook een strafrecht-kwestie zijn:
Artikel 35
1.
Hij die zonder daartoe gerechtigd te zijn een portret in het openbaar ten toon stelt of op andere wijze openbaar maakt, wordt gestraft met geldboete van de vierde categorie.
2.
Het feit is eene overtreding.
http://maxius.nl/auteurswet/artikel35

Boete vierde categorie is maximaal 20.500 euro.
Ik hoorde het bij een nieuwsitem op de radio, heb het zelf niet gecheckt, maar je mag dus niet een gezicht gebruiken in een film zonder toestemming begreep ik. Ik weet de precieze formuliering niet.
Reddit doet dit waarschijnlijk niet omdat het strafbaar zou zijn, grote kans dat ze dit doen omdat het teveel media aandacht krijgt en mensen teveel 'wat als' vragen stellen. En dat de MeToo movement nu volop in gang is speelt ook een rol. celeb fakes waren jarenlang op reddit en niemand die er iets van zei maar met deze ban is nu alles gebanned.

reddit is en blijft een commercieel bedrijf die onder de mom van "vrijheid man meningsuiting" bepalen wat ze wel en niet toelaten. aan het einde van de dag wil je toch een "schone" platform presenteren aan de adverteerders.

reddit laat veel toe, totdat het teveel aandacht krijgt of als er bekende mensen in betrokken worden
https://en.wikipedia.org/...ersial_Reddit_communities
Al die beroemdheden zijn ook maar mensen. Hoe zou jij het vinden als de gezicht van je vrouw of kinderen van het internet werden geplukt en voor verachtelijke zaken werd gebruikt?
Het is vooral vervelend als je een van de weinige bent waar het mee gebeurd: dan zullen er een hoop mensen zijn die de video voor authentiek aanzien.

De beste oplossing is volgens mij juist om van iedereen te pas en te onpas dit soort filmpjes te maken. (Niet per se porno natuurlijk. Er zijn veel leukere dingen te bedenken.) Dan worden de filmpjes al snel ongeloofwaardig.

Zelf ben ik wel blij dat deze techniek zo snel in de mainstream terecht is gekomen. Het leert mensen namelijk dat video's eenvoudig te manipuleren zijn en ze niet elk filmpje zomaar moeten geloven.
Over het algemeen is het zo dat de mensen die in porno spelen ook vrijwillig toestemming hebben gegeven om zichzelf bloot te geven aan de wereld.
Maar als je een gezicht op iemand plakt, dan betekent het toch niet dat je jezelf bloot gegeven hebt, toch? "celeb fakes" bestaan al tientallen jaren, maar zijn nu ook samen met "deepfakes" gebant op Reddit.

Je gebruikt publieke foto's op publieke videos, dus voor de wet is het niet illegaal(zolang je aangeeft dat het niet echt is) en valt gewoon onder artistieke vrijheid, zolang je het voor jezelf houdt of rechten erop hebt, en zou op zich zelfs onder "fair use" van copyright vallen(omdat het meestal maar filmpjes van een aantal seconden zijn).

Een artiest mag toch ook gewoon iemand tekenen op basis van wat hij met zijn ogen heeft gezien, of een foto(zolang het een foto is in het publieke domein), of het nou een naakttekening is of niet? Zolang je aangeeft dat je dit zelf getekent hebt is dit voor de wet niet strafbaar. Artistieke vrijheid.

[Reactie gewijzigd door MrFax op 22 juli 2024 21:49]

Heb je wel goed gelezen? En anders vind je het dus niet erg om in het filmpje van rapper sjors geplakt te worden en een miljoen views te krijgen.
Eigenlijk vind ik dit vrij zielig. Er zijn een hele hoop subreddits die al jaren lang de Reddit regels schenden, en waar de admins al ruime tijd gewoon niet naar omkijken.

En bij deepfakes, welke zeker en vast niet ethisch zijn maar wel in een grijze zone liggen, gaat men dan opeens de regels aanpassen en subreddits bannen? Ik heb er een dubbel gevoel bij.
Zodra het om celebraties gaat en daarmee mogelijke rechtszaken die miljoenen kunnen kosten, is Reddit heel snel met het sluiten van subreddits.
Dat komt omdat die andere subs - nog- geen legaal gevaar vormen voor reddit.
Er zijn letterlijk subreddits die dienen om te lachen met mensen die sterven, zelfs subreddits gewijd aan lijken van kinderen. Dat ze dit bannen - okee, mee eens - maar moeten ze ineens grote kuis houden en dat soort ranzigheid en hun subscribers ook verwijderen.
De deepfake verhaal werd bekend door de celebs, maar dat was wat hier de deur dicht deed.

Moderators van deepfake zelf kwamen materiaal tegen waarbij gebruikers de regels van kinderporno wilde omzeilen.

Volwassen gezicht op kinderlichaam of vice versa, is het dan nog wel strafbaar?
Moderators gaven dit aan bij de reddit administrators en dat zorgde voor deze snelle en harde aanpak.
Groot gelijk, want dit is geen grijs gebied waar je problemen wilt hebben.
Ik zie je punt niet eigenlijk, reddit banned nu lasterlijk materiaal omdat ze geen zin hebben in rechtzaken.

andere ranzigheid is ranzig, maar geen gevaar civiel rechterlijk gezien.
Tegenwoordig gebeuren dit soort dingen meestal onder druk van de geldschieters/adverteerders van een site. Of dat nu het geval is weet ik niet.
Is sowieso niet tegen te houden. Het hek is van de dam en gaat er nooit meer op. Maar de maaksels zijn wel illegaal dus alle grote platforms zullen het terecht weren - mits ze het herkennen.

Trouwens, hier in Nederland hadden we de primeur al ver vóór reddit: die video van Paay was natuurlijk niet echt :+
Ik blijf het mooi vinden.

2014 hadden die Duitsers hun "pas de gezichtsuitdrukking aan in een video naar degene die op de camera te zien is".
201X met kort stem fragment kan je iedereens stem namaken.
2017/2018 Vervang iedereens gezicht in filmpjes.

Je kan nu dus 100% van niet echt onderscheidbare fakes maken.
In het kader van portretrecht een logisch besluit. Voor de gedupeerden zelfs heel fijn. Maar de beer is los: deze films gaan nu via andere manieren gedistribueerd worden en dat is minstens net zo schadelijk.

Op dit item kan niet meer gereageerd worden.