Twitter weert gebruikers die in pornovideo's gezichten vervangen met ai

Twitter heeft laten weten dat het bans uitdeelt aan accounts waarop gebruikers zogeheten deepfakes delen. Dat zijn pornovideo's waarbij met behulp van machine learning een hoofd wordt verruild met dat van bijvoorbeeld een beroemdheid.

In een e-mail aan de website Motherboard meldt een Twitter-woordvoerder dat elke account waarop de gebruiker 'intieme media' plaatst die gemaakt of gedistribueerd zijn zonder de toestemming van de afgebeelde personen, te maken krijgt met een ban. Dat zou al gebeurd zijn met het Twitter-account genaamd '@mydeepfakes', dat binnen enkele uren na het plaatsen van video's met verwisselde gezichten opgeschort werd.

Twitter heeft op dit vlak beleid waarin staat dat het delen van intieme foto's of video's zonder de toestemming van de afgebeelde personen niet mag en een schending vormt van zijn of haar privacy. De deepfake-creaties worden hierbij niet specifiek genoemd, maar vallen volgens Motherboard binnen deze categorie. Inmiddels hebben Discord, Gfycat en Pornhub bekendgemaakt dat ze door kunstmatige intelligentie gemaakte neppe pornovideo's niet tolereren. Motherboard heeft ook gevraagd wat Reddit hiermee doet, maar de website heeft twaalf dagen na een verzoek tot commentaar van Motherboard nog altijd niet gereageerd.

De deepfakes-subreddit heeft inmiddels 91.000 volgers. Op deze subbreddit, die halverwege december vorig jaar werd opgericht, delen Reddit-gebruikers hun creaties met elkaar. Twee weken geleden plaatste een Reddit-gebruiker een tool op het internet, genaamd FakeApp. De maker van de tool zei dat hij FakeApp in de toekomst zo gebruiksvriendelijk mogelijk wil maken, zodat gebruikers alleen maar twee video's hoeven te selecteren en een knop hoeven in te drukken om de gezichten te verwisselen. De tool maakt gebruik van een neuraal netwerk en traint het aan de hand van in video's gedetecteerde gezichten om gezichtsuitdrukkingen, belichting en positie te bepalen.

De tool wordt volgens Motherboard soms ook ingezet voor andere doeleinden dan het aanpassen van een pornovideo. Zo combineerde een gebruiker een video van Hitler met beelden van de Argentijnse president Mauricio Macri. In het verleden hebben wetenschappers kunstmatige intelligentie voor soortgelijke doeleinden ingezet, bijvoorbeeld voor het genereren van realistische mondbewegingen aan de hand van audio. Vorig jaar uitte het Defensie Cyber Commando bovendien zijn zorgen over de manipulatie van live video.

Door Joris Jansen

Redacteur

07-02-2018 • 08:47

101 Linkedin

Lees meer

Reacties (102)

102
99
90
5
0
6
Wijzig sortering
Ik vind dit echt een heel slecht iets ..

Als er een puber gefilmd wordt en vervolgens via deze app in een pornofilm wordt verwerkt kan je zomaar iemand zijn leven kapot maken. Nee, ik keur dit echt af. Hoeft overigens niet eens een puber te zijn .. Iedereen loopt met een mobiele telefoon tegenwoordig en als je zomaar lukraak in het openbaar gaat filmen en vervolgens via deze app iemand in zo'n filmpje plaatst ..

[Reactie gewijzigd door Gulioh op 7 februari 2018 08:53]

Ik denk dat je nog te ruim denkt met het nodig hebben van een video. Ik acht de kans aanwezig dat dit vrij snel ook met alleen maar afbeeldingen kan. Dus dan ben je met iemand zijn Facebook account al klaar.

Vis daar een paar foto's vanaf met een paar perspectieven en je hebt de invoer voor je video.
Ik denk dat een hoop mensen zich echt heel goed moeten realiseren dat Facebook een gigantische bron van informatie is voor dit soort doeleinden. Identiteitsfraude word zo heel makkelijk.

Tevens had Adobe ook al een video waarin ze demonstreerde hoe ze iemand zijn stem konden repliceren en alles laten zeggen.

Combineer dat met een live versie van DeepFakes en je kunt jezelf op afstand perfect voor doen als iemand anders.
Het klopt dat het genoemde systeem 'fakeapp' niet alleen werkt op video. Uiteindelijk maakt het gebruik van de video gesplitst in losse frames, maar ook met losse foto's werkt het volgens mij. Echter las ik ergens dat er voor een redelijke kwaliteit fake zo'n 500 beelden van iemands gezicht nodig zijn. Die paar foto's op Facebook gaan dan niet genoeg zijn.
De techniek gaat keihard. Reken er maar op dat vanaf nu iedere week 1 foto minder nodig is, tot we over een paar jaar genoeg hebben aan een handvol kiekjes of zelfs een enkele foto. Uiteindelijk zijn menselijke gezichten best wel voorspelbaar, we hebben allemaal dezelfde spieren en zo.

Tegelijkertijd zal het ook allemaal steeds sneller worden. Ik heb al een demo gezien die volgens mij in real-time werd uitgevoerd op life TV (ik ben niet zeker van de gebruikte techniek, misschien werkte het anders, al is uiteindelijk het effect wat telt). Nog een paar jaar en de reclame-posters op het station dragen je eigen gezicht.
Zo is het net, je hebt heel veel foto's nodig met verschillende belichting, verschillende hoeken ... Kortom met een facebook foto of 10 raak je er echt niet.
500 fotos komt omdat de onderliggende technologie nog heel algemeen is, niet specifiek gericht op gezichten. zo heeft nvidea ook een demo hoe een winterlandschap in een zomerlandschap kan veranderen.

Als je het model leert hoe een gezicht eruit ziet kan die een 3d model maken van 2 fotos , en leeft hoe schaduwen werken, dan kan het daaruit die 500 fotos extrapoleren.
Correct, "momenteel" mist een beetje in mijnzin, voorlopig heb je nog wel wat beelden nodig, maar we komen vast op een punt waar met enkele kiekjes al iets mooi's te maken is.

Kortom video is nu wel echt dood als betrouwbare bron.
Voor de mensen die de resultaten willen zien of het programma willen proberen :)

-Reddit Deepfakes (18+)
-FakeApp (download en probeer zelf)

Ik moet zeggen, het ziet er allemaal best realistisch uit.

In 10 jaar doen we het journaal en meer tv programma's zo :p

[Reactie gewijzigd door mmjjb op 7 februari 2018 11:03]

Ter info; de subreddit is inmiddels down
Nou, je hebt ook van die zelfingenomen lieden die elke dag 35 selfies maken en op instagram posten. Met dat soort mensen kom je vrij snel aan 500 foto's. En zeker een foto's waarin een gezicht heel duidelijk zichtbaar is, lijkt me betere invoer voor het algoritme, waardoor 200 misschien al genoeg is.
Maar met een willekeurige video van een bekende kom je waarschijnlijk al een heel eind.

Ik denk niet dat je de ontwikkeling van dit soort apps door zoiets tegengehouden gaat worden. Uiteindelijk kunnen mensen waarvan een "echte" video is gelekt/gestolen/whatever deze software misschien wel gebruiken om de video ongeloofwaardig te maken. Gewoon een willekeurig hoofd over hun eigen hoofd heen zetten en uploaden :P
Je kan via facebook vaak vrij makkelijk honderden fotos van een persoon vinden, die ook nog eens handig informatie bevatten waar het gezicht van die persoon is.
Nu is het misschien nog nodig om 500 beelden nodig te hebben, maar wat als dat neuraal netwerk aan de hand van 4 foto's kan bepalen wat de vorm van jou hoofd is en gezicht en kan extrapoleren wat voor een huid jij hebt en aan de hand van al die andere beschikbare data daar uit een hoofd kan genereren?

Hoeveel foto's heb jij nodig om te weten hoe iemand zijn gezicht er uit ziet? 500 in verschillende omstandigheden?

Ik denk het niet, en het idee van dit soort netwerken is ook die die leren hoe iemand er uit ziet zo dat er steeds minder data nodig is per individu.

Ik zou het niet heel raar vinden als straks 1 foto genoeg is.
Jij hebt nog nooit een meid op instagram gezien met haar 3000 + duckfaces
Zo als Tom Scott ook al zij, het zal er in de toekomst steeds meer om gaan of je de bron vertrouwt aangezien zelfs video materiaal nu dus al niet meer gegarandeerd 'echt' is.
Net als vroeger, voordat er van alles fotomateriaal en videomateriaal was. Als de krant schrijft dat er een luchtballon is neergestort, dan zal dat toch wel zo zijn.
De ramp met de Hindenburg is een mooi voorbeeld van de omslag. Deze ramp met een Zeppelin betekende effectief het einde van het gebruik van Zeppelins. Niet zozeer omdat er nog nooit zoveel mensen waren omgekomen in bijvoorbeeld een boot. Niet omdat vliegen met een ontvalmbaar gas zoveel gevaarlijker is dan rondrijden op een ontvalmbare brandstof. Vooral omdat er beelden van waren. Sindsdien hebben (bewegende) beelden onze beeldvorming beinvloed: als we iets kunnen zien is het erg. Als iets niet gefotografeerd wordt, en er geen filmbeelden van bestaan, dan vinden we het niet nieuwswaardig genoeg: het past niet in het journaal. Voor onze beeldvorming laat het journaal daarom wel eens animaties zien van wat er gebeurd is, dat lijkt me ethisch correct zolang je het nog van echt kan onderscheiden. Vergelijk het met Stephen Colbert die tweets van zijn president voorleest terwijl hij de president na doet, leuk, lachen. Maar wat als hij er bewegende beelden bij zou zetten van de president die het echt lijkt te zeggen? Het zijn de woorden van de president, kan het kwaad om hem die woorden in zijn mond te leggen? Mag het journaal een realistische reconstructie laten zien, waarin een veroordeelde verdachte zichtbaar de veronderstelde misdaad pleegt? Mag het als er "u kijkt naar een reconstructie" in beeld staat? Of moeten we terug naar de tijd van voor de Hindenberg? Een betrouwbare redacteur schrijft (of leest voor) een artikel en we geloven hem op zijn status (net zoals we bijvoorbeeld Harvey Weinsten vertrouwden om zijn status)? Want bewegende beelden zijn waardeloos geworden.
Goh, nu wordt er bij een reconstructie een acteur gebruikt. Als daarvoor het gezicht van de verdachte gebruikt wordt kan dat ook weer niet tot verwarring bij het publiek leidden. /edit :@84hannes, nee, ik ken die gevallen niet.

hoeft men alleen nog maar te melden dat het een reconstructie is, niet meer dat het een beeld van een acteur is.

[Reactie gewijzigd door leuk_he op 7 februari 2018 16:19]

Je verwijst naar die paar gevallen waarbij de acteur aangezien wordt voor de dader en achtervolgd wordt door bedreigingen of geweld? Voor die acteurs is dit wellicht veiliger :)
Ik zie al interessante toepassingen in de politiek: een VVDer iets laten zeggen over dat Groningers wat hem betreft naar de pomp kunnen lopen en dat de gaswinning opgevoerd moet worden, een filmpje waarin Wilders of Baudet Mein Kampf citeren, een filmpje waarin Jesse Klaver roept dat arme mensen helemaal geen recht zouden moeten hebben om auto te rijden. De mogelijkheden zijn eindeloos en voordat de storm weggeebt is en de films als nep gezien worden zijn de verkiezingen al lang weer voorbij.
Voor foto's is die app niet echt nieuws, dat kunnen we al honderd jaar met de bestaande fotobewerkingssoftware, dus het risico wat Gulioh omschrijft was er al die tijd al.

De verandering zal vooral liggen in onze perceptie ven betrouwbaarheid van beeld: van foto's wisten we inmiddels al wel dat je nooit meer zeker kunt zijn dat een getoond beeld echt is, van (personen in) video's hadden we nog wel dat idee. Dat zal nu verdwijnen.

Eigenlijk is dat helemaal niet zo negatief want het manipuleren van video kan ook al die tijd al, het was alleen nooit zo laagdrempelig als nu.
Het gaat ook niet om in een foto een gezicht te vervangen (al is dat precies wat er gebeurt, 1 frame is eigenlijk het zelfde als 1 foto), maar dat je in plaats van een video gewoon een paar foto's als input gebruikt om in een video iemand zijn gezicht te vervangen. En dan niet een paar honderd maar 1 of 2.
Hoewel oppassen met wat je op Facebook zet niet verkeerd is natuurlijk, denk ik dat bang zijn dat ze op deze manier je foto misbruiken van je Facebook niet heel terecht is. Natuurlijk, het kan gebeuren. Maar ik verwacht dat veruit de meeste mensen die zulk soort 'grappen' uithalen op reguliere mensen (dus geen beroemdheden), dat doen op mensen in hun eigen omgeving. En van mensen in je eigen omgeving is het altijd prima mogelijk om aan foto's te komen.
Alleen vrienden kunnen mijn Facebook in totaal 10 fotos zien. Dus dan weet ik dat ik een vriend heb die fan van mij is. 1 van de ~50.
Doet me denken aan de eerste aflevering van black mirror
Aan de andere kant, als je pittige filmpje een keer per ongeluk lekt kan je altijd claimen dat het een deepfake is.

Daarbij, als iedereen straks weet dat dit kan zal het echt niet meer tegen je werken. Je gezicht op iemand shoppen kan ook maar ja dat is gewoon kinderachtig.

[Reactie gewijzigd door teek2 op 7 februari 2018 08:58]

Je snapt dat dit ook andere serieuze gevolgen kan hebben?
Vervalst bewijsmateriaal. Live beelden van invloedrijke personen (machthebbers/politiek) die gefaked zijn.
Dit kan een serieus probleem worden, en kinderachtig is het dan al lang niet meer.
Dergelijke manipulatie is te zien aan de beelden dus nee deze versie zal in dat opzicht weinig invloed hebben.
Hoe lang denk je nog dat het duurt voordat het niet meer te zien is. Ik heb al gemanipuleerde beelden gezien die je niet van echt kunt onderscheiden. Daar was wel wat rekenkracht voor nodig, maar dat word ook steeds minder een issue
Als het echt niet meer te zien is gaat de waarde van dit soort "bewijsmateriaal" natuurlijk enorm omlaag. Je denkt toch niet echt dat rechters er geen rekening mee gaan houden?

Andere vormen van bewijs (alibi etc) worden dan gewoon weer belangrijker, net als voor er overal video van was.

[Reactie gewijzigd door teek2 op 7 februari 2018 09:26]

Rechters moeten er rekening mee gaan houden, maar vanaf wanneer doen ze dat? En mijn punt was juist dat je video dus niet meer kunt vertrouwen. Het gaat gewoon serieuze problemen opleveren, dat was mijn punt.
Video kon je al nooit vertrouwen, film, beeld, geluid, etc ook al niet en rechters weten dat. Rechters zijn daarom juist heel terughoudend als het om 'onomstotelijk bewijs' gaat. Ze accepteren één bewijsstuk maar zelden als sluitend. Zeker nu er steeds vaker videobewijs is, verwachten ze minstens ook ander forensisch bewijs zoals vingerafdrukken, gevonden spullen, voetsporen etc.
Dit vergeet @Gulioh denk ik een beetje.

Ooit was het publiek geschokt door de 'magie' in de eerste zwart-wit-films, waarbij bijvoorbeeld schijnbaar iemand uit het niets verscheen. Een effect wat in werkelijkheid simpelweg bereikt werd door het stukje waarin hij in beeld gezet wordt, weggelaten werd.

Geen mens is nu nog zo onder de indruk van de meest geraffineerde special effects, want we weten allemaal dat met genoeg moeite alles 'gemaakt' kan worden, van een zondvloed die New York overspoelt tot een meteorietinslag.
Vergelijk het met email. Aan de tekst is niet te zien wie het geschreven heeft.
Je kunt er een digitale handtekening bij zetten en dan kan het wel bevestigd worden.
Als het certificaat vertrouwd wordt is kan daarvandaan de echtheid bepaald worden.

Dus als bewijs blijft video altijd mogelijk.
Jij typed de mail, jij kunt er een digitale handtekening bij zetten.

Maar die video, op welk moment zet je er een digitale handtekening bij? Dit werkt denk ik alleen als er hardwarematig in de sensor een versleuteling overheen gaat. Anders kan er al manipulatie plaatsvinden voordat de video verplaatst/gebruikt word voor bewijslast.
Als je je eigen certificaat gebruikt voor het ondertekenen, lijkt het me dat de rechter dat niet zal vertrouwen.
Wanneer het certificaat van de fabrikant gebruikt wordt en de fabrikant kan aantonen dat het bij opname ondertekend is zou een rechter het wel kunnen vertrouwen.
Het zou me verbazen als iets dergelijks zelfs door experten of een programma erop los te laten zo perfect is.

Maar indien dit toch ooit gebeurd dan is dergelijk bewijsmateriaal gewoonweg geen bewijs meer of het moet bevestigd worden door andere bewijzen.
Bewijs in een strafzaak niet nee, maar als het gaat om de publieke opinie gelden er minder strikte maatstaven.
Het had veel effect voor de campagne van trump moet ik zeggen.
Dat was vooral een "wie is de minst slechte kandidaat" verkiezing. Trump kwam wel incompetent over maar niet zo oorlogzuchtig als zijn rivale.
Maakt weinig uit de video's deden amper iets .

En langs de andere kant toont clinton perfect aan dat je geen video nodig hebt om iemand zwart te maken.
Hoe lang denk je nog dat het duurt voordat het niet meer te zien is. Ik heb al gemanipuleerde beelden gezien die je niet van echt kunt onderscheiden. Daar was wel wat rekenkracht voor nodig, maar dat word ook steeds minder een issue
Het gaat nog heel lang duren voordat je gemanipuleerde beelden echt niet meer van echt kunt onderscheiden. Een beeldsensor heeft miljoenen beeldelementen en daar zit altijd wel wat variatie in, elke sensor heeft daardoor zijn eigen 'vingerafdruk'. En zeker bij video met bewegende beelden zal het wel opvallen als die vingerafdruk op sommige plekken beeldje voor beeldje dynamisch varieert. En mocht je dezelfde camera onder exact dezelfde lichtomstandigheden gebruiken dan heb je bij beweging aan de randen van het te veranderen object een bijna onoplosbaar probleem; door onscherpte zie je per pixel zowel een deel van de achtergrond als het object en dat in alle mogelijke en ook nog eens met de tijd variërende verhoudingen. Ga daar maar eens een ander plaatje overheen leggen of op een andere manier veranderingen in aanbrengen zonder dat het opvalt.

Voor het oog zal het zo te doen zijn dat het perfect lijkt te kloppen, maar als het echt als bewijsmateriaal moet dienen en je er wat forensische technieken op los laat wordt het een heel andere verhaal. Zie het maar zo; als ze routinematig aan de hand van slimme beeldbewerking en berekeningen aan een paar plaatjes van een zon op 360.000.000.000.000. km afstand kunnen vaststellen dat er een planeetje om draait waar water te vinden is zal het wel lukken om een gemanipuleerd plaatje als echt of vals te herkennen.
Als je met forensische technieken de vingerafdruk van de sensor kan bepalen, kun je die met ML natuurlijk ook detecteren en namaken.

ML kan heel krachtig zijn. dus ook die randeffecten zullen op een gegeven moment ook geen probleem zijn om te faken. Met kennis van hoe een lens werkt en genoeg beeldmateriaal, kun je de lensfouten en randeffecten juist heel goed in beeld brengen en dan zijn ze ook te faken. Misschien is het nu nog niet zo ver, maar dat komt wel, daar ben ik van overtuigd.

[Reactie gewijzigd door gjmi op 7 februari 2018 14:37]

Als dit beter wordt, wordt het wel degelijk gevaarlijk. Als er video's opduiken waarin bv Hillary Clinton bepaalde onjuiste uitspraken doet, heeft dat grote gevolgen voordat is uitgezocht of het fake is of niet.
Inderdaad. Met de huidige infrastructuur van social media reageren mensen instantaan en is de schade vaak al te groot tegen de tijd als ontdekt word dat het nep is.
Totdat mensen weten dat dit kan gebeuren.
Tja, dat Trump iets raars zegt is iedereen al gewend. :)
In het geval van Clinton zal het waarschijnlijk andersom zijn.. ene dag iets zeggen en als het backfired zo een videotje "must have been a deepfake"
En sinds wanneer is dat genoeg om een video fake te verklaren? Ik weet niet in welk jaar jij leeft maar ik leef in het jaar 2018 waar je mensen kunt laten zien en zeggen wat je wilt. Als er zo'n video uitlekt van Hilary Clinton zijn er miljoenen mensen die het gaan geloven en het bewijs van manipulatie afdoen als fake news.
Anoniem: 368883
@gjmi7 februari 2018 09:19
Maar je ziet nog wel dat het die deepfakes, wel, "fake" zijn. De randen sluiten niet altijd juist aan op de contouren van het gezicht, er zijn flikkeringen te zien, enz...

Het lijkt allemaal een beetje op een slechte Photoshop sessie. Geen kat die die deze beelden op dit moment als "echt" zal aannemen.

Zelfs als de technologie beter wordt, zal er dankzij ML ook wel kunnen nagegaan worden of een video gedeepfaked is of niet.
Eens, en het bronmateriaal zonder het fake hoofd zal altijd wel ergens terug te vinden zijn. Dus forensische tooling zou vrij eenvoudig een (fuzzy) hash kunnen berekenen over het deel beeld min fakehoofd. Daarmee is dan aan te tonen dat een groot deel van het beeld al eerder bestond. Daarnaast is er zat omringend bewijs te vinden dat de fake video kan weerleggen dan wel bevestigen, denk aan omgeving, tijd, achtergronden, manier waarop een video op internet verschenen is, etc.
Bronmateriaal kan ook speciaal gemaakt worden dmv acteurs waar de hoofden dan later vervangen worden. Dan hoef je ook niet moeilijk te doen met ongelukkig aansluitend materiaal en het bronmateriaal duikt ook niet opeens op een andere website op. Om bv. een politicus zwart te maken zijn er wel raardere stunts bedacht.
Ha! Dat is een goeie, evil bastard ;)
Met ML kun je het binnen afzienbare tijd zo goed maken dat ML ook niet meer kan zien wat echt of fake is
Probleem is dat je hier niets tegen kan doen. Het is eenmaal losgelaten op internet en dan heeft het zijn eigen leven. Men moet bewust worden dat tegenwoordig een groot deel van de content gewoon nep kan zijn is.
Inderdaad moet je er vanuit gaan als je het nieuws van het internet hebt en het niet door meerdere ouderwetse bronnen bevestigt is het waarschijnlijk niet waar is. Ga er maar vanuit dat meer dan de helft van wat op het internet staat is niet waar of nep. Daar kunnen we tegen strijden (nepnieuws detectie), je kunt het toejuichen omdat je zo gemakkelijk de massa kan beinvloeden. De vraag alleen is, wat nou als de nep beelden, het nep nieuws nog wat geavanceerder worden, kunnen we het dan nog herkennen? Of gaan we facebook en de rest van het internet dan zien als een aflevering van Baantjer, platte fictie puur ter vermaak, die met de waarheid en realiteit helemaal niks van doen heeft?
Beetje de ''Gods Eye'' van FF8? Kan iedereen opsporen en samen toevoegen.
Freaky idea. But the worst of all is. Dat mensen op Reddit dit nog extreem veel doen.

Want het is ook erg wanneer je op internet bijvoorbeeld getagd bent in een foto. En deze gewoon geplukt kan worden van het internet google etcetc. En met intagram vooral erg.

[Reactie gewijzigd door theduke1989 op 7 februari 2018 08:56]

Ik ben volledig mee eens, maar zo simpel is het voorlopig nog niet, je hebt een grote hoeveelheid foto's nodig en dan nog is het resultaat vaak makkelijk te herkennen als nep. Daarnaast is voorlopig nogal redelijk krachtige computer nodig;

Ook is het zo dat je een "model" moet vinden die dicht genoeg bij je replacement ligt, wat voor bekende dames iets makkelijker is dan voor Jan met de pet. Voorlopig is het nog allemaal "vrij" onschuldig, maar in de toekomst is het zeker tricky business.
2. Don't swap faces of minors (younger than 18) on any pornographic videos. This will get you banned without warning and your post reported to the admins.

En ja je kan het nogsteed gebruiken maar op de reddit mag het niet

[Reactie gewijzigd door IM_YOUR_MAMA op 7 februari 2018 09:26]

Ik denk dat dat beeld overdreven is. Je gebruikt een negatief concept (shaming van pubers) die nu wordt toegepast op een techniek die nog niet wordt toegepast (fakevids). In jouw voorbeeld blijft de complete samenleving stilstaan, behalve dat het pestconcept een andere invulling krijgt (ceteris paribus). Maar de samenleving staat niet stil. De normen en waarden veranderen ook in de loop der tijd. Als dat niet het geval is heb je namelijk een heel treurig leven voor de boeg: "Was het maar zoals vroeger...".

Het punt van de fakevids vraagt dus enige aanpassing van de normen en waarden en een nieuwe manier van omgaan met nieuwe toepassingen. Ik zou zeggen, kom maar op met de fakevids. De schaamte voorbij. Op naar een nieuwe vorm van beleven, ervaren. Waarom je laten tegenhouden door oude vormen van schaamte en angst? Ongetwijfeld zullen er eerst mensen zijn die nog gevoelig zijn voor dat soort uitingen. Later halen mensen gewoon hun schouders er over op. Who cares? Het maakt ons sterker als mens. Niet meer alles op face-value nemen.

Wat dacht je van deze fake auto, deze kan alles: hij is klein en hij is groot!. Net als in de film.

[Reactie gewijzigd door XuPrX op 7 februari 2018 10:09]

Ik vind dit echt een heel slecht iets ..
Natuurlijk, dat jouw hoofd, of die van een kennis, of een BNN'er in een pornovideo wordt geplakt weegt natuurlijk niet op tegen de actie die twitter (terecht) uithaalt.
Mijns inziens moet je het juist wel toelaten. Misschien zelfs wel aanmoedigen. Op enig moment heeft iedereen wel door dat die filmpjes "altijd nep" zijn en worden ze per definitie ongeloofwaardig. De schadelijke effecten zijn dan nihil terwijl het tegelijkertijd een eenvoudige plausible deniability verschaft aan mensen die in echte video's te zien zijn. (Bijvoorbeeld slachtoffers van wraakporno.)
Ik zou eens zo'n video kijken, dan weet je hoe idioot je comment is. Buiten het feit dat je duizenden foto's nodig hebt om zelfs een slecht filmpje te maken zoals nu.
Maar dit kan al jarenlang met Photoshop...
Tsja, je hebt een punt, maar geldt voor Photoshop niet hetzelfde? De tijd dat je klakkeloos aan kon nemen dat een foto echt is, ligt toch al meer dan 10 jaar achter ons.

Tuurlijk kun je hiermee iemand pesten (wat serieuze psychische gevolgen kan hebben) maar net als bij nepnieuws moet je gewoon nadenken of iets echt is en je er anders niet te druk over maken.
Vreselijk, ik weet heel goed hoe dit soort gekkigheid het leven van iemand compleet kapot kan maken. Laten we aub onze tijd en energie besteden aan NUTTIGE ontwikkelingen...
De toepassing waar het voor gebruikt wordt is bedenkelijk, maar dit is wel behoorlijk indrukwekkende technologie die voor veel toepassingen gebruikt kan worden, zoals de filmtechnologie mbt stand-ins en stuntmannen. Voor The Last Jedi is een vergelijkbare techniek gebruikt om Carrie Fisher als Princess Leia te gebruiken na haar dood. En op het subreddit die genoemd is in het bericht wordt ook gewerkt aan... het plaatsen van Nicholas Cage in verschillende films en series. Niet zo nuttig, wel juist weer heel leuk!
Haha, zoals jij het formuleerd klinkt het idd als een goed iets, en in zekere zin ben ik het ook met je eens!

Mijn reactie komt voort uit het feit dat ik heb gezien hoe iemand helemaal stuk gemaakt kan worden door dit soort dingen. Ik hoop daarom ook van harte dat deze technologie gebruikt wordt om Meneer Cage in zo veel mogelijk films en series te plakken, ipv andere minder fijne doeleinden ;)
Absoluut, niet alle toepassingen zijn goed. Wat ik veel zie als knee-jerk reactie is mensen die direct de tool afrekenen op hoe het wordt gebruikt, terwijl de nuttige toepassingen worden genegeerd.
Klopt inderdaad. Naar mijn idee is dat vooral omdat de mainstream media de nuttige toepassingen helemaal buiten beschouwing laat, helaas...
Het heeft aan de andere kant ook weer veel grimmiger toepassingen, zoals het verspreiden van virtuele deepfake kinderporno, niet alleen voor het bevredigen van pedofielen, maar ook om bijvoorbeeld een familie te chanteren. Of een terrorisme-video waar een deepfake wordt 'geëxecuteerd' en die kan worden gebruikt om een land af te persen. Kim-Jong-Un die een deepfake maakt van Trump om de Koreaanse bevolking op het verkeerde been te zetten, en ga zo maar door.

Hoe dan ook is het een tool en we kunnen beter de mensen aanpakken die zo'n tool verkeerd hanteren.
Maar dat gaat in tegen de menselijke natuur. Zodra mensen konden tekenen werd er porno gemaakt. Zodra we konden fotograferen werd er porno gemaakt. Zodra we konden filmen, etc, etc. Video is groot geworden door porno, belangrijke internettechnologieën worden het eerst voor porno gebruikt. Dat zit kennelijk in de menselijke natuur om talent liever in te zetten voor porno dan voor bijvoorbeeld medische wetenschap.
Twitter heeft op dit vlak beleid waarin staat dat het delen van intieme foto's of video's zonder de toestemming van de afgebeelde personen niet mag
Het zou beter zijn als het woord "intieme" er niet zou staan. Er zijn ook zat foto's van mensen in bedenkelijke posities of situaties, en er is niet zo veel dat je daaraan kunt doen. Of misschien wil je gewoon helemaal niet met je kop op Twitter staan.

Dat gezegd hebbende, hoe controleren ze dit eigenlijk? Hoe controleren ze wie er in de foto staat en of diegene toestemming heeft gegeven?...
Van tevoren helaas niet. Maar als een persoon aangeeft zichzelf op een foto te zien van een ander, waar hij niet mee instemt, kan hij deze door twitter laten verwijderen. Dit duurt echter even omdat er inderdaad fysiek iemand moet kijken of de melding klopt.
Ja, dat is leuk en aardig, maar daarvoor moet je dus wel een Twitter account hebben. Als je geen account hebt, kun je er niets aan doen. Behalve een supportmail naar Twitter sturen en hopen dat ze er binnen 6 maanden iets mee doen.
Tja dat is een moeilijke natuurlijk. Wanneer is iets een bedenkelijke positie of situatie? Foto's van mensen in bedenkelijke posities is algemeen aanvaard. Dat is dan om te lachen en moeten we niet flauw over doen want het hoort bij comedy. Intieme beelden zijn in de meeste gevallen NSFW dus blijkbaar niet algemeen aanvaard.
Het zou beter zijn als het woord "intieme" er niet zou staan. Er zijn ook zat foto's van mensen in bedenkelijke posities of situaties
Inderdaad, een realistische foto van een politicus die de Hitlergroet brengt zou zomaar iemand in de problemen kunnen brengen. Zeker als daar wat fake news van NRC achtige proporties achteraan gaat (hallo, waar blijft die rectificatie over Omtzigt?).
Het zou ook een weer een mooie manier zijn om aan te tonen of de journalisten nog wel met journalistiek (bronvalidatie) bezig zijn, of met het hypen van de massa.

Alles heeft twee kanten.

[Reactie gewijzigd door _Thanatos_ op 9 februari 2018 01:15]

Wellicht dat dit ooit leidt tot minder kakel-berichten (de een roept en de andere kauwt het klakkeloos na; ook hier op tweakers). Juist de diepgaande consequenties van dit soort manipulatie tools zou journalisten moeten triggeren om minder autopilot hun werk te doen.

Wat zou het een verademing zijn om weer een "krant" te hebben die "echt" nieuws verspreid.
En ook nog eens objectief. (walhalla)
Objectief nieuws bestaat niet. Waarheidsgetrouw misschien, maar niet objectief. Dat is het ook nooit geweest. Het is, en zal altijd worden, gekleurd vanuit het oogpunt van degene die het nieuws opstelt.
Is het begrip objectief dan eigenlijk onmogelijk? (Bijvoorbeeld dat de observatie van een bioloog het gedrag van het subject beïnvloed.)

Als een journalist zich dus onthoud van woorden die emoties uitdrukken. Dan ben je er al een heel eind.

Laten we het de "Vulcan Express" noemen. Het verslaan van nieuws zonder het uiten van een enkel oordeel of emotie. Wordt het dan meer als objectief gezien?

100 doden daar en daar.
Overstroming x
Storm zus
Beurs omhoog of omlaag
Weer (niet beter of slechter; slechts weer)
etc?

Dus niet telegraaf achtige koppen als "Vreselijke Ellende en tragedie bij aanslag X"

Maar dan ook niet vrolijk nieuws over de eerste lammeren die weer ronddartelen of kattenfilmpjes.

Denk dat het een heel gort droog leesvoer wordt. Een andere titel voor deze online of RL krant zou ook "De Barometer" kunnen worden genoemd. Echt alleen maar feitelijke nieuwswaarde zonder emoties.

Misschien dat hierdoor juist mensen weer met elkaar gaan discussiëren over nieuws ipv van alleen maar doorgeven.
Dan zou het nieuws inderdaad objectiever worden. Helaas haalt dat ook de menselijkheid weg uit het nieuws. Immers zullen de meeste mensen het met de Telegraaf eens zijn dat er best wel wat ellende bij aanslag X was, en dat de eerste lammeren wel erg schattig zijn.

En zelfs dan ben je nog niet direct volledig objectief. Immers kan je als verslaggever er voor kiezen om bepaalde termen juist wel en niet te gebruiken ('illegale immigranten' tegenover 'immigranten', beide kunnen feitelijk correct zijn) om je eigen mening in het bericht uit te dragen. Laat staan dat bepaalde woordkeuze nog steeds zal polariseren, en er geen alternatief voor is. Het begrip 'extreemrechts' is in dagelijks gebruik negatief, maar een extreemrechtse partij enkel 'rechts' noemen gooit ze samen met een groep partijen met een ander denkbeeld.

Inderdaad is objectief nieuws dus op z'n minst gortdroog, en net zo waarschijnlijk onmogelijk. Het is wmb dus belangrijker juist een breed scala aan gekleurd nieuws te tonen, zodat mensen veel verschillende meningen te zien krijgen.
Het laatste wat je zegt is voor mij juist een allergie. Het is consumptiegedrag qua McDonalds, beperkt menu en geen ruimte voor keuzes.

Wat ik nou graag zou willen weten, op de opleiding journalistiek; hebben ze daar een definitie van objectief verslag leggen? ff googlen. brb.

Er is zat te vinden:

https://www.nrc.nl/nieuws...k-dacht-het-niet-a1480778
en
https://www.nrc.nl/nieuws...aat-niet-1439349-a1396567

Laten we het er op houden dat het vrijwel onmogelijk is voor mensen om uberhaupt objectief te zijn. En dat er geen bussinessmodel te bedenken is voor een puur feitelijke verslaglegging.

Al het nieuws heeft een smaakje, het ligt aan de eter of het te pruimen is. :o :+

p.s. Dit is eigenlijk een intressanter artikel: https://decorrespondent.n...sie-is/155650990-09fc1192

[Reactie gewijzigd door gubyan op 7 februari 2018 12:09]

Zelfs dan is het nog niet 100% objectief. Dat ene feit misschien wel, maar je kunt niet alles wat gebeurt in de wereld verslaan, dus een redactie maakt al een keuze uit al het nieuws. Als bijvoorbeeld Tweakers of FD jouw primaire nieuwsbron is, dan krijg je nog altijd een subjectief beeld van de wereld ongeacht of de feiten die gemeld worden absoluut objectief zijn.
Dus wat is nieuws? Statistieken van hoeveelheden geboortes en sterfte over de gehele wereld? Van alle levende wezens. Alle oorlogen, of gewoon van alles wat anders was dan de dag er voor? 16 miljard zandkorrels zijn gemigreerd van plek a naar plek b. Ergens moet je dan een grens trekken. Hoeveel kan een mens per dag opnemen? Wat is relevant nieuws? Wat is het doel van het leven ;-) ?
Moet je berichtgeving indelen naar Maslow of gewoon de flow volgen van het moment?(ik kies vandaag mijn eigen nieuws)

Wat is belangrijk voor jou persoonlijk overleven? De gesteldheid van de ecologie van de wereld? Of de koers van je aandelen? Iedereen in zijn eigen bubbel.
Hoe meer dit soort rotzooi gegenereerd wordt, hoe duidelijker het wordt dat veel websites gewoon onbetrouwbaar zijn en "Fake" news verspreiden. Dan komt de noodzaak van broncontrole weer terug en zullen ongecontroleerde nieuwsberichten niet meer zo'n impact hebben als dat ze nu soms hebben.

De geruchtenmolen wordt dan tot niets gereduceerd.
Ikzelf kan niet wachten.
Er zijn steeds meer mensen die geloven dat de aarde plat is. ;)

Ik ken de namen niet van de Nederlandse roddelmagazines maar die zullen toch ook nog een groot publiek hebben neem ik aan?

Denk je echt dat nieuws echt en betrouwbaar moet zijn? De waarheid boeit mensen niet hoor. Een goed verhaal boeit mensen en als je het maar genoeg herhaalt dat het waar is geloven de mensen het 2000 jaar later nog.
Het nieuws zelf wordt niet betrouwbaarder, maar het onderscheid wordt makkelijker. Of je hebt bronnen die nagevraagd kunnen worden of je hebt bewijs dat overlegd kan worden, zo niet dan kun je het artikel als speculatie cq roddel bestempelen. Nu geloven we Tweakers nog dat ze goede doordachte artikelen maken. Maar na de zoveelste geruchten golf over Apple of iets dergelijks houdt het een keertje op. Met natuurlijk een bronvermelding van een bronvermelding. Doet afbraak aan het beeld wat ik heb over journalistiek.

Feiten is wat ik wil.
'intieme media' plaatst die gemaakt of gedistribueerd zijn zonder de toestemming van de afgebeelde personen
Interessante definitie. Wordt nu iedereen die zonder toestemming een foto van een moslima zonder hoofddoek plaats gebanned?
Alleen als haar eigenaar er over klaagt.
Ach dit soort taferelen hou je niet tegen. Over zoveel jaar zal er nog veel meer mogelijk zijn. Zolang de ambtenaren de wetten maar een beetje laten moderniseren komt het vast wel goed. :'(
Dit gaat er alleen maar voor zorgen dat je mensen weer IRL wilt zien omdat je anders nooit zeker weet met wie je te maken hebt.
Dit is imo vergelijkbaar met het publiceren van wraakporno, maar dan erger omdat je er geen controle over hebt over dat er een fimpje gemaakt wordt wie het filmpje maakt en wat diegene ermee doet.

Zou verboden moeten zijn, het is terecht dat pornhub en twitter het actief gaan weren.

Niemand zou gebruikt mogen worden (in de breedste zin van het woord) tegen zijn/haar zin voor sexuele doeleinden.

Dit is nog wel even een paar categorien heftiger dan een photoshop van een afbeelding. Door video wordt het plotseling veel echter en heftiger.
Zo combineerde een gebruiker een video van Hitler met beelden van de Argentijnse president Mauricio Macri.
Maar is die dan ook verwijderd? Aangezien ook in dat geval de afgebeelde personen geen toestemming hebben gegeven (ja ja, citation needed en zo), zou dat toch ook niet aan de regels voldoen?

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee