Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

China verbiedt nepnieuws dat gemaakt is met virtual reality en deepfakes

In China is het per 2020 verboden om nepnieuws te publiceren dat gemaakt is met virtual reality of deepfakes. Het is dan verplicht om duidelijk aan te geven dat het gaat om gefabriceerde beelden. Deepfakes zijn een groeiend probleem.

Volgens de Cyberspace Administration of China kunnen dergelijke publicaties "de nationale veiligheid in gevaar brengen, de samenleving ontwrichten en de rechten van anderen schenden". Reuters schrijft dat China eerder dit jaar nog stelde dat het overwoog om deepfakes in hun geheel illegaal te maken, maar zover is het nu nog niet gekomen.

Deepfakes zijn videobeelden waarbij iemands gezicht op een ander lichaam geplaatst is. Met behulp van kunstmatige intelligentie wordt het gezicht niet alleen geplaatst op het lijf in de video, maar de gezichtsuitdrukkingen worden ook overgenomen. De technologie is inmiddels zodanig volwassen dat het aardig moeilijk kan zijn om in te schatten of een video een deepfake is of niet. Het YouTube-kanaal Ctrl Shift Face publiceert veel deepfakes met als doel om te vermaken.

Ook het Nederlandse Openbaar Ministerie en Nederlandse Defensie Cyber Commando hebben hun zorgen over deepfakes. Het OM stelt echter dat het huidige wettelijk kader, te weten inzake smaad en laster, wel toereikend is.

Tegelijkertijd werken verschillende organisaties aan tools om deepfakes te herkennen en individuele platformen als Twitter werken ook aan beleid om goed met het fenomeen om te gaan.

Het gezicht van Star Wars-actrice Daisy Ridley gebruikt in een video

Door Mark Hendrikman

Nieuwsposter

30-11-2019 • 13:20

144 Linkedin Google+

Reacties (144)

Wijzig sortering
Een hardware keystore op zo'n device maken en dan versleuteld het filmpje opslaan, je kan wel met de public key decrypten om te editen bekijken en verspreiden maar niets behalve het originele apparaat kan het encrypten.
En dat encrypted bestandje kan dan je bewijs, zijn.
Combineer dat met een one time pad in elke camera unit, die direct een hash draait uit de video op moment van filmen en dit in een cloud zet...
dat is niet free as in freedom maar genoeg technieken om 't moeilijker te maken voor neppers.
Dus dan hoef je alleen het deepfake-filmpje nog maar met zo'n camera te filmen en het is authentiek geworden...
hmm, ook waar, niet aan gedacht. Dan moet het wel een hele goede display zijn met super hdr, om nog overtuigend over te komen, want meestal zie je toch vrij snel dat iets vanaf een monitor gefilmd is. Net zo goed dat je een cam versie van een gepirate film er gemakkelijk uit haalt. Allicht dat met forensies onderzoek het goed aan te tonen is dat het niet life gefilmd is, maar van een monitor en dus nooit als bewijs ergens voor kan dienen. Maar je hebt een goed punt.
Door op grote video platformen automatisch de overlay 'fake video' / 'fake audio' op de video aan te laten brengen.
computers zijn ook prima in staat om virussen te herkennen, ow wacht daar zitten we na een goeie 30 jaar nog altijd mee opgescheept |:(
Nu heb ik de link niet meer, maar er was een nieuwsbericht waarin stond dat computers de meeste deepfakes kunnen herkennen, niet alle.
Ik denk dat het hek van de dam is en dat we grote problemen gaan krijgen met rechtspraak en persoonlijke bescherming met dit soort dingen.
Er zijn zat lui die niet integer zijn dus het is wachten op ellende.
Dus iemand met een VOG kan nooit meer de fout in gaan? :X
Of al eerder in de fout gegaan zijn?

Ze kijken gemiddeld maar 4 jaar terug, behalve met zedenmisdrijven en misdrijven waar 12 jaar of meer voor staat...….
De regels zijn weliswaar verscherpt voor sommige functies sinds de Amsterdamse zedenzaak (hofnarretje) en de taxichauffeur die een klant doodsloeg, maar een VOG blijft meestal maar een momentopname.

Ik denk eerder dat mochten er filmpjes rondgaan van jou als overvaller je gelijk je VOG kwijt bent en moeite moet gaan doen die weer terug te kunnen krijgen.
Helaas voor jou, of eigenlijk gelukkig voor ons, zijn werkgevers tegenwoordig snel met mensen ontslaan of op non-actief te zetten onder het motto "waar rook is, is vuur" en "wij willen niet dat ons bedrijf met zulk gedrag geassocieerd wordt".
Is dat 'een probleem', of is dat een menselijke eigenschap. Volgens mij is dat nog steeds de manier om een agenda er door te krijgen.

Volgens mij is er genoeg research naar gedaan, hoe mensen reageren. Dat ga je denk ik niet veranderen, niet als het onderwijs systeem niet op de schop gaat.
Intussen doen ze wel dit:https://www.digitaltrends.com/cool-tech/china-news-virtual-newsreader/

Wat is dat dan? ;)
Ga je dit proberen te bestrijden geef je de rechterlijke macht volledig vrijspel tot censuur. Klokken luider neemt gesprek op waar politicus niet blij mee is? Deepfake dus weg.
Bij een verbod moet er bij vervolging aanneembaar bewijs zijn. Je stelt net dat het niet te bewijzen is. Hoe verwacht je dan vrij spel voor censuur?
"We gaan naar een tijd toe waar je moet denken..."

Dream on, gaat niet gebeuren.
Helemaal mee eens. Ik heb de app ZAO op mn toestel en zelfs daarmee maak je 'scary shit', maar wel super fun.

Trouwens, dit vind ik een veel beter voorbeeld https://youtu.be/l_6Tumd8EQI


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Politiek en recht

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True