Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

App die mensen op foto's 'uitkleedt' met machinelearning is offline gehaald

DeepNude, een applicatie die met behulp van machinelearning mensen, maar voornamelijk vrouwen, op foto's kan uitkleden, is offline gehaald. De makers hadden de populariteit van de app niet verwacht en achtten de kans op misbruik te groot.

'De wereld is nog niet klaar voor DeepNude', stellen de makers in een tweet, terwijl ze eerder die dag nog schreven dat er gewerkt werd aan het verhelpen van technische problemen die veroorzaakt werden door de vele bezoeken en aankopen van de app. De makers spreken niet van de reacties op de app. Op sociale media werd namelijk gemengd gereageerd op de applicatie en het terugtrekken ervan. Enerzijds waren mensen enthousiast over de mogelijkheden van de app en anderzijds werd het idee bestempeld als moreel verwerpelijk. Volgens The Register werkt de app 'niet goed' bij mannen.

De desktopversie van de app, geschikt voor Linux en Windows 10, was slechts vijf dagen lang verkrijgbaar. De browserversie was echter actief sinds 28 maart. De gratis versie van de applicatie deed zijn werk, maar bedekte de geproduceerde foto's met overduidelijke watermerken. De betaalde versie, die 50 dollar kostte, plaatste een kleiner watermerk.

Hoewel het project is stopgezet, zullen geactiveerde, betaalde exemplaren en gedownloade gratis exemplaren gewoon blijven werken. Deze kunnen door anderen opnieuw online gezet worden, de gratis versie kan gekraakt worden en iemand anders kan een kloon van de applicatie op het web zetten, wat betekent dat het eigenlijk al te laat is om DeepNude te stoppen, hoewel de makers er nu geen geld meer aan verdienen. DeepNude werd ontwikkeld door een team in Estland.

Het gebruik van machinelearning bij het vervalsen van foto's en video's kan verrassende resultaten opleveren. De zogenaamde DeepFakes-app kan gezichten in foto's en video's vervangen door het gezicht van een ander. De applicatie werd na zijn release meteen ingezet door mensen om de gezichten van beroemdheden op die van porno-actrices te plakken. Dergelijke beelden zijn verboden op Twitter. De Amerikaanse Defensie heeft tools gemaakt om deze fakes te identificeren.

Door Mark Hendrikman

Nieuwsposter

29-06-2019 • 13:06

221 Linkedin Google+

Reacties (221)

Wijzig sortering
Als je ziet wat er nu al mogelijk is, moet je even hier kijken (ververs pagina om een nieuwe foto te zien):
https://thispersondoesnotexist.com/

Deze personen bestaan niet en afbeelding is in elkaar gesleuteld door computer(s) en software. Als de naaktfoto's er zo echt uit komen te zien dan is het heel goed dat de app offline is gehaald. De vraag is tevens waarom je zo'n app zou willen. Kan mij wel indenken dat zo'n foto voor een slachtoffer behoorlijk veel ellende kan veroorzaken. Dat zijn geen grappen meer.
De hele wereld staat vol reclame en conspiracy crap. Het is hallucinant hoeveel schone schijn en aandachtsvervuiling wij weten te tolereren. Hoeveel slachtoffers heeft photoshop gemaakt ? Of de mode wereld die anorexia sexy maakt ? Vind je je vriendin ook leuk zonder makeup ?

Dus: wat is hier zo speciaal aan, buiten dat het geautomatiseerd is ? We cultiveren "fakeness" en we gaan al millenia te ver hierin.

De tools om deep fakes te identificeren ? Zou jij willen dat je bank Captcha hanteert als authenticatie ? De politiek die zich in de handjes wrijft om te kunnen verbieden ? Wil je echt censuur ?

Nee laat ons maar hopen dat de mens zichzelf stapje voor stapje leert te aanvaarden. We zijn geen mislukte uitverkorenen.
Als je ziet wat er nu al mogelijk is, moet je even hier kijken (ververs pagina om een nieuwe foto te zien):
https://thispersondoesnotexist.com Deze personen bestaan niet en afbeelding is in elkaar gesleuteld door computer(s) en software./
Beetje rare titel van die website, want ook al genereer je "random" personen op basis van trainingsdata: die personen bestaan waarschijnlijk gewoon wel, hebben bestaan of gaan (weer) bestaan. Puur door de enorme genetische variatie die je hebt. Een beetje hetzelfde idee als je dubbelganger tegen het lijf lopen, terwijl die helemaal geen familie van je is.

This person probably exists but we never saw him/her, zou een betere doch minder pakkende titel zijn.

Het algoritme doet niets anders dan willekeurige stukjes uit fotos van verschillende mensen zo in elkaar plakken dat de belichting en huidskleur e.d. weer klopt en er een "nieuw" gemixt mens ontstaat.
Als de naaktfoto's er zo echt uit komen te zien dan is het heel goed dat de app offline is gehaald. De vraag is tevens waarom je zo'n app zou willen. Kan mij wel indenken dat zo'n foto voor een slachtoffer behoorlijk veel ellende kan veroorzaken. Dat zijn geen grappen meer.
Ik snap dat helemaal niet goed.
1. Dit is nu eenmaal de tijd waarin we leven. Nep naaktfotos kunnen gegenereerd worden en in de toekomst wordt dat alleen maar makkelijker en "beter". Je kunt vanaf nu niet meer aannemen dat als je naakt fotos van iemand ziet, die dan ook echt zijn. Je kunt "als slachtoffer" dus gewoon claimen dat het nep is. Overigens kon je dat al lang niet meer, want een hoofd van iemand op een naakt lichaam plakken in Photoshop is toch al iets dat al minstens 10 jaar kan en ook gebeurt.
2. Wat ik ziek vind is dat naakt zijn of sex hebben in onze maatschappij blijkbaar zo'n taboe is, dat het een probleem kan zijn voor het "slachtoffer" als zoiets uitlekt.

Storm in een glas water. Dit soort apps komen er in de toekomst natuurlijk gewoon weer opnieuw. Met photoshop kan het al jaren.

Als eenmaal bekend is bij het brede publiek dat deze tech bestaat, dan zal ook niemand meer opkijken om de buurman/buurvrouw naakt te zien: kan best nep zijn is dan de gedachte.

Positief gedacht: misschien worden we als Nederlanders in de toekomst dan eindelijk weer eens wat minder preuts.

[Reactie gewijzigd door GeoBeo op 30 juni 2019 12:59]

Klinkt leuk, tot het echt gebeurt. Een nichtje van mij is dit overkomen. Er waren naaktfoto's van haar in omloop en in de klas van haar rondgestuurd (nichtje was toen 14 overigens). Een kennis die er van hoorde lichtte de ouders in. Nichtje was uiteraard overstuur maar claimde nooit maar dan ook nooit een naaktfoto gestuurd te hebben. Uiteindelijk heeft mijn schoonzus de foto zelf ook gekregen en het was redelijk duidelijk te zien dat het een geknutselde afbeelding was, maar als dat met deepnudes zo gemaakt kan worden dat dat niet zichbaar meer is, dan is het wel heel erg gemakkelijk om iemand het leven zuur te maken.

Mij zou het jeuken; maar ik ben een man van 48. Voor mijn nichtje van 14 ligt dat héél anders.

[Reactie gewijzigd door P_Tingen op 29 juni 2019 22:58]

Zodra dit gemeengoed een eenvoudig wordt (het maken van nep-naaktfoto's), zou het probleem ook positief uit kunnen pakken, en de foto eenvoudig weerleggen als "nep". Zelfs echte ongewenst verspreide naaktfoto's kunnen dan weerlegt worden als nep. Onder de kinderen ontstaat er een sfeer van "die is toch nep" en het interessante ervan vervaagt net zo snel als een fidgetspinner rage.

Laten we eerlijk zijn, dit is een techniek wat we toch niet tegen kunnen houden. De tool is inmiddels offline... alsof er iemand nu verwacht dat je iets zoals dit werkelijk van het internet kunt houden. Ik denk dat dit gewoon in de opvoeding opgelost moet worden, gewoon openbaar bespreken op school... Misschien zelfs met de kinderen mee experimenteren en laten zien dat het gewoon nep is. Waardoor kinderen ook verwachten dat de foto nep is, als ze via andere kanalen ermee geconfronteerd worden.

Zoals Shaggy altijd zei... "It wasn't me"

[Reactie gewijzigd door satoer op 30 juni 2019 12:57]

Klinkt aardig en stoer, maar bij het pesten van kinderen gaat het niet om die foto. Het gaat om die persoon die er op wat voor manier uit wordt gepikt en voor schut wordt gezet. Lees nog eens goed wat @P_Tingen schrijft: het was redelijk duidelijk te zien dat het een geknutselde afbeelding was. En toch is zo'n meisje van 14 daar overstuur van. Dus ook van een nepfoto zal ze overstuur zijn, het gaat er immers niet om dat er een nepfoto is, het gaat erom dat iemand het nodig vond om die te maken om haar het leven zuur te maken. Dus in dat geval is de primair te nemen actie op school een tegen het pesten.

Ik ben het met je eens dat 'deepfake' een onderwerp op school, maar ook in de opvoeding (!), moet zijn. En niet alleen op school, ook volwassenen kunnen nog wel een lesje gebruiken in wat echt is en fake. Kan je breder trekken dan alleen beeldmateriaal. En of je nou meteen de hele klas nep naaktfoto's in elkaar moet laten knutselen … hmm.. weet je wat dat laat ik over aan de pedagogen, die hebben er voor geleerd. Die website die @GeoBeo laat zien is wellicht geschikter lesmateriaal. Ik denk dat er ook nog heel wat matig geïnformeerde volwassenen rondlopen die daarvan opkijken, in de zin van "is dit echt?".

Verder is naakt geen fidgetspinner. Naakt blijft altijd interessant voor het overgrote deel van de mensheid.
Het probleem is dat pesten plagen en uitsluiten inmiddels een cultuur is verworden. Docenten doen er zelfs gerust aan mee onder peer-prussure van de opvoeders. We vinden het normaal en dat geeft maakbaarheid onder andere een stuk gereedschap met een app als deze. Beval jij me niet dan breng ik een zooitje rommel en deel dit met mijn vrienden die dit op hun beurt weer hilarisch vinden. 'De ervaringen en gedragingen die je vandaag produceert, worden de voorspellingen voor je brein van morgen'. Quote; Lisa Feldman Barret.
Hoezo zouden docenten dan daar aan meedoen? Peer-pressure van opvoeders? Toch niet de docenten die ik ken en dat zijn er ondertussen toch al een hoop. Beetje stemming-makerij lijkt me :|
Tja, dat is wel lekker simpel. Maar dat betekent dus ook dat je al helemaal geen enkele bron ooit meer kan vertrouwen, meer dan nu. Natuurlijk, censuur is geen optie, want de echte kwaadwillende heeft alsnog altijd wel op een manier toegang, maar het simpel afdoen als 'ach dat scheelt ook weer want dan kan je het legitiem ontkennen' heeft dus net zo goed weer negatieve gevolgen in andere gevallen.
Het betekent alleen dat het bestaan van een foto op zich geen nieuws is. Zoals het dat eigenlijk nooit was.
Tegen dit soort misbruik in de klas moet opgetreden worden. Het is feitelijk pesterij.

Maar denken dat wij softwareontwikkeling kunnen tegenhouden is wishfull thinking.

Momenteel heeft de overheid de technologie in handen om bijvoorbeeld kentekens van auto's te herkennen. Ik verwacht dat iedere knutselaar dat over 10 jaar na kan bouwen. En dat betekent dat deze een camera langs de weg kan zetten en iedere langskomende auto kan registreren.
Er is niemand die dat tegen kan houden.
Dat heb ik laatst in een uurtje toegevoegd aan ons beveiligingssysteem zodat ik bekende auto’s op de oprijlaan uit de notificaties kan filteren. Deze technologie is al jaren beschikbaar voor iedereen die interesse heeft: https://www.openalpr.com/
Op de snelweg zul je een snellere camera en verweking nodig hebben dan op de oprit.

Maar geinig dat het al kan. :)

Ik heb zelf ook wel eens met OCR op een Raspberry Pi geknutseld. Maar die software kon nog geen kenteken herkennen.
Komop dat kon 10 jaar geleden al. Destijds een tooltje gemaakt dat mijn analoge gas en elektriciteitsmeter uit kon lezen met beelden van een gare webcam. Kentekens waren ook geen probleem, alleen geen usecase voor.
De software die ik gebruikte moest omkaderd hebben waar de karakters zich bevinden. Dat is bij bewegende auto's iets lastiger.

Maar je hebt natuurlijk gelijk dat het al langer kan

Edit:
Mijn punt is dan ook dat iets als privacy bij voortschrijdende technoligische ontwikkeling niet meer gewaarborgd is. Niet alleen de overheid en de FB's van deze wereld bedreigen onze privacy.

[Reactie gewijzigd door andreetje op 30 juni 2019 23:06]

Het herkennen van objecten in een foto is inmiddels al voor iedere knutselaar een redelijk uitgewerkt iets. Alle grote softwarefabrikanten hebben al één of andere machine learning bibliotheek die dat kan. Zo'n systeem trainen op kentekens is even wat werk, maar zeker niet onmogelijk. Je hoeft er geen overheid voor te zijn om dat te kunnen in ieder geval...
Je kan de camera weghalen :)
Dat is echt niet moeilijk; tijdens m'n studie, ruim 25 jaar geleden, was dat al een opdracht bij een informatica vak. De uitdaging was om het 'zo snel mogelijk' te doen, en een mobiel heeft nu veel meer rekenkracht dan de zwaarste computers uit die tijd.
Momenteel heeft de overheid de technologie in handen om bijvoorbeeld kentekens van auto's te herkennen. Ik verwacht dat iedere knutselaar dat over 10 jaar na kan bouwen. En dat betekent dat deze een camera langs de weg kan zetten en iedere langskomende auto kan registreren.
Er is niemand die dat tegen kan houden.
Zoals in andere comments ook al aangegeven: een knutselaar kan dit al vele jaren.
Ik las het.

Theoretisch ligt onze privacy dankzij zichtbare nummerborden op onze voertuigen dus al "op straat".
Aa je het gaat combineren met gezichtsherkenning en social media kom je al een eind.
Ik las het.

Theoretisch ligt onze privacy dankzij zichtbare nummerborden op onze voertuigen dus al "op straat".
Wat denk je van websites als https://www.kentekencheck.nl/ ??

Dat is gewoon IP (en dus locatie en dus mogelijk adres) matchen aan kenteken. Een paar tracking cookies erbij en je weet precies wie dat kenteken opzocht.

Om maar wat te noemen. Privacy is ver te zoeken hoor als je er echt over nadenkt wat er allemaal al mogelijk is.
Maar daarmee heb je de kentekenhouder nog niet gevonden.
Nou, theoretisch is het koppelen van persoonsgegevens aan een kenteken, een overheidsmonopolie. De schending van de privacy zou dus mee kunnen vallen - in theorie. In de praktijk vallen die dingen wel vaker tegen.
Het kenteken zelf is niet direct een persoonsgegeven, maar indirect wel.

Publicatie van alle passerende kentekens met locatie, datum en tijdstip zou denk ik een schending van privacy zijn.

Ik kan de kentekens van auto's in mijn buurt zelf koppelen aan personen.
Tegen dit soort misbruik in de klas moet opgetreden worden. Het is feitelijk pesterij.
Het is feitelijk kinderporno dat verspreid wordt en moet heel hard tegen opgetreden worden. Totdat natuurlijk naar voren komt dat het fake is en dus geen kinderporno is, tenzij daadwerkelijk een foto van een minderjarig persoon is gebruikt...

En als je dat grondig wil aanpakken zodat niemand het ooit meer in z'n kop haalt in de klas verzoek je dringend dat alle ouders op school komen, ze gezamenlijk aanspreekt dat je sterk aan het overwegen bent om ze gezamenlijk te melden bij de politie als verspreiders van kinderporno. Moet je eens zien hoeveel kids de volgende dag niet meer fatsoenlijk op hun stoel kunnen zitten.
Je zou gelijk kunnen hebben, maar we vinden sex tussen bijvoorbeeld 15-jarigen geen pedofilie. Daarom hield ik het op pesterij.
Totdat natuurlijk naar voren komt dat het fake is en dus geen kinderporno is,
In Nederland worden tekenfilms ook al aangemerkt als kinderporno en dus strafbaar, dus ik denk dat het met fakes niet anders zal zijn. Het is blijkbaar niet nodig dat er een slachtoffer is.
Het herkennen van kentekens kan een knutselaar nu ook wel, de beperking zit m dan vooral in de kosten van de apparatuur.
Ik las het. Hier hebben we dus een enorm potentieel risico voor onze privacy.
Dat hou je toch niet tegen, veel meer dan regels opstellen voor het gebruik van bepaalde apparatuur kun je niet doen.
Of regels welke data je mag verzamelen en wat je ermee mag doen.
Je kan het nu offline halen, maar het gaat komen of we willen of niet. Het is er blijkbaar al, maar nu nog even niet beschikbaar voor de gehele wereld. Dat moment gaat echter wel komen.
Beetje rare titel van die website, want ook al genereer je "random" personen op basis van trainingsdata: die personen bestaan waarschijnlijk gewoon wel, hebben bestaan of gaan (weer) bestaan. Puur door de enorme genetische variatie die je hebt. Een beetje hetzelfde idee als je dubbelganger tegen het lijf lopen, terwijl die helemaal geen familie van je is.

This person probably exists but we never saw him/her, zou een betere doch minder pakkende titel zijn.

Het algoritme doet niets anders dan willekeurige stukjes uit fotos van verschillende mensen zo in elkaar plakken dat de belichting en huidskleur e.d. weer klopt en er een "nieuw" gemixt mens ontstaat.
Dit valt nogal wat op af te dingen. Je spreekt je zelf hier een beetje tegen, want als de variatie van delen groter wordt, wordt de kans op één bepaalde 'roll' van delen natuurlijk statistisch kleiner. De kans dat er exact deze mensen echt op de aarde zijn (geweest of nog komen) valt daarom nog te bezien.

Ik snap verder heel goed dat dit een probleem voor het slachtoffer is, je gaat over hun grenzen. Deze app maakt dat weer eens super-eenvoudig. dat jij vindt dat dat de maatschappij dit OK zou moeten gaan vinden heeft daar niet zoveel mee te maken en dat je dit een nou eenmaal "de tijd waarin we leven" vind, is een beetje een zwaktebod (en waarom die quotes rond het woord slachtoffer?). We willen dit volgens mij allemaal niet (op enkele sneue perverts na) dus hier is een goede wetgeving (of update) voor nodig.

[Reactie gewijzigd door Hoofd. op 30 juni 2019 11:17]

“Gewoon” claimen dat het nep is? “Gewoon” de makers van dergelijke rotzooi oppakken en nooit meer los laten lopen.

Want nu kleedt je nog vrouwen “gewoon” uit. Totdat het iemand’s minderjarige dochter wordt. En dan? Gaat die zich verweren met een advocaat? Hoe kom je daar überhaupt achter?
Want nu kleedt je nog vrouwen “gewoon” uit. Totdat het iemand’s minderjarige dochter wordt.
Mensen bedoel je zeker..., schijnbaar is het voor mannen minder of niet erg in jouw beleving ?
Niet minder erg, maar wie zijn er nu vaker slachtoffer van ongewenst verspreidde naaktfoto's?
Alsof dat er extra toe doet...
Voor deze discussie wel, dat is de hele reden dat vrouwen specifiek genoemd worden. Als het andersom was werden mannen juist genoemd.
Mensen bedoel je zeker..., schijnbaar is het voor mannen minder of niet erg in jouw beleving ?
Dat is wat jij eruit haalt, maar dat zegt @DigitalExcorcist helemaal niet.
Nee dat doet er helemaal niet toe, een slachtoffer is een slachtoffer ongeacht "gender".
Er zijn er 2. Mannen en vrouwen. Of je je anders voelt doet niet ter zake. Onzijdig is er ook maar dat is zo’n minimale hoeveelheid dat je dat ook wel kan verwaarlozen.

Helaas is het nog altijd zo dat vrouwen vaker de pineut zijn met dit soort dingen dan mannen.

[Reactie gewijzigd door DigitalExcorcist op 30 juni 2019 16:05]

Dan nog is het voor ieder slachtoffer net zo erg.
Ja echt bizar hoe ver deze techniek al is, alhoewel ik net wel een paar kleine fouten zag en een gezicht met een gesmolten zonnebril zoals deze :+ : https://imgur.com/a/ah5eNK7

[Reactie gewijzigd door dutchnltweaker op 29 juni 2019 13:38]

Een nederlands bedrijf heeft hiervoor een google plugin gemaakt die detecteerd of het om een fake video/foto gaat. Ze hebben het al voor elkaar om realtime videos te bewerken van bijvoorbeeld trump die live je eigengezicht tracked. (Bron: http://www.vicarvision.nl/)

[Reactie gewijzigd door martijntechno op 29 juni 2019 20:25]

Zou het niet juist logischer zijn dat dit soort foto's hierdoor <minder(!)> ophef moet veroorzaken? Alles kan tenslotte door zo'n app zijn gemaakt.

Wellicht maakt het de wereld weer wat minder preuts, ik snap de ophef niet zo.
Praktisch gezien ben je zelf niet uit de kleren geweest.

Het lijkt mij het beste excuus ter wereld voor hen die wel uit de kleren zijn geweest, maar er spijt van hebben. Plausible deniability.

Edit: Blijkbaar heeft half tweakers dit idee ook, haha :)

[Reactie gewijzigd door Siaon op 29 juni 2019 23:41]

Goed punt eigenlijk wel.

Dit was momenteel aan het gebeuren met topfoto's van Everest.
Cfr. laatste filmpje van John Oliver over Everest.

Everest beklimmen is niet echt meer one in a kind en de meeste mensen doen het inderdaad wel voor de topfoto voor te kunnen opscheppen. Nu had een Indisch koppel een topfoto gephotoshopped.
Als dergelijke zaken vaker gebeuren dan verliest de Everest topfoto zijn 'instagramwaarde'.
Mogelijks hetzelfde fenomeen voor gevaarlijke of kwetsbare andere plaatsen die nu overrompeld worden door mensen die dezelfde insta foto willen maken.

Dus ik kan mij wel inbeelden dat dit met naaktfoto's die richting ook uit gaat dan in dit geval.
Als je gewoon fake kan claimen en mensen doorhebben dat dit inderdaad simpelweg kan, kom je er mee weg. Zelfs als die gewoon echt is.
Zou voor een paar meisjes toen ik puber was fijner geweest zijn die dergelijke zaken hadden rondslingeren. Opkomst van het internet en webcams had nog niet de nodige voorzichtigheid geleerd aan jongeren met hormonen in volle snelheid.
Tsja, ik werk in de zorg en ik kom wel eens tegen dat (vooral) jonge meiden foto's hebben gedeeld in vertrouwen (/etc.) en dat die toch zijn verder verspreid. Jonge mannen doen dit ook wel, maar ik heb het zelf nog niet meegemaakt dat daar gedoe van kwam buiten dat we in gesprek gaan om uit te leggen dat dat in deze samenleving (nog) niet zo handig is. Ik zou stellen dat hieruit blijkt dat het echt vooral draait om wat alle mensen er van vinden, in plaats van dat het intrinsiek iets onhandigs is. Ook wat jij schrijft: hormonen, nieuw op de wereld, waar mensen zich al wel niet druk om maken.

Instantgram enzo is erg populair en jeugdigen, vooral als ze nog niet goed een idee hebben van de sociale normen, kunnen hier naaktfoto's op zetten, bijvoorbeeld omdat ze denken dat ze zo makkelijk iemand versieren.

Feitelijk is er niet zo veel aan de hand, het is vaker de reactie van ouders en andere volwassenen die dingen erger maken dan ze zijn en zo soms zelfs richting zelfmoord toe duwen. Ook komt het pesten van in het geval van naaktfoto's vooral door attitudes van de volwassenen rondom.

Ik ben dus erg blij met ontwikkelingen als DeepNude.

Hoe dubbel het leven ook soms kan zijn denk ik dan. Genoeg mensen die regelmatig naar de sauna gaan, of gewoon in hun geboortekostuum op het strand liggen bakken. Parallele werelden soms. Waar de een extreem veel last van heeft of zelfs zelfmoord om pleegt schenkt de ander niet eens een tweede gedachte aan.

Maar goed, dat ben ik, ik gun vooral de nieuwe jonge mensen een wereld die een stukje beter/vrijer is dan de wereld waar wij in zijn opgegroeid :)

Wel grappig dat Everest verhaal trouwens, las laatst nog een artikel dat de berg zo aan het vervuilen schijnt te zijn omdat het zo massaal geworden is. Soms is zo'n foto misschien dan wel beter, als er blijkbaar zoveel sociale credit aan hangt dat je dit wil gaan doen. Ik kan me tenminste niet voorstellen dat al die mensen die die berg beklimmen dit doen omdat ze zoveel passie hebben voor dat soort dingen.
Maar dat denk ik dan weer, ik zou liever een veilige berg beklimmen zonder veel gedoe en mezelf op een andere manier tegenkomen, maar iedereen is anders. Wereldbevolking is enorm gegroeid, dus wellicht vinden deze mensen dit de uitdaging.

Doe mij ook maar zo'n foto ;) Ik hou het wel lekker bij wandelen in de Alpen, haha.

[Reactie gewijzigd door Siaon op 1 juli 2019 16:10]

Als je ziet wat er nu al mogelijk is, moet je even hier kijken (ververs pagina om een nieuwe foto te zien):
https://thispersondoesnotexist.com/

Deze personen bestaan niet en afbeelding is in elkaar gesleuteld door computer(s) en software. Als de naaktfoto's er zo echt uit komen te zien dan is het heel goed dat de app offline is gehaald. De vraag is tevens waarom je zo'n app zou willen. Kan mij wel indenken dat zo'n foto voor een slachtoffer behoorlijk veel ellende kan veroorzaken. Dat zijn geen grappen meer.
Ik snap wat je zegt maar reageer je niet een beetje overdreven? Photoshop bestaat al jaren en daarmee bereiken we ook al jaren realistische fakes. Deze app doet niets meer dan photoshop vervangen door een soort ai die automatisch faked.

De schade waaraan je refereerd is met fakes gemaak in photoshop toch ook beperkt gebleven? Waarom zou dit anders uitpakken? Was het onderwerp in dit topic deepfake video/geluid, dan deel ik je mening. Echter deze app is vrij onschuldig en volgens de maker werkte het maar op een select aantal type foto's. Een beetje handige fotoshopper kan veel meer.
[...]
Ik snap wat je zegt maar reageer je niet een beetje overdreven? Photoshop bestaat al jaren en daarmee bereiken we ook al jaren realistische fakes. Deze app doet niets meer dan photoshop vervangen door een soort ai die automatisch faked.

De schade waaraan je refereerd is met fakes gemaak in photoshop toch ook beperkt gebleven? Waarom zou dit anders uitpakken? Was het onderwerp in dit topic deepfake video/geluid, dan deel ik je mening. Echter deze app is vrij onschuldig en volgens de maker werkte het maar op een select aantal type foto's. Een beetje handige fotoshopper kan veel meer.
Daar ligt het nu juist het probleem. Met een app is het simpel voor jou gedaan, Met Photoshop moet je toch echt wel moeite en tijd erin steken om iets realistisch te maken.

Snap alle tweakers hier niet echt die zeggen dat we zo moeilijk doen over naakt zijn en dat het een taboe is. Jouw lichaam is iets prive! het is aan jezelf om het te tonen aan iemand of niet en sommige mensen willen dat dus helemaal niet.

Voor mij zijn dit soort apps een slechte ontwikkeling en iets wat alleen maar problemen veroorzaakt.
Met een programma als Photo Blend kan dit al jaren en bijna net zo makkelijk als met die app waar we het nu over hebben. https://mediachance.com/photoblend/
Ook is er allang een app die het met video beelden kan https://deepfakesapp.online/

Dit soort programma's en apps zijn er al een behoorlijke tijd en al een behoorlijke tijd in ontwikkeling, is echt niet iets van de laatste tijd.
Dat er nu ophef en ruchtbaarheid aan gegeven word maakt juist dat dit soort dingen zich veel sneller verspreiden.

En des te meer mensen hier gelijk hysterisch over gaan doen des te sneller het zich verspreid.
De discussie was hier al een tijdje groter getrokken. Het gaat over het concept "deepfakes". Dus o.a. beeldmanipulatie mbv deep learning.
En met dit soort tools wordt dat dus beschikbaar voor de massa. Dan kunnen enkele excessen uitgroeien tot grootschalige problemen...
Het probleem is alleen dat Photoshop de nodige kennis vereist. Het gaat hier om een app die het met machinelearning voor je kan doen met 1 druk op de knop.
Meh, je ziet overduidelijk dat dit fakes zijn.
Serieus? Die mensen zijn nep? Ziet er behoorlijk echt uit. Knappe software dus!
Als je ziet wat er nu al mogelijk is, moet je even hier kijken (ververs pagina om een nieuwe foto te zien):
https://thispersondoesnotexist.com/
Vooral boeiend om de vooruitgang in de technologie te zien. Op de site wordt verwezen naar https://thiscatdoesnotexist.com/, wat meestal nog géén geloofwaardige foto oplevert. https://thispersondoesnotexist.com/ ziet er al wèl geloofwaardig uit.
Mee eens, maar ik kon het niet laten om het ook eens van een andere kant te bekijken.

Als zo'n tool bekend is bij de massa kan je zeggen:
'Die foto is hartstikke nep, dat is mijn lichaam niet. Dat zal zal wel met DeepNude o.i.d. gemaakt zijn.'

Je kan dat dan ook als argument gebruiken als iemand je probeert te blackmailen met een echte naaktfoto.
Shit jongens
Stel: lijst email adressen, door een plaatjes zoekmachine om de gevonden bijpassende persoonsfoto,s op te slaan en vervolgens de foto bewerken met ML daar een naakt iets van maken vervolgens de foto in een email kwakken. Bericht in de trant van joh je bent gehackt met rat. 900 piek naar bitcoin. Zoniet dan stuur ik de bijgevoegde foto naar al je contacten. Je hebt 48 uur.
Stel dat de bewerker software goede foto's kan creëren, dat mensen er massaal intrappen. Dan zijn we toch fucked met z'n allen. Dan staat iedereen binnen de kortste keren in hun blote kont op internet.
Dat kan al met Photoshop. Het duurt iets langer maar het resultaat ziet er veel echter uit.

Ik heb hier en daar wat resultaten van de app gezien en sommige kunnen best voor echt door, zeker als het origineel de juiste pose/belichting had. Overigens werkt het ook op witte eenden.
Als iedereen er staat zal niemand het heel schokkend meer vinden.

Wat gaat de wereld van de toekomst raar zijn met al dit soort truucjes....
LOL, ik krijg regelmatig dit soort mail, dat men video's van mij heeft, waar ik mezelf achter het scherm een plezier doe, inclusief de porno waar ik naar kijk.
Leuk, maar mijn camera is afgeplakt, ik kijk nooit porno en ik doe niet aan zelfbevlekking. Verder zou het mij absoluut aan het achterend oxideren, wanneer er zulke beelden (al of niet) van mij publiek zouden worden.
Andersom bestaat de kans, dat ik, puur voor de lol, achter de bedreiger aanga. Leuke vrijetijdsbesteding. :)
" en ik doe niet aan zelfbevlekking....." riiiiiight .......... O-) :X
" en ik doe niet aan zelfbevlekking....." riiiiiight .......... O-) :X
Ja, je bent grappig, maar waarschijnlijk ook nog erg jong. Op mijn leeftijd ben je blij als je je vrouw tevreden kan houden.
iets boven de halve eeuw, daar gaat je theorie dus :P
Je kan mijn kind zijn dus. Ik spreek je nog...
Hoe krijgt men dat voormekaar meestal is de IP adres van de bedreiger gespoofd en zou je in realtime moeten traceren maar als ie via VPN en TOR doet bijna onmogelijk....Het is wel mogelijk zolang je de desbetreffende software en hardware hebt maar is bijna niet te betalen..Je kan het wel proberen via Wireshark, Zenmap/Nmap, Maltego en dan in combinaties..
Technisch gezien "Dan staat iedereen binnen de kortste keren in andermans blote kont op internet."

Met alle gevolgen van dien. Bah bah
Technisch gezien "Dan staat iedereen binnen de kortste keren in een niet bestaande blote kont op internet."
Door dit soort tools, denk ik dat we naar een heel andere maatschappij gaan.
Een maatschappij waar beeld en geluid geen waarde meer heeft.
Immers, iedereen kan alle beeld en geluid deepfaken, dus de waarde ervan is weg.

Zodra dat gebeurt is wel de vraag wat mensen vanaf dan als "de waarheid" uit externe bron gaan beschouwen. Zal het dan puur om de reputatie van de journalist gaan; dat dat de nieuwe "sterren" worden?
Ergens zal de mens behoefte houden aan informatie, en behoefte aan kloppende.
Echter waar nu beeld en geluid vaak als "bewijs" voor een geschreven journalistiek stuk (of aanklacht in de rechtzaak) kunnen dienen, zal dat uiteindelijk niet meer het geval zijn. Dus wat gaan we dan accepteren als "bewijs" van iets?

Ik vind het machtig interessant allemaal!
Goede nieuws voor het huidige probleem is dat het dus vanzelf over gaat.
Zodra iedereen overal en altijd van iedereen naaktfoto's en zelfs complete pornofilms kan genereren, is dat nog een paar jaar leuk, en daarna is dat ook over.

[Reactie gewijzigd door Zynth op 1 juli 2019 08:40]

Een papier met wat inkt en een krabbeltje eronder is ook nog steeds rechtsgeldig.
Ik bedoel maar.
'De wereld is nog niet klaar voor DeepNude', stellen de makers
De makers hadden de populariteit van de app niet verwacht en achtten de kans op misbruik te groot.
Je hoeft geen genie te zijn dat misbruik enorm catastrofaal kan zijn voor anderen. En niet te vergeten: kinderporno. Bah.
En niet te vergeten: kinderporno. Bah.
Kinderporno is bah, helemaal mee eens, maar aan de andere kant: Als een app kan voorkomen dat er échte kinderen misbruikt moeten worden, dan is het misschien niet eens zo'n slecht idee.
Het gaat wel nog verder dan dat: je kan namelijk iemand mee chanteren, bijvoorbeeld foto's van je familie of vriendin/vriend en dan rare dingen mee doen.

[Reactie gewijzigd door SilverRST op 29 juni 2019 13:27]

Dergelijke software maakt chanteren juist minder makkelijk. Iedereen kan nu domweg ontkennen en zeggen dat het een deepfake is. En aangezien het internet er mee vol staat is dat een geloofwaardig verhaal. Zelfs in het geval dat de foto's echt zijn.
Oke, daar heb je wel een punt. Het is alleen wel lastig voor culturen en of religies waarbij zulke dingen taboe zijn.
Maar voor religie en culturen ben ik van mening dat seks geen taboe moet zijn. Dat creëert juist rare perversie bij mensen. Dus ja ik vind het wel goed dat het weer het zoveelste programma is dat taboes breekt. Even los van het feit dat het negatief misbruikt kan worden.

Want kom nou op. Waarom zijn wij de enige wezens op aarde met zon probleem omtrent seksualiteit en naaktheid.

Laatst nog een mooie gedachtegang voorbij zien komen: mannen mogen met hun a-cup manboobs wel naakt rondlopen, vrouwen niet... eigenlijk gewoon erg dom

[Reactie gewijzigd door Mic2000 op 29 juni 2019 19:18]

Het gaat niet om de 'boobs', het gaat om de tepel. Die is bij vrouwen meestal veel groter en lustopwekkender.
Heb je daar bewijs voor?
Dan is het juist helemaal niet lastig. Je hebt namelijk motiviatie om het NIET te doen. Dus is het sneller aannemelijk dat het nep is.

Dat is nu dus ook het probleem. Na de icloud hacks is het juist heel aannemelijk dat we videos en fotos van bepaalde celebs zien van deepnude achtige software waarbij we zeggen oh het zal wel echt zijn aangezien ster X al vaker echte nudes heeft gemaakt.
Dat is uiteindelijk helemaal niet positief. Alle nieuwsfoto's die mensen niet aanstaan, worden dan net zo goed van tafel geveegd als "fake". Wanneer je niets en niemand meer kan vertrouwen, omdat het wel eens nep kan zijn, is dat niet bepaald bevorderlijk voor de maatschappelijke cohesie.
Met het grote verschil dat je vanaf nu wéét dat je het nieuws niet kunt vertrouwen. 8-)
Dergelijke software maakt chanteren juist minder makkelijk. Iedereen kan nu domweg ontkennen en zeggen dat het een deepfake is. En aangezien het internet er mee vol staat is dat een geloofwaardig verhaal. Zelfs in het geval dat de foto's echt zijn.
Het kan wel een geloofwaardig verhaal zijn voor normale stervelingen, maar een rechter luistert liever naar wat een agent zegt over een verdachte (bijv: persoon X liep naakt (deepnude) rond in een winkelcentrum, wat hier in NL niet mag). Je ziet 't bijv. ook bij verkeersovertredingen: als agent A zegt en de verdachte zegt B, dan gaat de rechter uit van A (omdat die agent een beëdigd ambtenaar is o.i.d. Agenten maken daar nu al misbruik van en verzinnen van alles om er maar een veroordeling uit te slepen; ze weten dat de rechter toch meestal met 't verhaal van de agent mee gaat).

[Reactie gewijzigd door kimborntobewild op 1 juli 2019 11:18]

Zit je aluhoedje klem of heb je een zonnesteek opgelopen? Veroordelen op basis van enkel de claim van een agent gebeurt in het strafrecht eigenlijk niet. En agenten die dingen claimen die er niet zijn, ja, ze zijn er, maar het overgrote deel is gewoon integer.
Veroordelen op basis van enkel de claim van een agent gebeurt in het strafrecht eigenlijk niet.
Dat gebeurt volop.
De rechter geeft het trouwens ook gewoon toe bij de uitspraken (zie ook de recente TV-show): dat hij uit moet gaan van wat de agent zegt, als het woord tegen woord is.
En agenten die dingen claimen die er niet zijn, ja, ze zijn er, maar het overgrote deel is gewoon integer.
Ik ben ook geen heilig boontje, zo ben ik aangehouden omdat ik te snel reed en te weinig afstand hield. Dat eerste klopt gewoon; ik reed te snel. Van dat 'te weinig afstand' zeiden ze dat een andere videowagen dat had gezien. Ik ben al veroordeeld, maar achteraf besef ik me - gezien de omstandigheden - dat het complete lariekoek was dat een andere] videowagen dat had gezien. (Ik had natuurlijk die beelden moeten opvragen, waar ik niet aan gedacht heb.) Ook omdat ze hadden gelogen dat ik alleen maar links reed, wat volstrekte onzin was (ja, ik reed vaker links dan gemiddeld omdat ik sneller reed dan het gemiddelde overige verkeer; maar dat ik niet weer zo nu en dan naar rechts ging, was niet anders dan een leugen).
Een familielid heeft een klacht ingediend over een agent. Die agent was langsgeweest maar bleek achteraf te hebben gelogen in het proces-verbaal. Mijn familielid is toen gelukkig wel in het gelijk gesteld. Ik weet meer voorbeelden.
Agenten liegen gewoon net zoveel als niet-agenten.
Mensen liegen gemiddeld zo'n zeven keer per dag.
Ik kan zo van Instagram de zoveelste bikini-foto nemen en mijn photoshopskills er op loslaten. Deze software maakt het gewoon toegankelijker. Op zich kunnen we het verbieden, het schandalig noemen en dan er wat zand er over gooien maar uiteindelijk komt dit terug maar dan wel beter en sterker.

ver de echte oplossing hoor je vaak weinig. De politiek weet niet goed wat A.I is praat er niet over omdat ze er niets van snappen. (in tegenstelling tot belastingen, openbaar vervoer, gezondheidszorg, ). Ik wacht gewoon nog op de eerste populist die AI gaat verbieden ;-) (Want ja, O Porno en AI neemt onze jobs af) Dat zou dom zijn, AI kan ons immers helpen om deep fake of manipulaties te herkennen, efficiënter te leven etc.)

Het wordt ook dringend tijd om een sensor in een digitale camera van een soort blockchain principe te voorzien op pixelniveau zodat men elke foto weer kan terugdraaien naar zijn source file of toch tenminste aanduiden met hard proof aanduiden of enkel de kleur/afmeting is aangepast of hele nieuwe pixels zijn geshopt of gewoon in zijn geheel niet van een sensor (echt 3D licht) afkomstig is. Ook handig voor persfotografen kunnen zo steeds linken naar het originele RAW beeld.
Ahja, een soort digitaal rechten beheersysteem bedoel je? Nou succes om dat hier op tweakers te promoten :D
Nee, ik heb het over een systeem waardoor men fake van echt kan onderscheiden, zelfs al is de foto 100% deep fake. Anders weten we nooit of een foto of video nu echt is niet.
Je kan die blockchain ook een bewerkte foto voeren.
Dat jij op een dag de hoofden van jouw kinderen tegenkomt op gefakte foto's waar allerlei mensen zich op bevredigen is niet zo'n heel slecht idee?
Jawel maar beter een gefakete foto dan echte van jouw kinderen. Begrijpend lezen is niet zo moeilijk, probeer het eens.
Dit lijkt op zich wel een goed argument, maar als mensen dit enkele maanden gedaan hebben, dan is een deel hiervan klaar voor de volgende stap en dan wordt het een ander verhaal.
Op basis waarvan zeg je dat? Als bevrediging een glijdende schaal is, dan zou dat betekenen dat uiteindelijk iedereen die ooit 'normale' seks heeft gehad of er zelfs maar naar gekeken, overgaat tot de extreemste vormen van die seks. Dat kan niet kloppen, want zo hoog zijn de verkrachtingscijfers helemaal niet.
Het zal niet iedereen zijn die zo ver zal gaan. Ik ben geen expert of zo, maar je ziet dit mechanisme toch wel vaker denk ik. Bijvoorbeeld in games waarin gruwelijkheden steeds realistischer in beeld wordt gebracht. Dit is blijkbaar nodig om geinteresseerd te blijven om te blijven spelen. Ik vermoed dat menig puber op zijn 18e al meer (virtuele) moorden heeft begaan dan menig serie moordenaar in het verleden. En een heel klein deel daarvan wil die ervaring in het ‘echt’ dan verder vorm geven.
Ja het wemelt dan ook van de serie moordenaars in de wereld. Door al die boeken, film en video spellen om moord.
Eigenlijk moest dat maar is verboden worden.
Omdat niemand schijnt te begrijpen wat ik hier zeg. Als het tonen van bepaaldw beelde invloed heeft op bepaald gedrag.ook al is dat bij een klein deel van de bevolking. Zal men bij grote aantallen. 400 miljoen. Voor europa toch minstens moeten kunnen constateren dat er veel serie moordenaars rond lopen.
Maar men blijft zeggen dat bepaalde beelde iemands gedrag beinvloed.
Het bewijs dat het echt zo is, is nooit bewezen.

[Reactie gewijzigd door trisje op 30 juni 2019 11:11]

Maar men blijft zeggen dat bepaalde beelde iemands gedrag beinvloed.
Het bewijs dat het echt zo is, is nooit bewezen.
Ten eerste zijn er wel onderzoeken geweest die daar naar wijzen; ten tweede hoef je ook geen Einstein te zijn om te weten dat een negatieve opvoeding (/negatieve beelden) ook negatieve gevolgen heeft.
Ja maar je kan he ook afvragen of de onderzoeken daadwerkelijk kloppen.
Er zijn ook onderzoeken die juist aantonen dat het veelal geen invloed heeft en zelfs agressie verminderd.
https://www.uva.nl/conten...geving.html?1561983722311
Ja maar je kan he ook afvragen of de onderzoeken daadwerkelijk kloppen.
Er zijn ook onderzoeken die juist aantonen dat het veelal geen invloed heeft en zelfs agressie verminderd.
https://www.uva.nl/conten...geving.html?1561983722311
Een stukje uit de beschrijving van het onderzoek:
‘Tieners die meer gewelddadige media gebruikten, maar wel in een harmonieuze omgeving opgroeiden, vertoonden juist minder agressie'
Eerlijk gezegd geloof ik die conclusie niet.
En: minder agressie dan wat/wie/wanneer?
Verder staat er dat ze 't aan de kinderen zelf vroeg of ze agressief waren geweest. Dat lijkt me niet bepaald betrouwbaar. 't Lijkt me een betere onderzoeksmethode om bijv. aantallen geregistreerde delicten te onderzoeken. Niettemin zou het interessant kunnen wezen het onderzoek zelf te lezen, i.p.v. alleen de beschrijving.
Het onderzoek interesseert me niet, dus lezen ga ik het zeker niet
Ik zou zeggen doe zelf is een onderzoek als je het beter denkt te weten dan de onderzoekers.
Het onderzoek interesseert me niet, dus lezen ga ik het zeker niet
Ik zou zeggen doe zelf is een onderzoek als je het beter denkt te weten dan de onderzoekers.
Onderzoek is eenvoudig: kijk simpelweg om je heen. Dan zie je dat alles wat men meemaakt, invloed heeft op de rest van je leven.
Ja als het zo eenvoudig was.en heeft een film of boeg game daadwerkelijk negative consequences of juist positive.
Mensen die zo ver gaan, mankeert iets anders. Die gaan de fout in ongeacht wat je ze voor 'kicks' aanbiedt en zul je dus gericht moeten helpen.

Als je dat wilt oplossen door de 'kicks' voor iedereen weg te nemen, zoals de maatschappelijke neiging op alle mogelijke gebieden een beetje is, de laatste jaren, dan ontneem je andere mensen juist hun verzetje of oplossing.

Let wel, ik bagatelliseer hiermee geen kidnerporno, ik trek het probleem veel breder.
Mensen die zo ver gaan, mankeert iets anders.
Iedereen die maar voldoende vaak bepaalde zaken meemaakt/ziet, veranderd mee. Bij de ene veel minder (omdat die opgegroeid is een betere omgeving) dan bij de ander.
't Is vrij simpel: als je iets 100.000x ziet, is dat de norm (normaal) geworden voor je. Als je 't maar 10x ziet heeft 't ook invloed, al is 't dan veel minder.

[Reactie gewijzigd door kimborntobewild op 1 juli 2019 11:39]

Als het echt zo is dat als je veel geweldadige films bekijkt je zelf geweldadig wordt. Waarom is iedereen dan in de meeste situaties niet geweldadig. Veel mensen uit oorlogs gebieden die zijn gevlucht voor het geweld. Tonen dit soort gedragingen ook niet.
En ja je kan vast wel iemand vinden die wel beinvloed kan worden.
Maar de meeste mensen weten heel goed het onderschijt te maken en houden zich rustig. Ook in de wetenschap dat het strafbaar is.

Voor seksuele gedragingen zou dat niet anders moeten zijn. Maar heelaas zal geen onderzoeker pleite dat het niet zo is, want het maakt de persoon zelf niet echt populair. Of wel er zijn er maar weinig die hun handen er aan willen branden.

In de middel eeuwen had men in het geheel geen films of plaatjes maar de wereld was veel minder prettig dan nu. Simpel om het feit dat het ongestraft veelal kon.
We hebben het hier over of je beinvloed wordt door games, beelden of films. En als de persoon nu ook voldoende liefde en rust vind in zijn omgeving dan werkt dat weer tegen niet.
@ Trisje en mae-t.net:
Je hersens worden beïnvloed door hetgene wat je meemaakt; zo simpel is het. En dat geldt voor iedereen. Afhankelijk van hoe je opgegroeid* bent, heeft dat meer of minder negatief effect in de praktijk.
*: Want met name als je jong bent, is je opgroei-omgeving belangrijk voor hoe je je later gaat gedragen.
Ja, er is ook een factor DNA. Dit laat bovenstaande echter onverlet.
En als de persoon nu ook voldoende liefde en rust vind in zijn omgeving dan werkt dat weer tegen niet.
Stel, we noemen de negatieve zaken -1, en 'de liefde en rust in zijn omgeving' +1. Je zegt: dat werkt dan weer tegen. Natuurlijk. -1 + +1 is samen 0. Wat nu als je die negatieve zaken niet hoeft mee te rekenen, omdat ze zich niet hebben voorgedaan? Precies, dan blijft alléén die +1 over. En +1 is beter dan 0.
Maar de meeste mensen weten heel goed het onderschijt te maken en houden zich rustig. Ook in de wetenschap dat het strafbaar is.
'Meeste' is niet 'alle'. De 'meeste' mensen hebben een redelijk goede opvoeding gehad, en bij hun vergt 't veel negatieve zaken om de positieve zaken in hun hersenen teniet te doen. Maar niet alle. Je hebt maar één persoon nodig buiten de groep 'meeste' om veel ellende te veroorzaken.
Niettemin hebben negatieve zaken ook negatieve gevolgen in de hersenen bij die mensen die wel goed opgevoed zijn. Bij de ene gaat het zover dat er ook in de praktijk iets negatiefs uitrolt; bij de ander niet. Hangt ook wel af van DNA, en hangt af van hoe je opgegroeid bent, maar hangt ook zeker af van wat je later allemaal meemaakt. Het is een optelsom, waarbij ook hetgene wat je later meemaakt, meetelt. Het zou fout zijn om alleen de eerste twee factoren (DNA en opgroei) te tellen. Alleen al het _bestaan_ van PTSS geeft aan dat je de derde factor niet mag vergeten.
Is ditwetenschap of jou denkbeeld. En wat zegt het nu over de films,, games en boeken die miljoenen zien. Maar verder niets negatiefs gebeurd. Ligt het dan aan de omgeving en invloeden of juist aan de persoon.

[Reactie gewijzigd door trisje op 9 juli 2019 23:56]

...of juist aan de persoon.
Hoe die persoon is, IS verreweg hoofdzakelijk ontstaan door de omgeving en invloeden. Slechts een klein deel is DNA enzo.
Ik denk niet dat dat zo werkt. Overigens ging het hier al om dingen die je zelf opzoekt. Kennelijk had je er dan al wat mee, dus dat maakt dat je niet zomaar causatie mag roepen.

Als ik mezelf als voorbeeld noem: ik ben regelmatig op pornhub te vinden, maar toch verwacht ik niet dat elke vrouw zomaar haar jurkje laat vallen als ik langskom. Oftewel ik zoek plaatjes op waarin vrouwen zomaar hun jurkje laten vallen, maar ik vind dat niet de norm.
1 is al veel te hoog wanneer het over verkrachtingen en cijfers gaat.
En hoe zou je dat willen oplossen?

Voordat je te snel antwoordt, bedenk dat wat een oplossing voor 9 verkrachters is, juist een stimulans voor 1 ander kan zijn. Zoals het hier aangehaalde voorbeeld waarschijnlijk. Die ene andere gaat sowieso een keer de fout in, maar ondertussen heb je wel 9 verkrachtingen voorkomen. Als 1 te hoog is, krijg je er voor 9 terug. Be careful what you wish for.

[Reactie gewijzigd door mae-t.net op 30 juni 2019 14:22]

Geen idee eerlijk gezegd, waarom deze vraag ?
De vraag is om je tot nadenken aan te zetten. Het is immers heel simpel om een opzich logisch klinkende stelling te poneren, maar wat zijn de consequenties van die stelling? Het is in de politiek tegenwoordig bijna modieus om op die manier te werken, maar dat zorgt in de praktijk meer voor onrust (mensen die het ermee eens zijn maar gaan morren als de bijbehorende oplossing logischerwijs uitblijft of vervelende gevolgen heeft) dan dat het voor oplossingen zorgt.
Ja daar heb je gelijk in. Maar waarom was die verkrachting er. Was dat omdat de dader het is gezien had in een film of game. of dat hij gewoon de drang daar toe had en dacht er mee weg te komen.
Net zoals je van een joint overstapt naar heroine?
Zeker. En als pizzabezorger keer ik ook altijd raar op als een vrouw geld in huis bleek te hebben :)
Was dat zo zeldzaam dan? ;)
Ik zeg ook niet dat het één beter is dan de ander, maar vraag of de minder erge versie (namelijk fakes) ook een niet zo slecht idee vind.

Ethisch gezien is er een verschil tussen nut en mogen. @anandus wijst op het nut (het is minder erg), ik vraag me dan af of je ook niet gewoon kunt zeggen dat iets per definitie fout is. De discussie om bepaalde mensen virtuele beelden te geven om erger te voorkomen is niet nieuw. Het hangt ervan af welk uitgangspunt je neemt in de discussie waar je uitkomt.

edit - onderzoek zoals dit bedoel ik https://openjournals.maas...l/Marble/article/view/374

[Reactie gewijzigd door Lennart op 29 juni 2019 14:03]

Ja ik snap je punt, van mij mogen beide verboden worden maar zoals jij het neergezet had was het net of je het niet begreep, vandaar
Daarom mijn uitleg, want zo uitgebreid was ik niet in mijn eerste comment ;-)
En wat is er mis met fantasie gebruiken? laat die zieke geesten dat maar doen. Het alleen maar makkelijker maken lijkt mij niet echt een goede optie.

Als je als persoon met zulke gedachten rond loopt moet je hulp zoeken. Er hulpmiddelen bij gaan zoeken of laten maken is alleen maar een stap verder naar het slechte gebied.
zo'n foto zou inbreuk maken op het portraitrecht en is dus al verboden, bovendien is het smadelijk om iemand onder valse voorwenselen te beschuldigen van onzedelijkheid, en chantage is al helemaal verboden...

zo'n tool als dit moet je dan ook niet gebruiken om mensen mee lastig te vallen, maar om mensen mee te vrijwaren, het is kennelijk vrij goed mogelijk gewoon een random gezicht te genereren. als die foto dan toevallig net iets meer lijkt dan je zou willen (gebaseerd op toeval uiteraard) dan zijn er exif data en watermerken om de gelijkenis te disculperen.

je opmerking is dus behoorlijk misplaatst en irrelevant
Ik snap ' behoorlijk misplaatst en irrelevant' niet zo goed. In de wereld van kinderporno zijn mensen die sociale media afstruinen naar voor hun interessante beelden en ze photoshoppen.
In de wereld van kinderporno zijn mensen die sociale media afstruinen naar voor hun interessante beelden en ze photoshoppen.
Hoe weet jij dat ?
Iemand die ik regelmatig spreek, heeft hiermee te maken aan de opsporingskant.
Laat ik nu heel toevallig ook zo iemand kennen en die zegt dat het in die wereld juist een doodzonde is, om te photoshoppen.
Laat ik nu heel toevallig ook zo iemand kennen en die zegt dat het in die wereld juist een doodzonde is, om te photoshoppen.
Als dat waar was, dan bestond er ook geen 3D/animated-nep-kinderporno.
[...]
Als dat waar was, dan bestond er ook geen 3D/animated-nep-kinderporno.
Nooit gezien. Vertel? (just kidding)
Beetje alsof je kooivechten (MMA) vergelijkt met american wrestling...
[...]
Kinderporno is bah, helemaal mee eens, maar aan de andere kant: Als een app kan voorkomen dat er échte kinderen misbruikt moeten worden, dan is het misschien niet eens zo'n slecht idee.
Een app kan niet voorkomen dat er kinderen misbruikt worden.
Wat je wel wilt voorkomen is het verlangen te voeden van would-be pedofielen.
Jij gaat er van uit dat pedofilie over misbruik van kinderen gaat. Dit kan dus wel degelijk gewoon het verlangen van een pedo voeden, hoeft dus niet een 'would-be' te zijn. Zie het als een pornhub voor de 'normale' mensen, maar zonder dat er dus werkelijk kinderen misbruikt worden. Miljoenen mensen die gebruik maken van pornhub maar ook in werkelijkheid geen vrouwen of mannen misbruiken.
Je hebt een goed punt, maar de redenering is niet precies genoeg (Volgens mij).
Wat je namelijk niet wilt is dat pedofielen kinderen die seks hebben "normaal" gaan vinden. Want dan wordt het denk ik steeds moeilijker fictie en werkelijkheid uit elkaar te houden, en wordt de verleiding op den duur te groot.
Dat is ook waarom ik tegen een pedofielenvereniging zonder begeleiding van buitenaf. Want dan zie ik het probleem ontstaan dat ze elkaar juist gaan bevestigen in hun gedachtegang, met potentiële risico's van dien. Een beetje wat bij Martijn gebeurde.
Ging men maar eens op de manier oorlogen uitvechten.
Er mist een stap in jullie denkproces.
Dit soort algortimes moet worden getraind op beelden. Je kan geen kinderlichaam genereren als je niet getraind hebt op een kinderlichaam. Dit is dus helemaal niet mogelijk zonder gebruik te maken van al bestaande beelden
Dat is ook weer het kip-verhaal, wanneer je steeds aan de seksuele prikkel wordt blootgesteld (opzoekt) werkt het ook activerend. Kijk maar bij de pornoverslaafden.
Het probleem is dat zulke dingen uitkomen en straks het gezicht van jouw kind daarop staat met alles erop en eraan. Dat is 'echt misbruik' genoeg. Misschien niet fysiek misbruik, maar wel degelijk psychisch.
ik zou juist blij zijn met nep-kinderporno, als al die perserselingen lekker kunnen fappen op namaak-plaatjes dan betekend dat inherrent dat er dus geen echte kinderen zijn misbruikt voor het maken ervan... dat is alleen maar goed.. bovendien kan zo'n site door deze of gene instantie worden gebruikt om dergelijke mensen te benaderen en ze waar mogelijk voor hun ziekte of afwijking te behandelen voor het 'te laat is' ... als zo'n therapie kan bestaan uit namaak-viezigheid dan vind ik dat prima ... immers: alles is beter dan lieve kleine kindjes die worden verkracht.
ik zou juist blij zijn met nep-kinderporno, als al die perserselingen lekker kunnen fappen op namaak-plaatjes dan betekend dat inherrent dat er dus geen echte kinderen zijn misbruikt voor het maken ervan... dat is alleen maar goed.. bovendien kan zo'n site door deze of gene instantie worden gebruikt om dergelijke mensen te benaderen en ze waar mogelijk voor hun ziekte of afwijking te behandelen voor het 'te laat is' ... als zo'n therapie kan bestaan uit namaak-viezigheid dan vind ik dat prima ... immers: alles is beter dan lieve kleine kindjes die worden verkracht.
Volgens mij ging deze app over nep borsten en volgroeide vagina's.
Geen idee dus, waar de kinderpornodiscussie opeens vandaan komt, maar als je denkt dat de gemiddelde pedo geen gebruik maakt van proxy's, TOR, VPN, anonieme e-mail etc...
Verder is het - los van ethische aspecten - maar de vraag, of er hier sprake is van een "ziekte of afwijking" die behandelbaar zou zijn.

Disclaimer: Ik ben absoluut geen voorstander van pedosexualiteit. Kinderen verdienen bescherming en veiligheid boven alles.
Nou, ik begrijp dat wel, want dit (virtuele kinderen en pedofielen) is een onderwerp wat al heel lang loopt. O.a. met de virtuele "Sweetie", die gebruikt wordt om pedofielen te betrappen.
Je overdrijft. Kinderporno zou evengoed in videogames of stripverhalen of stationsromans kunnen zonder al te veel moeite.

Je moet geen genie zijn om te zien dat de reclame wereld deep fakes tools mainstream gaat maken
Ik denk niet dat kinderporno gaat werken, het systeem heeft namelijk veel voorbeelden nodig om tot een bewerkte foto te komen. Ik denk niet dat de makers dat ingebouwd hebben (net zoals dat mannen niet ingebouwd waren).
En dan staan we nog maar aan het begin hiervan. 20 jaar verder en we kunnen geen onderscheid meer maken tussen fake en echt. Bewijsmateriaal met beeld en of geluid gaat dan wel heel makkelijk in twijfel getrokken worden door verdachten van misdrijven. Met als gevolg dat echt opnames ook in twijfel worden gebracht.
Je pleegt een overval, en je staat op video via een mobiel. Dat is dan als bewijs door de tegenpartij bijna niet meer in te brengen.
Gooide programma’s als photoshop niet microscopische watermerken op een bewerkte foto? Net als dat printers dat ook doen overigens
Ja, maar dat hoeft natuurlijk niet. Die puntjes van de printers zijn er vooral ingebracht op aandringen van veiligheidsdiensten.
Kwaadwillenden maken natuurlijk iets of gebruiken iets wat niet naar hen is te herleiden.
Zo een watermerk heb je natuurlijk geen controle over. Je suggereert nu dat kwaadwillende hun eigen foto bewerkingssoftware gaan maken om dit te doen, en dit lijkt me een beetje vergezocht
Dan pak je een opensource pakket en past die aan(als daar al een watermerk in zit). En aangezien de meest geavanceerde beveiliging in games ook niet veilig is(pun intended) denk ik dat crackers ook geen moeite hebben met het onbruikbaar maken van het watermerk(bijvoorbeeld altijd dezelfde uitkomst laten geven of zelfs compleet verwijderen).
Je zou het ook om kunnen draaien. Laat beveiligings cameras alle beelden watermerken m.b.v. een soort HMAC. Dan weet je in ieder geval dat die beelden echt zijn.
Ik weet ook niet of ik toe wil naar een wereld waarin we alleen de beelden met het stempeltje 'gezondere keuze' kunnen of willen vertrouwen... Met genoeg geld en resources kun je dat juist makkelijk falsificeren of eventueel juist onklaar maken en de originelen 'kwijt maken'. Zeker met quantum computing op komst is ook dat waarschijnlijk niet betrouwbaar. :'(

[Reactie gewijzigd door MN-Power op 29 juni 2019 14:51]

Veel mensen lijken naar een wereld te willen waar elke vorm van zelfstandig denken en verantwoording afgeschoven kan worden, om zo zelf zo zorgvrij te kunnen leven, zich zelf afschermende van elk beetje slechte nieuws/vorm/beeld wat hun utopisch denkbeeld kan verstoren, waarbij ze voor het gemak ook nog vanuit gaan dat hun denkbeeld datgene is wat iedereen zonder enige vorm van tegenspraak of protest moet omarmen.

Zeker als het dan op kinderen aankomt springen ze helemaal in stress mode, en zullen deze ook opvoeden als zeer breekbaar porselein, dat absoluut niets kan hebben, en bij minste geringste een zwaar trauma oploopt, die door positieve bevestiging van mede sneeuwvlokjes versterkt word en uitgediept, waardoor je langzaam de maatschappij krijgt die je ziet opkomen, dat elke dingetjes en datje zwaar gereguliert moet worden, omdat de angst voor misbruik vele malen hoger is, en misbruikt ook enige is waar men nog aan kan denken, Angst is door de overdreven protectionisme een onneembare horde geworden, waardoor niets meer kan, en niks meer mogelijk is.
En voor de mensen die willen kijken naar landen die wat dat betreft ""verder"" zijn dan wij: De VS (land van de vrijheid) en Zweden (socialistische heilstaat) hebben daar allebei hun eigen versie van en zijn voor ons een waarschuwing.
denk dat dit al mogelijk is door de watermark file aan te passen dat het maar 1x1 pixel is
Die ene pixel kan bij 24bits kleuren(3x8bit) nog steeds 256x256x256 waarden bevatten. En ik ben bang dat het algoritme zo gemaakt is(of zou moeten zijn) dat het bij schaling ook nog enigszins zijn werk doet...
Maar dan valt er toch niks meer te bewijzen? Een enkel pixel met een bepaalde kleur, op een bepaalde plek in de foto, zegt niks meer over of er een watermerk is toegepast.

Punt is, je kunt watermerken altijd omzeilen. Ofwel pas je het programma aan, ofwel crop je het eraf.
Eigen maken is niet nodig, bestaande gebruiken en watermerkjes wegwerken is voldoende.
Open source basis pakken als GIMP, die aanpassen. Een watermerkvrije variant kan je best goed op verdienen dus dat gebeurd vast. Niet elke crimineel gaat het zelf doen natuurlijk, die aangepaste versies worden gewoon verhandeld ook.
zolang de uitkomst die je zoekt groter is dan de investering die je doet. Dan ja, dan zullen ze dat doen.
Zover komt t misschien in films maar gros van de deepXXX kan je best goed herkennen, als je meermaals ernaar kijkt zie je dat het overduidelijk nep is.

Zelfs de film industrie kan het momenteel nog niet 1:1 namaken dat jij of ik t verschil tussen een render en “echt” niet kan onderscheiden. Los daarvan zal een forensisch specialist echt wel kunnen stellen of het echt of nep is wat als bewijs wordt aangeboden.
jazeker. Op dit moment. Maar ik praatte over 20 jaar......
"Los daarvan zal een forensisch specialist echt wel kunnen stellen of het echt of nep is wat als bewijs wordt aangeboden." die zal over 20 jaar ook wel ietsje meer weten/kunnen dan nu :)
Was er geen software ontwikkeld die fakes konden herkennen. Ik denk dat softeare het altijd moeiteloos dit soort zaken herkent. Zelfs als het op het oog erl heel erg echt lijkt.
En dan staan we nog maar aan het begin hiervan. 20 jaar verder en we kunnen geen onderscheid meer maken tussen fake en echt. Bewijsmateriaal met beeld en of geluid gaat dan wel heel makkelijk in twijfel getrokken worden door verdachten van misdrijven. Met als gevolg dat echt opnames ook in twijfel worden gebracht.
Je pleegt een overval, en je staat op video via een mobiel. Dat is dan als bewijs door de tegenpartij bijna niet meer in te brengen.
Je hebt gelijk. DNA werd tot niet zo lang geleden ook als absoluut bewijs beschouwd, maar inmiddels is het niet meer dan "aanvullend". Video, zelfs met professionele apparatuur, is allang niet meer alleenzaligmakend. Kijk bijvoorbeeld maar naar de VAR bij het heldendaagse voetbal. Vanuit verschillende posities kan de waarneming verschillen. Zelfs een alleenstaande bekentenis is in het huidige rechtssysteem niet voldoende bewijs. Lastig en soms onverteerbaar? Ja, maar aan de andere kant is alles beter dan iemand ten onrechte veroordelen voor iets wat hij niet gedaan heeft.
Grappig programma, met hoop risico op problemen. Maar aan de andere kant snap ik de personen die het gebruiken niet. Het heeft niets met de realiteit te maken. Denk even aan tatoeages, moedervlekken, beharing, formaat etc. het wordt allemaal vanuit verbeelding ingevuld, en de kans dat het overeenkomt met de realiteit is net zo groot als de kans dat je eigen fantasie daarmee overeenkomt. Als je dit nodig hebt voor je fantasie dan ben je echt teveel afgeleid door beschikbare content om je eigen individualiteit te ontwikkelen.
Zelf maar eens geprobeerd , maar de app werkt zeer slecht . Resultaten zijn ongelofelijk slecht , ik kan niet begrijpen waarom er zo’n heisa rond is.
Helemaal gelijk. Lijkt wel of het grootste deel van tweakers het zelf nog niet geprobeerd heeft. Het is echt belachelijk slecht. Ik heb geen enkel resultaat gekregen dat ook maar in de buurt kwam van een foto waar je mogelijks over de echtheid zou kunnen twijfelen.
Grappig programma, met hoop risico op problemen. Maar aan de andere kant snap ik de personen die het gebruiken niet. Het heeft niets met de realiteit te maken. Denk even aan tatoeages, moedervlekken, beharing, formaat etc. het wordt allemaal vanuit verbeelding ingevuld, en de kans dat het overeenkomt met de realiteit is net zo groot als de kans dat je eigen fantasie daarmee overeenkomt. Als je dit nodig hebt voor je fantasie dan ben je echt teveel afgeleid door beschikbare content om je eigen individualiteit te ontwikkelen.
Ach, ik heb ooit voor de lol een fake foto van een blote Linda de Mol in een opblaaszwembadje met een fotobewerkingsprogramma bewerkt met het hoofd van mijn vrouw. Ze kon zich het maken van de foto niet herinneren, maar ze was ervan overtuigd, dat zij het was, op de foto. Vroeger waren we niet zo preuts. Waar komt die hedendaagse vertrutting vandaan? Naakt is puur en mooi en zeker niet "vies" IMHO.
Waar komt die hedendaagse vertrutting vandaan?
Uit Amerika, met name. Wij zijn cultureel sterk aan Amerika gelieerd en dat merk je (helaas) met dit soort dingen. Ze zijn daar steeds conservatiever aan het worden, net als Engeland overigens.

[Reactie gewijzigd door GekkePrutser op 30 juni 2019 17:55]

Ik vind dat ze hier (Belgie) toch een pak conservatiever aan het worden zijn dan daar.

Nog deze week:
(Vrijwillige) drugtesten, die kunnen afgedwongen worden met de politie, in middelbare scholen. En dan gaat het eigenlijk alleen maar over Cannabis. Ze willen eigenlijk gewoon weten wie er allemaal 'high' op de schoolbanken zit.

Ik vond het in de jaren 90 al repressief maar nu is het te belachelijk om woorden. De sociale online lastercultuur van nu dan nog ... Jezus ... alsof we allemaal perfecte puriteinen moeten zijn.

De brand van de Notre-Dame was mogelijk veroorzaakt door een peuk of kortsluiting. Allemaal meer redenen om de woorden "of kortsluiting" te laten wegvallen in de sensatiestukken (bijna alles is sensatie vandaag de dag) en rokers, vapers nog meer te verketteren en het ideale ogenblijk voor iets ludiek zoals dit:
https://kw.knack.be/west-...rticle-normal-381635.html.

Wat is dat nu ... dat was bijna de centerfold van een fake sensueel erotisch blaadje (snoeckx) uit de jaren 80! Potverdorie zo hypocriet repressief.
Ik heb net de full software even gedownload, maar het werkt verrassend goed. Wel heb je soms wat scheve borsten maar het is echt verrassend hoe goed hij kleding weghaalt en de huidskleur overneemt.

Het is trouwens een best groot programma, 2gb...
Op de voorbeelden die ik zag, werden nogal wat details geblurred, ook buiten de zone's waar bikinislips etc. weggewerkt moesten worden. Leuke "quick and dirty" oplossing voor luie prutsers, maar totaal geen oplossing voor de ijverige Photoshop of Paint Shop Pro gebruiker, die met een kwartiertje werk een niet-van-echt-te-onderscheiden resultaat kan produceren.
Op de voorbeelden die ik zag, werden nogal wat details geblurred, ook buiten de zone's waar bikinislips etc. weggewerkt moesten worden. Leuke "quick and dirty" oplossing voor luie prutsers, maar totaal geen oplossing voor de ijverige Photoshop of Paint Shop Pro gebruiker, die met een kwartiertje werk een niet-van-echt-te-onderscheiden resultaat kan produceren.
Geen idee waarom ze geblurred waren, maar in mijn geval zijn de foto's toch echt haarscherp, inclusief....
Zijn mature content filter stond nog aan?
soort automatisch fotoshop dus ?

"De Amerikaanse Defensie heeft tools gemaakt om deze fakes te identificeren."
Waar kan ik solliciteren ? :+
Wat voor foto's nam je dan? Hier zijn de resultaten echt extreem slecht... En als ik een bikini foto google, dan crashed het programma hier op...
Hahaha .. vroeger deed je dat gewoon in je hoofd.. haha.. de puberversie van mij zou een geweldige tijd hebben gehad met die app.. gelukkig hadden we toen gewoon nog een gecodeerd filmnet beeld waar je op zaterdagnacht naar aan het turen was..
Ik denk dat als ik in die tijd 'custom nudes' kon maken van mijn crushes ik mijn slaapkamer nooit meer uit kwam ;)

[Reactie gewijzigd door Rixos op 29 juni 2019 14:41]

Had je geen zolder als puber?
Die was van mijn broer.
Daar wil je, nadat hij het huis uit is, ook niet in trekken. Dan blijf je er altijd plakken..
:*) I see what you did there.
Ik herinner me een oud schoolmaatje die had altijd van die wehkamp en neckermann boeken......
Nooit begrepen waarom hahahaha
Dit is natuurlijk dweilen met de kraan open. Tenzij iemand het voor elkaar krijgt om iets wat diverse mannetjes blijkbaar willen op sociaal vlak 'op te lossen' gaat dit natuurlijk geen puur technische fix krijgen met een blokkade of takedown, ook niet als het vanuit de makers zelf komt.
Doet mij denken aan die Sony camera's uit 1998 met 'Nightshot' optie die dwars door kleding heen kon kijken.


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Pro (8GB intern) Nintendo Switch Lite LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 Apple

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True