Europees Parlement stemt in met verbod op AI-uitkleedapps

Het Europees Parlement heeft ingestemd met een verbod op apps die mensen uitkleden met behulp van AI. Het wetsvoorstel betekent niet alleen strengere AI-regels: andere AI-maatregelen worden juist afgezwakt. Zo hoeven AI-gegenereerde afbeeldingen pas vanaf november van een watermerk te worden voorzien.

Het verbod op uitkleedapps gaat alleen om 'herkenbare, echte personen'. AI-tools mogen dus nog wel door AI gegenereerde personen uitkleden, mits ze kunnen aantonen dat een afgebeeld persoon niet echt is. Het uitkleden mag ook als de geportretteerde hier toestemming voor geeft.

Het wetsvoorstel werd met een ruime meerderheid van 569 voorstemmers aangenomen. Slechts 45 parlementariërs stemden tegen. Onder het wetsvoorstel krijgen bedrijven die AI-systemen hebben meer tijd voordat ze aan strengere maatregelen moeten voldoen. Zo wil het Parlement ervoor zorgen dat 'de richtsnoeren en standaarden klaar zijn'.

Voorheen zouden bepaalde maatregelen uit de AI Act per augustus dit jaar ingaan, maar het Europees Parlement wil dit met maanden tot jaren uitstellen. Zo hoeven er pas vanaf 2 november dit jaar watermerken te komen bij content – audio, video en/of beeld – die door AI is gemaakt.

Voor zogenoemde hoogrisicosystemen gelden er pas vanaf 2 december 2027 strengere maatregelen, als het aan het Parlement ligt. Dit zijn systemen die biometrische gegevens gebruiken, of in kritieke infrastructuur gebruikt worden. Het wetsvoorstel moet nu met de lidstaten worden besproken voordat het officieel van kracht gaat.

Nederlandse stichtingen spannen kort geding aan tegen X en Grok om uitkleedfuncties
Een door Offlimits en Fonds Slachtofferhulp gegenereerde afbeelding. Beide afbeeldingen zijn door AI gemaakt.

Door Hayte Hugo

Redacteur

26-03-2026 • 20:58

109

Submitter: E!Ma0RB7

Reacties (109)

Sorteer op:

Weergave:

Ik zal wel een hoop bagger over me heen krijgen maar ik zie echt niet in waarom je voor alles een aparte wet wil. Dit kun je perfect onder cyber-pesten laten vallen , naar de rechtbank stappen en het als dusdanig laten berechten.
Zo is het explicieter. Naast dat dat helpt bij rechtszaken kun je zo ook makkelijker websites aansprakelijk stellen voor het verspreiden van illegale content. Het alleen beschikbaar stellen van een AI uitkleedtool is immers geen cyberpesten
Maar gezien de uitzonderingen (toestemming en fakes) lijkt het erop dat het überhaupt niet echt een verbod is.

Het mag nog steeds als het gaat om fictieve personen
Het verbod op uitkleedapps gaat alleen om 'herkenbare, echte personen'. AI-tools mogen dus nog wel door AI-gegenereerde personen uitkleden, mits ze kunnen verifiëren dat een afgebeeld persoon niet echt is. Het uitkleden mag ook als de geportretteerde hier toestemming voor geeft.
Nou. Distributie van de apps lijkt daarmee volledig legaal.
Naast dat dat helpt bij rechtszaken kun je zo ook makkelijker websites aansprakelijk stellen voor het verspreiden van illegale content.
Er is niks veranderd. Althans. In NL was precies datgene wat hier genoemd wordt (zonder toestemming naaktbeelden van een ander maken) al strafbaar.
Naast de per 1 januari 2020 ingevoerde specifieke strafbaarstelling van misbruik seksueel beeldmateriaal (139h Sr), zijn er diverse generieke wetsartikelen die afhankelijk van de omstandigheden van het geval (eveneens) van toepassing kunnen zijn bij strafbare handelingen met betrekking tot seksueel getint beeldmateriaal zoals smaad, laster, belediging, dwang of afpersing.

Voor de toepasselijkheid van deze strafvorderingsrichtlijn doet niet ter zake of het feit is tenlastegelegd onder 139g, 139h, 261, 262, 266 of 284 Sr. Niet het wetsartikel, maar de verwijtbare gedraging staat in deze richtlijn centraal. De kern van het strafrechtelijk verwijt is de schending van de (seksuele) privacy van de afgebeelde persoon.
Het grote verschil met de nieuwe regels hoef je geen rechtzaak meer aan te spannen als gebruiker, wat een zekere drempel is voor veel mensen, maar moet het gewoon standaard dicht/uit staan.

Dus in plaats van OPT OUT voor slachtoffers doormiddel van een rechtsgang, is het nu OPT IN.
Dat lijkt wellicht zo, maar hoe ga je precies bewijzen dat er geen consent is geweest? Als 'bekend' iemand gaat dat wel lukken maar tussen personen die enigzins met mekaar in contact staan wordt het ene woord tegen de ander.
Hiermee is de bewijslast dus juist het omgekeerde. Je moet bewijzen dat er wél consent is geweest. En dat kan dus alleen maar doordat er schriftelijk of op opname toestemming is verleend. Al kan AI dat tegenwoordig natuurlijk ook wel faken.
Dat lijkt me bijzonder, zo kan iedereen achteraf roepen zonder enig bewijs dat hen onrecht is aangedaan. Uiteindelijk zit op deze manier een rechter alsnog te luisteren naar twee verhalen en mag vervolgens beslissen of een van de twee plausibel genoeg klinkt.
Dat lijkt me bijzonder, zo kan iedereen achteraf roepen zonder enig bewijs dat hen onrecht is aangedaan.
Hoezo los van gesproken toestemming is vrijwel elke vorm van toestemming ergens vastgelegd en dus ook aan te tonen...

Als jij een naaktfoto van mij wil maken en ik geef toestemming op een manier waarmee jij dat niet aan kan tonen moet je dus zorgen dat je toestemming krijgt waarmee je het wel aan kan tonen. Het is dus jouw verantwoordelijkheid te zorgen dat die toestemming WEL aan te tonen is. Hoeft het verhaal van de ander niet eens aan te pas te komen...

[Reactie gewijzigd door watercoolertje op 27 maart 2026 11:04]

Dat is heel makkelijk op te lossen door de consent die je vraagt simpelweg ergens in vast te leggen, zo'n onmogelijke opgave is dat niet en in de context van beelden van "uitgeklede" mensen verspreiden lijkt me dat wel wenselijk.
Nee, achteraf zegt de rechter gewoon, kom maar met bewijs dat er toestemming was. En dat moet niet zo moeilijk zijn lijkt mij als er toestemming is vastgelegd.
Maar dat is toch enkel wanneer je weet wie die deepfake heeft gemaakt … good luck zou ik zo zeggen.
Hiermee is de bewijslast dus juist het omgekeerde. Je moet bewijzen dat er wél consent is geweest
Nee. Dat was altijd al zo. De Nederlandse wet had hier al een hele tijd gewoon provisies voor omdat dit soort shit er gewoon aan zat te komen. Ook voor AI had men namelijk al fotoshop.
Juist, OPT-IN. De maker moet bewijzen dat er consent is. Kortom er moet op schrift vast staan dat het doel toestemming gaf.

En eigenlijk is dat gewoon net zoals alles in de wereld, met sex moet er ook overeenstemming zijn anders is het verkrachting, dus hier is de wet nu in doorgetrokken.

Grok (wat een rotnaam eigenlijk) moet dus alleen werken wanneer er dus juridische grondslag is, en dat valt makkelijk te regelen. Beide partijen moeten zich legitimeren en een transactie van toestemming aangaan.
Je gaat toch ergens moeten aantonen dat die fake-afbeelding wel degelijk jou voorstelt en tegen jou gebruikt wordt want wat is anders het probleem. Ik zie ook niet wie anders dan een rechtbank hierover een geldige uitspraak zou kunnen doen.

Ik snap dys echt niet zo goed hoe we hiermee een “echt” probleem oplossen behalve dan dat het minder makkelijk wordt gemaakt voor de doorsnee persoon.

[Reactie gewijzigd door klakkie.57th op 27 maart 2026 12:25]

Nou ja, het lijkt mij best belangrijk dat een app eerst moet verifiëren dat de persoon niet echt is. Het uitgangspunt is dus "illegaal tenzij..."

"The ban would not apply to AI systems with effective safety measures preventing users from creating such images."

Het is niet vastgelegd wat deze "effective safety measures" zijn, maar gezien de complexiteit van zulke maatregelen en de politieke wil om de apps tegen te gaan verwacht ik niet dat politici erg happig zijn anti-deepfake maatregelen in AI goed te keuren
Nou ja, het lijkt mij best belangrijk dat een app eerst moet verifiëren dat de persoon niet echt is
Nou dat kan dus sws niet. Dat is praktisch gewoon onmogelijk.
Het uitgangspunt is dus "illegaal tenzij..."
Wat het in NL dus al was. En we hebben gezien hoe dat ging.


Deze wetgeving is een Europese verbreding van wetgeving die we in NL dus al hadden. Niks meer, niks minder.
Vroeger gebruikte men photoshop voor deepfakes, tegenwoordig AI. Het gaat dan niet om de tooling, maar hoe makkelijk je het voor elkaar krijgt.
Misschien een vraag dan. Waarom zijn torrents illegaal?

Dat doen we onder allerlei niet leesbare onbegrijpelijke wetten.

Er zit meer achter dan. Dit is explciet.
Behalve dat torrents niet illegaal zijn. De inhoud ervan is vaak illegaal maar een torrent zelf is dat niet.
Zo, de glijdende schaal is reeds daar - je benoemt het 'illegale content'. Kwestie van tijd dus voor ook andere zaken hieronder gaan vallen. Laat maar eens kijken of dat technisch haalbaar is zo'n verbod, met 'uitkleden' als onderwerp - daar kan toch niemand tegen zijn (cfr de stemming resultaten). En dan komt het volgende, 'want we weten nu dat het kan / werkt'.

En jij bent al mee in de gedachtentrein, door het 'schadelijke content' te noemen. De vraag is natuurlijk wie mag bepalen, en volgens welke moraal wat 'schadelijke content' is...
Het duurde niet lang voordat iemand weer eens tevoorschijn kwam met de "glijdende schaal". :X
ja, dat komt omdat ze eigenlijk overal voortdurend aanwezig is. Er is dus weinig reden om aan te nemen dat het deze keer 'anders' zou zijn...
Nee, meer omdat het gewoon onzin is. Er wordt zo vaak mee gesmeten in een poging je argumenten kracht bij te zetten, maar het effect is het tegenovergestelde.

Het "mooie" van dat glijdende schaal principe is dat je het altijd kunt roepen, het is toch achteraf pas te bewijzen. Want in principe is elke regeling, wetgeving, verandering, etc potentieel een glijdende schaal. Als ik A invoer en jij zegt dat is een glijdende schaal naar B, dan heb jij pas gelijk als B daadwerkelijk ingevoerd wordt.
En dat niet alleen. Je kunt dit nooit handhaven. Want AI gegenereerde afbeeldingen mogen dan weer wel gewoon. Je kunt dat uiteraard wel (laten) controleren, maar je krijgt een enorme workload om dat te bewijzen en juridisch volgens mij een zware kluif (alle AI-data is immers echte data, gecombineerd tot AI model) om te bewijzen of ontkrachten of iets mag of niet. Wanneer ga je het niet meer toelaten? Als iets 10% op iemand lijkt, of 30%, of 50%? En is zo'n gelijkenis incidenteel, of moedwillig?
dit, en verder: Hoe verschillend moet een plaatjes zijn van een persoon voordat het 'niet echt' is?
Wie garandeert dat een gegenereerd plaatje geen evenbeeld is van wie ook waar ter wereld?
Als AI zo goed is dan moet AI daar voor zorgen. Voor mij wel mooi, want van mij bestaan geen recente foto’s op internet, ook niet in iets van OneDrive of Google drive omdat mijn data op externe systemen versleuteld is.

Het zelfde is dat mijn vrouw ook geen recente foto’s op haar telefoon heeft van mij (dat hebben we zo afgesproken). Dus AI kan dus nooit een vergelijking maken of mijn beeltenis al bestaat op basis van recente informatie. Maar nu moet AI dus wel voorkomen dat het mij afbeeld zonder referentie kader. Dat is dus leuk voor die knappe koppen. Maar gezien de miljarden winsten mag een dergelijke casus dus nooit een excuus zijn om het niet te doen.

Mijn privacy is namelijk belangrijker dan de winst en aandeelhouders van die grote bedrijven.
De bekende leus luidt niet voor niks:

Amerika vindt het uit, China copieert het en de EU reguleert het.
Precies! En het is overduidelijk een gevoelswetje. "Ik voel mij gekwetst door de ai foto dus mag het niet"
Jij ziet het niet zoals de wet bedoeld is. De regulering zorgt er voor dat het mensen moeilijker wordt gemaakt om AI te misbruiken. “Guns don’t kill people, people using guns kill people.” Dus reguleren zorgt er voor dat alleen in specifieke gevallen AI hiervoor gebruikt kan worden, met toestemming van de persoon welke gebruikt wordt.

Is het zelfde al met patenten, boeken, muziek, de houder krijgt de macht terug.
Het is geen aparte wet maar onderdeel van de AI-omnibus (waar zowel de AI-wetgeving als GDPR onder vallen) :)
Ik denk dat het vooral een nieuwe wet is om de regels duidelijker te maken, je hebt vast wel eens gehoord van "de mazen in de wet", dat is als een wet niet duidelijk verwoord is en er daarom "kansen" bestaan voor mensen die de betreffende wet willen breken, cyber-pesten is (zoals zo veel wetten) niet heel duidelijk verwoord waardoor iemand dat zou kunnen gebruiken als excuus, "oh ik wist niet dat wat ik deed fout is" is een verassend goed argument in een rechtszaak als de wet in kwestie niet specifiek genoeg is. (en de Advocaat 'goed' in zijn of haar werk is)

Daarom nu een nieuwe wet die heel specifiek benoemt wat er dan precies niet mag. Zou inderdaad ergens misschien handiger / beter zijn geweest als ze de cyber-pesten wet hadden aangepast, maar wetten aanpassen gebeurd volgens mij maar heel weinig, dat moet door zowel de 1e als de 2e kamer, het is waarschijnlijk makkelijker om steeds maar weer nieuwe wetten toe te voegen?
lechts 45 parlementariërs stemden tegen.
Ik ben wel benieuwd welk type politicus hierop tegen gestemd heeft. Het lijtk me erg schadelijk als je zou accepteren dat deze functie gebruikt worden om andere mentale pijn aan te brengen. Want welk andere use case zou zo'n functionaliteit hebben?

Ook goed dat ze oog hebben gehad om te kijken of ze ergens het wat minder streng kunnen aanpakken op korte termijn. Dat laat zien dat het niet alleen maar regel op regel wilt bedenken, maar gericht kijkt hoe AI veilig gebruikt kan worden.
Tegenwoordig hebben mensen al van het minste geringste mentale pijn. Er bestaat geen uitkleedfunctie. Er wordt niemand hun kleren van het lijf getrokken.

Er wordt iets bij verzonnen/voorspeld. Op een bepaald moment is de lol ervan af en gaat men door met het leven. Tevens maakt dit de boel alleen maar ongeloofwaardig. Niemand geloofd meer dat een nude echt is.
Je hebt ook geen ongelijk maar probeer je nou eens te verplaatsen in een persoon waarbij dit gebeurd? op basis of middelbare school???? hele klas heeft opeens naakt fotos van je, dan maakt het niet zo veel uit of die nep zijn hoor. En wat nou als iemand een ander probeert af te persen met het verspreiden van nep naakt fotos? die persoon weet niet of de mensen die dat uiteindelijk zouden zien wel of niet weten dat het nep is?

En ik denk ook dat je niet helemaal bekend bent met hoe goed "AI" tegenwoordig is met het aanpassen van fotos etc, je claim "Niemand geloofd meer dat een nude echt is" is denk ik een beetje te kort door de bocht.

"sex drives tech" heb je misschien wel eens gehoord, want het verkoopt, maar je verkoopt natuurlijk niet zo veel als de foto verwrongen handjes of een scheef oog (of niet kloppende atanomie) heeft, dus al die "adult" modellen hollen hard vooruit wat betreft realisme en geloofwaardigheid, want daar is het meeste geld mee te verdienen en 'correcte naaktheid' is nou precies waar die modellen voor gemaakt worden.

Kijk eens naar dat Stable Diffusion 3, is eigenlijk gewoon gefaald omdat ze allerlei veiligheids dingen hadden ingebouwd zodat je vrijwel geen bloot kon krijgen, maar in plaats van dat dat geaccepteerd werd zijn er vanuit verschillende communities cocurrerende modellen gemaakt die juist heel goed zijn in dat bloot, zonder daarbij de overige verbeteringen van SD3 van de hand te doen.
hele klas heeft opeens naakt fotos van je
Dat is gewoon niet waar. De hele klas heeft automatisch gefotoshopte afbeeldingen. Vroeger deed je dat met tijdschriften. Dan pakte je iemand zijn klassefoto en die plakte je op iemand in een tijdschrijf of zo. En lachen wat we deden.

Tuurlijk voor de persoon soms niet heel leuk. Alhoewel de reactie bepalender was op de effectiviteit dan het middel.
En wat nou als iemand een ander probeert af te persen met het verspreiden van nep naakt fotos?
Tja, je moet je toch wel afvragen wat voor leven je lijdt als je daarmee afgeperst kan worden. Zoals ik al zei. Het is misschien vervelender voor beroemde mensen. Maar velen daarvan hebben genoeg middelen om zichzelf te verdedigen. En sommige leven ook zo'n losbandig leven dat de echtheid van de foto niet meer uitmaakt maar dat het een representatie wordt van zijn reputatie.
En ik denk ook dat je niet helemaal bekend bent met hoe goed "AI" tegenwoordig is met het aanpassen van fotos etc, je claim "Niemand geloofd meer dat een nude echt is" is denk ik een beetje te kort door de bocht.
Nou ik ben behoorlijk bekend met het maken en manipuleren van beeldmaterial middels AI. Heb zelf ook een aantal dingen gemaakt. Maar ook dit geeft weer aan in wat voor samenleving we leven. Mensen zijn al vaak schuldig in de ogen van de publiek. En zelfs als alle onderzoek gedaan is en alle getuigen zijn gehoord maar er is niet voldoende bewijs kleeft het nog steeds aan die persoon. Die houding heeft niks meer te maken met rechtspraak maar met cult-denken. Mensen waar ik het mee oneens ben, behandel ik liever als een verdachte dan iemand waar ik het mee eens ben. Of weeg het minder zwaar.

Ik denk dat we beter kunnen gaan naar een weerbare en zoveel mogelijke zelfredzame samenleving dan de trend waar we nu naar toe gaan. Waar de overheid ons moet redden van alle vervelende dingen die we ervaren in het leven. Dat eerste is op lange termijn veel beter. Dat laatste kan, als de trend niet gekeerd wordt, alleen maar leiden tot tirannie.
Goed verhaal. Kan jij dit ook vertellen aan een kind van 14 die op school hiermee geconfronteerd wordt en dan beweren dat het gewoon een nep foto is en door met je leven?

Je hebt geen besef wat zoiets met een kind doet.

Ook als volwassene kan je hier flinke schade van ondervinden. Collegas die onderling en dergelijke foto van jou rondsturen... Ach wat maakt het uit, het is nep, zeer realistisch en niet van echt te onderscheiden, maar nep.

Het zou je maar overkomen...
Tja, ik denk dat jouw reactie een groter probleem is dan een voorspellingsfunctie over hoe iemand er naakt uit ziet. Het laat zien waar we als samenleving mogelijk gekomen zijn, dat dit zo'n invloed heeft op kinderen. Dat kinderen dit elkaar aandoen. Dat men vindt dat de overheid moet ingrijpen in plaats van ouders die met elkaar in gesprek gaan.

Verantwoordelijkheid is macht. Op een gegeven moment ligt alle verantwoordelijkheid bij de overheid. Waar denk je dat dan alle macht ligt?

Ik denk dat we veel te overdreven reageren. Mijn kinderen zijn donkerbruin. Ik vertel hun dat ze nooit de race card mogen spelen omdat iemand een domme grap maakt. Dat ze zichzelf nooit de slachtofferrol in mogen praten. Fysiek geweld is anders. Maar praten is praten. Als je dit niet goed van elkaar kan scheiden heb je een veel groter probleem dan een paar foute grappen.

Iedereen heeft de keuze omzichzelf iets aan te trekken. En als een uitkleedfunctie ervoor zorgt dat iemand een strafblad krijgt of dat de overheid nog meer controle krijgt (ik kan bijna niet geloven dat ik dit op Tweakers zeg. Want jaren geleden stonden de reacties vol van verontwaardiging als de overheid privacy wilde inperken of meer controle wilde, maar goed), dan hebben we echt een steeds groter wordend probleem. En dat is niet op lokaal niveau, waar we met elkaar over zaken kunnen praten. Maar over een heel continent.
Wat een goede reactie.

Praten met je kinderen, dat is het beste wat je kan doen. Ze vertellen wat goed is en wat niet. Met ze praten als het tegen zit of ze iets vervelends hebben meegemaakt.

Onze kinderen hebben we online nooit één strobreed in de weg gelegd: geen kinderfilter, geen tijdsbeperking, niks. Het internet is een deel van de samenleving, hoe eerder ze (onder begeleiding) ook met de slechte kanten daarvan kennismaken hoe beter. Dan kan je tenminste met ze over praten en weten ze hoe ze zaken moeten plaatsen. Zo leren ze zelf verantwoordelijkheid te nemen voor wat ze zien, wat ze doen en hoe ze reageren.
Als het niet de nepfoto is dan is het wel iets anders waar pestkoppen anderen mee denken te moeten pesten. En ja, pesten is niet OK en ja het geeft schade. Mijn kinderen weten daar ook het een en ander van. Het ligt evenwel niet aan de vorm want die kan er altijd bij worden verzonnen.
Dat is een gevolg van het verspreiden, niet van de "uitkleedfunctie" van een AI. Ik kan ook iemand zijn hoofd op een pornoster photoshoppen..
De laagdrempeligheid van hoe je dit zonder enige kennis heel simpel kan uitvoeren kun je m.i. niet echt vergelijken met photoshoppen...
Dus? Het is al verboden om dit soort materiaal te verspreiden en dat geeft de politie ook al nauwelijks handvatten. Dit gaat niks terweeg brengen. Focus liever op de mensen die deze shit delen beter op te sporen.
Je kan vrij makkelijk lokaal een AI draaien en deze vanuit bv Photoshop aansturen.
Ik ken niemand die dat doet en de meeste mensen die ik ken zouden het niet voor elkaar krijgen. De laagdrempeligheid maakt echt wel wat uit.
Ik ben wel benieuwd welk type politicus hierop tegen gestemd heeft. Het lijtk me erg schadelijk als je zou accepteren dat deze functie gebruikt worden om andere mentale pijn aan te brengen. Want welk andere use case zou zo'n functionaliteit hebben?
Vaak mensen die een wet strenger hadden willen ebben, of anders, of van mening zijn dat hij niet nuttig is. Bij afstemming over "iets om kinderen te beschermen" is er echter een enorme druk om daar voor te stemmen, ook als wetten stom zijn.

In Duitsland was er een wet aangenomen dat bezit van kinderporno altijd tot een rechtszaak moest lijden. Klinkt goed, en (bijna?) niemand durfde tegen te stemmen. Maar wat gebeurde er toen? Er werden naaktfoto's gedeeld binnen de school, en een moeder stuurde dat door naar een juf om actie te ondernemen. De moeder en de juf _moesten_ dus aangeklaagd worden, om een rechtszaak te voeren die vervolgens natuurlijk om geen straf uitdraaide maar wel het rechtssysteem bezig hield met deze onzin.
Experts hadden gewaarschuwd maar niemand wilde in het pedo-hokje gaan zitten en er tegen stemmen.
Daar mogen media en burgers echter ook de hand in eigen boezem steken. Media hijgen natuurlijk lekker op zulke zaken, geen diepgang nodig wanneer je je eigen hachje als de deugers uit kunt laten zien. Sociale media die hard gaat op memes en soundbytes. En een publiek wat niet in staat is in te zien hoe men hierdoor wordt beïnvloed en welke gevolgen het dus heeft voor (de nuance in) het politieke debat.
Zeker. En dat ligt ook weer aan het publiek. Ik kijk geen tiktok en geen shorts, ik lees lange artikelen en kijk Youtube-video's van een half uur over een oorlog die niemand interesseert. Een Youtube-kanaal met clickbait wordt door mij direct geblokkeerd.

"Het publiek" zoekt zich ook uit waar het zich door laat beïnvloeden. Dat publiek zou ook moeten zien dat er op twitter steeds weer leugens zijn, maar dat publiek volgt tóch de volgende tweet.
Ik ben het met je eens. Dit moet je niet willen, maar het is een vervolg op wat er al jaren gaande is en wat vroeger gedaan werd met fotos en de playboy.

Het is nu gewoon eng hoe accuraat en moeilijk van echt te onderscheiden is wat het zo vervelend maakt. Zonder AI moest je toch best wat moeite steken in het verdoezelen van een dergelijke nep foto. Tegenwoordig is het met AI voor iedereen toegankelijk en binnen 1 seconde geregeld. Dat laatste zorgt er ook voor dat mensen niet meer de tijd hebben om na te denken of dit wel slim is om te doen. Je brein krijgt te weinig tijd om je morele kompas aan te sturen denk ik.

Foto, door AI laten ontkleden en delen in een groepsapp. 5 seconden werk met een perfect resultaat en voor iedereen toegankelijk.

Als vader van 2 dochters die aan hun tienerjaren beginnen best wel een horror scenario.
Dat is wel vaker het probleem met automatisering. Of het nu een ingezonden brief naar de Volkskrant was of naar de redactie van "Ook dat nog". Een ranzige foto maken was 40 jaar geleden nog een hoop belichtingswerk en vooral heel veel gedoe.

Nu kan elke idioot het en dezelfde mensen bereiken. Het is niet dat er minder idioten zijn, wel dat ze nu veel meer bereik hebben door de fuiken.

De wereld wordt er niet per se beter op. Wel complexer.
On the plus side: Als iemand ooit van jou een oncharmant kiekje maakt op het naaktstrand, kun je gemakkelijk zeggen dat het AI is. Niemand zou er van op kijken.
Dan mag jij het conservatieve kerkgenootschap van overtuigen. Of je diep gelovige werkgever die zich nog in de 19e eeuw waant. Of je partner.

Genoeg mensen die er wel van opkijken.
Nog wel, maar over een paar jaar zijn alle foto's en videos bij voorbaat nep tot het tegendeel bewezen is.

Ik vermoed dat dit soort naaktfoto's dan ook niks meer waard zijn. Zelfs echte wraakporno wordt dan ook niks meer waard is omdat het niet van nep te onderscheiden is.
Gelukkig bestaat er voor (bijna) alles een website!

https://howtheyvote.eu/votes/189384
Opmerkelijk, ik zie voornamelijk links/groene stemmers tegen?
Niet heel opmerkelijk toch? Gezien er ook een lading maatregelen worden afgezwakt welke juist voor betere regulering over de gehele linie hadden kunnen zorgen. Dat zijn nou juist punten waarvan ik verwacht dat links over het algemeen meer voor staat dan rechts, welke toch meestal eerder voor deregulering is.
Ik snap wel dat je tegen het afzwakken van andere eisen stemt.

Ik vind het wetsvoorstel om uitkleedapps te verbieden redelijk kansloos; perverselingen en afpersers hebben met 30 seconden een gratis VPN naar Amerika waar dat spul gewoon draait. Een verbod op herkenbare, echte personen is ook zoiets: nu heb je twee apps nodig, één om een nepfoto/video van een AI-nepmens te maken en een ander om daar een gezicht op te transplanteren, maar het resultaat is hetzelfde.

Alles wat je met deze apps aan kan richten, van reputatieschade tot afpersen, wás al illegaal. Het feit dat de politie hier nu al niets aan kan doen, doet me ten zeerste betwijfelen dat de politie er straks wel ineens een oplossing voor heeft.

Het grootste effect dat deze wijziging heeft is in mijn ogen het vertragen van bestaande maatregelen.
Ik ben fel tegen dit soort wetten. Niet omdat ik vind dat we mensen online moeten uitkleden, niet omdat ik vind dat we AI-tools niet hoeven te reguleren, maar omdat dit soort (veel te) specifieke wetten er alleen maar óf voor zorgen dat échte problemen niet zomaar worden opgelost (een subtiele aanpassing aan een wet gebeurt minder gauw dan een nieuwe wet over een 'extreem' onderwerp), óf voor zorgen dat we veel te veel wetten gaan maken over allerlei dingen waarmee we de verantwoordelijkheid verleggen.
AI kan leuke dingen hallucineren op basis van ruis, AI kan minder leuke dingen hallucineren op basis van ruis, maar deze wet gaat er niet voor zorgen dat er minder naaktfoto's gehallucineerd gaan worden. Het duwt de gebruikers van de huidige apps alleen naar schimmigere apps waar de output misschien wel meteen in een database van nepnaaktfoto's terecht komt ofzo.
Dit soort dingen kun je beter aanpakken door het gebruik van AI om mensen uit te kleden expliciet te verbieden, wat volgens mij al het geval is, en dáár op te handhaven.
Sorry maar dit:

"Het duwt de gebruikers van de huidige apps alleen naar schimmigere apps waar de output misschien wel meteen in een database van nepnaaktfoto's terecht komt ofzo."

vind ik een enorm zwak argument? dus ze moeten het maar lekker laten gebeuren want anders word het misschien erger? ik denk dat het belangrijker is dat er duidelijkheid is waar de grenzen liggen (zodat ze lekker mensen op de vingers kunnen tikken en zo een duidelijk signaal af geven) dan dat we ons nu zorgen moeten gaan maken over welke (toekomstige) apps wat precies op zouden slaan? 🤔

Je beseft je hopelijk wel dat je dit gewoon lokaal op een eigen computer kan? geen apps of bijzondere hardware (of serverpark) voor nodig hoor, het gaat niet om het verbieden van apps die dit momenteel kunnen, het gaat om het verbieden van de benoemde specifieke acties.
Ik zeg niet dat ze het lekker moeten laten gebeuren, ik zeg dat een héle specifieke wet maken voor iets dat al illegaal is niet de oplossing is.

Ze maken nu een wet die eigenlijk alle AI-tools gaat dwingen om óf hele strenge censuur toe te passen in de prompts die zijn toegestaan óf gewoon de deuren te sluiten voor de EU. En dat terwijl het maken van nepnaaktfoto's al illegaal is. Dat is exact hetzelfde als een winkel verbieden om keukenmessen te verkopen tenzij de winkel kan aantonen dat keukenmessen niet voor misdaden gebruikt kunnen worden, dat kan de winkel niet dus de enige optie die de winkel dan heeft is geen keukenmessen meer verkopen.
In mijn ogen is het toch echt meer dat de overheid nu (om jou voorbeeld te volgen) zegt "hey, je mag geen mensen neersteken met een keuken mes" dan dat ze zeggen "niemand mag meer keuken messen verkopen"

Ik zie nergens vermelding dat er nu gezegd is dat je geen AI plaatjes meer mag maken & ze zeggen ook niet dat je geen bestaande foto's meer met AI mag aanpassen, ze zeggen alleen heel specifiek "dit ene ding mag niet", dat er dan apps zijn die alleen voor dat doel bestaan is jammer voor die apps maar die mogen dan dus niet meer bestaan 🤷‍♂️

Ik denk dat het buiten die apps toch vooral van de gebruiker af zal hangen, de gebruiker maakt zelf de keuze om de wet te breken, dat ze platformen die dat ondersteunen nu gaan verbieden is logisch maar niet de hoofd oplossing, de hoofd oplossing is dat ze er nu een strafbaar feit van gemaakt hebben.

Om net als jou even een wild voorbeeld te geven, m'n auto houd me niet tegen als ik op mensen in zou willen rijden, maar dat is natuurlijk super illegaal en verkeerd etc, waarom mogen ze hier dan autos verkopen die dat niet tegenhouden??? Dat is omdat het niet haalbaar is om autofabrikanten daar als schuldige voor aan te wijzen, zelfde met veel van dat AI spul, het is een stuk gereedschap, hoe iemand dat stuk gereedschap gebruikt is verder de keuze van die persoon en ook de verantwoordelijkheid van die persoon. Net als bij een auto of een keukenmes.
De vraag die we vooral moeten stellen is waarom ze tegen stemden. Het stemmen hiervoor is over het algemeen geen kwestie van of ze voor of tegen het probleem zijn maar enkel de manier waarop er wettelijk iets over vastgelegd wordt.

In het verleden heb ik mij dikwijls verbaasd waarom de partij waar ik destijds zelf op stemde ergens op tegen was. Tot ik ging uitzoeken waarom en bleek dat ze helemaal niet tegen waren maar, wel tegen stemde omdat men het voorstel te zwak of niet haalbaar vond.

Het is denk ik belangrijk daar naar te kijken voor we conclusies trekken.
De vraag die we vooral moeten stellen is waarom ze tegen stemden. Het stemmen hiervoor is over het algemeen geen kwestie van of ze voor of tegen het probleem zijn maar enkel de manier waarop er wettelijk iets over vastgelegd wordt.

In het verleden heb ik mij dikwijls verbaasd waarom de partij waar ik destijds zelf op stemde ergens op tegen was. Tot ik ging uitzoeken waarom en bleek dat ze helemaal niet tegen waren maar, wel tegen stemde omdat men het voorstel te zwak of niet haalbaar vond.

Het is denk ik belangrijk daar naar te kijken voor we conclusies trekken.
Ja, dat is een vervolgvraag. Ik wil zeker niet oordelen of het slecht is om tegen te stemmen, ook al kan ik me voorstellen dat mijn reactie zo overkomt.

Maar het is wel een startpunt om te weten wie ;).
Ah excuses, daar heb je mij. Nu loop ikzelf details in te vullen, aannames. Dan heb ik niks gezegd.
Ik denk dat de meesten niet tegenstemmen met het argument dat ze het best vinden om iemand mentaal pijn te doen. Het zal meer zijn dat je tegen vrijheidsbeperkingen bent. Om zoiets te verbieden moet je best wat regeltjes in de wet schrijven, wat consequenties kan hebben voor andere (potentieel mooie) dingen.

Ik heb zelfs zoiets van gooi iedereen maar dood met AI slop, ook dit soort dingen, dan leren we met zn allen sneller dat je niet alles moet geloven.
Kijk je kan ook iemand's kleren weg fotoshoppen. Het gaat erom dat het misschien wel zou moeten mogen om dit te doen, maar het verspreiden verboden moet worden. Dat is een tamelijk redelijke opvatting die deze parlementariers zouden kunnen hebben.
Het verspreiden is hier iig al verboden. Maar misschien in andere eu landen niet.
Natuurlijk is de drempel hier heel wat lager maar gaan we Photoshop nu ook verbieden ?
Ik vind niet dat het compleet vergelijkbaar is. Ik kan best een hoofd selecteren kopieren en plakken. Maar ik denk wel dat je het in de meeste gevallen wel ziet. Bijvoorbeeld nog een stukje andere achtergrond wat ook meegekomen is, haar wat afgeknipt lijkt, net niet dezelfde huidskleur, de hoofd niet compleet in de goede positie met de lichaam, kwaliteit foto is misschien anders, ect. Ik denk dus dat een redelijke photoshop al een hele hoge drempel is voor heel veel mensen. Zelfs met een super simpele stappenplan en video voorbeeld en goede voorbereidingen (zoals dat de foto's al gekozen zijn) zie ik het de meeste mensen in mijn omgeving nog steeds niet doen. AI daartegen verwacht ik zelfs dat hun het kunnen doen. De drempel is dus niet alleen maar heel veel lager maar ligt nu bijna gelijk met de vloer.
Welke anderen usecase? Dan denk ik toch eerder aan porno. Middels AI zouden porno acteurs anderen soort films/fotos kunnen generen of maken.

hetzelfde voor game design middels AI. Aangezien je in games steeds meer gebruik ziet gemaakt worden van acteurs.
Wie? Politici die de risico's van de glijdende schaal die hierin zit inschatten...
Zou kunnen dat men nee stemt omdat andere maatregelen worden afgezwakt
In een democratie krijgt het volk de leiders die het goed doen bij ze.
in een ideale democratie ja, maar niet in een particratie
Wat een gelul. Alleen neppe afbeeldingen mogen wel. Hoe kan je dit nou checken? Daarnaast is het allemaal in de kern opgebouwd van echte mensen en ik ben heel erg bang, van echte kinderen.
Dat staat er toch "neppe afbeeldingen" mogen alleen als AI kan bevestigen dat het geen echt persoon is. Alles met kinderen is sowieso verboden AI of niet.
Hoe ga je dat handhaven? Hoe kan AI nou aantonen dat het geen echt persoon is?
Dan is het aan de verdachte om aan te tonen dat het een echte foto is.
De verdachte is degene die claimt dat het een nepafbeelding is, het zou gek zijn als die toegeeft de wet te hebben overtreden.

Het is het OM die moet bewijzen dat het een echt persoon is om iemand te kunnen veroordelen.
Ook een nepafbeelding is dus bij kp verboden. Het is natuurlijk vrij eenvoudig vast te stellen of een foto een echte dan wel niet echte kp-beelding is.
Het ligt een beetje aan de foto denk ik. Het verschil tussen een 10-jarige en een 20-jarige is overduidelijk, het verschil tussen een 16-jarige en een 18-jarige kan al heel lastig zijn. Er zijn dan ook pornoactrices en -acteurs die zich specialiseren in het "lijkt jong" genre, daar valt veel geld mee te verdienen.

Bij een nepfoto zijn er geen echte kinderen om de leeftijd van te peilen dus dat wordt nog een uitdaging.

Maar goed, realistische seksuele afbeeldingen van kinderen, of ze nu AI-gegenereerd of geschilderd zijn, zijn in principe al illegaal, uitkleedapp of niet. Net als zo'n beetje elk ander misdrijf dat je met die apps kan begaan, overigens, maar zoals in het nieuws te lezen is, lukt handhaven gewoon niet.
Uiteindelijk bepaalt de rechtbank met deskundigen, of deze aan de geest van de wet voldoet.
Sowieso, hoe ga je deze software handhaven. De open modellen zijn er al, iedereen kan dit op z’n laptop draaien. Je kan het laten blokken door OpenAI/Anthropic/DallE/Google, maar de geest is al laaaaang uit de fles.
De technische kennis van nieuwe generaties holt wel achteruit en hardware die goede modellen lokaal kan draaien is financieel buiten bereik tot men veelal uit huis is.
Het draait gewoon op de NPU van je CPU, die wellicht wat langer, zeker geen uur.
Dat is het probleem voor de AI bedrijven. Als zij dat niet kunnen, moeten zij stoppen met deze functie.

Wanneer iemand het voor elkaar krijgt om het toch met een afbeelding van een echt persoon, is dat een overtreding van de wet en kunnen hier boetes voor opgelegd worden. De definitie van wat is echt en wat is nep zal tot rechtszaken leiden. Willen zij dat niet, moeten ze de functie uit zetten. Er gaat genoeg geld door die bedrijven dat het echt wel een keuze is om op of over deze grens te gaan.
En hier ga je een probleem krijgen want AI is geen if else.

Je kan altijd met prompt injection en dergelijke technieken overal om heen werken.

Zie ook bijvoorbeeld de oma aanval.
En hier ga je een probleem krijgen want AI is geen if else.
Is nog steeds niet zijn probleem maar die van AI hoor :)

Als het niet onderscheiden tussen legaal en illegaal dan moet het misschien maar helemaal niet meer mogen!

[Reactie gewijzigd door watercoolertje op 27 maart 2026 10:50]

Of je moet op een gegeven moment eens gaan nadenken over ons recht systeem en visies voor komende 50 jaar,

ipv in je schulp blijven zitten en zeggen dit werk al sinds stone age dus ook in het digitale tijdperk waarbij we de ruimte gaan verkennen,

De huidige regels en denkwijze pas vaak niet meer bij deze tijd laat staan nieuwe technieken,
Dat probleem leggen ze dus bij de AI, dus in praktijk zal AI waarschijnlijk weigeren.
Er zitten soms watermarks in en metadata en mogelijke andere onbekende technieken in om te kunnen
aantonen dat het plaatje door AI gemaakt is.
Precies dit. Gaat de AI ook controleren of een afbeelding van een persoon echt of nep is? Het kan het verschil al niet zien tussen een game character en een echt mens 8)7
Het uitkleden mag ook als de geportretteerde hier toestemming voor geeft.
Dit is toch eigenlijk onmogelijk om te valideren? Dit moet toch wel moeilijker zijn dan "nee dat ben ik hoor, doe maar"...
Soort 'Only Clothes' waar men zich kan aanmelden en fotos uploaden die dan weer gebruikt kunnen worden om door ai uit te laten kleden... :+
Toestemming geven lijkt me toch niet zo complex? Dat kan met een appje of zelfs verbaal (al is dat laatste lastig te bewijzen natuurlijk).

Als degene die in de nepnaaktfoto staat lijkt op degene die toestemming geeft, denk ik dat ze zaak snor zit. Ik weet niet helemaal waarom je zoiets zou doen (misschien om zonder uit de kleren te gaan op OnlyFans gaan? een partner met een seksuele fantasie die ik niet helemaal voor me kan zien?) maar als je graag wilt, zie ik geen reden om het illegaal te maken.

Het wordt complex als iemand bijvoorbeeld toestemming vervalst of achteraf spijt krijgt en naar de politie stapt, maar dat is een probleem bij zo'n beetje elk seksueel feit waarvoor men naar de politie kan stappen.
An sich toestemming is niet zo'n probleem, maar hoe bewijs je dat degene op de foto ook degene is die toestemming geeft? Want dat is mijn punt. Als ik genoeg op Rob Jetten lijk, mag ik daar dan wel naaktfoto's van maken? En hoe controleer je dat?
Of wat als iemand via unlocked phone even doe maar apped naar je what's app.

Of een mailtje stuurde via een compromised account etc.
maar hoe bewijs je dat degene op de foto ook degene is die toestemming geeft?
Op dezelfde manier dat je bewijst dat je andere seksuele uitwisselingen met toestemming doet, toch?
Als ik genoeg op Rob Jetten lijk, mag ik daar dan wel naaktfoto's van maken?
Lijkt me wel toch? Genoeg porno-namaakfilms met lookalikes te vinden.

Hoe controleer je dat? Als je op Rob Jetten lijkt, zou dat niet zo moeilijk moeten zijn denk ik? Gewoon aan de agent/rechter je gezicht laten zien.
Maar die dienst kan toch niet zien hoe ik er IRL uit zie als ik de foto upload en alleen met tekst ga werken? Dat is mijn punt. Dan is het toch alleen van niveau "trust me, bro"
Nee, en dat zal dan ook de eerste verdediging zijn voor de bedrijven die AI-afbeeldingbewerkers aanbieden, zoals Adobe en Google.

Ik ben aardig pessimistisch. Ik verwacht dat de uitkleedapps eerst een disclaimer krijgen waar je op moet klikken, misschien iets van een gezichtsscan ofzo die je makkelijk kunt neppen, daarna nog een paar maanden beschikbaar blijven, en een kleine vlak voor faillissement een boete krijgt die de geoblocks aan doet zetten bij de overgebleven bedrijven.
Dit is niet bedoeld voor de online apps maar voor mensen die op andere manieren dit willen gebruiken.

Als je bijvoorbeeld met een kunst project bezig bent, of betaald films maakt of gewoon met je partner op de bank bezig bent met leuke foto's maken. Dan is het niet de bedoeling dat je daarvoor aangeklaagd wordt. Deze manier van wetgeving geeft juridische basis om deze mensen hiervan vrij te stellen.
<off-topic / s>

Hoort de zwarte balk niet op of rond de ogen te zitten voor mensen die verdacht zijn van een strafbare feit? O-)

</off-topic / s>
Dweilen met de kraan open, op den duurt wordt (als het het niet al is) alles open source en is computing power ook niet meer de bottleneck. Daardoor zal het voor iedereen toegankelijk worden, bovendien kennen de mensen die kwaad willen toch wel de juiste routes.
Dus het gaat niet langer alleen om het verspreiden, maar ook het simpelweg genereren van AI-naaktportretten wordt strafbaar? Dat gaat wel heel ver voor de persoonlijke sfeer.

Mag ik iemand in mijn gedachten nog wel uitkleden, of komt de gedachtenpolitie dan ook langs?

Maakt deze wet nog wel onderscheid tussen een kwaadwillende deepfake en een politieke spotprent als er AI aan te pas komt?
Intressant, dan kunnen ze gelijk Photoshop en andere dergelijke foto bewerking apps verbieden.

Raar hoe Snapchat bijvoorbeeld geen last hiervan heeft, terwijl minderjarigen daarop naar elkaar (en catfishes) naaktfoto's sturen... technisch gezien verspreiden van kinderporno imo. ;-)

[Reactie gewijzigd door nigel100100 op 27 maart 2026 14:23]

Copyrightschending is een probleem dat volledig los staat van dit probleem.

Je kan immers perfect diffusiemodellen trainen zonder aan copyrightschending te doen. Je zal dan wel de nodige toestemming moeten hebben.

Zo een model zou nog altijd dit soort foute content kunnen maken als dat in zijn trainingsdata zit.
We hebben wel het portretrecht. We doen het bijna allemaal wel, maar je mag niet iemands bakkes zonder toestemming online gooien of ergens voor gebruiken.

Online pesten is al verboden. Digitale/gegenereerde sexuele foto's van minderjarigen ook.

Verbieden wat al verboden is. Toch raar dat met de huidige wetgeving dit niet voorkomen kan worden. Benieuwd of het wat toevoegd.

Om te kunnen reageren moet je ingelogd zijn