EU opent formeel DSA-onderzoek naar kindermisbruikbeelden van Grok

De Europese Commissie bevestigt dat er een DSA-onderzoek komt naar Grok. De chatbot publiceerde recent meerdere gemanipuleerde afbeeldingen op X, onder meer van kindermisbruik en seksuele deepfakes. X kreeg eerder al een DSA-boete.

Met het onderzoek wil de Commissie achterhalen of X genoeg onderzoek heeft gedaan naar de risico's van Grok en of er genoeg maatregelen zijn genomen om die risico's te beperken. De Commissie benoemt daarbij specifiek risico's rondom het verspreiden van illegale content, 'zoals gemanipuleerde seksueel expliciete afbeeldingen, inclusief content die neer zou kunnen komen op kindermisbruikbeelden'.

Grok publiceerde eerder deze maand opeens geseksualiseerde afbeeldingen van mensen. X-gebruikers vroegen Grok onder afbeeldingen of Grok de afgebeelde mensen zonder kleding kon weergeven, waarna Grok inderdaad kleding verwijderde bij mensen. Deze mensen werden dan bijvoorbeeld in bikini getoond. Deze afbeeldingen werden door Grok direct op X geplaatst.

Blootgesteld aan 'ernstig gevaar'

De Commissie zegt dat het er daardoor op lijkt dat de risico's van AI zich hebben 'gematerialiseerd', waardoor burgers blootgesteld werden aan 'ernstig gevaar'. Daarom wil de Commissie weten of X deze risico's daadwerkelijk heeft onderzocht.

Het nieuwe diepteonderzoek wordt met 'prioriteit' opgepakt, zegt de Commissie. De Commissie gaat onder meer extra informatie opvragen bij X en interviews en inspecties uitvoeren. Ook kan zij 'tijdelijke maatregelen opleggen' aan X, als dat nodig is.

X maakte op 9 januari bekend het publiekelijk laten genereren van bikinifoto's te beperken tot betaalde gebruikers. Een week later werd een geoblokkade hiervoor aangekondigd. Overigens bleek uit onderzoek van Tweakers dat ook ChatGPT redelijk eenvoudig bikinifoto's maakt van mensen, al worden deze niet direct online gedeeld, wat bij Grok wel het geval was. X kreeg afgelopen december al een DSA-boete van 120 miljoen euro omdat de blauwe vinkjes volgens de Commissie misleidend zijn.

Grok Tijs Bikini

Door Hayte Hugo

Redacteur

26-01-2026 • 13:58

62

Submitter: Admiral Freebee

Reacties (62)

Sorteer op:

Weergave:

Het kan aan mij liggen, maar slaan we nu niet een beetje door dat we bikini-foto’s als aanstootgevend gaan zien?

Het is toch helemaal geen verassing dat dit zou gebeuren?

Zelfs gegenereerde kindermisbruikbeelden is fictie, enkel wat pixels, maar kan ik me wel voorstellen dat fotorealistische afbeeldingen lastig is voor opsporingsambtenaren, maar ook hier kun je voorspellen dat er straks heel veel gegenereerd gaat worden op een zolderkamertje, waar je helemaal niks tegen kunt doen.

=> Ik verbaas me over de verbazing en ophef bij mensen.

En ja, een collega suggereerde om op elke computer surveillance/spy-ware verplicht te installeren, maar dat gaat imho toch wel ver, en je pakt nog steeds niet kwaadwillenden.
Als je denkt dat het probleem is dat de bikini aanstootgevend is, mis je volgens mij het punt. Het gaat er om dat je moeiteloos een foto van iemand kunt veranderen naar een veel intiemere setting. "In bikini" valt dan nog mee, maar dit kan natuurlijk ook nog verder gaan. Ik ben van mening dat mensen zelf moeten weten of ze zo publiekelijk gezien willen worden, of niet.

En ja, voorheen kon je dit natuurlijk ook doen met fotobewerkingssoftware, maar daar zat wel een serieuze drempel aan. Je moest überhaubt de kennis hebben, en het kostte je tijd en moeite. Kwaadwillenden zullen dit inderdaad waarschijnlijk toch wel doen, maar dat betekend niet dat je het ze makkelijk hoeft te maken. Er gewoon om kunnen vragen op een online platform is véél te makkelijk.
Het punt is juist dat het moeiteloos is en het zal in de toekomst nog gemakkelijker worden.
Kwaadwillenden zullen dit inderdaad waarschijnlijk toch wel doen, maar dat betekend niet dat je het ze makkelijk hoeft te maken.
Het is al gemakkelijk. Als we hier van schrikken, dan hadden we het niet moeten uitvinden. Dit ga je niet meer in een doosje stoppen.
Het gaat hierbij om het bewerken van foto’s van mensen die hiervoor geen toestemming hebben gegeven. Hoe zou jij het vinden als foto’s van je oma, moeder, vrouw of dochter zodanig worden gemanipuleerd dat zij vrijwel geen kleding meer lijken te dragen?

X/Grok heeft deze functionaliteit bewust op de markt gebracht zonder deze voldoende te testen. Het feit dat de feature aanvankelijk gratis beschikbaar werd gesteld en het ‘ontkleden’ van mensen later achter een betaalmuur is geplaatst, is ronduit schandalig. Dit rechtvaardigt zware sancties. Het moet een duidelijk voorbeeld worden voor bedrijven die zich niet aan wet- en regelgeving houden, en zelfs de meest basale morele normen negeren.
Hoe zou jij het vinden als foto’s van je oma, moeder, vrouw of dochter zodanig worden gemanipuleerd dat zij vrijwel geen kleding meer lijken te dragen?
Ik heb niks te vinden, want ik ga daar niet over. De bal ligt door dit soort tools niet meer bij de mensen zelf. Dus, ik kan wel ‘offended’ zijn, maar dat zal niemand weerhouden het niet te doen.

Het enige wat wel iets zou helpen, is een beroep doen op de waarden en normen van mensen, maar verder, … is het echt te laat. Het is een kwestie van tijd dat mensen op hun eigen computer de applicaties draaien om dit te genereren, daar heb je Grog of andere commerciële tool niet voor nodig.
Als jij op jouw computer voor jezelf iets genereert dan kan niemand daar wat aan doen. Het gaat in deze om meer dan het genereren, we hebben het ook over grootschalige verspreiding.

Het gaat er ook niet om of jij 'offended' bent of niet. Het gaat over het manipuleren / genereren van beelden van anderen zonder toestemming. Het gaat dus over consent.

Lijkt mij niet meer dan prima dat we als samenleving proberen daar paal en perk aan te stellen. En dat we de verspreiders verantwoordelijk maken voor hun aandeel. Naast de makers.

Ik geloof niet dat we daar te laat mee zijn. Dat is mij te nihilistisch.
Wat als de beelden van een gegenereerde persoon nu een sterke gelijkenis tonen met een werkelijke persoon, maar het (net) niet zijn? Ook verbieden, waar leg je de grens?

Er worden nog steeds regelmatig personen gebruikt in films, reclames of in andere publicaties die lijken op een bepaalde bekende/beroemde persoonlijkheid, evenals stemmen - ook vanaf nu verbieden dan maar als ze in een bikini lopen, of in een porno film spelen?
Ik ben zelf ook bezig geweest om mijn lokaal draaiende AI modellen (zowel NSFW als SFW) via discord beschikbaar te maken maar daarbij heel veel tijd gestoken in het proberen te voorkomen van kind/tiener gebruik. Maar door de vele mogelijkheden van schrijven (bewust spelfouten bijvoorbeeld) kon ik niet met zekerheid dit vrij zetten.
Daarom dus ook voorlopig als project de spreekwoordelijk ijskast in gegaan.
Ondanks dat je wel alles kan loggen van wie heeft wat voor prompt gemaakt wil je gewoon niet dat er zoiets uit komt. En mag toch wel aannemen dat dit soort bedrijven A meer kennis hebben op dit gebied en B dus ook de tools om het af te schermen. Als is het maar bijvoorbeeld na generatie juist weer een model analyse te laten doen hierop en omschrijving daarvan weer controleren tegen je gestelde limieten.
Ik zal vast te simpel redeneren maar is het niet een kwestie van de prompt van de gebruiker analyseren voor je deze prompt aan de agent voert die een afbeelding gaat bewerken?
Ja maar creativiteit kun je toch redelijk de boel voor de gek houden. Op keywords filteren is 1, dus de varianten van woorden, kind, baby, teen, teenager etc etc gewoon string replace naar volwassen bijvoorbeeld. Maar omdat Image models niet gelijk op elk typfoutje de mist in gaan moet je ook rekening gaan houden met l33t speak en ook nog eens gewoon andere talen.

Even ter beeldvorming hoe AI grotendeels getraind wordt. is niet op hele woorden maar vaak op blokken van 3 a 4 letters en daarbij de relatie van de blokken tov andere teksten. Met die kennis kan je dus ook makkelijker modellen voor de gek houden en maakt het dus ook moeilijker om een "waterdichte" oplossing te maken. En dan doe ik het liever niet dan ook maar met een erg kleine kans betrokken te raken bij ongewenste afbeeldingen.

edit:
In mijn setup heb/had ik dus ook, prompt komt binnen, op basis van kanaal (SFW or NSFW) is dat een andere workflow. Eerst wordt er dus op kenmerken van onder 18, 18 en 19 specifiek "geupgrade" naar volwassen/ twintiger
Daarna vind er nog een AI analyze op de gecorrigeerde tekst of deze toch niet 'stiekum' ongewenst tekst bevat en gaat deze afkeuren of doorlaten. Daarna vinden nog oriëntatie en model keuzes plaats op de gegeven prompt, persoon is vaker portrait terwijl natuur eerder landscape is etc etc. Als je model geen NSFW kan doen is het veel simpeler maar ook daar (al is het echt een uitzondering op de regel) kan er naakt voorbij komen maar de kans dat dit ook nog eens gecombineerd is met minderjarig heb ik niet gezien.

[Reactie gewijzigd door The-Source op 26 januari 2026 15:35]

IK weet inderdaad hoe tokens werken en hoe een model ermee omgaat. Juist voor dit gedeelte is AI niet zo sterk.
Wanneer je een op het oog simpele vraag stelt: "Hoe vaak komt de letter 'a' voor in het woord aardbei" krijg je verrassende antwoorden.
Kortom, AI is voor dat gedeelte niet de juiste tool en zul je de input op keyword matches moeten filteren.
Zo te horen doe je dat al.

Mag ik vragen welke modellen je dan voor SFW gebruikt en welke dan alsnog problemen opleveren?
Flux1.dev heb ik al eens naakt voorbij zien komen terwijl dat niet eens gevraagd was.

Maar ook een keer groepje hele jonge kinderen in regenjasjes waarvan ik dacht waarom krijg ik dit nu weer. Maar dat was gelukkig geen naakt. Dus zomaar AI image generatie beschikbaar stellen doe ik maar niet want voor je het weet raak je betrokken bij zaken waar je totaal niet mee in aanraking wilt komen
"In het woord "aardbei" komt de letter 'a' twee keer voor."
Bron: Mistral

Jammer, ik had gehoopt op iets verrassends.
Hoewel dit onderzoek wel echt nodig is en het begrijpelijk is dat vele pleiten voor restricties op of juist een heel verbod van Grok, is het wel een positieve ontwikkeling dat het publiek nu steeds bewuster aan het worden is van de gevaren van AI. Door deze te censureren en alleen nog maar 'schone' versies uit te rollen voor de menigte, krijg je uiteindelijk wel een maatschappij die totaal geen idee heeft over deze negatieve kanten van de technologie.
Zou diezelfde maatschappij zich er wel bewust van zijn dat zodra de AIVD aanslagen verijdeld dat daarmee de onderliggende sentimenten en dreiging niet weg zijn.

Je punt m.b.t. bewustwording geldt op meer vlakke waarbij wegnemen symptomen maskeren dat de oorzaak er nog steeds is en kritisch naar gekeken moet blijven worden.
Ik denk daarom dat we auto's ook niet te veilig moeten maken en die paar honderd doden per jaar te gebruiken om bewustzijn te creëren m.b.t. de onveiligheid van autorijden.
Hoe en waarom vb auto`s? Kleed jij je auto`s uit voor de foto? Vreemde fetish :P
Het gaat om het concept: wat @Rextrion zegt is
Door deze te censureren en alleen nog maar 'schone' versies uit te rollen voor de menigte, krijg je uiteindelijk wel een maatschappij die totaal geen idee heeft over deze negatieve kanten van de technologie.
Impliciet zegt hij dat het censureren (veiliger maken) niet zo'n goed idee is. Dat idee kun je doortrekken naar allerlei andere aspecten van het leven: als we het te veilig maken dan vergeten mensen hoe onveilig het kan zijn. Daar zit een kern van waarheid in maar dat betekent niet dat je het niet moet doen.

Als je auto's superveilig maakt, dan vergeet iedereen hoe onveilig ze kunnen zijn. Dat wordt ontzettend vaak beweerd (m.b.t. gordels, ABS, ACC, Lane Assist etc), maar ten eerste ontbreekt het aan goede onderzoeken die dat onderbuikgevoel onderbouwen en ten tweede is het bewust niet inbouwen van die systemen nog dommer.
Volledig mee eens! Laten we ook niet iedereen zwemles geven om de gevaren van verdrinking ook zichtbaar te maken!
Hoewel dit onderzoek wel echt nodig is en het begrijpelijk is dat vele pleiten voor restricties op of juist een heel verbod van Grok, is het wel een positieve ontwikkeling dat het publiek nu steeds bewuster aan het worden is van de gevaren van AI. Door deze te censureren en alleen nog maar 'schone' versies uit te rollen voor de menigte, krijg je uiteindelijk wel een maatschappij die totaal geen idee heeft over deze negatieve kanten van de technologie.
het enige nadeel is dan weer dat het witte huis waarschijnlijk gaat krijsen over beperking van vrijheid van meningsuiting in de EU. Net zoals toen twitter een boete van slechts 120 miljoen kreeg. (omdat ze niet wilden meewerken aan de eisen van de DSA, zoals transparantie)
Het is wel bijzonder dat zowel EU lidstaten zelf onderzoek doen alsmede de EU zelf. Je zou zeggen, het is één van de twee, of de landen doen het zelf en nemen zelf eventueel maatregelen òf de EU doet onderzoek en neemt eventueel maatregelen.

Want kan je nu niet krijgen dat Frankrijk na onderzoek Grok schuldig verklaard en een boete oplegt terwijl de EU ook de Franse gevallen onderzoekt en ook Grok schuldig verklaart en ook een boete oplegt?

Dan zou Grok tweemaal beboet worden voor dezelfde feiten?
Het maken en publiceren van CSAM kan onder verschillende wetten problematisch zijn. Het is daarom goed mogelijk dat buiten de DSA om andere instanties op basis van andere wetten ook een onderzoek zijn gestart. Maar ik ben wel benieuwd naar welke andere onderzoeken je bedoeld. Ik weet bijvoorbeeld van OFCOM dat een onderzoek is gestart, maar het is volgens mij algemeen bekend dat de UK geen lidstaat van de Unie (meer) is. De Ierse DPC is ook een onderzoek gestart naar X/Grok met een andere scope en op basis van de AVG in plaats van de DSA. Ik begrijp dat Australie, India en Canada ook onderzoeken zijn gestart, maar dat zijn ook geen lidstaten van de Unie en onderzoeken ook niet op basis van de DSA.

Kan je concreet aangeven welke onderzoeken van lidstaten je bedoeld?
Met betrekking tot Arcom: ik kan niet vinden dat ze een onderzoek zijn gestart, wel dat er blijkbaar ministers een melding hebben gedaan. Ik vermoed dat die als nationale toezichthouder de melding hebben doorgegeven aan de Commissie die het toezicht op de VLOP's regelen onder de DSA. Er zijn regels over de coordinatie zodat er niet dubbel/overlappend worde gehandhaafd en ik zie geen aanwijzingen dat daar toch sprake van is. Ik had deze melding bij Ofcom wel over het hoofd gezien.

Als de Franse Justitie een onderzoek is gestart dan gaat dat waarschijnlijk niet over een DSA-overtreding. Het kan heel goed zijn dat X meerdere wetten overtreed. Soms met dezelfde handeling, maar soms ook met handelingen die naast elkaar staan. En dat zal een puzzel worden die de Franse Justitie mag uitvechten met de Europese Commissie. Twee keer straffen voor hetzelfde vergrijp mag niet binnen de EU. Maar vraag me niet hoe dat zie met straffen binnen en buiten de EU. Bovendien verwacht ik dat er genoeg fout gaat dat er waarschijnlijk ook wel parrallel gestraft kan worden door verschillende elementen naast elkaar te behandelen.
De EU is op heel veel vlakken niet 1, dit is weer zo'n voorbeeld. Dit geeft risico's je kunt worden uitgespeeld tegen elkaar of hierdoor toch ruimte bieden voor bedrijven als X/Grok/Meta om door te kunnen gaan.
In b4 "ja maar andere tools kunnen het ook!"

Niet publiek. Niet op deze schaal. Kleine nuance die heel veel mensen bewust negeren want "anti-Musk propaganda door de traditionele media!"
Beelden van mensen in bikini hebben we uiteraard nog nooit gezien op het internet.
je kan ook op een zonnige dag naar het strand gaan en vrouwen als een creep aanstaren.
Net zo ongewenst, maar dan hebben ze iig nog zelf ervoor gekozen zo uit te zien op dat moment.

Dit is echt een heel slecht argument.
Wat doe je bijv. met in-game beelden van mensen in bikini, of in reclames of informatieve afbeeldingen mbv AI? Ook verbieden? Er kan altijd wel een gelijkenis worden gevonden met iets of iemand dat aanstootgevend of niet wenselijk is. Dat is iets anders dan iemand op basis van seksuele afbeeldingen te beschadigen danwel te chanteren of voor de creatie van kinderporno.

Kijk dat je als EU al jaren lang door een combinatie van geopolitieke zwakheid, incompetentie en lobbyisme bedrijven als facebook (schuilnaam meta) en X niet keihard aanpakt en nu met de (geo politieke) problemen zit gaat een aanpak middels genegereerde beelden van bikini' s niets verbeteren.

X/Grok wordt actief ingezet om de EU-politiek te beinvloeden (moet je eens voorstellen als een Chinees bedrijf dat flikt) heb het lef als EU om je daar eens keihard over uit te spreken en om die reden een verbod in te stellen - maar dan van heel X/Grok

[Reactie gewijzigd door litebyte op 26 januari 2026 15:48]

er is nogal een groot verschil tussen een ingame character dat in een bikini staat dan een vrouw die op een social media platform een foto van haarzelf plaatst en iemand die zegt "grok, stop haar in een bikini"

dat je dat niet ziet vind ik erg opvallend, en zegt vooral veel over hoe blind jij bent voor dit soort subtiele vormen van objectificatie van mensen van het andere geslacht.
de rest van je commentaar is compleet irrelevant tot mijn punt eerder
Dat je niet ziet dat in-game beelden inmiddels al zo goed zijn (en steeds beter worden) dat een gelijkenis met een echt persoon in deze wereld goed mogelijk is. We leven niet meer in de online pixel-blok wereld van 1994. De afbeeldingen van nogal gezette vrouwen in bikini in bijv. de aankomende GTA kunnen qua kwaliteit zeker gelijkenis tonen met personen in de werkelijke wereld. Verbieden dan maar omdat er straks iemand (op X) krijst ze hebben mn lichaam misbruikt voor een game

[Reactie gewijzigd door litebyte op 26 januari 2026 16:15]

virtuele characters zijn nog steeds geen echt persoon.

en dat verschil weiger je te zien lijkt het

[Reactie gewijzigd door ronansoleste op 26 januari 2026 16:30]

Het gaat niet om fictieve personen uit games. Zo moeilijk is dat toch niet te snappen? Dat in game beelden er steeds beter uitzien doet daar niks aan af.

Niemand heeft het "recht" om zonder toestemming beelden van iemand te manipuleren* en die vervolgens op een heel eenvoudige wijze te verspreiden naar miljoenen anderen. Lijkt mij dan ook prima om dit zo goed en slecht als we kunnen in te dammen.

*Er zijn altijd uitzonderingen te bedenken, maar het gaat niet om de uitzondering.
Nee, dat is duidelijk. Het gaat om de gelijkenis. Niet om manipulatie. Net zoals sommige reclames of humoristische programma;s nu ook al de bewuste gelijkenis opzoeken tussen bestaande bekende personen en personen die er heel erg op lijken - reclames ook vaak m.b.v. een bekende stem. Daar zijn in het verleden ook al rechtzaken over geweest, voor zover ik me kan herinneren allemaal verloren door de bekende persoon.

Nu zijn het foto's van..straks (maar ook al nu mogelijk) zijn het AI beelden met een grote "gelijkenis" maar net met die kleine verschillen dat je heel goed moet kijken om het verschil te zien. Ga je dat dan ook verbieden?
Het is al verboden om in reclames iets met "look-a-likes" te doen. Dan geldt namelijk het portretrecht. Dat zal denk ik ook voor stemmen gelden (ben even te lui om dat op te zoeken) maar check even Max V versus Picnic of nog ouder Katja Schuurman en de Gouden Gids.

En zoals ik al schreef: daar zijn uitzonderingen op. Zoals op bijna alles. Maar die gelden dan alleen in een zeer beperkte context en voor een zeer beperkt aantal (bekende) personen.
Nee, het is niet verboden om in een reclame een look alike te gebruiken en is ook al vaak toegepast. Het is verboden om iemands portet te gebruiken zonder toestemming voor commerciele toepassingen. Belangrijk hierin: de look alike mag zich niet uitgeven als "de persoon" Rutte.

Simpel voorbeeld: als een Look alike van Rutte wordt gebruikt om een leugendetector aan te prijzen, dan mag deze look alike niet zeggen, "ik Rutte" keur deze leugendetector goed. " Terwijl de persoon Rutte helemaal niet is.

[Reactie gewijzigd door litebyte op 26 januari 2026 17:42]

Sorry, maar je zit er echt naast.

https://www.hogeraad.nl/actueel/nieuwsoverzicht/2022/april/hoge-raad-lookalike-max-verstappen-picnic-filmpje-wel-portret/

Zie ook:

https://www.ictrecht.nl/blog/let-op-met-lookalikes

Een klein citaat voor als je nog twijfelt: "Wanneer een persoon te herkennen is in de lookalike, kan een beroep op het portretrecht slagen, ook als voor het publiek duidelijk is dat het om een lookalike gaat."
Als je echt waar zonder zever gegeneerde 3D modellen gelijk stelt aan echte vrouwen ben je sérieus van het padje af, sorry.
Los van Musk en zijn verwerpelijke methodes om de EU-politiek (niet Europese) politiek te beinvloeden, dit is toch wel een enge ontwikkeling. Dat je kinderporno aanpakt is duidelijk vastgelegd in de wet, maar dat je als EU gaat verbieden dat er geen beelden gegenereerd mogen worden van mensen in bikini is absurd.
Dus het feit dat vrouwen (en eender wie trouwens) consent horen te kunnen geven voordat hun beelden misbruikt mogen worden door letterlijk de hele wereld door gewoon 1 simpele prompt is voor jouw "absurd", begrijp ik dat nu goed?
Consent.

(Lol @ irrelevant en ongewenst stemmers. Ik maak me zorgen voor alle vrouwen waar jullie mee in aanraking komen in jullie leven.)

[Reactie gewijzigd door iqcgubon op 26 januari 2026 17:39]

Mensen die het opnemen voor misbruikers en het opnemen voor een miljardair die de hitlergroet bracht op TV begrijpen ook consent niet, verassend. ;)
Artikel 252 Wetboek van Strafrecht

https://wetten.overheid.n...z=2026-01-01&g=2026-01-01

[Reactie gewijzigd door BvZwolle op 26 januari 2026 14:51]

Los van dat het inderdaad strafbaar is, vind ik “maar het is misschien legaal” opvallend defensief in deze kwestie. Wat of wie probeer je hiermee precies te verdedigen?
Hulde voor het stukje zelfspot :D

Ik ben blind, my bad.

[Reactie gewijzigd door Renquin op 26 januari 2026 14:21]

De foto is niet van de auteur maar van TijsZonderH ;)

Maar hopelijk wel met toestemming! :)

[Reactie gewijzigd door Standeman op 26 januari 2026 14:18]

Uh oh, dat hoop ik dan ook.
En vooral dat Hugo hem wel heeft gevraagd of hij zijn plaatje mag gebruiken.

Of Hayte Hugo vertelt hem schaamteloos "sorry, alle gemaakte content dat op tweakers.net is gemaakt is eigendom van Tweakers en DPG. Dus je kunt het niet weigeren of protesteren :P"

Denk daar vooral goed na!
Gemini, Chat GPT, ... worden dan weer niet onderzocht.
Ik kan niet voor ChatGPT spreken maar Gemini staat het mij niet toe om een geuploade foto zodanig te bewerken dat het een bikini foto wordt. Laat staan een naaktfoto.
Misschien afhankelijk van welke abo je hebt? Kan me voorstellen dat je met de 8€ abo dit niet kan
Denk niet dat Google jou tegen betaling naaktfoto's van anderen laat maken.

Hoef niet uit te leggen waarom niet denk ik.
Het hoeven dus niet alleen naakrfoto's te zijn, het kunnen ook beelden zijn van personen in bikini. En het hoeft ook niet op basis van een geuploade foto.

Je kunt de persoon ook genereren, die naakt of in bikini. Grote kans dat er altijd een vorm van gelijkenis is met een werkelijk iemand in deze wereld.

Er wordt nu gefocused om personen te kwetsen of te beschadigen, maar je kunt gegenereerde beelden heel goed gebruiken voor reclame of niet-commerciele informatie doeleinden...en voor dit soort gebruik kan er ook best gelijkenis optreden met een werkelijk bestaande persoon.
Ik heb een AI Pro abo, en die is zeker geen €7 euro. Maar Gemini staat dit al langere tijd niet toe terwijl ik met Grok (gratis versie!!) gewoon me collega topless op het scherm kreeg in 5 seconden. Daar wringt de schoen. Het gaat véél te makkelijk.

En ja ik gebruik ook Stable Diffusion, en daar kan veel meer. Maar die drempel is op dit moment nog erg hoog en zeker niet voor elke 14 jarige te installeren.
Mogelijks is het verschil dat Grok het zelf rechstreeks postte op X (onder de vraag van de gebruiker).
Nope, ik heb al in b4 gezegd in mijn comment!
Toch echt een prachtige foto

Om te kunnen reageren moet je ingelogd zijn