EU onderzoekt meldingen over mogelijk illegale beelden die X-bot Grok genereert

De Europese Commissie gaat de meldingen over de illegale beelden die xAI's bot Grok zou genereren 'serieus' onderzoeken, laat een woordvoerder weten. Het gaat mogelijk onder meer om kindermisbruikmateriaal. Ook het Verenigd Koninkrijk heeft X om opheldering gevraagd.

Een woordvoerder laat aan onder meer Bloomberg en Euronews weten dat de Europese Commissie zich bewust is van de nieuwe 'spicy'-beeldgeneratiemodus van Grok, waarmee de chatbot seksueel suggestieve beelden zou kunnen genereren, ook van kinderen. "Dit is niet spicy, dit is illegaal", stelt de woordvoerder. Volgens hem doet de Commissie 'zeer serieus' onderzoek naar de zaak. "X weet denk ik heel goed dat we de handhaving van de DSA uiterst serieus nemen. Ze zijn onze eerdere boete nog niet vergeten."

Ook de Britse toezichthouder Ofcom laat in een reactie weten dat hij op de hoogte is van de 'serieuze zorgen' over Grok. Naast kindermisbruikmateriaal gaat het ook om meldingen dat de bot personen seksualiseert door afbeeldingen zo te bewerken dat het lijkt alsof ze alleen ondergoed dragen. Ofcom heeft X gevraagd welke stappen het platform van plan is om te nemen om Britse gebruikers te beschermen. Afhankelijk van de reactie besluit de toezichthouder of er nader onderzoek nodig is. Eerder hebben Franse ministers al melding gemaakt van de illegale content die Grok zou genereren.

X stelt in een post dat iedereen die illegale beelden genereert, waaronder kindermisbruikmateriaal, permanent wordt geschorst van het platform. Ook zegt het bedrijf 'waar nodig' samen te werken met de autoriteiten. X noemt echter niet waarom Grok dergelijke beelden in het geheel kan genereren.

Door Kevin Krikhaar

Redacteur

05-01-2026 • 20:32

86

Reacties (86)

Sorteer op:

Weergave:

Wat ik me afvraag, zonder te zeggen of deze dingen toegestaan moeten worden of niet:

Als je nou goed kunt tekenen en je tekent een naakt lichaam met het gezicht van een bestaand persoon, is dat dan illegaal?

En als dat gezicht van een minderjarige is is het dan illegaal?

Als ik een vriend van me een videoclip van bijvoorbeeld Beyonce zie dan kan ik me hij zich aardig goed inbeelden hoe ze er in haar blootje uitziet. Is dat dan een illegale gedachte? En als ik die vriend daar nou een schilderij van maakt, is het dan ineens illegaal? (Volgens mij niet) Als ik hij daar nou een pc voor gebruikt om een digitale versie te maken, is het dan illegaal? (Volgens mij ook niet).

Volgens mij is de illegale kant het verspreiden van de afbeelding die aanstoot kan geven (en begrijpelijk, naar gelang de "artistieke" waarde van de afbeelding).

De morele grens zal per persoon verschillen. Maar waar ligt de legale grens? En welke instantie heeft de autoriteit om voor iedereen te bepalen waar die grens dan moet liggen?
Gebruikelijke disclaimer: IANAL

In principe is het sinds 1 januari 2020 illegaal om zonder toestemming afbeeldingen van seksuele aard van iemand te maken. Ik vind het alleen moeilijk om te beoordelen in hoeverre de mate van realisme daarin uitmaakt.
En als dat gezicht van een minderjarige is is het dan illegaal?
Op basis van deze uitspraak van de Hoge Raad lijkt in ieder geval geen sprake van (strafbaar) bezit van kinderporno als het evident is dat de beelden nep zijn (zitten wat verdere haken en ogen aan, zie ook dit artikel op Wikipedia).

Dat zegt op zich niets over of die afweging ook zo gemaakt zou worden bij ongewenst seksueel materiaal van meerderjarigen. Tegelijkertijd lijkt het mij persoonlijk onwaarschijnlijk dat als ik een stokfiguurtje teken en daaronder schrijf "Taylor Swift (naakt)" ik strafbaar bezig ben.
Als ik een vriend van me een videoclip van bijvoorbeeld Beyonce zie dan kan ik me hij zich aardig goed inbeelden hoe ze er in haar blootje uitziet. Is dat dan een illegale gedachte? En als ik die vriend daar nou een schilderij van maakt, is het dan ineens illegaal? (Volgens mij niet) Als ik hij daar nou een pc voor gebruikt om een digitale versie te maken, is het dan illegaal? (Volgens mij ook niet).

Volgens mij is de illegale kant het verspreiden van de afbeelding die aanstoot kan geven (en begrijpelijk, naar gelang de "artistieke" waarde van de afbeelding).
Het is in ieder geval illegaal om, zonder toestemming, deepfakes (zie ook) te maken met een seksuele aard. Een voldoende realistische afbeelding is dus wel degelijk illegaal, ook als deze kunstmatig tot stand is gekomen. De wet heeft ook wel degelijk het vervaardigen en bezitten van dergelijke beelden strafbaar gesteld, dus er hoeft niet per se sprake te zijn van verspreiding.
De morele grens zal per persoon verschillen. Maar waar ligt de legale grens? En welke instantie heeft de autoriteit om voor iedereen te bepalen waar die grens dan moet liggen?
Euh.. de wetgever? Dat is zo'n beetje de definitie van wat een wetgever doet :+

edit: kleine toevoeging m.b.t. deepfakes

[Reactie gewijzigd door Patriot op 5 januari 2026 23:08]

Hoe zit het dan met het creëren van afbeeldingen en video's waarvoor toestemming van de persoon in kwestie is gegeven en die voor eigen bezit bedoeld zijn?

Dus niet bedoeld zijn om te worden verspreid.
Zolang de betreffend persoon meerderjarig was toen de de toestemming werd verleend, en de afbeelding die persoon als meerderjarige toont, is dat geen enkel probleem.

Als de persoon minderjarig was, is de toestemming niet geldig. Als de afbeelding een minderjarige toont, valt dit onder de wetgeving tegen kinderpornografie, zelfs als de afbeelding nep is.
Jaja, uiteraard heb ik het over een meerderjarig persoon.
Dat mag alleen als de toestemming door een meerderjarige verleend is.
Hoe zit het dan met het creëren van afbeeldingen en video's waarvoor toestemming van de persoon in kwestie is gegeven en die voor eigen bezit bedoeld zijn?
Hoe zit wat? Als je toestemming hebt dan is het in ieder geval niet in de strijd met het wetsartikel dat regelt dat je er toestemming voor nodig hebt, maar het kan wel in strijd zijn met andere delen van de wet. Bijvoorbeeld als er sprake is van een afbeelding van een seksuele handeling met een minderjarige.
Hier in Frankrijk is onlangs iemand veroordeeld voor het bezit van een "minderjarige" sexpop, dat is ook niet een echt iemand. En duidelijk nep. Hoewel ik gruw bij de gedachte vind ik dat toch legaal gezien een beetje vreemd. Ja het is pervers en afschuwelijk maar als hij alleen dat heeft/doet en ook achter gesloten deuren, mag een wetgever zover in iemands priveleven graven en straffen?

Wat is sexuele aard, in je blootje onder een bepaalde hoek waardoor je geen edele delen ziet, dat is voor de een onschuldig, voor de ander aanstootgevend en voor weer een ander schandalig.

Inderdaad de wetgever bepaalt. En dat is bij jullie in NL dus niet de EU waar het artikel over schrijft. Of is dat tegenwoordig ook EU jurisdictie?

Zoals hieronder ook wordt aangegeven, musea en de gemiddelde kunstgalerie hangen vol met bloot en zeker niet altijd even kuis. Daar hebben sommige mensen ook "last van".

Gaan we Amerika achterna waar in onze ogen onschuldige boeken worden verboden en lessen op scholen worden aangepast op een veel te rigoureuze manier? Een nieuwe, moderne beeldenstorm?

Veel succes aan de wetgever die hier een passend en algemeen aanvaardbaar kader aan moet geven...
Wat is sexuele aard, in je blootje onder een bepaalde hoek waardoor je geen edele delen ziet, dat is voor de een onschuldig, voor de ander aanstootgevend en voor weer een ander schandalig.
Uiteindelijk zijn zulke termen altijd wel in zekere mate voor verschillende uitleg vatbaar. Het is uiteindelijk de taak van de rechter om deze uitleg in specifieke situaties te geven, maar tot op zekere hoogte doet het OM in die zin ook een bepaalde beoordeling in de overweging om een zaak überhaupt voor de rechter te brengen (of niet).
Inderdaad de wetgever bepaalt. En dat is bij jullie in NL dus niet de EU waar het artikel over schrijft. Of is dat tegenwoordig ook EU jurisdictie?
Het is beiden. De wisselwerking tussen Europese en nationale wetgeving is relatief complex en uiteindelijk ook heel erg zaakafhankelijk. Maar bij de vraag die hier werd gesteld komt Europese wetgeving in eerste instantie niet kijken, dat het artikel daarover gaat is in zekere zin irrelevant want daar komt wetgeving bij kijken (de DSA) die in niet breed van toepassing op de vraag die werd gesteld.
Zoals hieronder ook wordt aangegeven, musea en de gemiddelde kunstgalerie hangen vol met bloot en zeker niet altijd even kuis. Daar hebben sommige mensen ook "last van".
Bloot is niet per definitie hetzelfde als een afbeelding van seksuele aard, ook niet als het minderjarigen betreft. Maar ook los daarvan is in het kader van de besproken wetgeving niet echt van belang in hoeverre een willekeurig persoon ergens last van heeft. Waar het om gaat is of het onderwerp van de afbeeldingen toestemming heeft gegeven.
Het zal denk ik in hoofdzaak wel gaan om het verspreiden van beelden maar ik snap wel een beetje waarop je doelt. Denk dat ze dan ook menig museum wel kunnen sluiten want daar hangen wel genoeg blote dames ( niet dat ik daarvoor naar een museum zou gaan of er specifiek op let ).
Die blote dames in de musea dat was de "porno" van de tijd na de middeleeuwen tot pak em beet voor WOII. Als je wat teveel geld had liet je een blote vrouw schilderen en dat hing je dan aan de muur als kunst.
En dan hebben we het nog niet eens over de blote engeltjes.

Het is duidelijk erg lastig om de grens te trekken en een wet in deze materie kan op vele manieren geïnterpreteerd worden.
Ik denk dat er ook een verschil zit tussen:
  1. Zelf iets tekenen/schilderen op papier
  2. Zelf iets maken met Paint of Photoshop, de digitale tegenhanger van papier
  3. Een bedrijf dat een dienst aanbiedt waarbij je dit zonder eigen creativiteit kunt doen
Zelf de lijnen tekenen op papier of in Photoshop is natuurlijk iets anders dan een simpele prompt geven ("kleed deze persoon uit") en dan een naaktbeeld terugkrijgen, waarbij de volledige 'artistieke' handeling voor je gedaan wordt.
Het maakt voor de wet niet uit hoe de afbeelding tot stand komt.
Wel als de vraag is wie je ervoor aan kunt pakken, lijkt mij:
  • De Bruna zal niet in de problemen komen voor het verkopen van de potloden en het papier waarmee iemand zulke tekeningen maakt.
  • Adobe (Photoshop) ook niet, als we hun AI-functies even buiten beschouwing laten.
  • Maar Grok in dit geval wel, omdat zij het werk doen in plaats van de gebruiker.
Een AI-dienst is in dat opzicht dus anders dan andere 'tools' zoals potloden of (niet-AI) software.
Het is dan ook de dienst waar het hier om gaat, niet om het ai programma zelf. Je vergelijking zou meer kloppen als je het vergelijkt met "ik vraag iemand(bruna) om met pen en potlood een naaktafbeelding van een minderjarige te maken, en die geeft het dan aan mij"

Het ai programma zelf is in dit geval niet het probleem, maar het feit dat de dienst eromheen die afbeeldingen gewoon naar de klant toe brengt.
En dan is er ook nog de mogelijkheid dat je een gezicht tekent, fictief uit je verbeelding, op niemand gebaseerd, maar daarna blijkt het ineens perfect te lijken op iemand. Heb je dan een seksuele afbeelding gemaakt van een bestaand persoon?
Ik ben meer bezorgd wat voor bronmateriaal Grok mee werkt. Want je moet dat model toch ergens op trainen, bij volwassenen kan ik me wel dingen inbeelden maar als het ook minderjarigen kan doen vind ik de zaak bizar en moet X toch kunnen aantonen waarom dit wel dan wel niet kan.
Ik verwacht echt niet dat AI echt op zulke beelden getraind wordt. Waarschijnlijk is het een kwestie van gegevens combineren. Dit is een kind en dit is sex. De gebruiker zal dit wel gecombineerd willen hebben. En dan zou het natuurlijk geeneens getraind hoeven worden op sex video's aangezien er genoeg sex in films en series voorkomt en informatieve websites zijn die uitleggen wat sex is en hoe je het veilig kan doen.
Het zijn gewoon huidkleurige pixels met een paar stukjes stof op de juiste plekken, voor de AI is leeftijd niet echt interessant. Die pixels kun je overal vandaan halen.

[Reactie gewijzigd door jip_86 op 5 januari 2026 22:30]

Volgens mij gaat de ophef niet eens over kinderporno of ander verboden materiaal, maar seksualisatie zoals kinderen specifiek in bikini te renderen. Gezien kinderen in bikini niet gelijk iets seksueels zijn is daar genoeg bronmateriaal van voorhanden lijkt mij.
Als ze dit willen onderzoeken, moeten ze ook de opdrachtgevers onderzoeken, want die zijn zo mogelijk nog illegaler bezig. Een AI of bot gaat niet zomaar spontaan van zichzelf dit soort dingen beginnen genereren.
Dit is de spijker op de kop. Dank uw!
Zelfs wanneer je tegen Grok zegt jouw foto's niet te gebruiken gebeurt het nog steeds, 'het' negeert dan in zo een geval dus ook jouw opdracht om het niet te gebruiken.
het is ontzettend makkelijk om kinderporno te genereren. Het fundamentele probleem is dat een AI helemaal niet weet hoe een mens leeftijds-echt weergegeven wordt. Een plaatje van een 60 jarige ziet er uit als een persoon van 40, omdat het traininggsmateriaal al enorm vertekend is. Ik stel me zo voor dat dat reclame materiaal is of gefotoshopte tiktok en insta nonsense. En jawel, een plaatje van een 18 jarige ziet er uit als 15 en als je in de prompt zet "looking younger than her age" kun je gewoon een plaatje maken dat sex laat zien met een 12 jarige. Je kunt dit zien als je prompts bij plaatjes bekijkt.
Er is heel weinig connectie tussen een AI gegenereerde wereld en de echte wereld. Als je als prompt geeft, maak een plaatje van "bergen" of "een bos", krijg je fantastische CGI type bergen, fatasy type oerbossen. De werkelijkheid is totaal zoek (en ziek in geval van sex).

[Reactie gewijzigd door tw_gotcha op 5 januari 2026 22:27]

Vind juist dat groks image to video met spicy mode nooit echt werkt. Zelfs met fictieve ai personages die overduidelijk 18+ zijn. Ik begreep ook dat er juist wel filters inzitten die kinderen e.d. automatisch detecteren en een no go gaf.

Weet niet of er mensen echt 500x proberen en dan er 1x iets door glipt ofzo?

de groks eigen text to image is overigens wel heel snel en erg snel nsfw ish , ook al vraag je er niet om. Staan op Reddit ook threads waar als je “blonde girl” ofzo in tikt je helaas soms ook wel echt heel vervelende resultaten krijgt.

Heb het idee dat Grok daarin af en toe het spoor bijster is.

Overigens: image to video in het algemeen van Grok is echt waanzinnig goed 👍

Heb een RTX 5090, maar voor een beetje video van 6 sec ben ik al gauw 7-10 mins verder met lokaal wan2.2 via comfyui , met Grok is het binnen 30 seconden

[Reactie gewijzigd door PredCaliber2 op 5 januari 2026 23:01]

Hoe zou dit werken als een 15/16 jarige sexy fotos aan de ai vraagt van zijn/haar klasgenootjes?

Ik denk namelijk niet dat het alleen maar vieze mannetjes zijn, maar vooral ook de jeugd zelf.

Grok is trouwens maar een simpele. Er zijn offline opensource image generators die volledig open en nsfw zijn. Hoe wil je dat aan banden leggen?

Er kan heel veel goeds en leuke dingen mee gedaan worden, maar er is ook een andere kant van de medaille helaas. En het wordt straks voor iedereen toegankelijk online, offline, op je pc of mobiel zelfs.

Dat wordt een leuke discussie over privacy and legaliteit.
Ik denk dat je doelt op iets als Stable Diffusion Web UI met een model van CivitAI? Tja, aan dat eerste kan je weinig doen, tenzij je heel github wilt verbieden. Tegen het downloaden van modellen van CivitAI kun je bedenken dat NSFW modellen bijvoorbeeld alleen maar gedownload mogen worden door 'age-verified' accounts. Hoe die age-verified worden? Geen idee. Maar dan leg je het wel aan banden. Zelfde voor een tool als ComfyUI.

Het lijkt me onmogelijk (zelfs misschien wel onwenselijk) om de tools (en het downloaden ervan) zelf te verbieden, maar de 'sourcing' van de NSFW modellen kun je zeker wel aan banden leggen door age-verification op de betreffende sites.
Het lijkt me onmogelijk (zelfs misschien wel onwenselijk) om de tools (en het downloaden ervan) zelf te verbieden, maar de 'sourcing' van de NSFW modellen kun je zeker wel aan banden leggen door age-verification op de betreffende sites.
Net zoals age verification op het internet de jeugd er op een effectieve manier van weerhoudt om pornografie voor ogen te krijgen? Volgens mij werken zulke leeftijdsbeperkingen effectief niet bij iets digitaals wat zo makkelijk te kopiëren is.

Een fles drank is eindig, als ik als minderjarige één iemand zo ver krijg om een fles drank voor me te halen dan is dat verhaal over op het moment dat ik die drank op heb. Als ik in jouw voorstel één iemand zo ver krijg om zo'n model buiten de ring van verificatie te krijgen dan is die versie van dat model effectief "voor altijd" beschikbaar voor minderjarigen. Dat kun je niet (effectief) handhaven zonder draconische maatregelen die meer kwaad dan goed doen.
Civ is al een hoop loras aan het verwijderen ivm betaal provider onzin. Gelukkig civarchive.
De discussie zal veel verder gaan dan privacy en legaliteit vrees ik. Net zoals de impact.

Dat zulk materiaal ook op een adere wijze gefabriceerd kan worden is niet zo relevant en is geen criterium. Vals geld is immers ook te maken met de juiste middelen maar dat maakt het valse geld nog geen echt geld. Maar als iedereen thuis achter zijn PC of telefoon dit kan maken wordt de maatschappelijke impact wel een stuk groter. En al helemaal als dmv AI ook echtheidskenmerken in te voegen zijn dan kun je je wel voorstellen wat dat doet met de samenleving.

De beschikbaarheid (easy access) en kwaliteit van AI gegenereerde beelden zijn daarom de verstorende factor die een grote maatschappelijke impact gaan hebben.
Probleem is dat kinderen op die leeftijd wel erg gevoelig zijn en makkelijk beïnvloedbaar. Zeker voor mensen die niet lekker in hun vel zitten of zelf al bagage hebben zal het niet zo makkelijk zijn zoiets simpelweg weg te wuiven.

Maar ja we gaan wel zien hoe dit gaat uitvouwen.
Mensen liegen al jaar en dag. Je kunt over alles zeggen "Dat is niet waar.". En toch is pestgedrag nog altijd een enorm probleem en kan roddelen enorm schadelijk zijn.

Puur omdat we iets altijd doen, en er rationeel een verweer tegen te vinden is, wil niet zeggen dat het geen emotionele impact heeft.
Werkte het maar zo, gewoon zeggen dat iets niet waar is. Kijk maar eens gewoon in Nederland, hoeveel mensen de meest stompzinnige zaken geloven terwijl er aan alle kanten bewijs is dat het niet klopt. Zo zal dat ook met AI porn gaan
Totdat er wraakporno over je acht jarige dochter wordt gemaakt en uitgebeeld wordt dan jij als cuck het wel heel geil vind. Ebt toch wel weg toch?

Gaat geen enkele mate uitmaken in de persoonlijke sfeer.. toch?

Iedereen zal begrijpen dat het allemaal nep is.. toch?

Ik kan jouw naïviteit niet begrijpen. Sorry daarvoor.

[Reactie gewijzigd door Standeman op 5 januari 2026 22:47]

Het is inderdaad nu een grap op X om iemand in bikini te vragen, elke leek kan dit doen. AI gaat dit heel makkelijk maken, overal op het internet, waar dit eerder alleen voor Photoshop experts was weggelegd. Deze innovatie houd je niet tegen.

Een interessantere discussie zou zijn hoe we in de toekomst nog echt van nep kunnen onderscheiden. De eerste vraag die ik nu telkens heb: "Zijn deze beelden echt?"
Op de originele foto stond die trein niet. Een of andere lolbroek heeft die trein toegevoegd.

Bron: https://www.nrc.nl/nieuws/2013/01/13/waarschuwing-voor-gladheid-in-halve-land-mogelijk-eerste-ijsdag-a1438242

Al in 2012/2013 werd er een trein bij gephotoshopt.

https://speld.nl/2012/12/07/nauwelijks-verkeershinder-na-eerste-sneeuwvlokken/

Het was geen AI, maar ouderwetse photoshop. En de photoshop werd door De Speld gebruikt. Maar op social media wordt nu gedaan alsof een een serieus medium AI gebruikt heeft.
Beetje de 'guns dont kill people, people kill people' dus.
Dus? de "guns" verbieden? Of de mens aansprakelijk houden?
Alleen guns? Je moet autos en vrachtwagens verbieden. Telefoon verbieden , messen verbieden enz enz ze hebben allemaal 1 ding gemeen mensen vinden een weg om iets te misbruiken. Enige wat je kunt doen is mensen verantwoordelijk stellen voor hun daden. We kunnen natuurlijk gewoon eisen stellen aan AI images dat ze duidelijk herkenbaar zijn als Nep! En water merk of iets dergelijks. En dat via wetgeving verplichten. Dat als een programma naar een foto kijkt direct ziet dat bet fake is. Wetgeving maken dat het verbergen can deze watermerken of digitale herkennings tekers strafbaar is. Op deze manier kun je het redelijk dicht timmeren. Maar ja je zuilt altijd criminelen vinden die zich niet aan de wet houden natuurlijk. Wetgeving geeft je dan handvaten omdeze mensen aan te pakken.
Het probleem is de simpliciteit her misbruikt kan worden. Ja, je kunt mensen bewust wat aandoen met een auto of mes. Dat is echter een bewuste fysieke handeling.

Nu zeg je tegen een computer “Zet Gordon in z’n onderbroek.” En hij doet het. De drempel ligt gigantisch laag.

Zie het een beetje als lachgascylinders. Die lagen sinds jaar en dag gewoon in de supermarkt. Nu de trend er is dat ze ‘misbruikt worden’, wordt er gehandhaafd.

Als Grok inderdaad op een kinderlijk simpele manier illegale dingen doet, en dat het er ook (veel?) voor wordt gebruikt, dan moet je (ook) het gereedschap aanpakken.
Mensen geven opdracht aan grok, En krijgt dat plaatje dat is niet strafbaar. Maar wat men met dat plaatje gaat doen dat kun je starfbaar maken . een brood mes thuis hebben is ook strafbaar. Maar wat je met dat mes gaat doen dat kan strafbaar zijn .

In engeland krijgen mensen gewoon al maanden celstraffen voor facebook posts. Dus ... Daar zijn ze al vrij ver.
Het bezit van kinderporno is strafbaar. Dat geldt ook voor AI-gegenereerde kinderporno. Zelfs een tekening van een kind in een seksuele positie of die bepaalde handelingen uitvoert, is strafbaar.

Je hoeft het dus niet met een ander te delen om strafbaar te zijn.
Een broodmes is niet verboden. Dat valt over categorie-4 wapens, en die mag je gewoon in bezit hebben en mee op straat lopen mits je een redelijk doel hebt om daar te doen.

Kijk naar een honkbalknuppel, of een haardpook. Dat is respectievelijk een sportartikel of gereedschap, maar vallen ook de categorie-4 wapens. (Het ligt dus 100% aan het redelijke doel.)

Maar goed. Het gaat niet om fysieke wapens, maar of het wel of niet wenselijk is om een geautomatiseerd computersysteem bepaald gedrag moet proberen te voorkomen, om een vorm van uitlokking te helpen voorkomen.
Je bewijst mijn punt. Je mag eem brood mes thuis hebben . ga je er mee naar buiten dan is er wetgeving. Zelfde geld voor je digitaal gegenereerde plaatjes. In prive bezit is er niets mis mee. Ga je ze online of geprint publiceren kijk dan zou je best vervolgd kunnen worden als ze niet aan bepaalde voorwaarden voldoen.
Prima, maar daar gaat het hier niet om.

Zou Grok het (redelijkerwijs) moeten proberen tegen te gaan dat er bijvoorbeeld beelden van kindermisbruik gegeneerd 'kunnen worden'. Persoonlijk vind ik van wel.

In principe is het mogelijk om met Photoshop (en al dergelijke tools) dezelfde soort beelden te maken. Het verschil hierin is, is dat je bij Photoshop kunde nodig hebt om het te doen. Het kost tijd/energie om het te leren en te doen. Bij Grok komt het neer op een prompt copy-pasten en minimaal aan ter passen. Dus daar zit wat mij betreft ook een flink verschil in.
Want je hebt zo veel kunde nodig om een mes te misbruiken? Kom op wat een onzin. Grok doet niets illegaal. Een mens vraagt een plaatje en een mens maak de keuze wat hij of zij daar me doet. Als iemand met een auto inrijd op een drukje kerst markt wordt de auto fabrikant ook niet aan geklaagt ook worden er geen nieuwe regel geving gemaakt voor auto fabrikanten . zelfde geld voir grok. Misbruik keihard aanpakken. Dat werkt echt. Moet je natuurlijk wel in wet en regel geving duidelijk stipuleren wat wel en niet mag. Ook zou ik graag zien dat er een digitale afdruk in de foto komt 1 dat hij nep is en 2 wie de opdracht gever was. User name timestamp ip adres. Misschien moeten we wel naar een systeem toe dat je met digi dee moet inloggen.

Kijk ik ben tegen de ontwikkelingen van Ai hoe het nu gaat wilde westen. Iedereen doet maar wat 0 regel geving. Er moet gewoon keihard beleid komen. Wat wel en niet mag. En daar mogen best persoonlijke consequenties aan verbonden zitten!
Want je hebt zo veel kunde nodig om een mes te misbruiken?
Niet kunde, wel durf. Ik denk dat meer mensen durven in typen "Maak een schunnig plaatje met xyz." dan iemand neer te steken. (Bij kunde had ik het specifiek over PhotoShop, waar je dezelfde soort beelden mee kunt maken als je dat 'kan'. Niet over een mes gebruiken of met een auto een menigte inrijden.)
Grok doet niets illegaal
Hiervoor ken ik de Amerikaanse wet niet goed genoeg om dit wel of niet te beamen. Ik verwacht inderdaad van niet. Maar daar gaat het ook niet om. Het gaat erom. Is het wenselijk dat het systeem het niet lijkt te proberen om het tegen te gaan. Het feit dat het niet illegaal is, maakt niet het niet wenselijk. Blote vrouwenborsten zijn ook niet illegaal. Toch weren ze het actief op heel veel plaatsen op het internet.

Ik beweer overigens nergens dat de gebruikers die de opdrachten geven geen verantwoordelijkheid hebben, hè?

N.B. Vergelijkingen met fysieke zaken en handelingen, en digitale zaken, zijn vaak heel moeilijk recht te maken. Er zit een gigantisch verschil in iemand fysiek neersteken of bewust aanrijden, of een fictief (fotorealistisch) plaatje van een verkrachting (met het gezicht van je dochter/zus/wie dan ook) te maken. Je kunt dat niet goed vergelijken.
Ik heb veel liever dat we AI verbannen. Net zoals geweren verboden zijn (en het werkt).

AI gaat echt het einde zijn van de samenleving, niet direct, maar de impact wat het heeft op de mens moet snel onderzocht worden. Begrijpend lezen keldert omlaag, zelf zoeken naar informatie is al te moeilijk voor vele, jeugd die toegeeft het gros van hun school materiaal met AI te doen.
Dat vind ik een slechte vergelijking. Dit is meer iemand die door een 3D printer een gun laat printen. En vervolgens wordt de fabrikant van de 3D printer erop aangekeken dat ze dat niet expliciet onmogelijk hebben gemaakt...
Behalve dat je dan een 3D printer moet kopen, een goeie print vinden van een wapen en de juiste materialen moet halen. Daarna nog munitie kopen.

Dit is op je telefoon een prompt invoeren.

En je kan een 3D printer niet zo maken dat je iets niet kan printen. Je kan Grok makkelijk programmeren dat dingen niet kunnen.
Ja dat is waar. Het word wel makkelijk gemaakt om pikante foto's te genereren. Of het ook echt zo makkelijk is voor Grok om sexuele foto's van kinderen te voorkomen betwijfel ik. Het lijkt me alleen al lastig om de precieze grens te trekken. Maar je kunt natuurlijk wel een lijst van woorden als kind en tiener verbieden, in ieder geval in combinatie met sexuele prompts en dat zou al een hoop schelen en niet al te moeilijk moeten zijn.
Eigenlijk toch niet echt, want bij je voorbeeld van een 3d printer heeft de fabrikant nadat je hem gekocht hebt er eigenlijk geen controle meer over. Terwijl bij deze AI afbeeldingen de controle nog bij Grok ligt op het moment dat de afbeelding gemaakt is. Zij kunnen dan nog naar de afbeelding kijken en zeggen 'nee, die afbeelding geven we niet aan de user'

Zie het meer als "ik vraag bij een 3d printshop of zij een gun voor me kunnen printen". Dan zou dat bedrijf er zeker op worden aangekeken als ze dat pistool gewoon aan je geven.

Bij een lokale AI image generator thuis kunnen we grok ook niet de schuld geven als iemand daarmee illegale content maakt. De dienst is waar het fout gaat. Niet de tool die tijdens die dienst gebruikt wordt
Alle gemaakte afbeeldingen handmatig controlleren is natuurlijk niet werkbaar. Dus de werkelijkheid ligt denk ik een beetje tussen onze vergelijkingen in. Maar zie mijn comment hierboven: ze zouden wel meer kunnen doen.
Dat dat niet werkbaar is maakt helemaal niets uit voor de vergelijking. Dat het niet werkbaar is geeft alleen aan waarom het bij grok fout gaat en bij een printshop niet.

Het punt is dat je een dienst met een dienst vergelijkt, ipv een stuk gereedschap met een dienst. Net als dat ik andersom een printshop ook niet zou vergelijken met een lokale image generator bij iemand op de de pc.
Ik denk dat we daarin dan van mening verschillen. Wat mij betreft zit Grok een beetje tussen een dienst en een tool in ;-) Ik denk zelfs dat toekomstige generaties hartelijk lachen om deze discussie en het wel degelijk als een tool zullen zien.
Ook een voordeel. Ik kom nog uit het tijdperk van Nokia telefoons. Als dan iets werd opgenomen dan was er weinig ontkennen aan.

Nu kun je gewoon zeggen dat het ai is.
Inderdaad. Ik volg er wat cosplayers en modellen e.d. en dit is daar echt een plaag momenteel.

Het gaat ook wel redelijk ver. Zo heb ik gezien dat Grok gewoon doorzichtige kleding met zichtbare tepels genereerd terwijl er in de bron helemaal niks te zien was.

Of iemand uitkleed in een bikini zo dik als een schoenveter.

Ook kan het subject gewoon hele andere suggestieve poses worden aangemeten.
Wat ik me afvraag, zonder te zeggen of deze dingen toegestaan moeten worden of niet:

Als je nou goed kunt tekenen en je tekent een naakt lichaam met het gezicht van een bestaand persoon, is dat dan illegaal?

En als dat gezicht van een minderjarige is is het dan illegaal?

Als ik een vriend van me een videoclip van bijvoorbeeld Beyonce zie dan kan ik me hij zich aardig goed inbeelden hoe ze er in haar blootje uitziet. Is dat dan een illegale gedachte? En als ik die vriend daar nou een schilderij van maakt, is het dan ineens illegaal? (Volgens mij niet) Als ik hij daar nou een pc voor gebruikt om een digitale versie te maken, is het dan illegaal? (Volgens mij ook niet).

Volgens mij is de illegale kant het verspreiden van de afbeelding die aanstoot kan geven (en begrijpelijk, naar gelang de "artistieke" waarde van de afbeelding).

De morele grens zal per persoon verschillen. Maar waar ligt de legale grens? En welke instantie heeft de autoriteit om voor iedereen te bepalen waar die grens dan moet liggen?
De morele grens zal per persoon verschillen. Maar waar ligt de legale grens? En welke instantie heeft de autoriteit om voor iedereen te bepalen waar die grens dan moet liggen?
Heel eenvoudig, dat doet een rechter. Na een paar uitspraken, wat hoger beroep etc hebben we een keurige meetlat waar we toekomstige gevallen aan kunnen meten. Zo doen we dat al heel lang en het is behoorlijk betrouwbaar. Een pornografische tekening/schilderij van een persoon maken en die op schadelijke wijze gebruiken, is overigens ook gewoon strafbaar. Gedachten zijn echter alleen in hele enge landen zoals Noord Korea stafbaar.

Het is allemaal lang niet zo spannend en bestaande wetgeving is zeer goed toepasbaar.
Leuk, maar grok stelt, als het gaat om het genereren van AI beelden, nog geen mallemoer voor. Vraag me soms af of het wel om grok gaat of om Elon.

Om te kunnen reageren moet je ingelogd zijn