'Musk negeerde waarschuwingen veiligheidsteam X over pornografisch AI-gebruik'

Elon Musk is meermaals gewaarschuwd door het veiligheidsteam van X dat de AI-tools van het platform gebruikers in staat zouden stellen seksuele afbeeldingen te maken van kinderen of beroemdheden, meldt The Washington Post. De ceo negeerde die waarschuwingen.

Bij X zouden medewerkers bezorgd zijn geraakt toen Grok, de chatbot die geïntegreerd is in het platform, tools toevoegde waarmee het eenvoudig was om foto's van echte personen zonder toestemming te bewerken en te seksualiseren, schrijft The Washington Post. Het sociale medium stond al langer seksueel expliciete content toe, maar de filters voor contentmoderatie konden de nieuwe golf AI-afbeeldingen niet aan.

Zo werd kinderpornografisch materiaal bijvoorbeeld meestal opgespoord door het te vergelijken met een database van bekende illegale afbeeldingen. Deze werkwijze werkte echter niet met door AI bewerkte of gegenereerde afbeeldingen. Volgens twee bronnen van de eerdergenoemde krant vonden de veiligheidsteams van X het bovendien 'lastig' om te bepalen met welk team van xAI, de ontwikkelaar van Grok, ze contact moesten opnemen bij problemen.

In januari maakte zowel de Britse toezichthouder Ofcom als de Europese Commissie bekend een onderzoek te openen naar Grok naar aanleiding van de gegenereerde seksuele deepfakebeelden. Indonesië en Maleisië blokkeerden de chatbot zelfs volledig. XAI besloot na de ophef uiteindelijk het maken van seksuele deepfakes te blokkeren in landen waar dergelijk beeld illegaal is.

Twitter/X. Bron: NurPhoto/Getty Images
Bron: NurPhoto/Getty Images

Door Imre Himmelbauer

Redacteur

02-02-2026 • 20:35

42

Reacties (42)

Sorteer op:

Weergave:

Maar deze beelden zijn en blijven nep beelden in feite. Aldan lastig te onderscheiden.

Hoe verschilt dit als een tekenaar of kunstenaar iets namaakt digitaal of niet. Of zoals vroeger gedaan werd met krantenknipsels op een lijf plakken waar het niet hoorde?
Ik denk dat jij ook wel het verschil ziet tussen een nagenoeg perfect AI plaatje en een montage met krantenknipsel en tekeningen. Maar als jouw dochter/zus/vriendin/vrouw zo wordt "bewerkt" trek je je schouders op omdat het toch nep is?
Wat die bedoelt is waar ligt de grens precies, dat moet worden vastgesteld.
Dat was niet het punt. Kinderporno is illegaal. De vraag is of mensen in bikini via AI anders behandeld moet worden dan via andere middelen.
Dat was niet het punt. Kinderporno is illegaal. De vraag is of mensen in bikini via AI anders behandeld moet worden dan via andere middelen.
En dat is een zeer goede vraag. Een kunstenaar heeft hier op dit moment wettelijke vrijheid die we AI niet gunnen. Als AI een foto van een naakte Rob Jetten laat maken, krijg je daarmee geheid problemen, maar als een schilder of cartoonist dat doet, is er geen probleem.

Op zijn minst een interessante vraag of dat is hoe we dingen willen. Ik zou het antwoord niet weten, maar neig ertoe een menselijke kunstenaar vrijheden te gunnen die ik AI niet zou gunnen. Maar vang dat maar eens in een wet.
En zelfs dat onderscheid is lastig, want wat als een kunstenaar AI heeft gebruikt voor (een deel van) zijn of haar werk? Of als een AI gebruik maakt van de naaktcreaties van een kunstenaar?

Ik denk dat hier het objectieve oordeel gemaakt moet worden of het door een gemiddeld persoon van echt te onderscheiden is of niet. Dat is nog steeds juridisch lastig en zal vast voor gedoe kunnen zorgen in een rechtzaak, maar het lijkt mij de enige zinnige oplossing.
Als AI een foto van een naakte Rob Jetten laat maken, krijg je daarmee geheid problemen, maar als een schilder of cartoonist dat doet, is er geen probleem.
Dit hangt helemaal van de context af. Nu is Rob Jetten een publiek figuur, en daar zijn de regels wat soepeler voor, maar hem zo maar naakt afbeelden kan nog steeds niet. Ook niet voor een cartoonist of schilder (en cartoonisten hebben weer meer speelruimte dan schilders).

Voor de rest van de mensen op de wereld geldt heel simpel een ding: consent.
Nee, ik werk op een onderwijs instelling, als ik in een afbeelding getoond wordt met een leerling is mijn carrière kapot voor een bepaalde tijd want de bewijslast ligt bij mij. Je kunt echt schade aanrichten
Leg een korrel zout neer, dat is weinig zout. Leg er nog een bij. Het is nog steeds weinig zout. En nog een en nog een en nog een ... En nog een. Op eens is het veel. Zo precies die grens vaststellen is natuurlijk niet mogelijk. Echter, als het jou aantast in je goede naan of eer, is het niet toegestaan. Nep of niet, er wordt iets geïnsinueerd dat jou schaadt. Als de kwaliteit over een aantal maanden of jaren niet echt te onderscheiden is, is het nagenoeg onmogelijk om de echtheid te bewijzen en is die schade wellicht voldoende argument
De grens ligt sowieso bij het:
  1. Zonder toestemming verspreiden van (expliciet) materiaal van een persoon. Of het nu AI enhanced is of echt.
  2. Het kunnen maken en/of verspreiden van expliciet materiaal.
Bij 1 zou gewoon strafbaar moeten zijn. Iedereen die dergelijk materiaal, waarbij duidelijk is aangegeven dat persoon in kwestie hier niet van gediend is, bestraft worden.

Bij 2, dat mag wat mij betreft prima als het volledig AI is zonder dat een specifiek persoon nagemaakt is. Maar dan moet de tool of het platform ook aan 18+ rating krijgen met de daarbij behorende leeftijd controle in wat voor auditeerbare wijze dan ook. Geen “ja ik ben 18+” knop

18- expliciet materiaaL moet, AI of niet, altijd keihard afgestraft en geblokkeerd worden.
Wat veranderd is is dat het vooral makkelijker beschikbaar is geworden. Met photoshop kan je het natuurlijk ook prima doen maar vereist wel ervaring om het goed te doen.
Jup, pesten kan altijd, maar nu kan het heel snel en dan zal AI pesten faciliteren.
Ja. Dat zouden meer mensen moeten doen. Dan is dit voorbij.
Het verschil zit in realisme. Een AI afbeelding is tegenwoordig niet tot nauwelijks van echt te onderscheiden wat de implicaties enorm veel groter maakt dan als iemand je foto slecht uitknipt en op een playboy plakt.
dan als iemand je foto slecht uitknipt en op een playboy plakt.
Maar wat als je de foto goed uitknipt? Heeft het veiligheidsteam van Wüsthif daar wel over nagedacht? En wat als je het nabewerkt om realistischer te zijn, heeft het veiligheidsteam van Adobe daar wel over nagedacht?

Ik ben het met @SCIxX eens dat @yelop de grens probeert te zoeken en ik doe mee. Waarom had X dit wel moeten doen, maar kunnen we het van een scharenfabrikant niet verwachten? Omdat het met een schaar meer tijd kost?
Omdat je met AI iedereen het binnen luttele secondes kan maken en dat kan delen met miljoenen mensen of je bent er een dag mee bezig bent en kan delen met bijna niemand.

Zie je het verschil niet of wil je het verschil niet zien?
Zie je het verschil niet of wil je het verschil niet zien?
Mmmm. onze wetgeving kent dat verschil niet. De hoeveelheid tijd die het kost om iets schadelijks te maken en het gemak waarop je dat kan delen, hebben vrijwel geen invloed op de strafmaat. Dus ik wil best zeggen dat ik het verschil wel zie, maar de validiteit van je argument afwijs.
Wat mij betreft ligt de grens bij de intentie van de maker. Naast dat sowieso al illegale afbeeldingen niet gemaakt mogen worden vind ik dat intentie van de maker mee moet wegen. Het is aleen niet makkelijk te meten.

Een kunstenaar of realistisch tekenaar, digital artis, 3d of whatever kan net zo goed een zeer overtuigend beeld maken. Maar als ze dat al doen is de reden vaak kunst. Ook zij kunnen het met foute bedoelingen maken en dat zal ook niet gewaardeerd worden. Maar het is hun passie/werk, en je speelt daar niet mee omdat je je eer kwijt kan raken. Ze maken dus liever mooi werk.

Pietje die even met ai iemand uitkleed en het doorstuurt naar jan en alle man, heeft die passie niet, en verliest zijn goede naam niet omdat hij geen naam heeft. Hij maakt zich ook geen zorgen en doet het omdat het (met ai) makkelijk kan. Pietje maakt met ai ook geen mooi werk, maar juist geloofwaardige (want niet kunstzinnig) afbeeldingen van bijvoorbeeld iemand op een bank in een nietszeggende woonkamer of whatever.

Ai (En vooral image en video) is sowieso de slechtste uitvinding van de eeuw wat mij betreft. Geloofwaardigheid van alles gaat naar de haaien. Je kan niets digitaals meer vertrouwen. Iedereen verliest geloofwaardigheid. (Zou deze email door gpt geschreven zijn? Kan ik de persoon aan de andere kant wel vertrouwen?). Het gaat allemaal naar de haaien. Wel mooi om mee te maken hoor. Maar het is ook te triest voor woorden. Daarnaast focust ai zich voornamelijk op dingen die mensen juist leuk vinden om te doen, creatief werk zoals schrijven, tekenen, film, vfx. Laat ai de klote dingen in het leven maar oplossen, dan hebben we er echt iets aan.
Het probleem is denk dat jongeren plaatjes van elkaar rond gaan sturen waarvan ze (kunnen) geloven dat ze echt zijn. En dat werkt pesten in de hand. Dus ook al is het daadwerkelijk nep, die foto van dat meisje in bikini waar haar zestienjarige klasgenoten haar om uitlachen ... maakt het dan nog uit of het nep is?
Dat probleem bestaat al heel lang d.m.v. photoshop of dergelijke tools. Hetgeen wat veranderd is is dat het gemakkelijker is geworden en het gevoel van aansprakelijkheid vermindert. Een photoshop maak je zelf, je bent duidelijk aansprakelijk. Via ChatGPT doe je het niet zelf, maar is het wel verbonden aan jouw ChatGPT persoonlijke omgeving. Met zoiets als Grok is het niet direct verbonden aan je account en in een publieke omgeving, het gevoel van aansprakelijkheid erodeert verder.
Een photoshop maak je zelf, je bent duidelijk aansprakelijk
Maar Adobe brengt de AI functies in hoog tempo binnen hun producten en je kan nu al dingen laten genereren. Er is dus niet veel verschil en er zal steeds minder verschil zijn.

Je commentaar over aansprakelijkheid is natuurlijk zeer correct, maar dat is de makke op het Internet. Niemand wil dat anderen weten wat wie je bent en welke kwalijke nonsense je typt.
Ligt eraan. Als het gaat om het maken van kinderpornografisch beeldmateriaal is het in alle gevallen illegaal, hoe je het ook maakt. Daar wordt hooguit nog een discussie op gevoerd in hoeverre het een seksuele context is of niet, maar niet hoe het gemaakt wordt.
Ik denk dat jij als artiest / fotoshopper die beelden ook niet mag maken en verspreiden maar weet ik niet 100% zeker
"Water is nat". Is er eigenlijk wel een bedrijf van hem dat wel normaal opereert en niet ontzettend de randen van het toelaatbare opzoekt en er af en toe fors overheen stapt?
Als de rand de wet is dan is deze opzoeken de normaalste zaak van de wereld voor een commercieel bedrijf.

In dit geval loopt de wetgeving achter doordat de technologie erg snel gaat. De vraag is of het dan verwacht kan worden dat een bedrijf zelf regelgeving gaat verzinnen, wat tijd en energie kost.
Uit winstbejag willens en wetens dergelijk materiaal genereren is niet ‘de rand van de wet opzoeken’. Zat manieren om het in ieder geval wat moeilijker te maken dan het lijkt te zijn.
Het is heel makkelijk, het is legaal of illegaal. Als het legaal is en het zou illegaal moeten zijn dan is er werk aan de winkel voor de overheid.
Absoluut niet. De wet is niet binair. Het is een enorm grijs gebied waar nuance en context enorm belangrijk zijn.
Dat is niet het punt. Zover ik weet is het reeds illegaal, maar aangezien de oranje pedo in het witte huis het allemaal wel best vind wordt er simpelweg niet vervolgt in de US.
Als bedrijf zijnde weet je heel goed dat als dergelijke dingen mogelijk zijn en niet geblokkeerd worden, ze ook gebruikt zullen worden. Als zijn eigen team er ook al voor waarschuwde is het gewoon een gevalletje van, geen tijd in stoppen, we willen geld verdienen. Komt nu wel, en terecht, als een boemerang terug.
Ja natuurlijk negeerde hij de waarschuwingen, dit alles is gratis reclame voor hem, dat is alles wat hem interesseert.
Oké, vertel, waarom stond hij dan toe dat zijn AI seksuele deepfakes maakte?
Ik snap je wens om tegenwicht te bieden aan de “het is van Elon Musk dus het deugt niet”-sentiment, ik vind je comment dan ook niet ongewenst (hooguit off-topic). Ook ik verbaasde me dat de redactie dit gebeuren in de titel van het artikel zo toewijst aan de persoon Musk, terwijl het in de rest van het artikel alleen gaat over xAI.

Toch, na het lezen van het artikel van The Washington Post, blijkt die persoonlijke verwijzing in te titel wel onderbouwd:
Since leaving his role overseeing the U.S. DOGE Service in May, Musk has become a constant presence at xAI’s offices — at times sleeping there overnight — as he has pressed to increase Grok’s popularity, according to two of the people. […]

As part of this push for relevance, xAI embraced making sexualized material […]
Als ik dat artikel zo lees, dan negeerden de medewerkers van xAI de waarschuwingen, omdat Musk zoveel druk zette op populariteit van het platform, ten koste van wat dan ook. En dat kun je die medewerkers zelf echt maar deels kwalijk nemen, daar draagt de grote baas de verantwoordelijkheid voor. Zeker als hij er zelf zo bovenop zit.

Los daarvan hebben zijn bedrijven ook veel indrukwekkende prestaties laten zien, zoals Starlink, Tesla en SpaceX Falcon lanceringen die herbruikbare raketlanceringen werkelijkheid maakten. Maar dat hij in dit geval zijn eigen winst en effectbejag doordrukt ten koste van anderen, wordt hier wel aangetoond.

[Reactie gewijzigd door ZwolschBalletje op 2 februari 2026 22:49]

Grapjas.. En hoeveel mensen heeft hij vermoord dooor zn diensten in eerste instantie aan rusland te leveren?
Hij helemaal niemand, want ze leveren niet aan Rusland. Die Starlink sets zijn her en der op het slagveld buit gemaakt door de Russen. Daar kan Musk ook niet veel aan doen. Nouja, beperken in de mogelijkheden om misbruik te voorkomen, wat nu dus ook gedaan is. :)
Wauw, wat een held!!! Na veel druk heeft hij het absolute minimum gedaan!

Om te kunnen reageren moet je ingelogd zijn