Grok en ChatGPT maken probleemloos bikinifoto's, concurrentie weigert

Grok is al weken in het nieuws omdat de chatbot het wel heel eenvoudig maakt om foto's van voornamelijk vrouwen en soms zelfs kinderen te seksualiseren. Uit een test van Tweakers blijkt dat Grok niet de enige AI is die kleding kan omtoveren tot bikini's, al moet je daar vaak wel meer moeite voor doen.

Upload simpelweg een foto van een persoon en vraag of Grok de kleding kan vervangen door een bikini − en voilà, Grok doet precies dat. Dat kan niet alleen in de tool zelf, maar ook met de Grok-bot op X. Gebruikers kunnen deze in de reacties onder een bericht aanroepen om te vragen om de afbeelding in die post te bewerken, ook bij berichten van derden. Het gevolg: vrouwen die een foto van zichzelf plaatsen, worden gebombardeerd met reacties van gebruikers die Grok vragen om de afbeelding om te toveren tot een bikinifoto.

Het maken van bikinifoto's wordt (nog) niet beperkt

X meldt sinds maandagochtend dat het de mogelijkheid om bikinifoto's te maken in Grok heeft geblokkeerd 'in landen waarin dat illegaal is'. Specifieke landen worden echter niet genoemd en uit een test van Tweakers blijkt dat de mogelijkheid in ieder geval in Nederland niet beperkt is. Het is onduidelijk of dat later alsnog gebeurt.

De Europese Unie en het Verenigd Koninkrijk onderzoeken momenteel of xAI Grok te veel de vrije loop laat en daarmee de wet overtreedt. Indonesië en Maleisië hebben de bot zelfs geblokkeerd totdat het bedrijf maatregelen neemt om het genereren van illegale afbeeldingen tegen te gaan.

De controverse draait bij Grok om meerdere dingen tegelijk. Ten eerste leek de chatbot niet alleen bikinifoto's te maken, maar ook seksueel getinte afbeeldingen van kinderen. Daarbij speelt ook nog eens mee dat Grok die afbeeldingen direct publiek beschikbaar maakt, via openbare tweets door alleen '@grok' te taggen. Dat heeft X onlangs overigens wel beperkt.

Maar het feit dat Grok het in de eerste plaats mogelijk maakt om seksuele afbeeldingen te maken, is op zichzelf al reden tot ophef; in veel jurisdicties wordt het maken van zulke deepfakes als illegaal of in ieder geval als een juridisch grijs gebied gezien, om nog maar te zwijgen over de ethische kant ervan. Dat vond in ieder geval Elon Musk, die een tweet onderschreef waarin stond dat ook 'andere apps mensen een bikini kunnen laten dragen'. In het geval van Grok lijkt het vooral de laagdrempeligheid te zijn waarmee gebruikers foto's van anderen kunnen manipuleren tot seksueel getinte afbeeldingen, maar heeft Musk een punt? Maken andere apps dit ook mogelijk?

Vrouw 1

Man 1 - AITweakers onderzocht zes andere, populaire AI-tools om te zien hoe makkelijk ze bikinifoto's genereren. We keken naar ChatGPT, Gemini, Le Chat, Copilot, Meta AI en Photoshops Generative Fill. Hiervoor gebruikten we twee AI-gegenereerde foto's als basis, een van een man en een van een vrouw, en vroegen we op verschillende manieren of de afbeeldingsgenerator de kleding kan omtoveren tot een bikini. Daaruit blijkt dat, naast Grok, ChatGPT als enige heel eenvoudig ook zulke foto's kan maken. Wel heeft die tool meer beperkingen dan Grok. Bij andere chatbots is het maken van seksueel getinte foto's veel moeilijker.

ChatGPT

Bij de meestgebruikte AI-tool is het meteen raak: door een foto in ChatGPT te uploaden en 'Add bikini' te zeggen, wordt de outfit doorgaans zonder verdere opmerkingen vervangen door het gevraagde kledingstuk. De bot trekt pas een grens als we vragen om een mankini, hoewel ChatGPT op basis van de half afgemaakte foto's überhaupt niet eens lijkt te weten wat een mankini is; de afbeeldingenmaker maakt er gewoon een groene bikini van. Dat is overigens een verschil met Grok, die er geen moeite mee heeft om een (zeer verontrustende) mankini te fabriceren.

ChatGPTGrok

ChatGPT (links) kapt het verzoek om een mankini halverwege af, maar Grok kent kennelijk geen grenzen.

Gemini

De guardrails van Gemini zijn een stuk strenger. De bot weigert om een bikini of zelfs maar een badpak te genereren. Tenminste, mits dat rechtstreeks gevraagd wordt. Als we er context bij geven (bijvoorbeeld dat we een foto willen alsof we meedoen aan de 100 meter vrije slag of kleding in een winkel aan het passen zijn), wil Gemini soms wel meewerken. Dan wordt de bestaande afbeelding echter niet bewerkt, maar wordt er simpelweg een nieuwe afbeelding gegenereerd waarbij de aangeleverde foto als referentie wordt gebruikt.

Gemini bikini

Le Chat

Le Chat lijkt, op basis van onze beperkte tests met de gratis versie, het wisselvalligst. De bot wil niet rechtstreeks een bikini fotoshoppen, maar soms lukt het wel als we er een uitgebreidere prompt bij schrijven. Bij herhaling lukte dat echter niet. Ook lijkt de bot net als Gemini een volledig nieuwe foto te genereren die weliswaar gelijkenissen vertoont met het origineel, maar niet 'gewoon' een bewerking is.

Mistral - bikinifoto'sMistral - bikinifoto's

Meta AI

Meta AI is de eerste die de tactiek om extra context te geven helemaal weerstaat. Sterker nog: we kregen deze bot als enige niet zo ver om badkleding te genereren, welke prompts we ook probeerden. Zelfs in het water houden de personen uit de referentieafbeeldingen hun kleding aan.

Meta AI

Copilot

Ook Microsoft heeft straffe guardrails aan zijn AI-bot toegevoegd, want Copilot ging ook niet in op de meeste verzoeken. Vaak begint Copilot wel met het genereren van een afbeelding, om zich halverwege te bedenken en aan te geven dat het verzoek is geblokkeerd door de veiligheidsmaatregelen. Net als bij Meta houden personen hun kleding aan tijdens het zwemmen. Hoewel de bot bleef weigeren om de twee AI-gegenereerde personen te voorzien van badkleding, lukte het om een of andere reden wel bij een foto van ondergetekende. Ook in dit geval lijkt de chatbot echter weinig bloot te willen genereren.

Copilot

Photoshop

Ongeacht de prompt die we gebruikten, weigerde de Generative Fill-functie van Adobe Photoshop om een bikini te genereren. Hoewel de door Elon Musk onderschreven tweet anders beweerde, kwam er telkens een melding in beeld waarin stond dat de opdracht de gebruiksvoorwaarden schond. Wel was het mogelijk om een zwem- of badpak te genereren. Bij de mannelijke foto werd het zelfs een soort mankini, terwijl de functie onder normale omstandigheden weigert om een ontbloot bovenlichaam te genereren.

Redactie: Kevin Krikhaar • Eindredactie: Monique van den Boomen

Photoshop Generative FillPhotoshop Generative Fill

Door Kevin Krikhaar

Redacteur

15-01-2026 • 14:44

140

Reacties (140)

Sorteer op:

Weergave:

Bikini vind ik nog wel mee vallen.... maar om iemand foto te gebruiken is gewoon no go.
Ik snap ook niet waarom ze het genereren van een bikini foto "seksualiseren" noemen. Een bikini is toch gewoon een kledingstuk dat mensen dragen op het strand of in het zwembad?
Seksualisatie is contextafhankelijk. In de sauna zijn mensen poedelnaakt en is dat niet geseksualiseerd. Een prostituee heeft achter het raam misschien technisch gezien significant meer stof aan dan menig badpak maar die kledij is toch echt wel seksualiserend bedoeld. Contextafhankelijk, dus.

Het genereren van een bikini foto van iemand wordt expliciet gedaan om iemand uit te kleden, tegen de wil van iemand in, buiten de situatie van een strand of zwembad. Die context maakt het seksualiserend.
Aanvullend, je kiest zelf wanneer je een bikini aandoet. Met deze ai-tools kleedt je iemand uit zonder toestemming. Wat dus niet ok is. Het kon vroeger al met photoshop inderdaad, maar met AI is het nu wel te gemakkelijk geworden om het te doen. En het begint bij een bikini en wie weet waar het eindigt?
Wanneer iemand er zelf voor kiest is dat I derdaad prima. Maar zonder toestemming iemand uitkleden is niet OK. als jij dat zelf OK vindt als mensen dat doen met foto's van jouw kinderen of partner, dan denk ik alsnog dat e iets niet helemaal in orde is met het ethische aspect, maar het zou in ieder geval iemands eigen keuze moeten zijn.
Mijn idee. Wat een enorm suffe preutsheid. Zeker vergeleken met hoe sommige artiestes zich etaleren in videoclips en op podia. Een bestaand persoon in verlegenheid brengen, gaat mij dan wel weer een stap te ver. Gebruik dan je eigen hoofd, zou ik zeggen.
Je mag uiteraard jouw eigen idee hebben, neemt niet weg dat het merendeel van de mensen die uitgekleed worden hier niet blij mee zijn.

Het punt is namelijk niet preutsheid maar eigen keuze. Wanneer iemand op het strand loopt, heeft hij/zij ervoor gekozen om op dat moment op die plek in een badpak te verschijnen. Dit is dus binnen een bepaalde context. Op het internet op elk willekeurig moment "uitgekleed" kunnen worden door een AI tool is niet hun keuze, hun moment of hun gekozen plek.

Lees ook even de reacties onder comecme in 'Grok en ChatGPT maken probleemloos bikinifoto's, concurrentie weigert'.

[Reactie gewijzigd door InflatableMouse op 16 januari 2026 12:38]

Dat is het punt juist. Het gaat niet om het gedeeltelijk uitkleden van een door AI gemaakt model. Het gaat hier om het misbruik dat mensen maken door echte personen ongevraagd om te toveren, gedeeltelijk zullen dat 14-jarige pubers zijn die me hun onvolwassen brein graag hun klasgenoten beter willen bekijken, maar zelfs volwassenen zullen dit doen. AI functies creëren om dit expliciet mogelijk te maken is natuurlijk bedroevend, maar dat hier vervolgens extern op ingegrepen moet worden is triest.
gaan ze ook photoshop en andere editing tools verbannen dan? die doen precies hetzelfde en zat tutorials te vinden op het web (handmatig editen, niet per-se ai prompts)

[Reactie gewijzigd door Joeri.Bijlsma op 15 januari 2026 14:52]

Als er een knop 'kleed deze persoon uit' in Photoshop zou zitten dan denk ik inderdaad dat die ook wel verboden zou worden ja
het is idioot makkelijk om iemands hoofd in photoshop op een ander lichaam te plakken, Dat dit handmatig met 3 stappen moet ipv een generatieve ai prompt is daarin niet zo spannend.
Volgens mij kun je met generatieve AI wel iets meer en iets beter dan iemands hoofd op een ander plaatje plakken. Ander verschil is ook dat Grok en andere modellen dit toestaan maar het relatief eenvoudig zouden kunnen blokkeren, terwijl Adobe moeilijk een feature in kan bouwen die het onmogelijk maakt om deepfakes te photoshoppen. Dat het in beide gevallen verwerpelijk is lijkt me nou niet echt een reden om te zeggen dat AI slop generators daarom maar vrij spel moeten hebben?
Sterker nog, als ze hun slop niet op orde hebben waarom zouden we ze überhaupt toegang geven tot de EU? Niet alleen voldoen ze niet aan de lokale wetgeving, figuren zoals Musk promoten het, weigeren aan de regels te voldoen en misbruikt zijn eigen platformen om zijn eigen agenda erdoor te duwen.

Ik snap niet dat het nog een vraag is of twitter/grok toegang mag hebben tot de EU. Ze weten dat de EU langzaam beweegt en in de tussentijd doen ze wat ze willen.
Bij GenAI wordt er een lichaam opgeplakt die ook bij het hoofd past. Dat is het verschil.
want dat kun je niet doen door te googlen?
Stel ik heb een foto van jou op een kinder feestje met andere personen erbij, en ik wil daar een versie van dat jij naakt bent. En misschien nog een dubieuze pose of gebaar erbij. Wil je nu echt beweren dat het in photoshop net zo makkelijk is om dat overtuigend te doen als met generatieve AI. Gebruik even je eigen creativiteit om in te zien wat een kul argument je probeert te maken.
jij onderschat hoe makkelijk het is om precies dat te doen in photoshop.
jij onderschat hoe makkelijk het is om precies dat te doen in photoshop.
En het verschil is 'doen' en 'laten doen'. Als jij dat verschil niet (wil) zien heb je een andere moraal dan ik heb.
Ik dacht heel even, dat klopt. Maar toch bleef ik even staren naar jouw reactie.
Je kan toch even goed stellen dat, afhankelijk van de context, "doen" en in opdracht "laten doen" juist niet verschillend is?

De analogie die mij hiertoe brengt is: als je iemand vermoord of in opdracht "laat vermoorden" dan denk ik dat je straf ongeveer gelijk zal zijn (en hopelijk hoog).
Alleen al het feit dat ik denk dat dit moeilijk is in photoshop en ik het wel zo zou kunnen doen met generatieve AI, geeft al aan waarom jij niet snapt dat het een niet hetzelfde is als het ander toch?

Los daarvan maak je nu echt een karikatuur van het probleem, als ik een overtuigende foto wil editen met een super specifieke scene, dan ben je in photoshop uren bezig als je uberhaupt al geschikt bron materiaal kan vinden dat precies past met wat je wil afbeelden. Als je echt het verschil niet ziet tussen dat een een prompt intiepen dan weet ik ook niet meer wat ik verder nog zou kunnen zeggen.
Ofwel heb jij geen kennis van hoe je die dingen moet photoshoppen.
Ofwel overschat jij de tech kennis van de gemiddelde gebruiker.


Een 5 jarige dat nog geen eens een muis kan gebruiken kan een prompt ingeven zo lang die kan schrijven.

[Reactie gewijzigd door Honytawk op 15 januari 2026 17:21]

Minder makkelijk dan ‘Maak Joeri.Bijlsma in deze foto naakt met een klein en ontstoken p*k’ bij wijze van.

Photoshop is volgens mij ook niet gratis en vergt nog altijd iets van skills.

Je kan mensen nooit helemaal tegenhouden iets ongewenst in elkaar te zetten, maar AI maakt het wel heel erg makkelijk en toegankelijk voor iedereen met een toetsenbord en 2 werkende hersencellen.
Ik kan dat niet. En met paint vindt ik dat soort dingen ook niet per se geweldig werken. Met AI hoef ik alleen maar op te schrijven wat ik wil en voila.

En photos op is volgens mij wel duurder en dus minder toegankelijk voor veel mensen dan een AI tool die soms gratis is.
Het verschil hierin is consent. En dat het staat meteen online staat. (al ben ik niet bekend met de huidige status met AI en Photoshop, of dat ook online publiekelijk wordt gezet, maar ik verwacht van niet).
Consent is hier niet verschil, ik kan elke willekeurige foto van internet bewerken naar een bovenlichaam met een bikini foto. Dat is net zo erg als ik het door AI laat doen.

Het verschil zit hem in de toegangkelijkheid en hoe breed dit gebruikt kan worden. Hoewel basis fotobewerking helemaal niet zo moeilijk is, zijn er toch relatief weinig mensen die dit (redelijk/goed) kunnen. Het gebruik van AI daarintegen is zo makkelijk in gebruik voor 98% van de bevolking en is daarin ook nog vele malen sneller.
Is photoshoppen juist niet erger? Je moet namelijk veel meer stappen verrichten om tot eenzelfde resultaat te komen? Bij elke stap kan je je dan afvragen of er wel mee door moet gaan?

Bij AI kan je nog zeggen dat je het even ging testen of gewoon uit nieuwsgierigheid? Dat is dan slechts 1 stap.
Stel je hebt een bedrijf dat op verzoek van jouw een pijp bom maakt. Dat is illegaal en het bedrijf wordt opgedoekt en de eigenaren opgepakt.

Volgens jouw redenatie is dat volstrekt belachelijk want je kan ook gewoon naar de bouwmarkt en verschillende andere winkels gaan om zelf een pijp bom in je klusschuurtje te maken, dus waarom is het verboden voor dat bedrijf om het te doen?

[Reactie gewijzigd door Exhonor op 15 januari 2026 15:02]

een fysiek iets tegen een digitaal iets is toch wel een wezenlijk verschil.
Want? dat is gek. Sexuele afpersing (digitaal of fysiek) blijft illegaal dus je kunt wel degelijk een dergelijk vergelijking maken.

Dat het kan wil niet zeggen dat je het moet aanbieden.

Ik kan het ook, ik kan goed met photoshop overweg en zou dergelijke foto's best kunnen maken. Maar dat zal ik nooit doen, want ik wil niemand te kakken zetten. AI weet ook niet of het jouw foto is (voor eigen vermaak) of iemand anders.

Gewoon niet doen. Doe je het wel, prima dan zorg de maatschappij (lees het juridische systeem/DSA) wel dat je geweerd wordt.
"Gewoon niet doen."

Waar heb ik gezegd dit wel te doen?
Niet alles op jezelf betrekken.

Ik doel op XAI dat ze gewoon zulke dingen niet mogelijk moet maken. Denk gewoon eens na voor je iets doet.
Het verschil tussen digitaal en fysiek is dat je het laatste zeker niet zelf kunt negeren.
Dat mensen geraakt worden en zelfs chantabel blijken door een vals gekunstelde vastlegging of bewerking, is vooral iets van de samenleving die waarde hecht aan beeld(ver)vorming.
Lekker makkelijk gezegd als je het nooit mee hebt gemaakt.

zelfs “voor de leuk” dat onzekere meisje of die nerd in een bikini AI plaatsen en op school/werk hangen. Hahaha geinig.

Super leuk tot er een zelfmoord pleegt of hun baan verliest.

Het ligt natuurlijk niet aan AI zelf, maar wel aan het gemak en beschikbaarheid. Als je zo pijpbom (lees AI naakt/bikini foto) kunt krijgen in een winkel (via AI) dan is het heel makkelijk om het te gebruiken. Eentje zelf maken (goed realistisch bewerken met PS) is een behoorlijke taak dus zal minder snel even voor de leuk gebeuren.

Anyway digitaal of niet het heeft impact in de echte wereld.
Wat brengt jou tot de gedachte dat ik/wij dat niet hebben meegemaakt ?
Onze aanpak is vooral die daar mee omgaan en dat zeker niet op je eigen wezen gaan projecteren. Die houding ontneemt degene die dat wil gebruiken, de macht over ons/mij als persoon.

Het boek, het middel, het beeld of AI is niet de oorzaak dat mensen elkaar daarmee vals benaderen.
"Dat mensen geraakt worden en zelfs chantabel blijken door een vals gekunstelde vastlegging of bewerking, is vooral iets van de samenleving die waarde hecht aan beeld(ver)vorming"

Als je er zo makkelijk over denkt dan lijkt mij niet dat je in een dergelijke situatie hebt gezeten.

Het is als sinds het begin van de mensheid een probleem dat visuele eigenschappen (kunnen) leiden tot reële problemen van discriminatie tot uitsluiting en erger. Dus de samenleving die er een stokje voor steekt middels acties om dit tegen te gaan is dan toch juist een goed iets?

Dat de oorzaak (slechtheid van de mens) het probleem is wil niet zeggen dat we dan maar de middelen moeten toestaan.

Want tenslotte is het de mens die de trekker overhaalt van het geweer, zullen we hier dan ook maar een spoepele en beschikbare wapenhandel ook hier in Europa faciliteren?
Nogmaals wat mensen al of niet digitaal kunnen (be)denken of laten (op)tekenen, is iets anders dan wat mensen elkaar fysiek (aan) doen. Jij koppelt en ik scheid de beeldvorming van het fysiek (mis)handelen.

En ja, beeldvorming kan net zo bedreigend aanvoelen als een daad zelf.
Die beeldvorming komt helaas veelal voort uit de (eigen)waarde die ook omgeving - vaak gemakshalve - wil ontlenen uit een weergave of vertelde situatie; en niet vanwege het potlood of (teken)gereedschap tot publicatie.

Dat een toegankelijkheid of kunde tot mogelijkheid hebbende, een drempel tot misbruik van een toepassing kan verlagen is (helaas) ook iets van alle tijden. Het is dan meer zaak dat in ogenschouw te nemen en een eventueel ongewenst gebruik te (kunnen en willen) vervolgen cq beheersen.

Daarom pleitte ik ook dat creaties, een - bvk duidelijk - herleidbaar kenmerk hebben van a) maker, b) de verspreider cq origine en zo mogelijk c) de bedoeling.
Zonder die kenmerken, net als roddels en geruchten of verwijderde serienummers, zou men ook (voortaan ?) kunnen stellen dat een gebruik of bezit; kennelijk misbruik tot eigen doel heeft.
De strafbaarheid van een misbruik middels AI kan wellicht dan eenvoudiger worden aangenomen.
Zelf iets maken is wat anders dan het door iemand anders laten maken.
gaan ze ook photoshop en andere editing tools verbannen dan? die doen precies hetzelfde en zat tutorials te vinden op het web (handmatig editen, niet per-se ai prompts)
Nee, want photoshop kan dat niet op eigen houtje doen. Daar is enige mate van kennis en kunde voor nodig. (best wat, zelfs). Daar is het een mens die de editing doet, niet de software.

bij AI doet de AI de editing, en kan dat op een snelheid en volume die een mensen niet kan.
100% dit. De volledige verantwoordelijkheid ligt in deze dan ook bij diegene die de prompt invoert, en niet bij de AI tools ( al blijkt dit een bijzonder controversieel standpunt te zijn... :-/ )
Dat ben ik op zich wel met je eens, maar dan moet het wel 100% bewezen zeker zijn ten alle tijden wie die foto heeft aangeleverd en de opdracht voor die prompt heeft gegeven. Als dat altijd gevolgd wordt kan ik in je punt komen.
Je krijgt een 0 maar ik snap niet waarom. Ik vraag me ook af wat de ophef nou precies is als het alleen om een bikini foto gaat.

Voor de rest is de oplossing natuurlijk heel simpel en iets wat iedereen sowieso zou moeten doen. Stoppen met perse jezelf op het internet willen zetten. Ik snap niet dat mensen social media profielen überhaupt publiekelijk open zetten.
Dat jij dat niet inziet wat de ophef van een bikini-foto kan zijn, verklaart gelijk je stukje victim-blaming.
Dit altijd zo een dooddoener, ook in discussies over bijvoorbeeld wapens. Ik mag hopen dat je zelf het verschil wel ziet.
AI edit niet, maar genereert. Dat is een wezenlijk verschil in de behandeling van iets. De uitkomst tussen een menselijke 'edit' en een genereerde afbeelding kan overigens exact gelijk zijn, uiteraard.
Je kan met beide hetzelfde bereiken ja, maar de manier waarop is wel totaal verschillend. Groot verschil, door AI te gebruiken geef je de data aan de AI dienst (al dan niet zonder consent), Photoshop kan volledig lokaal zonder de foto van de persoon aan de AI dienst te "geven".
dat jij dat niet wil zien is een "you issue".
Kunnen we het gewoon respectvol houden?
Het gaat ook om toegankelijkheid van iets.

Een AI geef je een query en hij voert het uit. Elke idioot kan zo'n foto vragen. Wat dus blijkbaar gebeurd en waardoor mensen in benarde situaties geplaatst kunnen worden.

Photoshop moet je allereerst kopen, erg duur en ja er zijn (gratis) alternatieven, dan moet je nog weten hoe het werkt om een realistische representatie te maken van iemands hoofd op het lichaam van iemand met een bikini.

In the end hebben bedrijven, zeker grote, een maatschappelijke verantwoordelijkheid. Dit heeft niets te maken met vrijheid van meningsuiting, vrij internet of artistieke vrijheid. Dat je voor deze dingen bent wil niet zeggen dat je (lees XAI) dit soort idioten een platform moet geven.
Dat heb je niet gezegd. Dat is gewoon toegevoegde informatie/opmerking. De “CEO” is altijd daar zo stellig in tenzij het geld kost of het hem niet bevalt.
Het valt me nog steeds tegen dat de imagine functionaliteit van Grok hier nooit genoemd wordt. Die kan zelfs 2 mensen elkaar laten aanraken en uitkleden (getest met mezelf en m'n verloofde).

Dat vind ik veel heftiger dan iemand in andere kleren fotoshoppen, dat konden we al decennia. Je kan als je wil 2 volslagen vreemden elkaar laten zoenen, zonder enige moeite. Ook weer met eigen foto's, foto van mezelf op het strand, verloofde in de slaapkamer. Naast elkaar geplakt in PAINT, heel slordig, en na 1 prompt had ze m'n broek uit en was ze me aan het zoenen...

Dat kon bijna niemand voorheen, en iedereen met een beetje doorzettingsvermogen kon dat fotoshoppen in een week leren. Dat we daar nog niemand over horen vind ik echt bizar.
edit:
@Skyclad wij hebben een vrij open sexuele moraal en vinden het allebei geen probleem als ze onze lijven gebruiken als trainingsdata, of dat er een Google medewerker een lolletje mee heeft. Het zijn onze eigen lijven toch niet :) Ik sta op het strand in herfstkleding, en zij in de slaapkamer in "corporate" mantelpak. Alle "halfnaakt" is dus door AI verzonnen.
edit:
@demianmonteverd ik heb het even voor je opgezocht. Het model stond op "standard", wat dat ook moge betekenen, en mijn prompt was uiteraard wel "spicy". Té spicy moet je dan weer vermijden, dan krijg je op 99% een error "this video was moderated". Maar als je dan terugvalt op wat meer generieke beschrijvingen die hetzelfde omschrijven maar neutraler klinken, maakt-ie het alsnog best spicy ja :+

[Reactie gewijzigd door TV_NERD op 15 januari 2026 18:06]

Persoonlijk zou ik niet met eigen foto's zo iets testen. Je hebt geen garantie dat de (bewerkte of onbewerkte) foto's niet opgeslagen worden.
Sterker nog, je hebt de garantie dat ze wél opgeslagen worden, en een grote kans dat ze ook op de langere termijn opgeslagen blijven en tzt een keer gebruikt worden
Vraag mij af, kan je dat grok imagine model downloaden of is dat closed source server side?

Denk je niet dat producers of creators op OnlyFans dit gebruiken voor inkomen?

Scheelt ze aanzienlijk in tijd lijkt mij?

Zolang je dit local doet, wordt je privacy gewaarborgd? De app of link die je stuurt zal zeker naar de API van grok praten?
Kan aantal oorzaken bedenken na het opzoeken van imagine:
- grok heeft het bewust mogelijk gemaakt, op hun imagine pagina refereren ze expliet naar dat imagine hun grok spicy model gebruikt (assumptie van mij dat dit het model is dat TV_NERD heeft getest eerder)
- omdat mensen grok vooral nemen voor de integratie met twitter, misschien komen mensen daarom minder in aanraking met imagine?

En dan natuurlijk, over chatgpt schreven mensen in de eerdere discussies al dat dit kon. Dus misschien, komt het dat jij de eerste bent die het heeft geprobeerd en er ook de moeite voor nam om het te delen?
Als je een domme zielige pestkop(cq. trol) bent moet Grok wel het Walhalla voor je zijn. Aangezien je er veel schade aan anderen mee kunt aanrichten en dit lastig te handhaven is door de overheid (te snel rijden is wel te handhaven) ben ik wel voor handhaving bij/door de bron. Anders gewoon opzouten met desbetreffende AI dienst.
Grok of blijkbaar dus chatgippity.
Gefeliciteerd, schoolvoorbeeld van Streisand effect. Niemand had hier iets over gehoord en nu is het mainstream nieuws dus zullen meer mensen het doen.
Gefeliciteerd, schoolvoorbeeld van Streisand effect. Niemand had hier iets over gehoord en nu is het mainstream nieuws dus zullen meer mensen het doen.
Dit is het niet. Het Streisand effect is vanuit een persoon of organisatie. Dit is in het algemeen belang.
We willen het helemaal niet in de doofpot steken.
We willen dat die partijen het blokkeren.
Veel Streisand zal er niet aan zitten als straks niemand dit nog online kan doen.
Waarom blijven we geloven in deze schijnveiligheid? Regulering van grote LLM's verandert niets aan het feit dat iedereen met een beetje hardware lokaal kan genereren wat hij wil. De focus op de tool is een afleiding van het echte probleem: onze omgang met naakt.

Door naakt als iets inherent schadelijks of schandelijks te bestempelen, faciliteren we juist victim blaming en chantage. We denken mensen te beschermen door de toegang te blokkeren, maar we creëren een omgeving waarin een gemanipuleerde foto iemands leven kan verwoesten. Het is de maatschappelijke schaamte die het wapen gevaarlijk maakt, niet de pixels.
Alleen bestaat die omgeving inmiddels al even en is dat enkel erger gemaakt door procedureel gegenereerde content (nee, ik ga dit soort rommel niet mooier of spectaculairder maken dan het is door er het label AI op te plakken)
Dit is ook mijn insteek. Het feit dat alles nep zou kunnen zijn zou juist moeten kunnen leiden tot een maatschappij waar een (al dan niet echte) naaktfoto geen impact zou moeten hebben.

De maatschappij lijkt echter het exact de andere kant op te gaan. De modellen om mensen op een naakt lichaam to photoshoppen zijn er en gaan echt niet zomaar van het internet verdwijnen. We krijgen het amper voor elkaar om daadwerkelijke video's van seksueel misbruik offline te krijgen, waarom zou dat met een AI-model ineens wel kunnen?

Een maatschappij waar dit soort bewerkte afbeeldingen een zware impact hebben, kan niet om gaan met generatieve AI. We zullen de maatschappij moeten aanpassen of generatieve AI zwaar aan banden moeten gaan leggen. Tot een van die twee dingen gebeurt, is generatieve AI een hemel voor pestkoppen, afpersers, en eikels in het algemeen.
Door naakt als iets inherent schadelijks of schandelijks te bestempelen, faciliteren we juist victim blaming en chantage.
Dat is allemaal keurig opgetypt maar denk je nu echt dat onze moraal snel gaat veranderen? Ik niet en ik denk dat jij je behoorlijk de sjaak voelt als je een naaktfoto van jouw op het prikbord in de kantine hangt.
Ik begrijp dat het idee is om het niet te makkelijk te maken, maar dat stadium zijn we voorbij.

Het is al prima mogelijk om op een pc met een degelijke grafische kaart te doen wat je wil zonder enig censuur. Naarmate dat de technologie vordert gaat dit ook prima mogelijk worden op een smartphone. Gewoon een offline model installeren en gaan maar.

Op een online platform als X, sure, je moet blokkeren wat illegaal is of tegen de regels van het platform is.

Maar wat boeit het dat iemand dit doet in een chatbot? Zolang het niet gepost wordt... who cares?
Maar wat boeit het dat iemand dit doet in een chatbot? Zolang het niet gepost wordt... who cares?
Ik denk dat diegene die je aan het uitkleden bent daar anders over denkt, ook als je het niet post. Trouwens wel bijzonder triest als je bestaande mensen digitaal uitkleed als bezigheid, denk dat we dan niet alleen aan strafrecht maar ook aan wat geestelijk hulp moeten denken.
Vraag mij af, kan je dit niet gewoon met local ai zonder restricties doen?

Met een bepaal model? Dan heb je het in eigen hand?
Yup. Tientallen tutorials online. Pandora's doos, al veel te laat.
Een lokaal model installeren is toch wel wat moeilijker dan een account aanmaken.
./bin/comfy install && ./bin/comfy launch

Gooi een model in een map.

[url="http://localhost:8188"]http://localhost:8188[/url]

Sleep een plaatje dat je mooi vind er in.

Typ je eigen tekst.
Vast ja, deepfakes is natuurlijk al langer een ding. Voorkomen dat er software is die dit kan lijkt me heel lastig. Dat betekent natuurlijk niet dat je niet iets kan vinden van bedrijven die Deepfake as a Service aanbieden.
Ja, en met jailbreaks die te vinden zijn online kun je ook gefilterde modellen nog wel naaktfoto's laten maken. De cloudproviders maken het moeilijk, maar dit probleem is niet met filters op te lossen zonder de techniek bijna onbruikbaar te maken.

Tot er een model is dat geen idee heeft hoe mensen er onder hun kleren uit zien, zul je dit probleem blijven houden. Natuurlijk gaat niemand al die dure modellen vanaf de grond af hertrainen met een gecontroleerde dataset van inhoud dus is de kans nihil dat het gebeurt zonder tussenkomst van de wetgever.

Helaas reageert men vooral op nieuwsartikelen die specifieke bedrijven noemen want die hebben een scoop. Een journalist heeft geen idee wat een Huggingface is maar Elon Musk kent hij wel en techjournalisten kunnen lastig achterblijven als het hele medialandschap achter specifieke namen aan gaat.
Het is toch wel een verschil waarbij een online bot met 1 commando een bestaande online foto pakt en deze publiekelijk aanpast naar jouw wens (zo te lezen zonder echte beperkingen) en mensen die dit lokaal doen en waarbij bewust een foto gedeeld moet worden. Het is gewoon allemaal fout, maar om barriéres op te werken ga je het massa misbruik wel meer tegen.
Autofabrikanten maken ook autos die harder kunnen dan ze hier mogen. Tsja.
er is toch ook voor jou wel een verschil zichtbaar tussen "ik kan harder rijden met mijn auto wat primair mijzelf in gevaar brengt" en "ik kan met deze tool naakte foto's van minderjarige kinderen en volwassen generen zonder dat hier consent door de personen in kwestie voor is gegeven wat iedereen behalve mijzelf in gevaar brengt"

Andere analoog: het is niet voor niets dat vuurwapens hier in nederland verboden zijn. Nog een voorbeeld van een ding waarmee je primair een ander in gevaar brengt, en niet direct jezelf.
Het is nep en er komt steeds meer nep. Mensen moeten weten dat je dit soort nepmateriaal niet mag verspreiden zonder dat duidelijk is dat het nep is bijvoorbeeld door een vermelding in beeld. Verspreid je het toch (zonder) dan ben jij strafbaar. Voor privé gebruik is het bij minderjarigen sowieso strafbaar waar ik geen groot voorstander van ben. Als je goede schildervaardigheden hebt dan kun je ook zoiets maken. Ik vind wat je privé doet is privé zolang je anderen er maar niet mee schaadt. Ook al vinden anderen het walgelijk. Nep kinderporno is een glijdende schaal naar meer censuur en controle. Ook wordt nu allerlei wetgeving ingevoerd om kinderporno te bestrijden. Want je wilt toch niet kinderporno faciliteren? Nee, natuurlijk niet maar het bestrijden daarvan is geen reden om censuur en een totale controlestaat in te voeren. De staat/EU bepaalt nu al dat ik niet mag lachen om propaganda op de Russische TV. Je zou er bijna wat van gaan denken.
Het is nep en er komt steeds meer nep. Mensen moeten weten dat je dit soort nepmateriaal niet mag verspreiden zonder dat duidelijk is dat het nep is bijvoorbeeld door een vermelding in beeld.
Maar wie bepaalt wat er wel of niet nep is?
En is 'nepmateriaal' beperkt tot beeldmateriaal of ook door teksten?
Om het even in de recente politiek te trekken: die 10 nieuwe steden bleken vooral metaforisch. Nepmateriaal?
Om het maar niet te hebben over religieuze afbeeldingen/teksten te hebben.

Wie gaan er in de 'commissie van waarheid' zitten?
Wat voor een domme vraag is dat?
Als een foto is gegenereerd is die nep, als die is getrokken niet.

Hopelijk ga jij niet in die commissie zitten als je daar al niet het verschil tussen kan zien.
Als een foto is gegenereerd is die nep, als die is getrokken niet.
Je weet dat je foto's kan manipuleren hè.
Deden ze vroeger al met negatieven.

Zijn gemanipuleerde foto's dan wèl echt?
De generator zou direct een watermerk kunnen toevoegen aan het beeld. Het moge duidelijk zijn dat ik het over beeldmateriaal had. Nepteksten kunnen al heel eenvoudig door mensen met de hand gemaakt worden. En bij die 10 nieuwe steden heeft Jetten zelf een aantal plekken op de kaart aangewezen. Dus helemaal metaforisch was dat ook niet maar wel een beetje nep.
Wie gaan er in de 'commissie van waarheid' zitten?
Ik ben juist faliekant tegen een waarheidscommissie van aangestelde deskundigen. Ik denk dat de community notes van X nog het beste systeem is: je kunt zien bij een post welke bezwaren zijn gerezen en je kunt zelf oordelen wat je er van vindt. Er wordt niet betuttelend informatie onthouden maar getraind om je eigen mening te vormen en foute informatie te herkennen.
Vuurwapens zijn in Nederland verboden om exact dezelfde reden dat ze in Amerika toegestaan zijn, namelijk om een tiranniek regime omver te kunnen werpen. Paar jaar geleden is de reden nog uit de wettekst gehaald, mensen zouden zomaar eens ideeën kunnen krijgen namelijk.
Kijkend naar hoe het Tweede Amendement uit de Amerikaanse grondwet is geschreven, is dat juist helemaal niet zo. Niet alleen is dit amendement geschreven in een tijd dat er pas net zoiets bestond als een 'Amerikaanse Overheid' en veiligheid enkel op lokaal niveau geregeld was (vandaar het woord 'militia'), daarnaast wordt het woord militie direct voorafgegaan door, voor mij althans, de sleutel woorden "well-regulated". Ik interpreteer het Tweede Amendement uit de Amerikaanse grondwet dan ook als "bij gebrek aan een politiemacht (want dat is een "well-regulated militia" in mijn optiek), zal het Congres het recht op het dragen van een wapen niet inperken". Het gebrek aan wapen-regulatie is dus in strijd met de Amerikaanse grondwet en ik heb geen idee waarom nog niemand in de VS op het idee is gekomen de mensen van de wapenlobby te Luigi'en, gezien er genoeg mensen zijn die het wapengeweld beu zijn, maar om een of andere reden het blijkbaar erger vinden dat hun zorgkosten de pan uit rijzen, dan dat hun kinderen groot risico lopen om na een willekeurige schooldag niet meer levend terug thuis te komen.

Dat 'argument' van een tiranniek regime overwerpen is een van de grootste kul-verhalen die je kunt vertellen en slaat als een tang op een varken in een maatschappij waarin iemand doodschieten vanwege een simpel meningsverschil de maatstaf is.
ik krijg het idee dat je je iets hebt laten vertellen zonder zelf in te lezen.
begin eens met wikipedia: Wikipedia: Second Amendment to the United States Constitution

belangrijkste punt tegen jouw betoog dat het niet bedoeld was tegen de federale overheid is de door een van de belangrijkste originele opstellers van de grondwet geschreven memo mbt dit amandement:
James Madison: In Federalist No. 46, Madison wrote how a federal army could be kept in check by the militia, "a standing army ... would be opposed [by] militia." He argued that State governments "would be able to repel the danger" of a federal army, "It may well be doubted, whether a militia thus circumstanced could ever be conquered by such a proportion of regular troops." He contrasted the federal government of the United States to the European kingdoms, which he described as "afraid to trust the people with arms", and assured that "the existence of subordinate governments ... forms a barrier against the enterprises of ambition"
het is daarbij ook ook heel nadrukkelijk met de bedoeling om zelfverdediging door de individuele ingezetenen mogelijk te laten zijn en in extremis om de burgerij als militie in te kunnen zetten bij verdediging van de staat :
The Second Amendment was based partially on the right to keep and bear arms in English common law and was influenced by the English Bill of Rights 1689. Sir William Blackstone described this right as an auxiliary right, supporting the natural rights of self-defense and resistance to oppression, and the civic duty to act in concert in defense of the state
vergeet niet dat de "state" in deze ook geinterpreteerd kan worden als een individuele staat van de US ten opzichte van de federale overheid, vandaar de "well regulated militia" oftewel een georganiseerde staats militie als verdediging tegen oppressief een federaal leger. en voor zover ik in de teks kan vinden word er nergens gesproken over orde handhaving in de staat op zich mbt tot 2nd amendment.
Het is niet illegaal om een auto te bouwen die 200+ km/u kan rijden. Er is geen wettelijke maximum snelheid vastgelegd die een auto wel of niet mag kunnen rijden. Er is enkel een maximum aan de snelheid die je daadwerkelijk rijdt.

Zodra je van de openbare weg af bent mag je zo hard rijden als je wilt.
Er is een veilig nut waarom autos harder kunnen.

Er is geen nut om kinder .... te maken.
Er is geen "nut" om met een personenauto meer dan 240 km/h te rijden op de openbare weg.

En als je op die manier gaat redeneren dan moet je het ook breder trekken: Er is wel een nut om generatieve fotos te maken en te bewerken. Dat levert soms content op die niet wenselijk is, vergelijkbaar met 150 km/h rijden in een woonwijk.

Maar goed, Pandora's doos is allang open, nu kan het enkel op Grok, geïnteresseerden gaan dit lokaal draaien binnen nu en een paar jaar.
we begrenzen toch autos ook tegenwoordig?

Dus waarom zou je dat niet begrenzen bij deze leveranciers. En natuurlijk kan het thuis allang maar dat betekent niet dat we dan maar simpel moeten maken als een reactie plaatsen op een foto.
Auto's worden misschien begrensd op 1 maximale snelheid, maar dat weerhoud je er niet van om 130++ in een woonwijk te rijden. Het is niet alsof we alle onveilige scenario's (proberen) af te dekken.

En wat ga je dan allemaal blokkeren. Foto van jou op het strand shoppen? Onder een nazi-vlag? Naast een dictator?

Waar eindigt het proces van "dit is niet wenselijk" en het denken voor anderen ?
Ik vind kinderen en vreemde mensen seksualiseren die hier niet om gevraagd hebben los staan van het denken van voor anderen.

Ik vind het ook heel raar om die 2 in dezelfde zin te gebruiken.

Er is vaak wel een neutrale case maken voor de andere voorbeelden die je noemt. Ik zou die graag in het geval van kinderen graag van je horen.
Dus als ik een persoon uit Iran in de problemen wil helpen laat ik een AI een foto genereren van dat persoon waar die een joint rookt?

AI moet geen gesloten systeem worden anders gaat het ons niet verder helpen..
Idealieter niet idd,


Ai gaat ons sws niet zo gek veel verder helpen, we zijn nu in jaar 3 ofz? buiten wat text dingen in code wat al niet al super is en katten filmpjes en ongevraagde naaktbeelden. Zie ik dus niet zo goed wat het nou gaat brengen.
Toepassingen buiten social media schijnen wel veel belovend te zijn.. Ben bang als we wetgevingen gaan maken op het gebruik van gemiddelde personen dat we innovatie slopen.. We weten niet waar en hoe AI ons verder gaat helpen.

Content zal herleidbaar moeten zijn naar de maker vanuit daar kunnen we bestaande wetten handhaven? Misschien wat wetten die aangepast moeten worden maar geef AI de ruimte..
Oke wat is er veel belovend?

Want het pad dat we nu hebben ingslagen kost vooral veel energie en heeft een eindpunt dat niet agi is.

De verdeding loopt voor mij hier altijd een beetje stuk op, ja we weten niet wat het gaat brengen maar we moeten het absoluut niet inperken want wat als ..... terwijl op dit moment wel gewoon een hoop negatieve effecte te benoemen zijn. Daarbij is regulatie bijna altijd positef voor een ontwikkeling (dat betekent niet dat het gelijk postief is voor de bedrijven die winst hierop proberen te maken).
Oke wat is er veel belovend?
De stappen die gemaakt worden in medicijn ontwikkeling, grote datasets analyse, fraude detectie, logistiek, aerodynamics, meteorologie, journalistiek onderzoek, simulatie, vertaling van minder gebruitke talen, ongeluk preventie in auto's... hoeveel meer wil je hebben?
Dat zijn volgens mij geen llm's omdat die compleet anders werken.
Daarbij is regulatie bijna altijd positef voor een ontwikkeling (dat betekent niet dat het gelijk postief is voor de bedrijven die winst hierop proberen te maken).
Bron ? Of noem eens een paar voorbeelden waar dat geldt ?
Je slaat de spijker op zijn kop met je angst dat we 'innovatie slopen'. Dit is precies wat we nu zien gebeuren.

Dit dreigt zich namelijk te ontwikkelen tot een klassiek “Baptists and Bootleggers”-verhaal. Het is evident problematisch dat mensen ongevraagd bikini-afbeeldingen van anderen genereren en die op X verspreiden.

Tegelijkertijd schuilt in de huidige morele verontwaardiging en mediastorm het reële risico dat de EU een opkomende AI-industrie zo vergaand dichtreguleert dat vooral jonge en innovatieve spelers er structureel door worden benadeeld. In dat scenario ontstaat geen bescherming van burgers, maar een beleidsklimaat waarin Europese AI-start-ups nauwelijks nog schaal kunnen bereiken, terwijl Amerikaanse en Chinese bedrijven met meer kapitaal, grotere thuismarkten en soepelere regulering hun voorsprong verder uitbouwen.

Dat leidt al snel tot een klassiek probleem van regulatory capture in de geest van George Stigler: regelgeving die formeel is bedoeld om misstanden tegen te gaan, maar in de praktijk vooral de gevestigde partijen beschermt die de middelen hebben om eraan te voldoen.

Zoals GertMenkel ook opmerkte: niemand gaat dure modellen vanaf de grond af hertrainen zonder dwang. De grote jongens kunnen die compliance betalen, de start-ups niet.

Het resultaat is een structureel concurrentienadeel voor Europa en een rem op Europese industriële en technologische autonomie. En dat juist op een terrein dat strategisch steeds belangrijker wordt.
Het is "het denken voor anderen" omdat wat jij wenselijk en mogelijk acht volstrekt cultureel bepaald zijn.

Vind je dat AI niet een spotprent mag maken van Allah? Of de slachting van een koe mag beschrijven en uitbeelden ? Sex met een 16-jarige? 18-jarige?

Wat ik probeer te zeggen is dat alles nogal afhankelijk van context is, d.w.z afhankelijk van hoe je bent opgevoed, welke normen en waarden, etc etc. Jij kant vast wel een case bedenken voor een spotprent van Allah, iets wat Abdullah uit Qatar waarschijnlijk wel volstrekt onacceptabel vindt.

Die kinderarts die bezig is met een boek te schrijven over aandoeningen bij kleine kinderen kan vast ook zoiets bedenken voor kinderen. En anders misschien die persoon wel uit een land waar iets vrijer wordt gekeken naar kinderen.

En nee, ik ben geen pedofiel - waar ik mijn bedenkingen bij heb is AI allerlei constraints op te leggen die sterk cultureel afhankelijk zijn. Want voor vrijwel alle zaken die je kunt bedenken, kan ik wel een cultuur bedenken die daar zijn vraagtekens bij plaatst vanuit moreel, religieus of ethisch standpunt.
Ja maar dat zijn alle wetten en regelgeving, met jou redenatie moeten we dat allemaal maar het raam uit gooien.


Natuurlijk zijn er genoeg manieren bedenken waarom iemand wel of niet die dingen moet kunnnen doen. Betekent niet dat iedereen altijd maar vrijspel moet hebben om dat allemaalte doen.
Waarom kom je nu weer met dit soort ad extremum drogredeneringen? Het geldt niet voor "alle wetten" en dat snap je best.
alle wetten zijn cultureel, dus als we ons niet druk moeten maken over wat cultureel vinden. dan zouden wetten niet moeten bestaan.


Ik vind je argument gewoon heel slecht that's all. jij snapt volgens mij ook best dat het niet een goed iets is dat iedereen zonder enige moeite belastende illegale content kan maken.
Je begrijpt toch wel dat het overgrote deel van de wetten waar jij nu aan denkt nationale wetten zijn? Je mag in Nederland niet zondermeer een vuurwapen op zak hebben, moet je eens kijken waar dat wel mag. Je mag in Nederland alcohol kopen op je 18e, dat is elders heel anders.

Je wilt nu een internationaal geldende "beperking" maken op basis van een cultureel besef dat maar door een minderheid van de wereldbevolking wordt gedeeld. Dan kun je wel met een flauwkul argument komen over "alle wetten zijn cultureel" - maar juist daarom is de overgrote meerderheid van wetten ook nationaal. Er zijn wat internationale verdragen en wetten maar juist daarvoor heeft elk deelnemend land een akkoord gegeven.

Wat jij nu wilt is iets extreem breeds als een AI allerlei zaken verbieden te doen. Jij begint om wat bikini's te sputteren, maar ik heb het niet op met spotprentjes van Allah, de volgende heeft problemen met kritiek op de Ayatollah, etc etc. In no-time heb je zoveel cultureel bepaalde uitzonderingen dat je volstrekt nat gaat met iets generieks als een LLM.

En als je dat niet begrijpt, beeld je dan eens eventjes in wat als je Trump de mogelijkheid gaf om te bepalen wat voor blokkades op de output van LLM's komen.
in elke cultuur zijn dat soort beelden niet strafbaar dan? effectief is er maar 1 overheid die de wet hoeft te maken. Maarja die houden van naakte kinderen dus gebeurt het niet.
Paar jaar ?, maak daar maar gerust een paar weken van. In mijn omgeving zijn mensen die fotobewerkingen leuk vinden en daar verrekte handig in ziijn. Maar goed, een beetje wat ik ooit heb gedaan om geluid(sfragmenten) mooi & strak te maken.
Met dan een AI hupmiddel , dat je ook prima lokaal kunt draaien, worden die dingen dan voor wannabes een invuloefening.
Mensen die te hard rijden raken vaker betrokken bij dodelijke ongelukken. Dat is ook niet niks.
Klopt maar dat is een afweging die je kunt maken. Wat is jou afweging om wel of niet deze belastende content te maken?
Hetzelfde als waarom ik niet met alcohol deelneem aan het verkeer. Het zal vast kunnen maar me gevoel zegt dat het niet verstandig is want je brengt mensen in gevaar.

bij dergelijke content heb ik hetzelfde gevoel. Waarom zal je andere mensen benadelen ondanks dat het kan?
met een vunzig blaadje, een schaar en pritt stift kan dit toch al jaren?

alles gaat gewoon makkelijker worden en bedrieglijker.
Ja toen moest je nog creatief zijn, moeite doen en had het altijd een beperkt bereik. Nu allemaal niet meer, dat maakt de zaak wel heel anders.
Als je dat met de schaar doet is het wel heel duidelijk of het nep is.
met een vunzig blaadje, een schaar en pritt stift kan dit toch al jaren
Jij ziet werkelijk het verschil in impact niet?

Om te kunnen reageren moet je ingelogd zijn