Stable Diffusion 2.0 verwijdert mogelijkheid om nsfw-beelden te genereren

Stability AI brengt versie 2.0 van AI-beeldgenerator Stable Diffusion uit. De software krijgt diverse nieuwe functies. De update verwijdert ook de mogelijkheid om pornografische beelden te genereren en maakt het moeilijker om de stijl van kunstenaars te kopiëren, melden gebruikers.

Versie 2.0 van Stable Diffusion krijgt onder meer een vernieuwd text-to-image-diffusionmodel, meldt ontwikkelaar Stability AI. De software maakt daarvoor gebruik van de OpenCLIP-tekst-encoder van Laion. Dit moet de kwaliteit van gegenereerde afbeeldingen 'aanzienlijk' verbeteren ten opzichte van eerdere v1-releases, claimt het bedrijf. In versie 2.0 kan het model afbeeldingen genereren met standaardresoluties van 512x512 pixels en 768x768 pixels.

De software krijgt een nieuwe upscaler, die de resolutie van afbeeldingen tot vier keer kan vergroten, bijvoorbeeld van 512x512 naar 2048x2048 pixels. De update voegt ook een depth-to-image-functie toe. Daarmee kan de software nieuwe versies van bestaande afbeeldingen genereren en daarbij de diepte-informatie uit de voorgaande afbeelding bewaren. Deze functie kan volgens Stability AI afbeeldingen genereren 'die er radicaal anders uitzien dan het origineel', maar met behoud van de samenhang en diepte van de oorspronkelijke afbeelding. De software heeft daarnaast een functie waarmee gebruikers delen van een afbeelding kunnen hergebruiken bij het genereren van nieuwe beelden.

Stable Diffusion 2.0Stable Diffusion 2.0

De upscaler in Stable Diffusion 2.0 (links) en depth-to-image. Bron: Stability AI

De nieuwe release heeft echter ook tot ophef onder gebruikers geleid, schrijft onder meer The Verge. Het nieuwe model krijgt bijvoorbeeld een filter dat het genereren van nsfw-beelden als pornografische afbeeldingen tegengaat. Gebruikers noemen de wijziging 'censuur', hoewel anderen erop wijzen dat de optie om nsfw-beelden te maken mogelijk later wordt weer toegevoegd met thirdpartysoftware.

Stability AI-oprichter Emad Mostaque vertelt tegen The Verge dat het hiervoor kiest vanwege veiligheid. "Je kunt geen kinderen en nsfw hebben in een open model", vertelt de oprichter, waarmee hij doelt op de mogelijkheid om kinderporno te genereren met de opensourcetool. "Dus weg met de kinderen of weg met de nsfw." Het was ook mogelijk om zonder toestemming naaktbeelden van specifieke personen te genereren met de software.

Stable Diffusion 2.0
Abeelding gemaakt met SD 2.0
Bron: Stability AI

Gebruikers klagen ook op sociale media dat het moeilijker is om de stijl van kunstenaars te gebruiken bij het genereren van afbeeldingen. Voorheen konden gebruikers de naam van een kunstenaar als prompt gebruiken bij het maken van een afbeelding, maar dit lijkt nu minder effectief te zijn. Kunstenaars als Greg Rutowski, wiens stijl vaak wordt gebruikt bij het genereren van AI-afbeeldingen, klaagden eerder over het gebruik van AI-generators hiervoor.

Een Reddit-gebruiker vergelijkt Stable Diffusion 1.5 met de nieuwste release bij het maken van afbeeldingen in verschillende kunststijlen, zoals die van Vincent van Gogh, Pixar en Rutowski. Hierin is te zien dat de nieuwste versie hier aanzienlijk minder goed in is. Mostaque stelt tegenover The Verge dat het kopiëren van dergelijke artstyles niet specifiek wordt tegengegaan in versie 2.0. De verminderde mogelijkheid om kunstenaars te kopiëren komt volgens hem door veranderingen in de codering en de manier waarop de software gegevens ophaalt.

Stable Diffusion is een opensourcemodel dat gebruikt kan worden voor het genereren van afbeeldingen op basis van tekstinvoer. Gebruikers kunnen de software draaien op een pc, in tegenstelling tot diensten als Dall-E, die alleen via de cloud beschikbaar zijn. De software wordt ondersteund door veel gpu's met 8GB of meer geheugen. De software is gratis beschikbaar op GitHub. Er zijn ook online demo's van de AI-beeldgenerator beschikbaar.

Stable Diffusion 2.0
Afbeeldingen gegenereerd met Stable Diffusion 2.0. Bron: Stability AI

Door Daan van Monsjou

Nieuwsredacteur

25-11-2022 • 15:35

66

Lees meer

Reacties (66)

66
66
40
1
0
19
Wijzig sortering
Ik zal wel niet goed zijn met prompts, maar als ik iets als "nude woman in a room" intypte in de oude versie, kreeg ik toch alleen maar een soort weirde samenvoeging van 4-6 benen ofzo te zien. Best wel creepy.
Het eruit halen van nsfw lijkt me een goeie zet.
Je kunt altijd nog een speciale ai maken puur voor nsfw. Als die gewoon alle pron creeert, hoeft er ineens een stuk minder mensenhandel plaats te vinden.
Op 4chan (/b/) kun je dagelijks wel constant threads vinden van 'aidegenerated porn' welke vol staan met zeer indrukwekkende NSFW content gegenereerd m.b.v. stable diffusion... en de helft ervan is loli/pedo (hoe je het ook noemen wilt).

Dat dáár iets tegen gedaan wordt in de main-stream trunk, ja dik prima. Dat kan ik goed begrijpen.
Maar zoals anderen ook al aanhaalden: waarom zou je jezelf onnodig limiteren in een creatief programma.

"Oh, ja we hebben alle tinten roze weggehaald uit Photoshop, want dat vonden we toch íets te risqué. Als je roze wilt dan maak je maar je eigen industriestandaard afbeeldingsbewerkingsprogramma voor die vunzigheid" :+
Ja dat is gewoon het punt, ik zie dit als een fancy versie van photoshop. Waarom moet er voor mij bepaald worden wat ik wel en niet mag maken? Gaat Adobe mij ook verbieden om NSFW artwork te maken?

Er is inderdaad momenteel een groot grijs gebied waar dit soort tools in vallen maar dat lijkt mij iets om juridisch uit te zoeken. Net zo als met deep fakes.

En ja kinderporno... Is het dat nog wel? Is het verboden een naakt kind te tekenen? Tenminste, een niet bestaand kind? Klinkt weer redelijk moreel, virtuele kinderporno. Je wilt het niet maar is het verboden?

Ik blijf er bij het is gewoon een digitaal tekenprogramma, laat mensen dan ook gewoon maken wat ze willen. Los de rest met wetgeving op.
En ja kinderporno... Is het dat nog wel? Is het verboden een naakt kind te tekenen? Tenminste, een niet bestaand kind? Klinkt weer redelijk moreel, virtuele kinderporno. Je wilt het niet maar is het verboden?
Dat is verboden, als je dus een "seksueel" kind tekent valt dat ook onder de term kinderporno. Gelukkig maar, denk ik dan. Uiteraard is het een pak moeilijker om te bepalen hoe oud of jong een "virtueel" kind is, en of het al dan niet seksueel tafereel betreft. Daarvoor bestaat gelukkig (?) een rechtbank / rechter.

Uiteraard is dit enkel een tool en NSFW eruit halen is een beetje gek. Maar sommige (open/westerse) landen iets preutser als het aankomt op porno. Ik neem aan dat daarom deze stappen zijn genomen.
Uiteraard is dit enkel een tool en NSFW eruit halen is een beetje gek
Het staat letterlijk in het artikel.
Het probleem is dat als het model getrained is met zowel foto's van kinderen (normale foto's) en foto's van NSFW content, dat de kans dan groot is dat het model beide begrippen kent en kan combineren, ook al kwam de combinatie niet in de data waarmee getrained is voor.
Je hebt dan dus ofwel de keuze om NSFW uit de trainingdata te halen, of kinderen.
En er is dus gekozen dat het nuttiger was om ook kinderen in de gegenereerde content te kunnen passen dan NSFW content.
Dat stel ik helemaal niet in vraag, ik kan ook naakte kinderfoto's maken met andere tekenprogramma's het is en blijft een tool.
Maar op dat moment ben jij de artiest en maak jij een bewuste keuze strafbaar materiaal te maken

Je kan prima stellen dat de artiest in deze de tool zelf is. De human operator in dit geval levert alleen maar de data aan voor het genereren.
Dat zou je kunnen stellen, maar dat heeft de wetgever -bij mijn weten- nog nooit gedaan. Ook zelf rijdende auto's zijn de verantwoordelijkheid van de eigenaar. Hoogstens gaan we een deel van de verantwoordelijkheid bij de bouwer leggen. Maar de auto gaat nooit de verantwoordelijkheid krijgen.
Ik ben het ten dele eens met je vergelijking. Ja, technisch gezien is de vergelijking accuraat

Maar bekijk ook de implicatie van de auto en het bijbehorende ontwerp. Daar is specifiek gekozen om de automatische moord functionaliteit uit te schakelen, net zoals deze tool er voor kiest NSFW functionaliteit uit te schakelen. In principe kan je dus stellen dat de technologie niet ingezet kan worden als middel om de wet te overtreden. (toegegeven dat het een glijdende schaal is)

Maar uiteindelijk kan je daarmee de overgebleven verantwoordelijkheid wel weer bij de mens neerleggen.
We zouden ons denk ik moeten afvragen of dat wel illegaal moet zijn. Lijkt me wijzer dat pedo's zich happy maken met virtuele "kinderporno" dan dat er daadwerkelijk slachtoffers vallen.
Als we pedofilie als ziekte aanzien, dan kun je toch niet virtuele (die nauwelijks van echt te onderscheiden zijn) beeldjes legaal maken? niet iedere pedofiel gaat ook effectief zedenfeiten plegen met minderjarigen. Maar waar een vraag is komt uiteindelijk een aanbod.
Dat is denk ik een slap argument. Immers is het doden van mensen ook illegaal maar zijn schiet spellen gewoon legaal. Man, ik durf zelfs te stellen dat er een factor 10k of 100k of nog meer meer mensen zijn die virtueel eindeloos mensen 'gedood' hebben t.o.v. mensen die daadwerkelijk in het echt mensen gedood hebben. Ik verwacht dan ook érg weinig correlatie tussen die 2 datapunten. :)
Terecht, mogelijks heb je een punt, mogelijks ben ik te kortzichtig. Maar ik zie de "fun" in seks met een (virtuele) baby echt niet ... Ik denk dat pedofielen in essentie zieke geesten zijn die we als maatschappij moeten pogen te genezen. Iets wat ik als gamer niet over mezelf vind als ik bijvoorbeeld GTA speel.

De reden waarom we virtueel doden wel leuk vinden is ongetwijfeld een boeiend psychologische discussie.
Het probleem waar je met die gedachtegang tegenaan loopt is dat het heel moeilijk is om een lijn te trekken tussen pedofilie enerzijds als 'ziekte' die 'genezen' moet worden, en álle andere vormen van seksueel 'afwijkende' interesses (homoseksualiteit, transseksualiteit, bdsm, etc etc...).

Want wat maakt pedofilie erger dan transseksualiteit? of homoseksualiteit?.. het argument dat er geen slachtoffer is en dat die andere iets betreft tussen volwassenen gaat niet op omdat:
- virtuele kinderporno heeft óók geen slachtoffer
- een niet insignificant aspect van de trans community is van mening dat een minderjarige wél kan beslissen dat ze van geslacht willen veranderen, en dit wordt in praktijk ook uitgevoerd (al dan niet met of zonder uitvoerig onderzoek en begeleiding van geestelijke welzijn professionals)

Al deze zaken liggen op een enorm spectrum van 'gezond' (ahum) enerzijds (missionary positie met als doel voorplanting of zo :P ) en totale allesvernietigende hedonistische chaos aan de andere kant.
Als de trend van de afgelopen decennia enige indicatie moge wezen dan zie je juist een verschuiving richting meer en meer acceptatie van steeds extremere seksueel afwijkende interesses en identiteiten en minder en minder toekenning van de term 'ziekte' aan diezelfde seksueel afwijkende interesses en identiteiten.
Dus in die zin ben ik eerder geneigd om te denken dat pedofilie meer en meer geaccepteerd zal gaan worden.
Efebofilie (16-18) en Hebefilie (12-16) zijn al sterk in opkomst kwa acceptatie.. Meiden beginnen op steeds jongere leeftijd met het ontwikkelen en toepassen van gedrag (sexy tiktok dansjes bijvoorbeeld) en uiterlijk (sexy kleding/makeup) welke als doel heeft aantrekkelijk te maken (voor het andere geslacht).
Het is zeker waar natuurlijk dat er een verschil is tussen pedofilie enerzijds en hebefilie/efebofilie anderzijds, namelijk het ontbreken van secondaire geslachtskenmerken welke pas tijdens pubertijd beginnen te ontwikkelen... maar óók dát is een slecht argument, want er zijn eindeloze fetishes die hélémaal niks met secondaire geslachtskenmerken te maken hebben.. of met geslacht überhaupt (wurgen bijvoorbeeld.. of voetfetishisme), en die worden doorgaans gewoon geaccepteerd.

Om dit alles (pedofilie en/of neppe kinderporno) dus tegen te werken moet je bijna een argument maken vóór 'preutsheid' welke vele/allen vormen van seksueel afwijkend gedrag/identiteit als iets onwenselijks beschouwd, en laat dat nou net níet een term zijn die vandaag de dag enorm populair is.

[Reactie gewijzigd door Ayporos op 22 juli 2024 13:44]

Het is inderdaad een zeer ingewikkeld onderwerp. Ik heb ook t idee dat in de reacties op jou er ook vaak geschreven wordt over pedofielen waar men kindermisbruikere bedoeld. Een naar mijn mening belangrijke nuance.

Dit vertalen naar het wel of niet virtuele kinderporno verbieden is bijna niet te doen. Ik denk inderdaad ook dat die acceptatie er steeds meer zal komen.
En juist de acceptatie van steeds meer extremere vorm van sexualiteit schaad de jongeren zelf die niet meer in staat zijn normale relaties aan te gaan. En dat is een groot maatschappelijk probleem. Pornografie is inmiddels al een geaccepteerde vorm van verslaving en dat is ook een graadmeter hoe schadelijk het daadwerkelijk is . En dan praten we veelal over de "mildere variant" van pornografie die verslavend is.

Afgezien van het feit dat er steeds meer diversificatie in terminologie komt in het begrip pedofilie duidt een push aan voor de acceptatie van deze individuele vormen van extremisme. Pedofilie fout, efebofilie goed, want ja, dat is ten dele 18+. En die tussenvariant? Laten we daar maar vaag over doen. Of nieuwe woorden verzinnen voor pedofielen om er een positieve spin aan te geven?

Nee, pedofilie is pedofilie. En dat is fout, einde discussie. (dat wil zeggen de klassieke definitie van oudere personen met interesse voor jonge personen)
Hoezo niet? Het hele punt van die wetgeving is het beschermen van kinderen. Als een paar regeltjes code dat soort plaatjes genereren is er geen enkel kind door geschaad. De kans is levensgroot dat toegang tot dit soort programma de vraag naar echte varianten (waar dus wel kinderen voor worden misbruikt) flink doet dalen. De kans is enorm het dus voor een afname van kinderleed en kindermisbruik zou leiden. Het bij voorbaat uitsluiten dat het de situatie kan verbeteren is gewoon dom, dogmatisch en anti-wetenschappelijk.

Er is onderzoek in beide richtingen nodig. Wat zijn de risico's, wat zijn de voordelen. Tot dat fatsoenlijk is uitgezocht zijn dit soort blanco verboden ook erg betuttelend.

[Reactie gewijzigd door Darkstriker op 22 juli 2024 13:44]

Het ligt eraan: draagt virtuele kp er aan bij dat ze in de verleiding komen om het echt te proberen of lukt het juist beter om van de minderjarigen af te blijven?
Goede zaak om daar onderzoek naar te doen, geen taboes en uiteindelijk evidence based wetgeving maken.
Stel dat die virtuele kp er wel toe bij draagt dat er criminele feiten gebeuren gaat dat onderzoek dat dus mede uitgelokt hebben. Ethisch dilemma
Maar sommige (open/westerse) landen iets preutser als het aankomt op porno.
Nee, de rest van de wereld is open, nou goed 8)7

Probeer eens met blote borsten op straat te lopen in Saoedi Arabie of Iran. Veel plezier met je steniging. In China is porno helemaal verboden, in Japan verbloemen ze de ter zake doende delen met rare blokjes.

Onze westerse wereld is helaas 'as good as it gets'. Wel word onze preutsheid vooral aangedreven door de VS/VK helaas. Sinds we helemaal fan zijn van Amerika is het hier ook toegenomen (denk bijv. aan de films in de jaren '80 met Tatjana). Maar daar moeten we ook eens wat meer van loskomen (zowel sociaal als economisch).

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 13:44]

Het zal ook vast meespelen dat het in staat was zeer realistische nudes te genereren van bekenden zoals Taylor Swift.
Och jee, wat ernstig. :+

Bah, gewoon niet zo aanstellen vind ik dan hoor. Elke aantrekkelijke vrouw die fotos/videos plaatst op het internet weet toch dat er legio mannen zijn die zich bevredigen kijkend naar dat materiaal?.. wat is nou het verschil tussen dat die mensen dat doen aan de hand van een 'echte' foto (laten we het nog niet eens hebben over gephotoshopte shit... wat blijkbaar dan weer wél mag???) of een neppe foto?.. lekker boeiend. :/
Anoniem: 532949 @Ayporos25 november 2022 20:04
Ten eerste mensen zoals Taylor Swift plaatsen zelf maar een heel klein deel van hun eigen foto's online, de rest beland daar via de media, pers, etc.

Het gaat om het bedrijf, die wil geen slechte naam krijgen of zelfs worden aangeklaagd.
Het gaat niet zozeer om wat jij er van vindt :).
Vertaal je opmerking eens naar je moeder of je zus....

Kom je ineens een porno tegen met het gezicht van je zus op de pornoactrice geplakt..
Vindt je het dan nog steeds geen issue?
Je begrijpt niet helemaal wat voor impact dit kan hebben op een persoon.
Er was laatst zelfs een docu van een Nederlandse presentatrice die dit was overkomen.

Je kijkt veel te veel met een mannelijke blik naar iets wat een wezenlijk probleem is geworden voor veel vrouwen.
Ah, het aloude "ja maar wat nou als het JOU zou overkomen" argument. Had een bekende nederlandse komediant daar niet jaaren geleden een stukje over? "Ja dán wel ja" of zo. ;)
Ja, als ik of mijn moeder of zus of iemand anders die me dierbaar is neergestoken wordt met een mes en daaraan overlijdt zou ik érg bedroefd zijn.. maar desondanks ben ik geen voorstander van het verbieden van messen.

Maar, we hebben het hier niet over een neergestoken dierbare.. we hebben het over iemand die naar porno surft en toevallig een porno tegen komt met zijn zus/moeder gedeepfaked.
Zou ik dat erg vinden?.. Nee, niet bepaald. Ik denk dat ik helemaal in de scheur zou liggen. Weer eens iets leuks om bij de volgende familiebijeenkomst te tonen "kijk eens wat ik nou toch gevonden heb op het internet!" :9

De impact die het kan hebben op een persoon, zoals jij het benoemd, is dus geheel afhankelijk van hoe die persoon er tegen over staat. En het zou dus ook, in mijn geval bijvoorbeeld, een positieve impact kunnen hebben: "Goh, dat er toch iemand is die mijn zus/moeder zó aantrekkelijk vind dat ze een deepfake porno gemaakt hebben! Wat leuk voor d'r."
Dus tja, als jij hiervan helemaal rood zou aanlopen, met het schuim bubbelend uit je mondhoeken, tja.. dat klinkt erg onprettig, maar dat is niet echt mijn probleem.

[Reactie gewijzigd door Ayporos op 22 juli 2024 13:44]

Dus alles is maar OK voor jou?
Is mijn inziens een wat bizar wereldbeeld.

En ja... Soms is even kijken hoe het jou of je naasten zou beïnvloeden niet verkeerd. Dat inzicht komt wellicht nog....
.
Nee zeker niet. Ik maakte de vergelijking met een steekpartij opzettelijk om aan te tonen hoe absurd en ridicuul het eigenlijk is om je op te winden over een deepfake porno ergens op het internet.
Als je er niet naar kijkt heeft het nul impact op je.
En als er vrienden/kennisen zijn die er wél naar kijken en jou daarmee pesten of belachelijk maken en op die manier een negatieve invloed op jou leven uitoefenen, dan zijn dat mensen die jou tijd niet waard zijn en snij je die uit je leven.

Jij vind het bizar dat ik me niet ophef over iets dat nul komma nul invloed op mij heeft?... tja, ik vind het bizar dat jij dat wél ernstig vind. En als het mijn naasten zou overkomen en het zou hen wél negatief beïnvloeden, dan zou ik ze net als ik hier gedaan heb adviseren om eens even stil te staan bij het feit dat het ze op geen enkele manier raakt en dat er ernstigere dingen zijn in het leven, zoals neergestoken worden, en dat het dus redelijk absurd is om hier helemaal depri/boos of wat dan ook over te worden.

Afin, misschien komt dat inzicht bij jou wellicht ook nog. ;)
Anoniem: 532949 @Ayporos25 november 2022 20:00
Dat dáár iets tegen gedaan wordt in de main-stream trunk, ja dik prima. Dat kan ik goed begrijpen.
Ben natuurlijk geen voorstander van dit soort content, maar is AI gegenereerd niet beter dan echte porno van minder jarige? Beter fake dan echt ?

[Reactie gewijzigd door Anoniem: 532949 op 22 juli 2024 13:44]

Ja en nee.

Ja, het is beter minder slecht in de zin dat er geen slachtoffer is..
Nee, het is niet goed in de zin dat je nog steeds iemand hebt die zijn/haar seksuele interesse in minderjarigen voedt en aanwakkert door de consumptie van zulk materiaal in plaats van dat die persoon actief tracht die urge of interesse te verminderen.
Maar die discussie leidt al snel in de richting van of (consumptie van) porno an sich slecht voor je is.
En om die discussie serieus te kunnen hebben moet je erkennen wat je kernwaarde voor het leven is.
plezier/genot vs productiviteit/voldoening.
Het consumeren van porno heeft geen enkele positieve impact op je productiviteit of voldoening in het leven.. het is enkel genot. "als enkel het hebben van genot en plezier het doel van het leven zou zijn dan zouden we allemaal in bedden aan een 24/7 heroine infuus liggen".. dát argument zeg maar. Dat masturbatie genot brengt betekent niet dat het een doel an sich is.. het genot is, vanuit een biologisch evolutionaire invalshoek, een middel om er voor te zorgen dat dieren zo veel mogelijk proberen zich voort te planten. En JUIST al dat masturberen zorgt er voor dat er minder prikkel is om anderen op te zoeken om seks mee te bedrijven en dus voortplanting te bewerkstelligen... wat dus niet goed is, als je even er van uit gaat dat je jezelf en je soort niet haat en zou willen dat onze soort, en als het even kan jou genen, blijven voortbestaan. :P

En ja, daar ben ik het zeker mee eens op zekere hoogte. Ja.. ook ik consumeer porno.. en ja, het is waarschijnlijk meer dan ik zou willen zou ik bovenstaande overtuiging écht ook willen nakomen.. maar desondanks vind ik dat vooralsnog, ondanks dat het enigszins hypocriet is, een betere en gezondere manier om ernaar te kijken dan "yolo doe gewoon lekker wat je wilt, #hedonism-4-evah" zeg maar.

Afin.. 't is een moeilijk onderwerp. :+

[Reactie gewijzigd door Ayporos op 22 juli 2024 13:44]

Zo als ik het lees gaat het wel wat verder dan porno.

Er zijn een hoop dingen uit de dataset gehaald, vooral vrouwelijk gericht, waardoor dus ook niet porno zoektermen een versoberde input hebben.

Dingen als verleidelijk bijvoorbeeld.

En waarom moet dat een keuze zijn die niet bij de gebruiker ligt?

Het is een stuk gereedschap, laat de persoon die het gebruikt bepalen wat hij er mee wil doen.
Maar dat kán dus al. Als je per se NSFW content of war dan niet al wil, dan maak je toch je eigen model? StableDiffusion is niemand wat verschuldigd in het toevoegen van dingen.
Op Artbreeder krijg je heel makkelijk naakte vrouwen. Vooral als je synoniemen gebruikt voor "onkuise" woorden. Dus in plaats van "naked woman with big tits" "undressed woman with large mammaries". Wel is nog steeds dat de AI 6 van de 10 keer een rare figuur genereert
Waarom hebben de mensen achter dit soort software zoveel moeite met hun vingers van resultaten af te blijven? Waarom moeten resultaten naar "zo wenselijk mogelijk" worden omgezet in plaats van "zo accuraat mogelijk"?

Zo ook DALLE-2, die ook liever wenselijke resultaten neerzet in plaats van accurate. De intentie tot manipulatie is reeds duidelijk.
Vervelend he, dat men soms ook het maatschappelijk belang afweegt... Ik zie ook niet echt hoe het beperken van deze functies de voortgang van deze technologie in de weg staat, dus wat is het probleem precies?
Vervelend he, dat men soms ook het maatschappelijk belang afweegt...
Overdreven grootspraak zoals "reinforcing stereotypes, erasing or denigrating them, providing them with disparately low quality performance, or by subjecting them to indignity" is geen maatschappelijk belang maar ideologische rommel.
Ik zie ook niet echt hoe het beperken van deze functies de voortgang van deze technologie in de weg staat, dus wat is het probleem precies?
Technisch niet.

Maar als eindgebruiker hecht ik daardoor minder waarde aan de implementatie van de techniek en de betrokken personen want ik wil accurate resultaten, niet wenselijke resultaten conform de ideologie van een ander.
Maak je geen zorgen, hier wordt in no time weer omheen gewerkt.

Stable moest dit waarschijnlijk doen voor juridische redenen
Vervelend he, dat men soms ook het maatschappelijk belang afweegt
Ja in het geval van censuur wel, iedereen die iets van geschiedenis en cultuur af weet begrijpt dat de cultuur van een maatschappij nooit stil staat. Hoe goed de bedoelingen ook zijn, lopen we meestal al achter de feiten aan als het gaat om censuur.
Censuur is ook al zou oud als beschaving, het is een hopeloze poging om de verandering tegen te gaan.
Ah daar is het buzzwoordje 'censuur' weer. Iedereen heeft er tegenwoordig plots de mond vol van, maar de definitie wordt zelden begrepen. Dit is geen censuur, want de ontwikkelaar is geen machthebbende partij. Bevalt het niet? Ga ergens anders heen...
Als jouw tooling gebruikt wordt om kiddy pr0n, deep fakes en andere ellende te creëeren dan heb je het vrij snel aan de stok met alles en iedereen. Het maakt niet uit of het terecht is of niet - je wil dit gewoon niet.
De techniek is open, de modellen (een resultaat van bepaalde technieken) zijn gecureerd. Ben je ontevreden, dan kun je je eigen trainingsdata samenstellen en een model trainen. De tools zijn beschikbaar, maar je hebt geen 'recht' op een model dat alles precies wel of niet doet zoals jij dat wil.
Het is vrij simpel: een machine learning algoritme gebruikt trainingsdata uit het verleden. Dus het loopt achter op de werkelijkheid. Daar moet je voor compenseren om van toepassing te zijn in de huidige maatschappij.
Aparte gang van zaken, die inderdaad veel weg heeft van censuur. Ik snap dat je misschien een NSFW toggle wilt maken voor bepaalde gebruikers maar compleet? En wat is NSFW? Ik vind dat bij kust nogal een vage grens. Is het beeld van David NSFW? Wil je dat censureren?

En dan de optie om de stijl van een kunstenaar te gebruiken. Tja dat is wat lastiger. Over het algemeen moet dat natuurlijk gewoon kunnen, zolang het maar duidelijk is dat het niet van die kunstenaar is. Iets in de stijl van Yoji Shinkawa maken bijvoorbeeld zou gewoon moeten kunnen. Ik kan mag het met de hand dus waarom niet automatisch? Meer een moreel vraagstuk dan een juridische denk ik.
Het is ook censuur. Het bedrijf kiest ervoor dat jij bepaalde dingen niet meer mag uiten met hun software.

In dit geval vind ik het een logische: je kon blijkbaar kinderporno genereren, en dat is voor het zoeken van funding meestal funest voor een bedrijf :)
(Tevens is de generatie van op kinderporno lijkende beelden in sommige langen illegaal)
Onzin. Het bedrijf kiest er voor jou niet te helpen met alles wat je wil. Je kan je nog steeds helemaal suf uiten net als vroeger voordat Stable diffusion een ding was.
Anoniem: 532949 @bzzzt25 november 2022 19:53
Het bedrijf kiest er voor jou niet te helpen met alles wat je wil. Je kan je nog steeds helemaal suf uiten net als vroeger voordat Stable diffusion een ding was.
fictief scenario als voorbeeld:
Als luchtvaart maatschappijen geen arabieren willen vervoeren zou je het zelfde kunnen zeggen, ze kunnen gewoon op de manieren blijven reizen zoals ze dat al deden voordat er vliegtuigen waren (auto's, treinen, kamelen etc) maar dat vindt men vandaag de dag toch niet zo tof.

Nu kan het hele NSFW gebeuren niet veel schelen, er word namelijk ook veel misbruik van gemaakt, zoals nep materiaal genereren van bestaande mensen etc. Dus ik begrijp de beslissing van het bedrijf.
Je moet wel onderscheid maken tussen Stable diffusion als commercieel product en de gebruikte techniek. Jouw voorbeeld gaat er vanuit dat alle bedrijven samenspannen om de techniek ontoegankelijk te maken voor een bepaalde groep. Dat is hier zeker niet het geval. De techniek is open source dus zelfs toegankelijker geworden.
Ja, je kunt ergens anders heen om er onder uit te komen. Maar dan is er nooit censuur: je kan altijd ergens anders heen.

SD beperkt op hun platform wat je mag zeggen, en dat is censuur:

> Censuur is het gebruiken van de macht van de staat, een andere controlerende macht, een bepaalde groepering, of van bepaalde individuen, om informatie achter te houden of de expressie aan banden te leggen.

We zeggen bijvoorbeeld ook dat programma op televisie worden gecensureerd als dat grove woorden worden “gebliept” of dat er zwarte balkjes over de borsten gaan.

[Reactie gewijzigd door MatthijsZ op 22 juli 2024 13:44]

Wat NSFW is, ligt ook heel erg aan wat voor werk je doet... Het oudste beroep van de wereld heeft iets andere standaarden dan als je als jurist naar kantoor gaat... ;-)

Ik heb zo een vermoeden dat het issue niet zozeer NSFW is, maar dat de makers teveel aandacht krijgen van de verkeerde personen die wellicht klagen over 'misbruik'. Dan er maar uit, het code is opensource, binnen notime zal er een patch/fork voor zijn, maar niet langer het issue van de maker...
In de gewone wereld staat het je vrij om een kunstenaar te imiteren of je sterk te laten inspireren door een stijl, dus het lijkt mij dat dit wel een onhoudbare beslissing is.
De software wordt ondersteund door veel gpu's met 8GB of meer geheugen
Werkt het gewoon helemaal niet als je een videokaart hebt met minder dan 8GB?
deze niet, maar er zijn forks die wel werken op GPU's met minder
bv: https://github.com/basujindal/stable-diffusion
Nog een alternatief die ook op minder vram werkt en met een web interface komt https://github.com/AUTOMATIC1111/stable-diffusion-webui/
Ook daar moet je niet al te veel willen,zodra de het aantal pixels boven de +/-500k komt dan is het op mijn 3070m 50% kans dat hij er mee kapt.

Helaas loopt AMD weer hopenloos achter met dit soort dingen. Geen ROCm op Windows en je kan dit ook niet voor elkaar krijgen via een Docker container in WSL2. Er zijn wel versies die op een AMD kaart werken op Windows alleen daarin is mijn 6900 XT een factor x trager dan mijn trage Nvidia laptop kaart.
Ik moet het nog testen maar de performance op Linux is waarschijnlijk een heel stuk beter door ROCm. Wellicht binnenkort maar eens testen gezien ik sowieso al van plan was om van Windows over te stappen, het enige wat me nog tegenhield was dat niet alle games draaien (gelukkig hebben we de SteamDeck :P).
Je kan een kleiner data model gebruiken met minder goede resultaten.
Een ander komt dan wel met software die niet preuts doet.
Die software zal dan winnen, met alle respect, sex sells.

Internet was niet hetzelfde succes geweest zonder porno immers.
Je kunt er iets van vinden, maar de knapste koppen zitten in de nsfw Discords om de resultaten van Stable Diffusion naar een hoger niveau te tillen. Die wil je juist aan boord houden. Bovendien kun je je afvragen hoe slim het uberhaupt is om zo'n ristrictie in open source software te bouwen, dat wordt er natuurlijk in no time weer uitgesloopt.

Dit lijkt me meer een nieuwsbericht van een marketingpersoon dan een daadwerkelijke strategie.

Edit:
Bij nader inzien is het waarschijnlijker dat het juridische redenen heeft.

[Reactie gewijzigd door Sebben op 22 juli 2024 13:44]

Naakt is toch ook een vorm van kunst. Je zou toch gewoon een vinkje kunnen inbouwen met ik will nsfw content genereren of niet ipv het compleet onmogelijk maken?
Het is opensource. Mensen moeten niet klagen over aanpassingen in een opensource library.

Als het je niet bevalt, fork je de repo en haal je de commits er zelf maar weer uit.
De keuzes die voor zo'n project worden gemaakt is aan de engineers en niet aan een eindgebruiker die zit te spuwen op Reddit.
Ik ben het met je eens en oneens. Als het jou project is dan heb je natuurlijk alle recht om te doen en laten wat je wilt maar als je het publiek maakt dan moet je ook kunnen accepteren dat je gebruikers hebt die een andere mening hebben. Uit eindelijk is de kracht van open source ook dat je het project crowdsourced. En je accepteert werk van andere in je project.

Ja je kunt het forken, maar je mag ook zeker je mening geven. Het is toch niet zo dat alleen positieve feedback is toegestaan?

En anders is zo een mentaliteit juist de dood van open source. Waarom open-source gebruiken als er niet geluisterd word naar jou use case? En dan niet die ene hele specifieke maar ook maar veel anderen gebruik van maken.
Ik zie het juist tegenovergesteld, ook bij mijn eigen open-source projecten. Als je een specifieke use-case hebt waar mijn code niet op aansluit staat het je vrij om mij of iemand anders in te huren om compatibiliteit toe te voegen.
Dus je sloopt regelmatig veelgebruikte functionaliteit uit je project?

Ik sloot namelijk dat soort cases uit. Het gaat hier immers om een enorme versobering van functionaliteit die meer dan alleen de bedoelde zaken treft.

Het gaat nogal in tegen het idee van open source.

[Reactie gewijzigd door LOTG op 22 juli 2024 13:44]

Het hele idee van open source is dat je de software kan en mag aanpassen naar eigen smaak. Dat kan nog steeds, je kan in principe zelf je afbeeldingsverzameling door de encoder halen en een ander neuraal netwerk bouwen. Kost wel een paar knaken, maar de gedachte van open source is echt niet dat alles maar gratis moet zijn.
Ik zie dit soort argumenten ook vaak als het gaat over de, aardig controversiële , GNOME project.

Open source/free software is echt alleen dat: de code is (vrij) beschikbaar met een bepaalde licentie. Het heeft niks met democratie, user input of enig organisationeel beleid te maken. Wie de code schrijft, bepaalt namelijk wat mogelijk is met de software.

Mensen klagen altijd heel veel, maar als dat niet resulteert in code en een organisatie, dan gebeurt er nauwelijks tot niks. Daar is GNOME nogmaals een goed voorveeld. Je hebt ook forks zoals Cinnamon. De klagers hebben niks.
Daar heb je helemaal gelijk in. Iedereen heeft het recht om zijn mening te uiten.

Echter merk ik wel vaker dat mensen het benaderen alsof het een gekocht product is met een koopovereenkomst.

Semantic versioning stelt duidelijk dat een nieuwe major version breaking changes kan bevatten en dus niet backwards compatible hoeft te zijn.

Een opensource project hoeft niet per se naar de usecase van een potentiële eindgebruiker te luisteren. Dat is juist het mooie eraan, je kan de code gewoon overnemen en aanpassen naar jouw usecase. Het staat je vrij om te doen en laten met de code wat je wilt.

Op dit item kan niet meer gereageerd worden.