Getty klaagt Stable Diffusion-maker aan vanwege 'misbruik' afbeeldingen voor AI

Stockfotodatabank Getty Images heeft Stable Diffusion-maker Stability AI aangeklaagd. Getty claimt dat Stability AI ongeoorloofd gebruik heeft gemaakt van Getty's afbeeldingen om de Stable Diffusion-tool te kunnen ontwikkelen.

Stability AI maakt volgens Getty Images inbreuk op de auteursrechten van Getty omdat het bij het aanleren van Stable Diffusion 'miljoenen' afbeeldingen van Getty heeft gebruikt. De AI-ontwikkelaar zou hiervoor niet de juiste licentie van Getty hebben afgenomen, terwijl Getty deze wel zegt aan te bieden.

Tegen The Verge zegt Getty Images-ceo Craig Peters met de rechtszaak duidelijkheid te willen krijgen over het gebruiken van auteursrechtelijk beschermd materiaal voor AI-doeleinden. De AI-ontwikkelaars zeggen vaak dat hun gebruik onder fair use valt, terwijl de rechthebbenden het hier meestal niet mee eens zijn. Getty zegt dan ook niet per se tegen dergelijke AI-tools te zijn, maar het wettelijke kader duidelijk te willen krijgen.

Vanwege die auteursrechtzorgen verbood Getty eerder het uploaden van door AI gemaakt beeldmateriaal. Stability AI maakt het sinds kort ook mogelijk voor rechthebbenden om zich af te melden van Stable Diffusion, waardoor hun werk niet meer wordt gebruikt om het AI-model te trainen. Stability AI wil nog niet reageren op de rechtszaak. Getty spande de rechtszaak in het Verenigd Koninkrijk aan. Eerder spanden drie Amerikaanse kunstenaars een vergelijkbare rechtszaak aan, onder meer tegen Stability AI.

Afbeeldingen gemaakt met Stable Diffusion 2.0

Door Hayte Hugo

Redacteur

17-01-2023 • 14:45

299 Linkedin

Reacties (295)

295
289
161
13
0
80
Wijzig sortering
Beetje hetzelfde als een kunstschilder verbieden om rond te kijken in een museum? Want hij zal zn eigen werk laten inspireren van wat ie daar ziet?

Denk dat het auteursrecht op de schop moet. Ik denk dat menselijke "creators" op zoek moeten gaan naar een andere manier om waarde toe te voegen en niet meer moeten leunen op royalties (waar vaak allerlei tussenpartijen meer aan verdienen dan de auteur/maker zelf).
Misinformatie over dit onderwerp

Als ik twee afbeeldingen van het internet pluk en deze 50/50 samensmelt in photoshop, krijg ik een lelijk amalgamaat dat wel degelijk inbreuk maakt op het auteursrecht van de oorspronkelijke artiesten. Het is niet mijn werk maar ik maak er wel derivaten van zonder toestemming.

Als ik ditzelfde principe toepas, maar eerst een noise algoritme gebruik, de beide noised images dan samenvoeg en vervolgens een omgekeerd denoising algoritme erop los te laten, krijg ik een mooi amalgamaat. Is het dan opeens geen inbreuk op het auteursrecht meer? Daar denken de experts gelukkig anders over.

Het is niet jouw werk om maar te gebruiken voor welke doeleinden dan ook, onder het mom van "rondkijken in een museum". Je hebt het recht niet om andermans werk zomaar te gebruiken. Dat is wettelijk geregeld in de vorm van copyright oftewel auteursrecht.

Auteursrecht

Het auteursrecht geeft de artiest vanaf het moment van creatie en zonder vereisten voor registratie, onder meer de volgende alleenrechten. Deze rechten hebben een geldigheid tot 70 jaar vanaf de eerste januari na het overlijden van de auteur.

- Het recht op publicatie en vertoning
- Het recht op kopiëren en verveelvuldiging
- Het recht op het maken van afgeleiden
- Het recht op commercialisatie
- Het recht op de overdracht van het auteursrecht naar een ander
- Het recht op het licenseren van het werk voor specifiek gebruik door een ander

Inspiratie opdoen versus maken van afgeleiden

Het valt me op dat in topics over dit onderwerp een significant aantal tweakers gebruikers überhaupt niet eens weten wat het auteursrecht inhoudt of wat het verschil is tussen inspiratie opdoen en plagiaat. Inspiratie opdoen is simpelweg een andere verwoording voor het krijgen van ideeën na het verwerken van ervaringen. Dit kan inderdaad op basis van bestaande kunstwerken zijn, hoewel in de meeste gevallen persoonlijke ervaring van de echte wereld de basisbron voor een idee is.

Het maken van afgeleiden is iets anders. Dit houdt in dat bestaande kunstwerken gebruikt worden, in welke vorm dan ook, om hier nieuwe werken van te maken. Een eenvoudig voorbeeld is het kopiëren van een digitale afbeelding, de "puurste" vorm van dit principe. Denk ook aan het veranderen van de resolutie of oriëntatie. Een ander voorbeeld is het uitknippen van delen van een afbeelding, hoe eenvoudig of complex je dit wil doen. Photoshop leent zich hier zeer goed aan. Evenals aan het maken van wijzigingen in bijvoorbeeld de kleurensamenstelling of het toepassen van filters. Je kan ook een plaatje overtrekken, analoog of digitaal. Ook dat is het maken van een afgeleide. Zo zijn er nog vele voorbeelden te bedenken, maar cruciaal hierin is dat er gebruik wordt gemaakt van een nieuw werk.

AI maakt afgeleiden, het kan geen inspiratie opdoen

Op deze pagina is een duidelijk voorbeeld gegeven van de werking van diffusie-gebaseerde AI image generators. Het programma neemt bestaande kunstwerken en voert hier een statistische berekening op uit om het om te vormen tot "ruis". De berekening en de ruis (met drastisch lagere hoeveelheid informatie) worden intern bewaard. Met een omgekeerde berekening kan een lossy kopie van het origineel opnieuw verkregen worden.

Ditzelfde principe kan worden toegepast op combinaties van meerdere dergelijke noised images tegelijkertijd, waardoor het resultaat een meer esthetisch plezante samenvoeging van de input wordt. Zie wederom de voorbeelden op de gelinkte website. Door dit mechanisme samen te voegen met een metadata processor, kan de gebruiker met een prompt specificeren welke soort informatie er in het resultaat moet komen en dus welke bronnen uit de dataset gebruikt moeten worden.

De AI, of eigenlijk het machine learning algoritme, weet verder niet beter. Het is niet GAI zoals je van science fiction wellicht kent. Het zijn geen cognitieve robots die daadwerkelijk kunnen nadenken, het zijn programma's die zeer specifiek exact uitvoeren waarvoor ze geprogrammeerd zijn. Deze programmas functioneren uitsluitend op basis van bestaande werken, waarvan het gros beschermd door het auteursrecht. Er is dus feitelijk spraken van het maken van afgeleiden en niet verrassend dat er eindelijk maar toch rechtzaken gaande zijn tegen de respectievelijke bedrijven.

Analogie

Omdat intellectueel eigendom een nogal abstract onderwerp is, helpt het om analogieën met fysiek eigendom te maken. Stel, een bedrijf ontwikkelt een nieuwe technologie waarmee het mogelijk wordt om van duizenden huishoudens tegelijk objecten te ontvreemden, deconstrueren en herconstrueren, om vervolgens te herdistribueren. Elk weldenkend mens heeft direct in de gaten dat dit onethisch is en aangemerkt wordt als diefstal. Ditzelfde principe geldt ook voor intellectueel bezit, zoals een kunstwerk dat je gemaakt hebt. Als iemand die gebruikt zonder jouw toestemming, is dat auteursrechtenschending.

Enkele hardnekkige mythes

Ik zie een aantal bekende gebruikersnamen in deze draad misinformatie verspreiden over dit onderwerp om het gebruik van AI te verdedigen, en erger nog dat deze reacties hoge scores krijgen ondanks volledig onjuist zijn. Het is dweilen met de kraan open om op elk van deze personen te reageren, wetende dat ze zich toch verzetten. Dus in plaats daarvan ontkracht ik hier enkele veelvoorkomende leugens/mythes.

"Maar Stable Diffusion slaat geen afbeeldingen op"

Doet er niet toe. De wetgeving maakt geen uitzondering als de methode van plagiaat geen opslag van het origineel vereist. Als ik iemands werk overtrek en het origineel vernietig, heb ik nog steeds plagiaat gepleegd. Overigens bestaan de datasets waar de algoritmes veelvuldig gebruik van maken, zoals LAION, wel degelijk uit exacte kopieën. Dat AI modellen een intermediaire dataset van de noised varianten gebruiken, of de dataset niet zelf opslaan maar dit door een ander bedrijf laten doen, is eveneens niet relevant. Er wordt nog steeds gebruik gemaakt van bestaande auteursrechtelijk beschermde kunst. Hierom zijn er dan ook rechtzaken.

"Er vindt geen knip- en plakwerk plaats"

Dit is een onjuiste stelling. Er wordt informatie uit afbeeldingen gehaald en verwerkt. Deze informatie kan met het algoritme weer in een bijna 100% kopie van het origineel omgezet worden. Als er niets gekopieerd zou worden, zou dit onmogelijk zijn.

"Het is fair use"

Ten eerste erkent men met deze stelling dat er al sprake is van het gebruik van auteursrechtelijk beschermd materiaal, anders zou je niet in aanraking met deze clausule komen. Ten tweede is het geen fair use omdat de voorwaarden hiervoor geschonden worden, hieronder benoemd.

1: Er mogen geen negatieve gevolgen ontstaan voor de artiest ten gevolg van het gebruik van diens oorspronkelijke werk. AI schendt dit op extreem grote schaal en brengt zelfs het beroep van de auteur in gevaar.

2: De hoeveelheid van en mate waarin een werk gebruikt wordt is beperkt. Zo is er bijvoorbeeld een limiet van, iirc, 10% voor het gebruik van bestaand werk in een nieuw werk van literatuur. AI probeert zoveel mogelijk visuele informatie uit het origineel te halen en is ook in staat om een vrijwel exacte kopie terug te krijgen, en voldoet dus ook niet aan beperkingen op dit front.

3: De aard van het gebruik is van belang. Gebruik voor educatieve doeleinden weegt positief terwijl gebruik voor commerciële doeleinden negatief weegt. Dit weten de AI-bedrijven maar al te goed en daarom hebben ze een bedrijvenconstructie opgezet om te doen alsof ze altruïstisch bezig zijn. Het ene bedrijf doet alsof het onderzoek doet voor wetenschappelijke non-profit doelen, maar speelt vervolgens de data door naar het bedrijf dat winstoogmerk heeft. Data laundering. Duidelijk nog een fair use factor waar niet aan voldaan wordt in het totaalplaatje.

4: De aard van het oorspronkelijk werk speelt ook mee. Is het werk bijvoorbeeld bedoeld voor educatie, of voor het maken van winst? AI ontwikkelaars geven hier niets om en voegen diens werk toe aan de dataset. Sterker nog, dit doen ze ook als gebruikers expliciet aangeven dat ze hun werk niet toestaan voor gebruik door AI.

"Het is net als Photoshop en schilderspullen"

Nee, dat is het niet. Dergelijke dingen zijn instrumenten/tools voor een artiest: objecten of programma's die de artiest ondersteunen om manueel wijzigingen op een canvas aan te brengen, middels diens eigen intellectuele en creatieve inspanningen.

AI image generators omzeilen dit proces volledig en elimineren elke ruimte voor artiesten om hun eigen aanpassingen te doen. Er is geen ruimte voor intellectuele en creative inspanningen tijdens het proces om de afbeelding te maken. Derhalve worden dergelijke werken niet eens als auteursrechtelijke kunstwerken beschouwd, volgens de U.S. Copyright Office.

Stellen dat AI simpelweg een instrument is, is hetzelfde als je vriend opdracht te geven om een schilderij van een kat voor je te maken en dan te doen alsof je dit zelf gemaakt hebt.

Daarnaast is het zo dat instrumenten niet inherent gebruik maken van bestaande kunstwerken. Je kan prima een kwast hanteren zonder dat hiervoor het schilderij van je buurman nodig is. AI is hier niet toe in staat en functioneert niet eens zonder bestaande werken. Met een instrument kan je tevens plagiaat plegen. Met AI kan je niet géén plagiaat plegen, aangezien er tot heden geen enkele generator bestaat die uitsluitend gebruik maakt van afbeeldingen zonder auteursrecht / in het publieke domein.

"Stijl is niet auteursrechtelijk beschermd"

En dat klopt! Stijl is inderdaad niet beschermd, evenals ideeën. Maar dat maakt in deze discussie niets uit, het is niets meer dan een misdirectie van het daadwerkelijke probleem: het gebruik van auteursrechtelijk beschermd materiaal zonder toestemming. Niet de stijl, maar het werk.

"Alles wat op internet staat is vrij spel, daar moet je maar rekening mee houden"

"Alles wat zich in jouw huis bevindt is vrij spel, daar moet je maar rekening mee houden." Volgens mij is deze vrij duidelijk en hoef ik dit niet verder uit te leggen.

Conclusie

AI image generators, in hun huidige vorm, zijn programma's voor het geautomatiseerd plegen van plagiaat. Iedereen die het tegendeel beweert heeft geen flauw benul van de auteursrechtenwetgeving of de werking van dergelijke programma's. Ze zijn enkel geïnteresseerd in het verkrijgen van een 'vaardigheid' die ze voorheen niet hadden, namelijk het eenvoudig maken van kunst. Dat dit over de rug van hardwerkende artiesten gebeurt, die jarenlang hun vaardigheden verbeterd hebben, doet ze niets. Dat artiesten hun baan verliezen en onmogelijk kunnen concurreren met technologie dat doelbewust hun eigen kunstwerken gebruikt voor commercieel gewin, tja, dat moeten we ook maar voor lief nemen. Welkom in de dystopische toekomst!
Je presenteert je meningen als feiten. Mijn voornaamste probleem is je stelling "AI maakt afgeleiden, het kan geen inspiratie opdoen".

Je onderschat de mate waarin menselijke neurale netwerken hetzelfde werken als een AI. Natuurlijk zijn wij veel gecompliceerder, er zit veel meer nuance in ons brein. Maar de basis is hetzelfde.

Mijn grootste probleem met jouw mening is dan ook, dat als ik het er mee eens zou zijn, ik ook zou moeten vinden dat copyrights voor mensen veel strenger moeten worden gehandhaafd, en uiteindelijk is dat wmb. niet in het voordeel van 'de mensheid' en haar creatieve en technologische ontwikkeling.

[Reactie gewijzigd door ProperlyDecent op 17 januari 2023 19:35]

Je onderschat de mate waarin menselijke neurale netwerken hetzelfde werken als een AI. Natuurlijk zijn wij veel gecompliceerder, er zit veel meer nuance in ons brein. Maar de basis is hetzelfde.
Sorry, maar je overschat de mate van overeenkomst enorm. Ja, neurale netwerken binnen AI zijn geïnspireerd op het menselijk brein, maar ze verschillen enorm.

Allereerst is de representatie van een neuron binnen AI een oversimplificatie van een biologische neuronen. Biologische neuronen zijn veel complexer dan een node en wat gewichten.

De neurale netwerken bij AI zij zo goed als altijd hardcoded: de links tussen de neuronen worden bepaald door de programmeur, de gewichten door het trainen. (Een laagje van dit, een laagje van dat, hier nog convolutionele laag met deze afmetingen...) Biologische netwerken en de links daarbinnen zijn veel flexibeler.

AI is veelal ook gericht op 1 specifieke taak, terwijl biologische neurale netwerken een uitgebreid takenpakket hebben.

Eén van de belangrijkste onderdelen van artificiële neurale netwerken, namelijk backward propagation, zou zelfs niet mogelijk zijn in het menselijk brein volgens neurologen.

De mooiste weggever waarom je het menselijk brein niet kan gelijk zetten met huidige neurale netwerken is misschien nog wel de belachelijke grote hoeveelheid data die nodig is om een ANN te trainen: een ANN heeft veel meer voorbeelddata nodig dan een mens om bijvoorbeeld een object te herkennen.

Veelal maakt een mens ook eerder gebruik van iets dat lijkt op reïnforcement learning, terwijl ANN eerder supervised learning gebruiken.

Een aantal van de bovenstaande punten komen van https://theconversation.c...thats-not-the-case-183993
Mijn grootste probleem met jouw mening is dan ook, dat als ik het er mee eens zou zijn, ik ook zou moeten vinden dat copyrights voor mensen veel strenger moeten worden gehandhaafd
Waarom zou dat? AI en het menselijke brein verschillen immens. AI heeft wel een kleine basis die geïnspireerd is op het menselijk brein, en er is dus - om uw woorden te gebruiken - een gemeenschappelijke basis, maar het kent geen flexibiliteit, geen creativiteit. Het is een wiskundige constructie gemaakt door mensen en onder de volledige controle van mensen, en dus ook de verantwoordelijkheid van de mensen die het gemaakt hebben.

Als we uw redenering moeten volgen omwille van een gemeenschappelijke basis tussen mens en AI, dan stel ik voor dat we zaken als copyright, privacywetgeving, etc. eerst van toepassing maken op dieren: de gemeenschappelijke, biologische, basis tussen dier en mens is immers vele malen groter dan deze tussen mens (kunstenaar) en AI. (En dan maar hopen voor mijn kat dat een van haar producties niet te veel op een lachend kakske lijkt 😉)
De aanname dat de basis hetzelfde is, is niet juist. Dat is al meermaals door onderzoekers uitgelegd. Voor een simpele uitleg, zie hier: https://thenextweb.com/ne...se-they-learn-differently. Conclusies die je op basis van die aannames doet, zijn dus ook onjuist.
Er is overlap, hoe 'hetzelfde' je dat vindt is nogal subjectief. Ik vind de principes van het leren genoeg overeen komen om te stellen dat een AI inspiratie haalt uit trainingsdata, net als mensen dat doen.
Je presenteert je meningen als feiten.
Zo jammer, deze heb ik al eerder gehoord en had ik kunnen weerleggen. Nee, het zijn feiten, maar feiten die jij niet graag hoort omdat het tegen je eigen mening indruist.
Mijn voornaamste probleem is je stelling "AI maakt afgeleiden, het kan geen inspiratie opdoen".

Je onderschat de mate waarin menselijke neurale netwerken hetzelfde werken als een AI.
Nee, jij overschat deze. Ik kan een aantal kantjes besteden aan de uitleg waarom een menselijk brein niet eerst duizenden tot miljoenen afbeeldingen van het internet haalt, vervolgens een statistisch algoritme hierop toepast en daarna middels een prompt op zeer deterministische wijze informatie samenvoegt tot amalgamaten. Maar het is makkelijker om te redeneren dat als mensen en AI op gelijke wijze werken, dat ook AI zich netjes aan de auteursrechtenwetgeving dient te houden.
Mijn grootste probleem met jouw mening is dan ook, dat als ik het er mee eens zou zijn, ik ook zou moeten vinden dat copyrights voor mensen veel strenger moeten worden gehandhaafd, en uiteindelijk is dat wmb. niet in het voordeel van 'de mensheid' en haar creatieve en technologische ontwikkeling.
Naast dat wat ik genoemd heb meer feitelijk dan opinie is, zullen we inderdaad hierin verschillen. Ik denk dat het goed is om de rechten van artiesten te waarborgen. Intellectueel bezit is net als fysiek bezit wettelijk geregeld. Als jij iets maakt, is het volstrekt logisch dat jij daar een zekere mate van alleenrecht op hebt. Of dat nu fysiek of intellectueel eigendom is. Als jij een schilderij maakt, mag ik deze niet zomaar namaken. Dat is hoe het nu feitelijk geregeld is in de wet. Kan je gerust een mening noemen maar dat is het dus niet.
Wij gaan het niet eens worden, dus ik zal mijn standpunten niet herhalen, al vind ik het vermoeiend dat je herhaalt dat je mening een feit is, wat het niet is, maar goed.

Ik denk dat dit het grote juridische vraagstuk gaat worden van de komende jaren. Als we jouw definitie van 'afgeleid werk' nemen wordt de ontwikkeling van AI flink afgeremd, als we die van mij nemen worden 'klassieke' artiesten minder waardevol.

Ik ben er zelf voor dat mensen op deze nieuwe trein springen en haar leren te besturen, in plaats van haar te ontsporen, maar ik snap die behoefte wel. Veranderingen zijn eng. Maar als je als slimme artiest nu leert AI te gebruiken ipv. te bevechten, kan het je ook bevoordelen. Ik zie dit als net zoiets als computers, internet, en smartphones - het zijn van die dingen die grote veranderingen teweeg brengen, maar uiteindelijk niet meer weg gaan, dus dan kan je ze maar beter leren te gebruiken. /soort_van_rant
En ik vind het vermoeiend dat je mijn onderbouwde feiten wegzet als mening puur omdat je het er niet mee eens bent.

Begrijp me niet verkeerd, ik ben niet tegen AI an sich. Ik vind ook dat dit doorontwikkeld moet worden en enorme bijdragen kan leveren. Maar doe het dan wel op een manier waarop bestaande rechten niet geschonden worden, door bijvoorbeeld uitsluitend gebruik te maken van afbeeldingen in het publieke domein.
Maar als je als slimme artiest nu leert AI te gebruiken ipv. te bevechten, kan het je ook bevoordelen.
Als je AI gebruikt om iets voor je te laten maken, ben je zelf de artiest niet. Bovendien zijn slimme artiesten een andere weg ingeslagen. Omscholing bijvoorbeeld. Slimme artiesten zien de bui al hangen en weten dat ze geen toekomst meer hebben dankzij AI image generators, ongeacht de uitkomst van rechtzaken.
Je laatste alinea doet me pijn aan mijn creativiteit. Als je zo simplistisch denkt ga je inderdaad last krijgen van deze ontwikkelingen. En op basis er van begrijp ik ook beter je meningen.
Ik ben wel degelijk een artiest. Ik zal aan je terugdenken over een paar jaar, wie weet krijg je gelijk :)
Ja mooi verhaal, maar wel geschreven vanuit het oude idee dat enkel mensen kunst kunnen maken en dat die mensen van “diefstal” beschermd moeten worden.
Dit is een nieuw tijdperk waarbij het juridische raamwerk gemoderniseerd moet.
Het is toch van de zotte dat werk tot na 70 jaar(!) na overlijden pas publiek domein wordt?

En vergeet niet dat er vele duizenden mensen decennia hebben gewerkt om AI zover te krijgen zoals nu.

Er verdwijnen banen (dorpsomroeper, lantaarnaansteker, etc) en er komen banen bij. Bijvoorbeeld mensen die weten hoe je een goede prompt voor AI kunt formuleren zodat de opdrachtgever tevreden is met het resultaat :)
Ja mooi verhaal, maar wel geschreven vanuit het oude idee dat enkel mensen kunst kunnen maken en dat die mensen van “diefstal” beschermd moeten worden.
Auteursrechtenwetgeving bestaat nog maar enkele eeuwen en is dus veel jonger dan wetgeving tegen diefstal. Vind je laatstgenoemde ook ouderwets en moet het maar afgeschafd worden?
Dit is een nieuw tijdperk waarbij het juridische raamwerk gemoderniseerd moet.
De huidige iteratie van auteursrechtenwetgeving in zowel de VS als EU is nog niet zo oud en al vrij goed aangepast aan de digitale samenleving. Overigens werkt dit argument ook in jouw nadeel in dat het net zo goed strenger gemaakt kan worden om massale plagiaat door AI tegen te gaan.
En vergeet niet dat er vele duizenden mensen decennia hebben gewerkt om AI zover te krijgen zoals nu.
Dit is volstrekt irrelevant. Als er duizenden mensen decennia lang gewerkt hebben aan een technologie dat van vele huishoudens tegelijk automatisch dingen steelt, reken maar niet dat het goedgekeurd wordt onder het mom van vooruitgang. Nieuw is niet altijd beter. Ander voorbeeld is de atoombom. Veel geluk er eentje te bouwen zonder de politie op je stoep te krijgen.
Er verdwijnen banen (dorpsomroeper, lantaarnaansteker, etc) en er komen banen bij.
Dat zal best, maar het gaat om de manier waarop. Ik ben het er niet mee eens dat een beroep hoort te verdwijnen door een technologie dat in het kader van ditzelfde beroep de wet keihard overtreedt. Ik zal nooit en te nimmer accepteren dat artiesten hun baan verliezen door een algoritme dat hun eigen kunstwerken tegen ze gebruikt. Dat is oneerlijk en onethisch. Dat snap je zelf ook wel.
Ik snap je duidelijke 'frustratie' rond dit onderwerp (zo lees ik het ten minste) maar dit zijn natuurlijk ongekende tijden en brengt duidelijke 'problemen' met onze huidige wetgeving (en denkwijze) naar voren. Ook negeer je volledig dat er wel degelijk menselijke interactie bij komt kijken (hoe klein ook).

De vraag, wie is de kunstenaar, is nog niet eens vastgesteld. Machines mogen geen auteursrecht hebben dus is het degene die de keywords intikt? Of de kunstenaar waarvan de 'stijl' is afgeleid? Allemaal grote vragen die nog beantwoord moet worden en daar zal wetgeving ook op afgesteld moeten worden.

Auteursrecht professor Egbert Dommering voorspelde in 1994 al dat het auteursrecht zou wegspoelen door het elektronisch vergiet dat het internet heet. Hij voorzag een crisis voor het auteursrecht omdat het internet de mogelijkheid biedt beschermde werken onbeperkt te kopiëren en verspreiden. Waar hij in 1994 nog niet aan dacht, was dat ook de creatie van die werken zou worden overgenomen door technologie.

Niet alleen zal kunstmatige intelligentie in de toekomst zelfstandig boeken kunnen schrijven. Robots kunnen ook zonder menselijke tussenkomst foto’s, films, muziek en andere vormen van kunst en entertainment maken.

Niemand kan hier verder een 'conclusie' trekken.
Dat moet bepaald worden door een rechtbank, niet een sociaal netwerk.
De menselijke interactie zijn op zich niet fout.
Het maakt gewoon een te klein deel uit om dat onder 'fair use' te scharen.

Wie is de kunstenaar?
Dat is gewoon de maker van de AI, wiens mensen het process ook een beetje sturen.

Dat is net hetzelfde als jij wat code copy paste, jij bent dan de schrijver van dat nieuwe stukje code - met mogelijk een copyright-schending.

Wanneer je als bedrijf een AI zou opleren op je eigen codebase, dan wordt het heel ander verhaal.
Dan heb jij op je eigen copyrighted code dat ding losgelaten en mits wat sturing komt er misschien wel iets deftigs uit dat je kunt gebruiken.
Maar dan kan je daarmee doen wat je zelf wilt.

Hetzelfde geldt ook voor het loslaten van de AI op een hoop materiaal waarvoor het copyright is komen te vervallen, ook dat is gewoon vrij te gebruiken.

R.R. Martin kan het misschien ook eens loslaten op zijn eigen boeken zodat de AI het misschien kan afwerken :+ )

De huidige modellen zijn leuk voor onderzoek en educatie, maar zo gauw je het commerciëel gaat willen gebruiken wordt het al heel snel op zijn best twijfelachtig qua rechten.

Ik zou het niet gebruiken in je eigen commerciële code of projecten van een klant.
Toch zeker niet tot er daar meer duidelijkheid over is.
De U.S. Copyright Office heeft besloten dat er geen auteursrecht berust op gegenereerde werken. De vraag "wie is de kunstenaar" wordt dus beantwoord met "niemand, het is geen kunst".

Egbert Dommering's doemscenario is niet uitgekomen, ondanks de snelle opkomst van het internet kon de auteursrechtenwetgeving zich hier prima aan aanpassen. Piraterij is illegaal. Als je in de rechtzaal komt vanwege deze handeling, reken er maar niet op dat je er makkelijk mee wegkomt.

Dit hoeft dus niet anders te zijn voor diffusion algoritmes. Mits de rechter bevestigt dat het inderdaad om grootschalige auteursrechtenschending gaat, zullen de bedrijven zich moeten aanpassen om uitsluitend rechtenvrij bronmateriaal te gebruiken of hun bestaansrecht op te geven door hieropvolgende rechtzaken te verliezen. Dat gezegd, de rechter kan ook in het voordeel van AI beslissen, en dan zijn het de artiesten die hun toekomst op hun buik kunnen schrijven. Er zijn hoe dan ook verliezers in dit debakel, de vraag is wie er moet verliezen.
De U.S. Copyright Office heeft besloten dat er geen auteursrecht berust op gegenereerde werken. De vraag "wie is de kunstenaar" wordt dus beantwoord met "niemand, het is geen kunst".
Haha, dan zijn we klaar. Dan is er ook geen probleem!

Egbert Dommering's doemscenario is niet uitgekomen
Nou, niet volledig maar wel gedeeltelijk. Muziek auteursrechten organisaties (zoals de RIAA) schreeuwden moord en brand en klaagden iedereen (zelfs kinderen) aan om ze helemaal kapot te maken. Ze waren volledig in paniek en het lijkt best wel op het huidige scenario alleen toen was duidelijk dat het om directe copies ging (als in piraterij). Dat is nu nog steeds onder discussie en daarnaast roept men ook al lange tijd tot herevaluatie van het copyright systeem. Het huidige systeem is immers zo kapot gemaakt dat het niet meer de functie heeft waar het voor bedoelt was:
Copyright: Forever Less One Day - CGP Grey

ondanks de snelle opkomst van het internet kon de auteursrechtenwetgeving zich hier prima aan aanpassen.
Het kwam pas tot rust toen muziek streaming diensten op kwamen. En copyright organisaties werkten dat ook tegen tot ze zagen dat het geld opleverde... De auteursrechten wetgeving is daar verder nooit op aangepast, volgens mij. Technologische ontwikkelingen gingen gewoon zo snel dat het al voorbij was voordat ze het zelf ook maar iets konden doen. Anders dan paniek voetballen en iedereen aanklagen.

Er zijn hoe dan ook verliezers in dit debakel, de vraag is wie er moet verliezen.
Gezien de geest uit de fles is, is het naar mijn mening wel duidelijk wie de verliezers zijn. Zoals je zelf al aangeeft kan men ook een AI trainen met enkel rechtenvrij bronmateriaal. Microsoft en Adobe gaan het ook al integreren in hun software...

We gaan een sleur aan rechtszaken zien en fantastische ontwikkelingen in AI.
Ik pak er wel vast popcorn bij :+
De menselijke interactie is enkel het intypen van een prompt die niets anders is dan een string om te zoeken in de latent space.
Sommige 'kunst' is niet meer dan een enkele kleur of een vlek op een doek. Blood Red Mirror bracht 1,1 miljoen op, neem eens een kijkje.

Dus wat is je punt? ;)
Je analogie met diefstal gaat compleet mank natuurlijk. Het onderscheidende van diefstal is dat er een goed wordt weggenomen. Waarbij de oorspronkelijke bezitter daarvan het goed niet meer in bezit heeft.

Dat is hier natuurlijk geenszins het geval, godzijdank hebben ze de Nachtwacht niet hoeven stelen en in de grote AI molen tot stof doen verwerken om het model te trainen. We kunnen hem nog steeds bewonderen in het rijks.
Dat is inderdaad het belangrijkste verschil tussen fysiek en intellectueel eigendom, en de reden dat er twee groepen wetgeving voor zijn. Dat gezegd, de basisprincipes zijn hetzelfde: rechten over het bezit en gebruik van eigendom.

Op de Nachtwacht berust geen auteursrecht (meer) dus dat is een slecht voorbeeld. Musea hebben overigens het recht niet om zonder toestemming andermans werk te vertonen. Als een artiest geen licentie of toestemming verschaft voor redistributie, beheert enkel de artiest waar zijn werk vertoont wordt.
Heel interessant dit, dankjewel. Een opmerking en een vraag;

Ik denk dat voor de analogie "Alles wat zich in jouw huis bevindt is vrij spel" het beter is te stellen "Alles wat zich in jouw voortuin bevindt is vrij spel", omdat wat in je huis staat niet publiekelijk zichtbaar is terwijl het tegelijkertijd nog steeds verboden is iets uit de voortuin te stelen.

Wanneer fotograaf A een foto maakt van een natuurlandschap is dat zijn oorspronkelijke werk. Als fotograaf B nu met eigen spullen en in zijn eigen tijd op een ander tijdstip, maar op dezelfde plaats en vanuit dezelfde hoek een foto van het natuurlandschap maakt, is dat dan plagiaat? Ik neem hier een natuurlandschap als voorbeeld omdat de natuur van iedereen is en in deze stelling geen juridische aspecten oplevert.
Je kan stellen dat elk derivatief, hoe sterk of herkenbaar dan ook, het origineel autheursrecht havent. Dat de transparente pixel uit mijn photoshop simpelweg mijn kenmerk moet dragen, en dan beschermt is.

Je kan zowel stellen dat de originele werken alleen bij doelgericht gebruik naar voren komen, en anders verzwolgen/waterert of opgenomen zijn in een stijl of stroming, welke dus niet van het karakter is van een individueel werk waar iemand in relatie mee zou staan ('mijn kunst').

Om de wet uit te leggen pas je de onderliggende moraliteit en de conceptie bij aanname toe, en die breidt je eventueel uit. Dat is in deze heel erg lastig, omdat de 'grondwaardering' van een kunstwerk onder druk staat - en een programma voor kunstproductie al gauw meer waard is dan een enkel resultaatproduct. Een 'AI Artist' zou bijvoorbeeld eerder bekend staan voor het ontdekken danwel ontwikkelen van een productniche of verkenningsstrategie, dan voor een specifiek werk.

Bijvoorbeeld: de Nederlandse historische kunstenaars kunnen nu qua stijlenpallet nagedaan worden. Wat is de capaciteit waard, om zoveel kunstgeschiedenis te genereren als je maar goeddunkt? Als je daar geen helder antwoord op hebt, kan je ook maar moeilijk de wet actualizeren.

Je zal wellicht zien, dat de databronnen en softwares, de productieketen (toolchain), en de configuraties ('prompts'), allemaal deel uitmaken van het creatieve process. Zo lang het niet mogelijk is de ontwerper van een 'smakenpallet' aan kunstwerken te beschermen, schiet je mijn inziens te kort in de doelmatigheid van de wet. MAW de 'preset' van de software is gelijk aan je waarschijnlijke output, en is derhalve de essentie van je copyright geworden.

De verdeling van 'gespecialiseerde moeite' schuift dus. De ontwikkelaars en beschikbaarstelling van olieverf waren misschien de eigenlijke sleutel voor het begrijpen van Nederland's belang in de kunstwereld. Soortgelijk worden met deze technologieen 'kunstbetekenissen' geextraheert uit bestaand materiaal, welke in specfieke combinatoriek weer opnieuw kunnen worden.

Er zijn dus wbt herbruik en bescherming wat nieuwe notities te maken. Herbruik van '10%' vergt unificatie van de metrieken van verschil, en kan dus niet zonder meer toegepast worden. Perceptueel is de waarde van een eigendom ook exclusiviteit of beschikbaarheid; de waarde van de zoveelste anime waifu is een stuk lager als het een oneindig continuuum aan variaties zijn.

Als je een 'trove' ontdekt in de keuzehyperruimte, een interessante niche ontdekt, en die netjes uitontwikkelt, en daarmee een interessante herkenbaarheid produceert (zeg 'dikke zonnenbril eroverheen, in krijt'), dan ben jij misschien duidelijk de ontdekker, maar geensinds de eigenaar. Dat betekent dat het vinden van 'viable action heroes' als activiteit niet ter markt gebracht kan worden, en voor de resultaten niet duidelijk betaalt kan worden, gezien er ook geen eigendom kan ontstaan van een brede conceptuele ruimte.

Je benoemt deze activiteit 'plagiaat', maar van elkaar leren was altijd al dik in orde. Daarbij is het gebruik van copyrighted material dat je in bezit hebt geen misdrijf. De softwares melden duidelijk 'geen commercieel gebruik' in hun licenties, maar ik meen dat je daar niet definitief aan gebonden zou zijn - een licentie is per slot van rekening een overeenkomst, AI technieken en software die je 'download en uitvoert' verbinden je niet ineens aan wie er dan ook maar claimt dat je je aan (arbitraire) termen moet gaan houden.

Houdt in ieder geval het volgende in acht:
- je mag niet zomaar een nijverheid bezieligen
- de productie van kwalitatieve kunst, wellicht middels behoud van een kunstgemeenschap, is een uitgangspunt
- de bescherming van 'eigendom' en eigenheid van een kunst of intellectueel product vergt meer dan blindstaren op oude productiemodellen (te weten, boekdrukkunst, bioscoop, radio en TV)

Er is een herorganizatie van de kunstwereld onderweg, breedt van term 'hypermedia' en dan vooral de ontplooing van 'volledige stimulatie van de beschikbare waarnemingsbreedte'. Ga niet een partij slim lopen doen en dingen maar illegaal noemen omdat er iets gebeurt.

"Derhalve worden dergelijke werken niet eens als auteursrechtelijke kunstwerken beschouwd, volgens de U.S. Copyright Office."
En /dat/ is dus een kernprobleem. De makers van de software worden niet beschouwd als fractionele bijdragers aan immense hoeveelheden topkunst. De softwareverwerkers worden niet gezien als deelnemers in een creatief process. De critici zijn de oude niet, en het kennend oog, de goede waarneming, zo essentieel in het bestempelen van een werk als 'goed' of 'slecht', is waarschijnlijk nog aan het struikelen over 'alles kan kunst zijn' oid.

Iemand werkt uren en produceert een bepaald kwalitatief product. Dat product kan tot leven gebracht worden, dat product kan inspireren tot soortgelijk of gerelateerd, dat product kan 'in consumptie' gewaardeerd worden. Het idee dat een Photoshop resultaat of een Stable Diffusion resultaat 'fundamenteel' verschillen in de kwaliteit dat zij benoembare kunst opleveren, ofwel een intellectuel product produceren, mag nader worden toegelicht.

En BTW, Getty moet er vooral achter komen of ze 'enforcement power' hebben, met nieuwe rare licenties kunnen komen. Lekker de Cataloguswaarde beschermen zonder het geringste toe te voegen aan de consumptiewaarde. Lekker het voordeel dat bestaat uit 'veel data voor machine learning' verminderen! Wat een enorme rotzooi hopen mensen toch te ontwikkelen om maar niet met open ogen te onderzien wat hun waarheid is!

Dataproducten worden bizar slecht begrepen. Tot je snapt dat "elke code kan zomaar iets betekenen als de functie niet vast staat" en 'je bent vrij te denken wat je maar wil", kan je niet goed en wel verder met het als zodanig reguleren van activiteiten, zonder simpelweg te beschouwen dat "your data is too free" je standpunt wordt.

Belerende houdingen als "geen flauw benul van de auteursrechtenwetgeving of de werking van dergelijke programma's" zijn zo kwaad als duister. Gedachte die zich stoelen in de wetenschap (de werking van dergelijke programma's) komen bij jou neer op 'soort noise', en ik hoop dat het sentimentele 'bescherm de kunstenaar van robots' geen enkele grond vestigt, want auteursrechten zijn een reflectie van het respect voor de ziel, en als je niet omarmt wat een enorme hoeveelheid 'media power' er nog stil staat, als je zo moedwillig uitbreidt dat exlcusiviteit gemaakt word als primair product, al met al geen kunstenaar richting schoonheid moedigt, maar hoogstens een manager z'n advocaten helpt betalen, dan hoop ik dat je daar stil in smoort (in je eentje, achter een paywall ofzo?).
Beetje hetzelfde als een kunstschilder verbieden om rond te kijken in een museum? Want hij zal zn eigen werk laten inspireren van wat ie daar ziet?
Er zit een groot verschil tussen werk laten inspireren en wat Stable Diffusion doet.

Die kunstschilder gaat naar het museum en maakt een exact kopie van elk schilderij in het museum en bewaard deze thuis. Vervolgens maakt hij een 'nieuw' werk, maakt een kopie van een handjevol schilderen en verknipt deze en plakt ze vervolgens aan elkaar...

Dit specifieke voorbeeld zou zomaar nog wettelijk mogen, als het om schilderijen zou gaan waar het auteursrecht van is 'verlopen'...
Denk dat het auteursrecht op de schop moet. Ik denk dat menselijke "creators" op zoek moeten gaan naar een andere manier om waarde toe te voegen en niet meer moeten leunen op royalties (waar vaak allerlei tussenpartijen meer aan verdienen dan de auteur/maker zelf).
Ik ben het zeker met je eens dat auteursrecht op de schop moet! En niet alleen vanuit het AI/Neural Net verhaal.
Nogmaals, dat is niet wat Stable Diffusion doet. Er wordt niets opgeslagen, er wordt niets gekopieerd, er wordt niet geknipt en geplakt. Zie bijvoorbeeld deze afbeelding voor uitleg.
Dat is een beetje kort door de bocht. Het algoritme leert patronen op basis van de afbeeldingen en tekst die het gezien heeft. Vanuit een combinatie van noise en die patronen genereert het afbeeldingen. En in die patronen zitten geen letterlijke kopieën van afbeeldingen, maar wel iets wat er verdacht dicht bij komt.

Ja, je hebt geen letterlijke kopieen van afbeeldingen, maar als je een dergelijk model traint op een bepaald soort afbeelding, kan het dergelijke afbeeldingen vrij goed reconstrueren. Hoe minder training data, hoe dichter het bij een letterlijke kopie zal komen van wat het tijdens training gezien heeft (omdat de patronen op minder afbeeldingen gebaseerd zijn), en Stable Diffusion heeft een hele hoop training data, dus dit probleem valt wel mee.

Desalniettemin kan Stable Diffusion met de juiste prompts heel dicht bij een kopie komen, zeker als je de namen van kunstenaars en het onderwerp specificeert zodat het model op basis van lekker weinig data de afbeelding genereert, omdat namen specifiek zijn.
Hoe dan ook, de ontwikkelaars gebruiken blijkbaar zonder toestemming het werk van derden om zelf een product te maken waar ze (direct of indirect) aan kunnen verdienen. Dit kan niet vind ik.
Zelfs als ik gewoon een foto van mezelf publiek deel op een sociaal netwerk, vind ik niet dat Stable Diffusion mijn foto zonder toestemming zo maar mag gebruiken om hun product te helpen maken, ook al heb ik beslist die foto publiekelijk te tonen.
Dat is een beetje het probleem, de gelinkte bronnen claimen immers wat anders... Ik mis wat specificaties, maar als jou gelinkte verhaal/plaatje klopt, dan is het probleem enkel hoe de wet AI/Neural Netten gaat zien tov. auteursrecht en dat zou wel eens hele linke soep kunnen worden...

Maar 1 ding is duidelijk: "Somebody is lying!" ;-)

@StefanSL Bronnen in het artikel...

[Reactie gewijzigd door Cergorach op 17 januari 2023 16:48]

Welke bronnen?

Ik denk inderdaad dat de crux is dat de techniek te moeilijk is om te begrijpen voor de gemiddelde 'toeschouwer' van deze discussie, zie bijvoorbeeld de reactie van @Cergorach, welke feitelijk niks te maken heeft met hoe stable diffusion werkt.

Ik werk veel met dit soort type modellen, het plaatje van @ErikT738 klopt. Waar het denk ik fout gaat is dat dit type modellen zo groot zijn dat ze een bepaald geheugen kunnen vormen, de 'weights' van het model kunnen dan afbeeldingen die vaak terug komen in de training data gaan onthouden oftewel 'opslaan'. Je kunt dan met specifieke prompts afbeeldingen terugkrijgen die op de training data lijken. Hetzelfde zie je gebeuren in de discussies over GitHub copilot, Dalle2, ChatGPT etc.

Is dat fair use? Is het stelen? Geen idee.
Het "er wordt niets opgeslagen" kun je in twijfel trekken, en dat is waar deze rechtszaak wellicht uitkomst kan bieden. Ervan uitgaande dat dat plaatje* klopt dan klopt het dat er geen (delen van) afbeeldingen worden opgeslagen en daarna hergebruikt.

Maar met het leren van de AI worden de betreffende plaatjes wel verwerkt en wordt er (meta)informatie opgeslagen in de vorm van betere tuning van het algoritme. Als dat niet zo zou zijn, dan zou je de AI niet hoeven leren...

Dat is dus de vraag die antwoord behoeft: in hoeverre is auteursrecht van toepassing op het leren van AI? Mag daar een aparte licentie voor gevraagd worden?

* Komt dat plaatje van de makers van Stable Diffusion? Wellicht handig om ook te linken naar waar het vandaan komt.
Deze afbeelding is gemaakt door een gebruiker op reddit, maar er zijn een hoop bronnen die min of meer hetzelfde zeggen (maar dan niet mooi gecondenseerd in één afbeelding). Deze video legt het concept ook uit.

Je hebt overigens gelijk dat er niet "niets" wordt opgeslagen, maar er vind in ieder geval geen knip en plakwerk plaats met bestaande afbeeldingen. Wel wordt er niets op geslagen met betrekking tot een individuele afbeelding. De grootte van het model blijft hetzelfde of er nu getraind wordt met 1.000 of 10.000 afbeeldingen.
maar er vind in ieder geval geen knip en plakwerk plaats met bestaande afbeeldingen
En dat hoeft ook niet. Als jij een schilderij overtekent, knip en plak je ook niets. Is het dan opeens geen plagiaat meer?
Wel wordt er niets op geslagen met betrekking tot een individuele afbeelding.
Indirect wel, want voor elke afbeelding wordt opgeslagen hoe vanuit noise tot hetzelfde resultaat gekomen kan worden, albeit met een beetje ruis erbij. Met de juiste parameters kom je weer op het origineel uit. Dat is de magie van diffusion algorithms. En ook meteen het probleem als het aankomt op beschermd materiaal. Dat er niets exact wordt opgeslagen maakt het verschil niet voor de wet, en dat weet jij heel goed.
Er wordt niet voor elke afbeelding iets opgeslagen. Een model getraind op 10.000 afbeeldingen is net zo groot als een model getraind op 1.000 afbeeldingen. Zelfs met exact de juiste parameters (zowel prompt als seed/noise) kom je niet op de originele afbeelding uit.
Dat er niets exact wordt opgeslagen maakt het verschil niet voor de wet, en dat weet jij heel goed.
Dat weten we allebei niet, omdat er over deze exacte situatie geen jurisprudentie bestaat. Tot die tijd blijft het een wellus/nietus verhaal gebaseerd op onze eigen mening en onze eigen (vooringenomen) bronnen.
Ik kan 1.000 plaatjes ook opslaan op een harde schijf, en 10.000 plaatjes op dezelfde schijf zonder dat het formaat van de schijf veranderd
Vergelijk je nu letterlijk de fysieke grootte van een harde schijf (of de volledige opslagcapaciteit van die harde schijf) met dat van een ckpt-bestand van vier komma zoveel gigabyte? De claim dat alle 2.300.000.000 afbeeldingen die gebruikt zijn bij het trainen van Stable Diffusion in een gecomprimeerde vorm zijn opgeslagen in een model van 4,2 GB is gewoon belachelijk.
Maar dat is dus precies wat er gebeurd is. Het is een extreem agressieve vorm van compressie waarbij data van meerdere afbeeldingen gecombineerd wordt middels gewichten in een neuraal netwerk. Vanuit dit netwerk kan, met de juiste formule, terug berekend worden naar elk origineel, in een lossy format met artifacten.

Dat een neuraal netwerk informatie op een drastisch andere wijze opslaat (middels "training") verandert niets aan het feit dat deze informatie alsnog afkomstig is van beschermde werken. Anders zouden deze werken überhaupt niet gebruikt hoeven te worden.
En dat is dus precies hetzelfde als wat onze hersenen doen.

Daarom is dit dan ook het meest kruidige vraagstuk van deze tijd, wat gaat leiden tot een herziening van heel wat paradigmes - anders gaat het of de ene kant op, of de andere kant op, niet werken.
Heb je een bron voor deze stelling? Misschien dat het voor jou anders werkt, maar als ik kunst maak, importeer ik niet eerst duizenden afbeeldingen in mijn brein om deze met statistische formules te verwerken om vervolgens middels een prompt een aantal gelijkaardige resultaten te programmeren. Bovendien kan ik als mens zijnde mijn gedachten bewust veranderen terwijl een programma met dezelfde input altijd exact hetzelfde doet.
Dit is heel interessant. Maar de uitleg ontbreekt aan 1 ding:

Deze manier van 'encoding' kan wel degelijk auteursrechtelijk materiaal opslaan. En dat is dus ook het probleem. Als AI dingen her-maakt die het gezien heeft waar het geen rechten toe heeft mag het niet gebruikt worden.
Met die redenering kan je net zo god Photoshop en schilderspullen verbieden, het is immers mogelijk om een bijna perfecte kopie van een bestaand werk te maken. In de praktijk valt het overigens helemaal niet mee om met Stable Diffusion een bestaand werk te kopiëren en lukt dit eigenlijk alleen als de trainingsdata "vervuild" is met meerdere kopieën van dezelfde afbeelding EN de gebruiker specifieke prompts gebruikt om een bestaande afbeelding als resultaat te krijgen.
Dit is echt een zeer misleidende argumentatie. Photoshop kan prima gebruikt worden om nieuwe werken te maken zonder daarbij gebruik te maken van bestaande werken. AI is precies het tegenovergestelde en kan niet functioneren zonder bestaande werken. Bovendien klopt je vergelijking ook niet in de zin dat Photoshop een tool is om kunst mee te maken, terwijl AI het volledige proces overneemt en de artiest überhaupt niets kan doen om het canvas te beïnvloeden.

Het laatste deel van je reactie bevestigd tevens dat er daadwerkelijk sprake van auteursrechteninbreuk is. Moeilijk is iets anders dan onmogelijk.
terwijl AI het volledige proces overneemt en de artiest überhaupt niets kan doen om het canvas te beïnvloeden.
Een eerlijke vraag: heb je Stable Diffusion ooit gebruikt, of ook maar enig idee van wat je er allemaal mee kunt doen?
Ja. Evenals DreamUp, Midjourney en een andere waarvan ik de naam vergeten ben. Dat gezegd, ben ik wijzer geworden uit documentatie en de wetgeving dan uit het gebruik van de programma's.
Dan zou je moeten weten dat een gebruiker wel degelijk het canvas op meerdere manieren kan beïnvloeden. Uit je andere posts krijg ik het idee dat je geen eerlijke, feitelijke discussie wilt voeren en vooral je eigen mening als feit neer probeert te zetten. Ik hoop dat je het niet erg vind als ik je toekomstige replies op mijn posts negeer.
De gebruiker kan op geen enkele manier het proces beïnvloeden maar enkel de initiële condities aanpassen. Er komt geen instrument bij te kijken. Jij kan niet tussendoor even een kwaststrook aanbrengen, een lijntje uitgummen of wat dan ook.
Klopt niet, met in- en outpainting kan je delen isoleren en aanpassen (en ook weer met dezelfde vele parameters als het initiële generen).
Alle text-to-image generators beschikken niet over de mogelijkheid om het canvas naar wens aan te passen tijdens het ontwikkelingsproces. Image-to-image generators wel in beperkte mate, maar ook dat is een geheel ander principe dan het gebruik van een tool om handmatig met 1:1 relaties wijzigingen aan te brengen als gevolg van je eigen handelingen.
Op alle manieren kun je creatief zijn, toch? Muzikanten maken ook volop gebruik van samples, zie www.splice.com
En er zijn dan ook diverse rechtzaken over het gebruik van dergelijke samples. Sterker nog, AI ontwikkelaars vermijden zelfs het gebruik van muziek in welke mate dan ook wanneer er auteursrecht op berust. Dat doet je dan toch wel even achter de oren krabben waarom ze dit niet toepassen op afbeeldingen, en het antwoord is simpel: er zijn geen significante belangenorganisaties die het auteursrecht van visuele kunst verdedigen, in tegenstelling tot de vele grote trigger-happy partijen bij muziek.
Maar zou in dit geval dan niet de labels auteurs rechterlijk beschermd zijn?
Words are mapped to unique weights which are added to the denoising algoirthm …
The weights slaan alsnog (indirect) de informatie op van die afbeelding.
De vraag is echter of die info nog auteursrechtelijk beschermd is. Als je bijvoorbeeld een samenvatting schrijft van een auteursrechtelijk beschermde tekst dan schend je ook niet het auteursrecht. Ook is het niet zo dat je aan de hand van de opgeslagen data de originele afbeelding kan reproduceren.
Ik ben daar niet helemaal mee eens, want in dit geval heeft het tijd gekost om die labels te maken. Ik zou niet zomaar samenvatting mogen gebruiken. Ik zou dan niet de auteur van het boek, maar de auteursrechten van degene die de samenvatting heeft gemaakt overtreden.

Als ze zelf de labels hebben gegenereerd adhv de foto’s zou ik dat anders vinden. Ik weet niet of ze dat gedaan hebben?

Maar vind ik het gek dat als je foto’s gebruikt van (in principe) iemands privé collectie, en daar haal jij waarde uit. Dat je daar kennelijk geen toestemming voor hebt gevraagd.
Dat klopt allemaal, tot je materiaal van 1 artiest gaat gebruiken om de AI te leren, zoals onder andere is gebeurd bij Hollie Mengert. In dit geval kwamen er allemaal plaatjes uit de stable diffusion die iedereen direct herkent als Hollie Mengert tekeningen.
https://waxy.org/2022/11/...-turned-into-an-ai-model/

Dus het verhaal dat de AI helemaal zelf verzint wat het moet maken en hoe het eruit ziet klopt dus niet (helemaal), en dat wordt versterkt omdat alle stable diffusion applicaties waar ik mee heb gewerkt een functie hebben waarin je een 'in de stijl van' kan gebruiken. Hiermee wordt het echt wel tricky allemaal. Want als je via AI een object maakt 'in de stijl' van iemand, hoe ligt dan het auteursrecht tov deze 'in de stijl van' persoon? Is het auteursrecht alleen van toepassing op het object, of ook op de stijl?
Dat klinkt raar, maar als het niet relevant is, haal dan de functie weg waarmee je de 'in de stijl van' kan selecteren.
Zodra een stijl auteursrechtelijk beschermd wordt kunnen vrijwel alle artiesten ophouden met tekenen en schilderen. Een groot bedrijf zoals Disney zou vrij snel zo veel mogelijk stijlen claimen en er voor zorgen dat niemand meer iets kan maken zonder eerst een licentie o.i.d. van ze af te nemen. Geen enkele stijl is echt uniek.

Overigens redelijk ironisch dat de artiest in die link allerlei karakters tekent waar ze ook geen rechten op heeft.
Toch gebruiken we het elke dag, en zijn er regelmatig discussies en rechtzaken over.
Architectuur die teveel lijkt op de stijl van iemand anders. Samsung telefoons die teveel de stijl hebben van de iPhone. Chinese auto's die teveel lijken op westerse modellen.
Dus wanneer is het wel toegestaan iets in de stijl van iemand anders te doen? Wanneer niet?
Er wordt wel degelijk iets opgeslagen, al dan niet op een lossy manier. Zie bijvoorbeeld deze afbeelding voor uitleg; ondanks dat de originele vorm niet direct in de dataset zit, is deze alsnog opgeslagen in het model, met kwaliteitsverlies, op dezelfde manier dat een MP3 geluid opslaat zonder dat exact te kunnen reproduceren.

Dat er een hele laag abstracties en modellen tussen zitten is niet zo relevant zolang de informatie er maar weer uit kan worden gehaald.
Het is totaal niet te vergelijken met een MP3. Als je dat denkt snap je de techniek echt niet.
Deze video van Computerphile geeft ook een erg goede uitleg.
Op een bepaalde manier wordt er wel degelijk wat opgeslagen, namelijk een encoding van ‘neurale gewichten’. Voor beelden is het lastiger aan te tonen, maar voor large language models (die dezelfde principes hebben) kun je hele stukken van de orginele tekst reproduceren uit de gewichten.
Ik denk dat de meeste mensen hun mening allang hebben geformuleerd en niet echt geïnteresseerd zijn hoe het werkt... Anders hadden ze zich er onderhand al meer in verdiept.
Ja daar ben ik ook een beetje bang voor. In elke discussie omtrent Stable Diffusion komt weer een hoop desinformatie terug :'(
Dat dus. hij leert de textuur te maken niet de foto te kopieren ... dit is creativiteit afgekeken van fotos daarom zou dit moeten kunnen lijkt me... ik bedoel google laat oop thumbnails zien van artwork op hun eigen site is dat dan niet ook gewoon diefstal? naja wat andere zeggen dit is een complex gevalletje zullen even groepje mensen lang over na moeten denken.
Hier op aanvullend: Stable Diffusion is geen natuurlijk persoon, dus zo moet het ook niet worden behandelt. Een natuurlijk persoon kan inderdaad geïnspireerd raken, en maakt bij het creëren van een werk allerlei keuzes en afwegingen. Daar zijn de auteursrecht wetten op gebaseerd.

Stable Diffusion is wat betreft wetgeving nu ook middel. Een tool. De meeste apte vergelijking die ik kan bedenken is een uit de kluiten gegroeide Photoshop-brush, waarbij allerlei bestaande werken als input zijn gebruikt. Iemand kan dan die brush gebruiken om een werk te maken die lijkt op een bestaand werk, maar zowel de tool als de persoon die het gebruikt zijn vervolgens wel aansprakelijk daarvoor — tenzij er een licentie is op die werken.

Een ander voorbeeld is muziek-samples. Dan is in principe prima als een natuurlijke persoon dat doet. Het probleem begint echter wanneer je een library van samples opmaakt die met een druk op de knop een liedje vormen.

SD misbruikt op een verkapte manier gewoon copyrighted materiaal.
Stable Diffusion is wat betreft wetgeving nu ook middel. Een tool. De meeste apte vergelijking die ik kan bedenken is een uit de kluiten gegroeide Photoshop-brush, waarbij allerlei bestaande werken als input zijn gebruikt. Iemand kan dan die brush gebruiken om een werk te maken die lijkt op een bestaand werk, maar zowel de tool als de persoon die het gebruikt zijn vervolgens wel aansprakelijk daarvoor — tenzij er een licentie is op die werken.
Waarom zou de tool verantwoordelijk zijn? Als een gebruiker met Stable Diffusion (of welk ander tool dan ook) een bestaand werk namaakt dan kan de bestaande copyright wetgeving hier prima mee omgaan. Als ik een akoestische versie van een bestaand lied maak dan is de gitaar toch ook niet mede verantwoordelijk?
Een ander voorbeeld is muziek-samples. Dan is in principe prima als een natuurlijke persoon dat doet. Het probleem begint echter wanneer je een library van samples opmaakt die met een druk op de knop een liedje vormen.
Volgens mij heeft iemand het al voor elkaar gekregen om Stable Diffusion muziek te laten maken. Voor zover ik weet gebruikt dit echter geen library van samples, net als dat er bij de afbeeldingen genererende variant geen library gevuld met (delen van) plaatjes wordt gebruikt.
Waarom zou de tool verantwoordelijk zijn?
Dit is echt het tegenovergestelde van wat ik zeg. Waar haal je dat vandaan? Ik probeer te zeggen dat de verantwoordelijkheid ligt bij de makers van de tool, of gebruikers er van. Als zo'n tool tot stand komt door massale inbraak op auteursrechten dan is het de maker van de tool die daar verantwoordelijk voor is.
Als ik een akoestische versie van een bestaand lied maak dan is de gitaar toch ook niet mede verantwoordelijk?
Terugkomend op mijn originele punt: jij bent een natuurlijk persoon. Stable Diffusion niet -- dat is een geautomatiseerd proces. Als je daar een argument over gaat maken moet je kiezen of je SD als persoon behandelt of niet; daar zit geen tussenweg in.

(toevoeging edit: als je een cover maakt dan stop je daar allerlei menselijke moeite in. En zelfs dan is het maar de vraag of er genoeg afwijkt van de originele compositie. Als je een 'cover machine' had, gevuld met songs van YouTube, en je drukt op de 'maak een cover van X' knop, dan is dat echt heel wat anders.)

Het hele vergelijken van hoe een mens iets maakt vergeleken met Stable Diffusion gaat niet op, al helemaal niet in een wettelijke zin. Het is typisch menselijk om onze menselijkheid te projecteren daarop (anthropomorphism heet dat volgens mij), maar het blijft een machine. En voor machines / geautomatiseerde processen geld (terecht) een hele andere wetgeving dan voor mensen.
de afbeeldingen genererende variant geen library gevuld met (delen van) plaatjes wordt gebruikt
Maar dat is dus waar het hele verhaal om draait: dat model bevat wel degelijke latente data van die afbeeldingen, specifiek gemaakt om ze te kunnen her-construeren. Het accuraat kunnen herproduceren van bepaalde stijlen is het hele punt van de tool.

Je zou zelfs kunnen stellen dat Stable Diffusion, bij het maken van een model, poogt een origineel werk te reverse-engineeren. Dat resulterende model bevat dan niet de exacte afbeelding, maar wel een extract van het origineel. En dat gebruik (al die afbeeldingen door de grinder gooien), dat is waar de inbreuk zit. Dat auteursrechtelijk materiaal wordt gebruikt om iets te maken, zonder de toestemming van de originele makers.

[Reactie gewijzigd door Luminair op 17 januari 2023 16:47]

Dit is echt het tegenovergestelde van wat ik zeg. Waar haal je dat vandaan?
"maar zowel de tool als de persoon die het gebruikt zijn vervolgens wel aansprakelijk daarvoor". Als je het over de makers van het tool hebt is het inderdaad een stuk begrijpelijker.

Verder ben ik het helemaal met je eens dat Stable Diffusion geen persoon is en ook niet zo behandeld dient te worden. De verantwoordelijkheid ligt bij de gebruiker, en voor deze gebruiker gaat gewoon de bestaande wetgeving op. De latente data in Stable Diffusion is niet hetzelfde als het oorspronkelijke werk, en er wordt ook niet per afbeelding latente data opgeslagen. Er bestaat geen "extract van het origineel" in het Stable Diffusion model, en de oorspronkelijke afbeeldingen zijn niet te reproduceren. De enige uitzonderingen hierop maken gebruik van "vervuilde" modellen (bijvoorbeeld met beroemde afbeeldingen die te vaak in de trainingsdata voorkomen) en prompts die heel specifiek aansturen op een bepaald resultaat (bijvoorbeeld vragen om de Mona Lisa van Leonardo da Vinci en hier ook nog een gedetailleerde omschrijving van het schilderij en de stijl aan toe voegen).
Als de rechter oordeelt dat de modellen genoeg van de afbeeldingen uit de inputset bevatten, is het getrainde model een niet-toegestane reproductie van een gecopyright werk op dezelfde manier dat een MP4 transcode van een bluray dat is.

Of de rechter daarin mee gaat is nog maar de vraag, maar het model aanbieden kan in strijd met de wet zijn.

De code en de AI zelf is niet verboden op dat moment, alleen de dataset bestaande uit afbeeldingen die zonder toestemming verspreid worden. Afbeeldingen in publiek domein/zonder copyright, afbeeldingen vrijgegeven met toestemming of eventueel verspreid onder creative commons kunnen dan wel weer worden gebruikt om een nieuwe dataset te trainen die wel vrij te gebruiken is.
Stable Diffusion is wat betreft wetgeving nu ook middel. Een tool. De meeste apte vergelijking die ik kan bedenken is een uit de kluiten gegroeide Photoshop-brush, waarbij allerlei bestaande werken als input zijn gebruikt. Iemand kan dan die brush gebruiken om een werk te maken die lijkt op een bestaand werk, maar zowel de tool als de persoon die het gebruikt zijn vervolgens wel aansprakelijk daarvoor — tenzij er een licentie is op die werken..
Dit gaat alleen op wanneer je een mens op de plek van zo'n photoshop tool zou zetten: SD leert en genereert namelijk enigzins analoog aan hoe mensen dat doen.

Het grote verschil is de schaal waarop SD dit kan doen. Het is dus een kwantitatief verschil, geen kwalitatief verschil.

Nu kan ik me goed inbeelden dat artiesten links en rechts in de paniek schieten en zich afvragen hoe ze gaan overleven. Deze angst is enigszins terecht, tegen SD kan een SD-loos mens niet meer opbotsen als het gaat om productief werk.

Echter zullen zulke rechtzaken geen zoden aan de dijk zetten, niet zonder de tech in z'n algeheelheid te verbieden. En dat zie ik niet zo snel gebeuren, het potentieel van de tech is te groot.
Deze rechtszaken zijn dus hooguit uitstel van executie, niets meer.
De reden hiervoor is: stel dat SD e.d. van de grond af aan opnieuw moeten beginnen met assets vergaren en trainen (dat zal wss niet helemaal hoeven, maar dat versnelt zaken alleen). Dat kost ze tijd, en geen insignificante hoeveelheid ook. Maar nu het voor een feit bekend is dat dit kan, zullen ze dat zeker doen gegeven de potentie. En daarna zijn de artiesten even goed terug bij af, en permanent ook.

De grote vraag is, wat moeten al die mensen dan? Daar kunnen ze denk ik beter nu al over na beginnen te denken.
SD misbruikt op een verkapte manier gewoon copyrighted materiaal.
Zoals ik al zei, SD leert analoog aan hoe mensen dat doen. Dit betekent alleen wel dat SD misbruik maakt van de situatie dan en slechts dan als mensen dat doen.
De transitie is ongemakkelijk, maar dit soort claims helpen de zaak eigenlijk niet.

[Reactie gewijzigd door Jeanpaul145 op 17 januari 2023 16:18]

Als de getrainde modellen verboden worden vanwege copyright (de code bevat tenslotte geen enkele afbeelding), zullen 99% van de mensen die deze AI's gebruiken niet zelf zo'n model kunnen opbouwen uit een bibliotheek waar ze wel recht toe hebben. Een paar AI-bedrijven kunnen hun eigen modellen maken en die wellicht ook gebruiken om te verkopen, maar zelf het spul draaien zal niet meer gaan zonder een significante investering.

Ik denk dat het al te laat is en dat de rechtszaken zullen mislukken. De hoeveelheid kunstwerken die vrij op internet te zien zijn, zullen de komende jaren enorm dalen, en AI-gebaseerde kunst zal daarvoor in de plaats komen. Erg jammer, maar ik zie niet waarom een kunstenaar zijn concurrentie zou willen helpen door hun werk openbaar te plaatsen. Mensen die vooral via internet hun werk verkopen zullen een andere baan moeten gaan zoeken. Ik denk dat dit een hele hoop werkloosheid en depressie zal veroorzaken wereldwijd, maar daar is helaas niks meer aan te doen.

[Reactie gewijzigd door GertMenkel op 17 januari 2023 16:51]

De rechter hoeft de technologie in het geheel niet te verbieden, enkel het onrechtmatig gebruik van andermans werk. Als de algoritmes "getrained" zouden worden puur op basis van rechtenvrije afbeeldingen, is er legaal gezien geen enkel probleem. Natuurlijk bestaat er de kans dat artiesten alsnog hun baan verliezen, maar dan is het in ieder geval op een 'eerlijke' manier.
Hier ben ik het niet mee eens. Als de rechter beslist in het voordeel van de artiesten, schept dit een sterk precedent voor toekomstige rechtzaken. Artiesten hoeven er niet direct financiële compensatie voor te ontvangen, de kennis dat bedrijven niet zomaar hun werk mogen gebruiken voor AI-doeleinden is al een duidelijke overwinning an sich. Het maakt namelijk het verschil tussen nog een kans hebben in de markt, versus volledig weggeconcureerd te worden door geautomatiseerde plagiaatsoftware. De beslissing van de rechter in deze rechtzaken is van cruciaal belang voor de toekomst van kunst.
Over maximaal 10 jaar zitten ze zo goed als allemaal zonder (artistiek) werk. Je mag dat dan "op een eerlijke manier" noemen; ga dat naar eens t.z.t. tegen zo'n ex-artiest zeggen, eens kijken hoe die reageert.
Heb je liever dat ze op de oneerlijke manier weggeconcureerd worden over 1 jaar door AI modellen die hun eigen kunstwerken tegen ze gebruiken?
De vraag is of het knippen en plakken verhaal wel de juiste metafoor is. Volgens mij niet. Het is eerder het leren van van concepten. Zoals hoe een banaan eruit ziet. Als in: als iemand banaan typt, dan weet de AI dat daar een langwerpige gele kromme vorm bij hoort. De AI begint vervolgens met puur ruis, en kijkt dan telkens of wat hij gemaakt heeft overeenkomt met wat de gebruiker vroeg (in dit geval of er dus ergens een gele langwerpige vorm te zien is).

[Reactie gewijzigd door Atmosfeer op 17 januari 2023 15:45]

Het leren van concepten is het doel, maar het model is zwaar geoverfit op de invoer. Als je "afghan girl green eyes" laat genereren, zie je geen foto's van een Afghaans-uitziend meisje dat op school zit, je zult iedere keer een variant van de wereldberoemde foto krijgen tenzij je extra promptstappen genereert om van die pose af te komen.

Hoewel het idee achter het systeem is om algemene concepten tot uitdrukking te laten komen, is dit doel nog niet behaald en wordt in plaats daarvan (een gedeelte van) de invoerset weer uitgespuwd. Wetenschappelijk gezien is het een behoorlijk slecht model, dus.
Dat valt nog vies tegen.
Voorbeeld 1
Voorbeeld 2
Een YouTuber claimt inderdaad dat MidJourney dat deed, maar leverde geen bewijs. MidJourney is ook niet open source, dus wie weet wat daar op de achtergrond gebeurt.
Ik vind de overeenkomst toch wel bijzonder treffend:

- https://files.catbox.moe/7z86sa.png
- https://files.catbox.moe/wka5dj.png
- https://files.catbox.moe/riuxou.png

Vergelijk dit met andere nationaliteiten:

- https://files.catbox.moe/ikouuk.png
- https://files.catbox.moe/gocq7q.png
- https://files.catbox.moe/4lp621.png
- https://files.catbox.moe/i4td1q.png
- https://files.catbox.moe/fa31tp.png
- https://files.catbox.moe/2u7bv1.png

Misschien dat Afghaanse meisjes alleen maar intens voor zich uit kunnen staren. Ik zou ook niet bepaald glimlachen als ik nu een meisje in Afghanistan was, al zou ik in Pakistan niet veel blijer zijn. Toch vind ik het overduidelijk dat de welbekende foto invloed heeft op de inhoud van de foto. "Girl green eyes" lijkt genoeg om ook meteen de pose mee te veranderen.
Die kunstschilder gaat naar het museum en maakt een exact kopie van elk schilderij in het museum en bewaard deze thuis. Vervolgens maakt hij een 'nieuw' werk, maakt een kopie van een handjevol schilderen en verknipt deze en plakt ze vervolgens aan elkaar...
Tja, het is niet alsof een banaan met ducttape aan de muur plakken ook opeens zo diep kunstzinnig is (mijn mening, de artiest wilde er zelf ook mee provoceren, overigens) maar het wordt wel als kunst verkocht (dat 150 000 dollar kostte).

EDIT:
Je hoeft dus niet per se (direct) een kopie te maken en dat doet de AI ook niet. Die knipt ook niet meerdere afbeeldingen in stukken om van die stukken weer wat nieuws te maken. Ja, het neemt dingen over, maar er is genoeg anders om te zien dat het niet hetzelfde is en wel 'geïnspireerd op' te noemen is.

[Reactie gewijzigd door CH4OS op 18 januari 2023 01:07]

Erger nog, de volgende 150 jaar kan wereldwijd niemand meer een banaan tegen een muur bevestigen zonder een rechtszaak aan zijn broek te krijgen. Valt een wortel die aan een deur genageld is onder afgeleid werk (en dus verboden) of nog niet? Durf je het nog aan? Zo'n rechtszaak is duur, zo'n auteursrechtenmonopolist heeft meer geld en gespecialiseerde advocaten dan jij...
Vervolgens maakt hij een 'nieuw' werk, maakt een kopie van een handjevol schilderen en verknipt deze en plakt ze vervolgens aan elkaar...
Dit is een herinterpretatie en dat mag nu ook al.
Dat mag enkel mits aan de voorwaarden voor fair use wordt voldaan. Het maken van afgeleiden is anderzijds niet toegestaan. Copyright omvat meer dan enkel het maken van kopieën. https://en.wikipedia.org/wiki/Copyright
Ik quote puur de bronnen die Tweakers.net linkt...

Heb je zelf onderzocht hoe Stable Diffusion daadwerkelijk werkt en hoe de dataset is opgebouwd (en kan je dat zo reproduceren)? Of herhaal je ook alleen maar wat anderen zeggen/claimen?

Persoonlijk hoop ik er op dat de AI/Neural Netten inderdaad niet de daadwerkelijke afbeeldingen gebruiken, maar ik heb ook niet de software uitgeplozen...

Powered by ChatGPT
Beetje hetzelfde als een kunstschilder verbieden om rond te kijken in een museum? Want hij zal zn eigen werk laten inspireren van wat ie daar ziet?
Alleen in dit geval heeft de kunstschilder geen entree betaald om binnen te komen…
Ze staan gewoon op Google Images, daar is geen entree voor nodig.

Dat kunnen ze makkelijk voorkomen, maar dat is natuurlijk gratis reclame.
Omdat het op Google Images staat betekent niet dat je het ook commercieel mag gebruiken. Er staat nog steeds copyright op de afbeeldingen.
Copyright zit al in de titel, om dat te breken moet je wél iets kopiëren.
Of beter verwoord (in Nederland) is copyright van toepassing op Distributie (ook printen) en publicatie van de media in kwestie, binnen de nederlandse wet zijn zelfs uitzonderingen aanwezig voor het geautomatiseerd verwerken van stukken, vooral als het gaat om het vaststellen van patronen en trends (wat precies is wat SD doet)
bron: https://business.gov.nl/regulation/copyright/ onder "Copyright violation"

Het lijkt er dan ook op dat het Getty-images vooral gaat om de bepaling 3.k (beperkingen, bron: https://www.gettyimages.nl/faq/licensing) van hun licentieovereenkomst, ik vind het dan een discussie waardig of iemand gehouden kan worden aan een licentieovereenkomst als het zou gaan om afbeeldingen die non-licensed (en dus watermarked) zijn, al helemaal als de wet zelf dat vrijwaart.

Volgens mij is er namelijk niets expliciet non-legaal aan het mathematisch beoordelen van een afbeelding en trends te ontleden en toe te passen, óngeacht of dat werk auteursrechtelijk beschermd is of niet. dús dan wordt m.i. het vraagstuk bij wat voor situaties getty zich wél op haar overeenkomst kan beroepen; en dan wederom de vraagstelling of getty restricties mag opleggen daar waar de wet expliciet toestemming verleent (ik zou willen aannemen van niet)

Voorbeeld; als de AI de afbeeldingen van google heeft geplukt, en getty laat die vrij indexeren mét watermark en dat is ook de afbeelding die zou zijn gebruikt, mag dat of had dat voorkomen moeten worden? en had S.D. , Getty, of Google dat moeten kunnen voorkomen? Het lijkt erop dat google dit (dus ook zonder de expliciete toestemming van Getty) mag doen vanwege die vrijwaring die ik noemde, waarom zou SD dat dan ineens niet mogen?

net-zogoed:
als S.D. inbouwt dat afbeeldingen direct van Getty danwel indirect van google search, leidend naar getty, niet gebruikt worden; wat dan als zo'n afbeelding via een re-upload via socials/whatnot geïndexeerd wordt? ís het wel SD's verantwoordelijkheid de licensing te bepalen van een stuk media wanneer voor TCM copyright normaliter niet van toepassing dient te zijn?

Ik denk dat met dat soort voorbeelden het misschien duidelijker wordt dat het niet makkelijk is om een eenduidig en vooral werkbaar antwoord te vinden.

Het zal mij tevens worst wezen wat de wet in andere landen stelt; het heeft allemaal te maken met dezelfde voorbeelden en glijdende schaal, de argumenten hier genoemd worden m.i. niet ontkracht met "ja maar de wet in het land waar Getty vanuit opereert staat dat niet" dat voegt namelijk geen waarde toe aan de discussie hoe die situatie wél verbeterd/verduidelijkt kan worden.
Een bedrijf opererend vanuit nederland dat niet expliciet een licentie met Getty zou zijn overeengekomen kan dan als alternatief voorbeeld gelden.

Zelf vond ik een tijdje terug dit artikel ook interessant; https://www.theverge.com/...al-fair-use-training-data
hier worden ook verscheidene analogieën geplaatst om vanuit verschillende perspectieven naar datzelfde probleem te kijken, voor dat artikel dacht ikzelf ook dat het "simpeler" zou zijn.
zo vind ik het zelf ook moeilijk om te oordelen over het voorbeeld van het kopiëren van een schilder of schrijver zijn stijl, is "schilderen in de stijl van mondriaan" dan bijvoorbeeld fouter dan "schilderen in een neo-placistisch geïnspireerde stijl"?

[Reactie gewijzigd door Annihlator op 17 januari 2023 17:19]

Moeten afbeeldingen die o.a. zijn geproduceerd door gebruik te maken van afbeeldingen van Getty niet gewoon het watermerk van Getty tonen? Zouden deze redenering volgend niet alle afbeeldingen van SD het watermerk van Getty moeten tonen omdat het getraind is met o.a. hun afbeeldingen?
Maar je mag er wel naar kijken voor inspiratie, daar ging het museum verhaal over.
De vraag is of je het nog wel inspiratie kunt noemen. Een computer is geen mens, dus de analogie gaat niet geheel op. Is het etisch verantwoord om een tool te maken om een kunstenaar te kopiëren, zonder dat deze daar toestemming voor gegeven heeft?
Er wordt dus niets gekopieerd. Stable Diffusion wordt getraind met afbeeldingen uit verschillende bronnen, zodat de software "leert" wat verschillende objecten zijn. Stable Diffusion kan dan op basis van steekwoorden iets nieuws maken. Stable Diffusion doet dus eigenlijk niets anders dan afbeeldingen bekijken net zoals jij op Google Images bijvoorbeeld afbeeldingen bekijkt.
En toch als ik vraag om een werk in de stijl van Rembrandt dan krijg ik precies dat.
En toch als ik vraag om een werk in de stijl van Rembrandt dan krijg ik precies dat.
Had het dan minder "fout" geweest als je om "rural landscape, 19th century, high-contrast, realistic, heavy streaks, oil painting" vraagt? doe voor de lol maar op https://stablediffusionweb.com/#demo en op die manier krijg ikzelf twee behóórlijk rembrandt-achtige landschappen, zónder "in the style of Rembrandt" te zeggen.

Moet met diezelfde insteek elke andere schilder die hoogcontrast boerenlandschappen met dikke penseelstreken met olieverf maakt ook aangepakt worden?
Of pas als een opdrachtgever voor die schilder, blijkt achteraf, oorspronkelijk verzocht het schilderij "in de stijl van Rembrandt" te schilderen? of wanneer wel/niet?

De technieken die vooral Rembrandt zijn portretten kenmerken toepassen zijn ook te benoemen; het haar en fijne details zijn "impasto" geschilderd, de contrastverhoudingen kregen later de term "chiaroscuro", als je een van die twee termen nazoekt zal je zien dat beiden technische termen zijn in de kunstwereld en dat meerdere grote namen diezelfde technieken toepassen.

als ik dan vervolgens bij stable diffusion in de ene browsertab invul "half-body portrait of queen Elizabeth II, hair and details impasto, chiaroscuro, oil on canvas, very detailed" krijg ik in ieder geval redelijk vergelijkaardige resultaten aan "portrait of queen Elizabeth II in the style of rembrandt" :)

Daarom kom ik dan uit op de volgende vraag: "Wat maakt 'een Rembrandt'?" Dat het al zijn stijlkenmerken heeft, of dat het daadwerkelijk door hem geschilderd is?

Het lijkt mij ook niet overbodig om te benoemend dat iig in de VS, UK en in NL in het copyright kunststijlen NIET vertegenwoordigd (kunnen) worden; enkel individuele werken.
Er wordt wel degelijk gekopieerd, dat is een essentiële functie van deze vorm van AI. Het is letterlijk niet in staat te functioneren zonder informatie uit bestaande werken over te nemen. Deze link bewijst het met een eenvoudig te begrijpen voorbeeld: https://stablediffusionlitigation.com/
Je kunt de vraag ook omdraaien: Is het ethisch verantwoord om inpiratie te verbieden?
Persoonlijk denk ik van niet.

Het gaat in ieder geval niet om kopieren want de afgeleiden zijn behoorlijk anders dan het origineel

[Reactie gewijzigd door Antitech op 17 januari 2023 15:43]

Maar het gaat dus wel om het maken van afgeleiden, wat ook een auteursrecht is naast kopiëren. Als jij een tekening overtrekt maak je strikt gezien geen kopie. Maar je pleegt nog wel plagiaat, want jij hebt het recht niet verkregen van de artiest om het overtreksel te maken.

Bovendien strijdt niemand hier voor het verbieden van inspiratie. Men strijdt voor voortzetting van bestaande wetgeving, namelijk het verbod op het maken van afgeleiden van auteursrechtelijk beschermde werken zonder toestemming van de rechthebbende.
Ja geen idee, in het MidJourney AI topic hadden we hier ook een discussie over, blijft lastig.
uiteraard is het inspiratie of trivialer gebruikt als educatief materiaal. De werken zijn niet commercieel misbruikt of gereproduceerd. De term "fair use" zal misschien op een andere manier geïnterpretteerd of misschien zelfs geëvolueerd zijn, waardoor nu achteraf gezien een conflict ontstaat.
Je kan je afvragen of de afbeeldingen die op Google Images staan niet al commercieel worden gebruikt door Google, en in hoeverre het gebruik voor het trainen van een AI daarvan verschilt.
Er is wel een licentie afgenomen maar niet de juiste (hele dure).
Als je de aankondiging van Getty leest, is dat toch niet helemaal duidelijk:
It is Getty Images’ position that Stability AI unlawfully copied and processed millions of images protected by copyright and the associated metadata owned or represented by Getty Images absent a license to benefit Stability AI’s commercial interests
Getty Images provided licenses to leading technology innovators for purposes related to training artificial intelligence systems.... Stability AI did not seek any such license
Ja, dat zou ik ook zeggen als ik Getty was. De AI licence is absent. De normale licentie was er wel.
Getty wil veeeel meer geld zien.

[Reactie gewijzigd door Antitech op 17 januari 2023 15:39]

Ik kan niet zien in de pagina van Getty zelf dat SA een licentie zou hebben afgenomen, alleen dat Getty die wel aanbiedt.

De hoeveelheid watermarks die uit Stable Diffusion komt rollen doet me ook denken dat er niet bepaald voor een licentie is gekozen.

Dat Getty geld wil zien is nogal wiedes, hun hele bedrijfsmodel is dat je voor foto's betaalt.
Is er een licentie afgenomen? Zo ja was het watermerk van getty niet in het model beland denk ik (als je betaald gaat het watermerk weg).
Omdat de kunstschilder het materiaal via internet vrij legaal kon bekijken. Hij mocht het echter niet gebruiken. En de vraag is of dit gebruiken was. Een interessante vraag, en funest voor het voortbestaan van Getty. Dat niet alleen, ook funest voor hoe we in de toekomst met privédata zoals bijvoorbeeld je Facebookkiekjes die je met het publiek deelt.
Voor een kunstschilder geldt hetzelfde. Natuurlijk zal een kunstenaar (in het algemeen) zich laten inspireren door andere kunstenaars of zaken die in het dagelijkse leven worden waargenomen. Soms zie/hoor je dat terug in het werk van de betreffende kunstenaar en kun je zeggen dat ie zich heeft laten inspireren. Echter, als het er teveel op lijkt, wordt het een ander verhaal. Als ik het complete accoordenschema of progressie van een lied overneem, maakt het niet uit of ik het op een ander instrument speel, de tekst verander en het 1 octaaf hoger zet, het blijft gewoon een kopie, geen inspiratie. Bij 'geïnspireerd' werk, zie je misschien het concept van het origineel terug, maar bij een kopie zijn er echt delen (groter of kleiner) overgenomen.

Wat Getty nou wil bereiken is dat er duidelijkheid komt. Velen zullen roepen dat ze alleen op geld uit zijn, maar dat is te kort door de bocht. Getty leeft van de verkoop van (licenties op) afbeeldingen. Als je nu zomaar zonder slag of stoot toestaat dat kopieën of afgeleide werken kunnen worden gebruikt, kunnen ze de tent wel sluiten. Dus ga je naar de rechter en laat het toetsen. Zal een complexe zaak worden waar de deskundigen zich in kunnen vastbijten. Als Getty wint, weten ze dat zij alles goed hebben gedaan en hun handel afdoende beschermd hebben. Zo niet, moeten ze iets doen om toch nog in business te blijven. Dit is gewoon hoe het werkt in een rechtstaat.
Ik vind het een interessante rechtszaak. Getty zijn geldwolven, natuurlijk (net zoals Oracle), maar levert ook een zekere maatschappelijk relevante service. Een ieder bedrijf in zo'n situatie (voortbestaan core business lijkt in gevaar te komen door nieuwe technologische ontwikkeling) zou hetzelfde doen en de duidelijkheid die we (hopelijk) krijgen is waardevol.

Ware het niet dat die jurisprudentie dan voor een bepaalde jurisdictie geldt (waarschijnlijk VS), en dat de verdedigende partij voldoende financiële middelen moet hebben om zich goed te verdedigen (want anders krijg je zwakke jurisprudentie wat in Common Law systeem ook nog eens ernstige gevolgen kan hebben).
Een geldwolf bestaat bij gratie van haar klanten. Ik werk al 30 jaar met Oracle en ik hoor al vanaf het eerste moment dat het veel te duur is. Maar blijkbaar is het dan wel weer zodanig goed en nuttig, dat iedereen het wil blijven gebruiken. Ook al worden sommige mensen op het idee gebracht dat je het ook allemaal in Mongo kan doen. Nouja...veel succes dan maar!
Mongo, wie heeft het daarover. Er zijn zoveel keuzes. Het is gewoon een ordinaire vendor lock-in, leuk man hoe de overheid geld over de balk gooit door dure contracten met Oracle. Geld dat aan veel betere zaken kan worden uitgegeven.
Ik noem maar iets. Oracle is duur, maar het doet wat het doen moet, daarom vind ik de kritiek altijd een beetje suf. Kom maar op met een alternatief dat alles net zo goed doet. SQL Server komt uiteindelijk net zo duur uit. Als het werkelijk zo simpel was, was iedereen al overgestapt op iets anders.

Maar goed, we dwalen af... :+
Welk gedeelte van vendor lock-in begrijp je niet?
Wat een heerlijk onzin begrip. Leg mij aub even uit welk wonderbaarlijk IT systeem jij kunt gebruiken zonder dat je een bepaalde vorm van vendor lock in hebt? Ik draai al aardig wat jaartjes mee in de IT en ik ken ze niet. Ja, het kán, maar dan moet je alles heel erg algemeen gaan programmeren, geen enkele specifieke functie of optimalisatie gaan gebruiken. Kortom: je doet jezelf tekort. Je kunt het vendor lock in noemen en er moeilijk over doen, maar ondertussen zijn het voorlopig wél hele nuttige en handige functies die je toevoegt. En dát is de reden dat velen bij Oracle blijven. Tuurlijk, overstappen is een hoofdpijndossier, maar dat had met bv MySQL ook gehad, waarbij je de toegevoegde hoofdpijn van minder functionaliteit en minder snelheid hebt. Tenzij je natuurlijk helemaal geen Oracle nodig had, en je het hebt laten aanpraten. Ik heb het gezien bij een toko die zijn administratie lettelijk ook met Davi-Vereniging had kunnen automatiseren. Ja, een programmaatje dat je toen nog bij de Dixon kon kopen vooor FL39,95. Maar nee, op de golfbaan heeft de directeur besloten dat ie een maatwerkpakket nodig had met Oracle. Bizar, maar ja....daar kon ik niets aan doen. In die gevallen kan je beter overstappen, en dat zal ook niet zoveel pijn doen, want dan is het toch een Mickey Mouse systeem. Maar op enterprise level zijn er sowieso niet zoveel systemen die kunnen wat Oracle kan.

Dus ja, vendor lock in is voor mij een onzinverhaal. Convince me :+
Funest of Getty gaat met deze tool zelf images maken en verkopen.
Ik denk dat menselijke "creators" op zoek moeten gaan naar een andere manier om waarde toe te voegen en niet meer moeten leunen op royalties...

Dat is letterlijk betaald worden voor je werk.
Werk jij voor niks?
Tuurlijk dienen deze mensen betaald te worden voor hun creatie, net zoals een bouwfirma zijn kosten mag doorrekenen aan de kant.
Het begint wel een probleem te worden indien je de bouwfirma jaarlijks royalties dient te betalen om in je huis te mogen blijven wonen, en een duurder "abonnement" dient te nemen indien je ook graag bezoek wilt ontvangen in je huis.
Vroeger hadden we paard en wagen bestuurders, op termijn hadden we auto's en wie weet binnenkort zelf sturende auto's. Ontwikkelingen houd je niet tegen en idem voor AI in de creative sector. Getty Images voelen nattigheid maar zijn op korte termijn gewoon overbodig.

Dat betekent niet dat geen ruimte is voor artiesten, maar een foto van een sneeuwpop en dat vermarkten is voorbij.
Je gaat ervan uit dat het onvermijdelijk is. Dat klopt niet. De markt z'n gang laten gaan is niet altijd de beste oplossing. Deze technologie kan voor veel industrieën grote gevolgen hebben, waardoor veel mensen zonder werk komen te zitten, zonder dat daar iets voor terug komt.
Er zou dan veel rijkdom bij een handjevol bedrijven terecht komen terwijl de maatschappij in z'n geheel armer word.

Een andere optie is dat AI gebruikt word om werk te ontlasten bij industrieën waar er een tekort aan personeel is. Het bestaande personeel word niet vervangen, maar kan efficiënter werken.
Met een beetje protectionisme kan het resultaat er dus een stuk beter uitzien.

Zo vergezocht is dit ook niet - er zijn al talloze beschermde beroepen die een AI momenteel niet uit mag voeren, maar waar deze wel ingezet zou kunnen worden om het werk makkelijker te maken.
Dat bepaalde vakgebieden hier onder gaan lijden is een gegeven maar er is geen mogelijkheid om de doos weer dicht te maken. We zien nu dagelijks voorbeelden waar ChatGPT & Co. worden (mis)bruikt.

Waar het hier specifiek om gaat zijn vele content platforms zoals Getty & Alarmy die jaren geld hebben verdient met het verkopen van basale foto's, te veel werk om zelf te laten maken, te weinig werk om je er druk over te maken. Goedkope content die je normaal voor een tientje kocht per foto. Dit is heel generieke content die op z'n best voldoet aan de wensen, vaak matigjes van de klant. Nu kun je met Diffusion foto's zelf generen, heel precies voor projecten. Wil jij een konijn op de maan met een tri-dent, dan kun je dat gewoon maken. Getty is dus niet enkel diens positie kwijt om content te verkopen, ze zijn ook nog eens ondergeschikt.

Dit valt niet tegen te gaan en je hebt gelijk, vele fotograafs die daar een leuk centje mee verdienen zijn nu klaar met werken op korte termijn.
Even een kortzichtig voorbeeld, maar ChatGPT zou wettelijk verboden kunnen worden. Dan is de doos toch weer dicht :+
Het lijkt me in ieder geval dat we het scenario "het is als mens commercieel onhaalbaar om een creatief beroep uit te oefenen" moeten willen voorkomen. Dan is enige vorm van bescherming wel op z'n plaats. Hoe dat eruit zou moeten zien weet ik ook niet.

Voortgang is geen natuurkundige wet. Het kan gestuurd worden.

[Reactie gewijzigd door Wolfos op 17 januari 2023 16:26]

Ontwikkelingen kan je prima tegenhouden en dat moet ook. Er bestaat niet voor niets wetgeving tegen het maken van atoombommen bijvoorbeeld. Moeten we dat maar toestaan met jouw redenering?

Een directer analoog is diefstal. Er is in de wet geregeld dat je geen fysiek eigendom van een ander mag ontvreemden. Waarom zou dit dan wel moeten met nieuwe ontwikkelingen als het aankomt op intellectueel eigendom, eveneens wettelijk geregeld?
Bij auto's is dat model al in de praktijk gebracht. Met veel commentaar, zeker, maar het gebeurt wel.

En dat andere afnemers een andere rechtspositie hebben en dus ook andere verplichtingen hebben is ook niet vreemd. Kijk bijvoorbeeld naar het verschil in rechten als je als particulier iemand in je huis laat klussen, of dat je dat als bedrijf doet. Consumentenrecht is wel degelijk anders.

En meer on topic: Als ik een afbeelding op het web aanbied aan gebruikers om naar te kijken betekent dit nog niet dat bedrijven de afbeelding mogen downloaden, aanpassen, en opnieuw publiceren.

Ben benieuwd wat een rechter hiervan vind, ook voor de rechtspraak is dit nieuwe materie dus goed dat ze hier een proefproces voor aanspannen, zo ontstaat er jurisprudentie en zal het voor alle bedrijven duidelijker worden wat de rechten en plichten zijn.
Het is dus niet aanpassen en opnieuw publiceren, het is enkel "inspiratie" op doen.
Maar ben inderdaad benieuwd wat de rechter hiervan vindt.
Als ik zelf een mooi schilderij maak in de stijl van Van Gogh, Picasso of Mondriaan, en het niet aanbiedt als zijnde een origineel, dan mag ik dat toch gewoon?
Ja, in het geval van die schilders mag dat gewoon omdat de auteursrechten 70 jaar na overlijden van de kunstenaar vervallen en het een vrij werk wordt. Op al het andere werk zit gewoon auteursrecht.

De vraag is hier 'tot hoever gaat dat auteursrecht'. Ik denk dat de rechter een uitspraak over het citaatrecht moet doen, dit geld dus ook voor beeldmateriaal. Daar zit een grijs gebied, en zeker nu beeldmateriaal in zo'n grote mate verzameld wordt en op een nieuwe manier door een geautomatiseerd systeem gebruikt wordt kan ik me goed voorstellen dat rechthebbenden graag duidelijk willen hebben tot hoever hun auteursrecht gaat.
Ja, een banaan met duct tape op een muur plakken, of een stuk vloer met pindakaas volsmeren zal vast ook niet mogen volgens het bestaande auteursrecht ;)

[Reactie gewijzigd door CyBeRSPiN op 17 januari 2023 17:47]

Het gaat hier niet om stijl, maar om specifieke werken. Je mag prima een soortgelijk kunstwerk maken als je buurman. Maar als je hiervoor zijn werk gebruikt hebt om er een afgeleide van te maken, mag dat niet.
Dit is wel een grijs gebied. Wanneer is het precies een afgeleide? En wanneer is het stijl?
“Maak een schilderij van een appel in de stijl van Van Gogh”, dan is het resultaat toch een een nieuw werk? Of is dat in jouw ogen alleen als een menselijke kunstenaar dit doet en kan AI per definitie geen stijl nabootsen?
Dit is wel een grijs gebied. Wanneer is het precies een afgeleide?
Wanneer je een bestaand werk gebruikt hebt. Al is elke pixel in het resultaat anders, het maken van een afgeleide an sich is niet toegestaan zonder toestemming. Welke methode je hier ook voor gebruikt.

Het is geen grijs gebied in de zin van wat legaal en illegaal is, maar in hoeverre inbreuk bewezen kan worden. Dáár zit het probleem hem in, want door de manier waarop AI image generators amalgamaten maken van extreem veel afbeeldingen tegelijk, is een 1:1 relatie amper aan te tonen, ook al is het proces zelf het maken van afgeleiden.

Het is alsof je een fietsendief betrapt en de oorspronkelijke eigenaars niet meer kan achterhalen omdat een hoop onderdelen al losgemaakt en verwisseld zijn. Er is echter nog steeds sprake van diefstal.
“Maak een schilderij van een appel in de stijl van Van Gogh”, dan is het resultaat toch een een nieuw werk?
Een nieuw werk afgeleid van een bestaand werk. Als je dit toepast op werken waar nog auteursrecht op berust, pleeg je plagiaat.
Of is dat in jouw ogen alleen als een menselijke kunstenaar dit doet en kan AI per definitie geen stijl nabootsen?
Nogmaals, het gaat hier niet om stijl, maar om specifieke werken. Dit heb ik in mijn vorige reactie in dezelfde woorden al duidelijk gemaakt.

Je mag een stijl namaken. Je mag geen werken namaken. Je mag geen afgeleiden van werken maken.

Als ik een banaan teken, en jij tekent een in dezelfde stijl zonder ooit mijn werk gezien te hebben, is er geen enkel probleem. Als ik een banaan teken, en jij trekt deze over, pleeg je plagiaat. Sterker nog, dit geldt ook als je vervolgens de stijl totaal verandert.
Kunstenaars kunnen wel eisen stellen aan hoe hun werk wordt gebruikt. Hoeveel architecten wel niet gelijk krijgen bij de rechtbank omdat een verbouwing hun creatie zou schaden.

Op zich zou de copyrightwetgeving ook wel op de schop kunnen gaan als je zegt "ja maar je mag inspiratie nemen uit". Het zou het maken van bijvoorbeeld WINE een stuk makkelijker maken als de devs inspiratie uit de gelekte Windows-code zouden mogen opdoen. Code lekken is strafbaar, maar het lezen en namaken ervan zou ineens geheel legaal zijn. Momenteel moet je helemaal moeilijk doen door één dev nooit de originele code te laten zien en die het aan een ander uit te laten leggen om legaal andersmans code te kunnen nabootsen, dat zou de hele situatie veranderen.

Wellicht is die interpretatie van copyright realistischer met hoe de maatschappij er tegenaan kijkt, maar ik denk niet dat we binnenkort ineens meer rechten gaan krijgen als eindgebruiker als ik het succes van de copyrightlobby zie.
Nee, je kunt ook in opdracht werken. Maatwerk dus ipv bulk voor de massa.
Er zal altijd vraag naar maatwerk blijven, maar de markt zal zeker veranderen.
Sommige beroepen sterven uit.
Dat betekent niet dat we dat moeten aanmoedigen, al helemaal niet als het een gevolg van iets illegaals en onethisch is.
Beetje hetzelfde als een kunstschilder verbieden om rond te kijken in een museum? Want hij zal zn eigen werk laten inspireren van wat ie daar ziet?
Het werk van die kunstschilder bestaat uit <1% inspiratie uit dat museum, en >99% eigen ervaringen en indrukken in de echte wereld.
Het werk van de "AI" bestaat voor 100% uit afgeleid werk van de training set.
Althans, dat zou mijn argument zijn als ik auteursrechten te verdedigen had.

Hoe dan ook, we gaan hier live meemaken hoe de wereld tot een beslissing over AI en auteursrechten komt. Kan een leuke en interessante rechtszaak worden.
Die eigen indrukken en ervaringen zullen ook voor een groot deel rusten op auteursrechtelijk beschermd materiaal, tenzij je enkel de natuur schildert. Zelfs in dat laatste geval kan het nog dat de kunstschilder het intellectuele eigendom van een een tuin- of landschapsarchitect "steelt" :+
Dit is simpelweg niet juist. Het gros van persoonlijke ervaring heeft niets met auteursrechtelijk beschermd materiaal te maken. Als ik in de menigte "BANAAN!" schreeuw, denken 99 van de 100 personen aan een banaan op basis van hun eigen ervaringen met dit leuke stuk fruit. Niet aan een kunstwerk ervan. Als je die personen vervolgens vraagt om een banaan te tekenen, doen ze dat zonder duizenden tot miljoenen bestaande kunstwerken van bananen hiervoor te gebruiken.
Die banaan die je noemt is dan ook "natuur", het enige ding wat je wel kan tekenen zonder jezelf te baseren op bestaand auteursrechtelijk beschermd werk. Roep je echter "MICKEY MOUSE!" of "BMW!" en laat je dit vervolgens door mensen tekenen dan baseren ze zich niet op hun eigen ervaringen, maar op hun eigen herinneringen aan een beschermd werk.
De banaan is natuur, een bestaand schilderij van een banaan is dat niet. Bovendien berust er auteursrecht op Mickey Mouse, dus hoe je het ook went of keert, als je hier een schilderij van maakt, maak je dus een afgeleide van auteursrechtelijk beschermd materiaal. Dat is niet toegestaan. Disney zal je geheel terecht een copyright notice of zelfs rechtzaak aan je broek kunnen hangen als je dit wel doet.
Je mist het punt. Op alles wat door mensenhanden is gemaakt rust, of rustte, in principe auteursrecht. Die "eigen indrukken" waar je het over hebt zijn voor een groot deel gebaseerd op beschermd materiaal (het is ooit, ergens door iemand ontworpen). Als we iets tekenen dan maken we hier onbewust gebruik van en mixen we al deze beschermde dingen samen tot een nieuw ding (i.e. min of meer hetzelfde als wat SD doet, met als verschil dat wij zelf ogen hebben om mee te zien).
Je mist het punt. Op alles wat door mensenhanden is gemaakt rust, of rustte, in principe auteursrecht.
Dit is niet correct. Het berust enkel en alleen op dingen die aangemerkt worden als kunstwerken. Als ik een eikel plant en hier groeit een boom uit, heb ik geen auteursrecht op de boom. Dit is simpelweg niet waar de wetgeving voor bedoelt is.
Die "eigen indrukken" waar je het over hebt zijn voor een groot deel gebaseerd op beschermd materiaal (het is ooit, ergens door iemand ontworpen). Als we iets tekenen dan maken we hier onbewust gebruik van en mixen we al deze beschermde dingen samen tot een nieuw ding (i.e. min of meer hetzelfde als wat SD doet, met als verschil dat wij zelf ogen hebben om mee te zien).
Je kan dit wel blijven herhalen, maar zoals hierboven al toegelicht is dit een onjuiste stelling. De meeste ervaringen die mensen hebben zijn niet gebaseerd op kunstwerken, in tegenstelling tot algoritmen die voor 100% gebaseerd zijn hierop. Het zijn bijna volledig tegenovergestelden van elkaar.

Bovendien, als je echt zo hard wil volhouden aan de valse notie dat SD hetzelfde doet als het menselijk brein, waarom argumenteer je dan niet dat ook SD zich aan de wet moet houden?
Dit is niet correct. Het berust enkel en alleen op dingen die aangemerkt worden als kunstwerken. Als ik een eikel plant en hier groeit een boom uit, heb ik geen auteursrecht op de boom. Dit is simpelweg niet waar de wetgeving voor bedoelt is.
Dit is niet correct. Als ik een t-shirt, koekenpan of blokkendoos op de markt brengt dan wordt dit ook gewoon beschermd, tenzij iemand hard kan maken dat mijn creatieve uitingen te veel lijken op iets wat bestaat/te generiek zijn. De eikenboom die je noemt voldoet hier natuurlijk niet aan omdat je dit niet hebt gemaakt. Als je een aantal bomen in een bepaald patroon plant is het echter weer wel beschermd.
Je kan dit wel blijven herhalen, maar zoals hierboven al toegelicht is dit een onjuiste stelling. De meeste ervaringen die mensen hebben zijn niet gebaseerd op kunstwerken, in tegenstelling tot algoritmen die voor 100% gebaseerd zijn hierop. Het zijn bijna volledig tegenovergestelden van elkaar.
Dit is letterlijk de eerste keer dat ik het type deze thread. Verder is het feit dat enkel "kunstwerken" auteursrechtelijk worden beschermd gewoon onjuist (of is de definitie van wat een "kunstwerk" is enorm breed). Je zou Stable Diffusion net zo goed kunnen trainen door een aantal mensen met een GoPro op hun hoofd de wereld in te sturen en die beelden te gebruiken (al is dat ook alweer "kunst", ondanks dat het letterlijk hetzelfde is als wat de drager van de GoPro ziet). Dat SD model zou getraind zijn met de "eigen indrukken" van de drager, maar net zo goed beschermd materiaal bevatten (bijvoorbeeld het ontwerp van de BMW die de drager ziet staan).
Bovendien, als je echt zo hard wil volhouden aan de valse notie dat SD hetzelfde doet als het menselijk brein, waarom argumenteer je dan niet dat ook SD zich aan de wet moet houden?
Nogmaals, er is geen jurisprudentie. Niemand weet of het gebruik van beschermde afbeeldingen om een AI te trainen legaal is of niet. De gebruiker van SD is uiteraard, ongeacht welk tool hij of zij gebruikt, gebonden aan bestaande wetgeving.
Dit is niet correct. Als ik een t-shirt, koekenpan of blokkendoos op de markt brengt dan wordt dit ook gewoon beschermd
Totdat je ontwerpen gebaseerd zijn op dat van anderen, zelfs als de vormfactoren totaal anders waren. Probeer maar eens een T-shirt met Mickey Mouse erop te verkopen. Denk je dat "jouw" werk dan beschermd is? Het auteursrecht stelt expliciet dat dit niet toegekend wordt aan werken overgenomen van anderen.
De eikenboom die je noemt voldoet hier natuurlijk niet aan omdat je dit niet hebt gemaakt.
Die eikenboom was dan ook een voorbeeld om jouw eerdere stelling te ontkrachten. JIJ stelde namelijk dat op alles wat je maakt het auteursrecht berust, wat dus fout is - en jij hier mede toegeeft.
Verder is het feit dat enkel "kunstwerken" auteursrechtelijk worden beschermd gewoon onjuist
Nee hoor, het is volledig juist. De definitie van kunst is breder dan jouw interpretatie ervan, vermoed ik.
Je zou Stable Diffusion net zo goed kunnen trainen door een aantal mensen met een GoPro op hun hoofd de wereld in te sturen en die beelden te gebruiken
Indien deze personen middels een contract hun auteursrecht op die beelden afdragen, zou je gelijk hebben. Dus waarom doen ze dat dan niet? Of ben je onder de indruk dat ik tegen AI in het algemeen ben? Dat is namelijk niet zo. Ik ben tegen het ongeoorloofd gebruik van andermans werk.
Nogmaals, er is geen jurisprudentie.
Fout, die is er wel al. De wet verbiedt expliciet het gebruik van auteursrechtelijk beschermd materiaal om hier afgeleiden van te maken. AI breekt deze wet. AI makers worden terecht aangeklaagd. Tot de rechter een uitzondering voorziet, is het nog steeds plagiaat.
De gebruiker van SD is uiteraard, ongeacht welk tool hij of zij gebruikt, gebonden aan bestaande wetgeving.
...maar je zei net letterlijk dat er geen jurisprudentie is. Je spreekt jezelf hier tegen.
Ik ben er zeker van dat het onmogelijk is om een banaan te tekenen zonder het auteursrecht te schenden. In de laatste 150 jaar zijn er meer dan genoeg bananen getekend zodat jouw tekening altijd als afgeleid werk kan aanzien worden van een reeds bestaande tekening van iemand die nog niet (meer dan 70 jaar) dood is.

Als Disney je een aangetekende brief stuurt dat jouw banaan trekt op die uit Jungle Book, dan betaal je gewoon het losgeld en vernietig je je tekening en je banaan, da's veel goedkoper dan 10 jaar procederen tegen een miljardenbedrijf.
Je kan prima een banaan tekenen zonder ooit een bestaande tekening van een banaan te gebruiken. Koop een banaan in een winkel, pleur hem op tafel, teken hem na, klaar. Geen schending van het auteursrecht, want je maakt geen gebruik van bestaande werken.

Er moet benadrukt worden dat toevallige gelijkenissen (en gelijke ideeën of zelfs stijlen) niet beschermd worden door het auteursrecht. Tegelijkertijd is dit in het voordeel van proponenten van AI image generators, want ondanks het feit dat deze gebruik maken van bestaand werk, is het zeer moeilijk aan te tonen wiens rechten precies geschonden zijn voor elke specifieke uitkomst.
Als Disney je een aangetekende brief stuurt dat jouw banaan trekt op die uit Jungle Book, dan betaal je gewoon het losgeld en vernietig je je tekening en je banaan, da's veel goedkoper dan 10 jaar procederen tegen een miljardenbedrijf.
Mee eens, maar gelukkig is dit niet een zeer realistisch scenario. Disney gaat echt niet achter kleine particulieren aan vanwege toevallige gelijkenissen. Dergelijk misbruik is mogelijk en dat is degelijk een tekortkoming van de huidige wetgeving, maar het komt niet dermate vaak voor dat je je hier zorgen om hoeft te maken.
Ik als kunstschilder haal 90% van mij inspiratie van 1 andere kunstenaar :X
Kan een leuke en interessante rechtszaak worden.
Kan ook zeer vervelend uitpakken, vooral voor artiesten. Als de rechter in het voordeel van de AI developers oordeelt, kunnen artiesten hun beroep op hun buik schrijven. Waarom nog moeite doen om vaardigheden te leren en echte kunst te maken, als je met een simpele prompt een veel beter resultaat krijgt over de rug van andere artiesten wiens werk zonder toestemming gebruikt is voor dit doel? Waarom nog een opleiding hiervoor volgen wetende dat je onmogelijk kan concurreren met dergelijke technologie?
Hhhhm, meer kunstschilders verbieden om zonder (het juiste) kaartje naar binnen te gaan bij een museum, wanneer het doel is om inspiratie op te doen voor eigen werk (en daar geld mee te verdienen) terwijl daar - volgens het museum - speciale kaartjes voor zijn.

[Reactie gewijzigd door DominoNL op 17 januari 2023 14:54]

Dus een persoon die inspiratie op kan doen moet meer betalen dan een ander? Dat is hetzelfde dat een filmregisseur een speciale regisseurs kaartje moet kopen om naar de film te gaan, want stel je voor dat hij nog ideeën op doet. Om over de game wereld maar te zwijgen. En auteurs mogen zeker ook geen boek lezen zonder premium abonnement.
Of het terecht is, zou moeten mogen en/of eerlijk is laat ik me niet over uit. Als iemand echter een museum begint met deze regels, dan is de kunstschilder die deze regels aan z'n laars lapt wel "de schuldige".
Genoeg niet-kunstzinnige werknemers die bij hun vaste baan "inspiratie" opdoen (ervaring) en dan besluiten voor zichzelf te beginnen. Daar zitten soms wat beperkingen en arbeidsvoorwaarden aan, maar ondanks dat kan je oude werkgever niet een rechtszaak beginnen omdat jij je opgedane ervaring bij hem "gestolen" hebt en je daarom schadevergoeding moet betalen.

Kunstenaars menen nu wel dat recht te hebben, maar volgens mij is een stijl of techniek niet beschermt. Alleen de oorspronkelijke werken en die zitten niet 1:1 in het model.
Denk dat het auteursrecht op de schop moet. Ik denk dat menselijke "creators" op zoek moeten gaan naar een andere manier om waarde toe te voegen en niet meer moeten leunen op royalties (waar vaak allerlei tussenpartijen meer aan verdienen dan de auteur/maker zelf).
Helemaal mee eens. Daarom blokkeer ik ook alle advertenties van Tweakers, Hayte Hugo en z'n collega's moeten maar op zoek gaan naar een andere manier om waarde toe te voegen dan adverteerders op de site.
Voor software gebruik ik indien mogelijk gekraakte versies. Die software creators zoeken maar een andere manier om waarde toe te voegen dan een licentie te verkopen of te verhuren.
Uiteraard rij ik zwart met het openbaar vervoer, dat rijdt sowieso toch en ze bedenken maar een andere manier om waarde toe te voegen dan alleen van A naar B rijden wat ze toch al verplicht moeten doen.
Avatar 2 kostte 350 miljoen om te maken. Uiteraard wens ik die direct gratis ergens te downloaden. Cameron zoekt maar een andere manier om waarde toe te voegen ipv bioscoopkaartjes te verkopen en de film bij een streamingdienst aan te bieden.

Je merkt, ik ben een groot voorstander van het gratis gebruik maken van het werk en de inspanningen van anderen met het altijd ook hier op Tweakers terugkerende argument: ze gaan niet met hun tijd en de nieuwe techniek mee en ze zoeken maar een andere manier (waar ik uiteraard geen last van heb) om er geld mee te verdienen.
Wat een rare reactie. Tweakers is juist een goed voorbeeld dat het bedrijfsmodel heeft aangepast aan de nieuwe realiteit. Ze hebben geen privacyschendende trackers meer en hebben een abonnement waar mensen mee kunnen betalen om de boel draaiende te houden. Dat zou jij dus ook kunnen doen.
Niet iedereen blokkeert reclame vanwege tracking, veel mensen vinden reclame gewoon irritant en blokkeren het daarom.

Dit is ook exact hoe adblockers begonnen zijn en het bericht erachter is hetzelfde als wat men tegen artiesten zegt: zoek maar een ander verdienmodel.
Geen idee welk punt je wil maken maar Tweakers heeft dus al een ander verdienmodel (abonnement).
Als je als zakelijke bezoeker een ander tarief betaalt dan een toerist en je vervolgens een toeristen kaart koopt en toch zakelijk het museum bezoekt kan je het daarmee vergelijken ja.

Auteursrecht is al iets heel kroms (kijk maar naar de versnippering van streaming diensten die in verschillende landen verschillend aanbod hebben) gooi daar nog eens een AI sausje over en je hebt iets wat helemaal niet gereguleerd is.

Ik volg de AI programmers ook niet helemaal, waarom zou een AI inleren fair use zijn als je alle content die er is wilt consumeren?
Ik volg de AI programmers ook niet helemaal, waarom zou een AI inleren fair use zijn als je alle content die er is wilt consumeren?
Omdat het materiaal waar copyright op zit niet wordt gekopieerd? Vandaar de referenties naar 'inspiratie'.
Waarop baseer je dat Stability IA hier niet gekopieerd heeft? Want dat zal toch ergens uit moeten blijken als dat het argument is wat het redelijk zou maken wat het bedrijf deed. Het verwerken van andermans werk om de eigen AI waardevol te maken gaat niet zomaar over slechts delen kopiëren.
En daar zit de crux, want het trainen van een neuraal netwerk resulteert niet in een kopie van de invoer.
De crux die je probeert te maken is omgekeerd redeneren alsof je kan uitsluiten wat niet uit komt. Maar dat kan dus niet zomaar, aangezien het niet slechts om het resultaat gaat maar om het geheel wat voldoende bewezen heeft plaatsgevonden en zo wel of niet redelijk is.

Het lijkt me ook een zeer zwakke verdediging door er op te gokken dat een rechter niet mee zou willen tellen wat het bedrijf precies verwerkt heeft om tot het resultaat te komen en genoegen neemt met suggestie. Zeker niet als er meer vanaf hangt dan slechts meer geld moeten betalen maar zelfs de mogelijkheid dat ze al die gegevens niet hadden mogen verwerken en terug moeten draaien of zelfs failliet kunnen gaan.

Mijn verwachting is dat Getty en het AI-bedrijf gaan schikken en Getty het licentiemodel gaat aanscherpen (voor zover ze dat nog niet gedaan hebben) om meer aan AI-gebruik te kunnen verdienen.
Een AI kan niet "geinspireerd" raken. Het verwerkt informatie uit bestaande afbeeldingen op de manier waarop het geprogrammeerd is. Niets meer, niets minder. Het is onmogelijk voor dergelijke programmas om inspiratie op te doen. Dit woordje is een slap excuus van AI-verdedigers om het gebruik van deze software goed te praten, door te doen alsof het opeens geen auteursrechtenschending meer is.
Misschien kunnen zelfs mensen niet 'geinspireerd' raken. En toch benoemen we dat zo.

Ik heb hier het complete stable diffusion model staan: 4Gb. En daar zit geen byte in die onder het copyright van de foto auteurs valt. Dat er hier en daar hints zijn opgepakt uit ander werk is toch volstrekt logisch - zo werkt een mens ook.
Mocht de copyright lobby gelijk krijgen vermoed ik dat er ook prima getraind kan worden op copyright vrije afbeeldingen. Uiteindelijk zijn de gevolgen hetzelfde want de stock foto clubs gaan hoe dan ook een stuk minder belangrijk worden.
Misschien kunnen zelfs mensen niet 'geinspireerd' raken. En toch benoemen we dat zo.
Maar mensen kunnen wel geïnspireerd raken. Het is het opdoen van ideeën. Dit is iets wat wij kunnen, waarbij we een redelijk goed beeld hebben wat het precies betekent, en we weten dat een computerprogramma (nog) niet daartoe in staat is. Dus deze filosofische stelling is niet zo sterk.
Ik heb hier het complete stable diffusion model staan: 4Gb.
Mooi, je hebt dus alle informatie die je nodig hebt om, mits je de juist instructies geeft, vrijwel exacte kopieën van miljoenen beschermde werken te maken.
En daar zit geen byte in die onder het copyright van de foto auteurs valt.
Oh nee? Waarom hebben deze programma's dan specifiek dergelijke afbeeldingen nodig? Je bent verkeerdelijk in de veronderstelling dat plagiaat enkel van toepassing is bij het maken van exacte kopieën. Dat is echter een beperkte interpretatie van copyright, dat ook over het maken van afgeleiden gaat. En dat is precies wat hier gebeurt.
Mocht de copyright lobby gelijk krijgen vermoed ik dat er ook prima getraind kan worden op copyright vrije afbeeldingen.
Dat kan inderdaad. Dus dan moet je jezelf afvragen: waarom deden ze dat dan niet vanaf het begin? En het antwoord is simpel: Geld. Des te meer afbeeldingen, des te sneller ze hun model kunnen verbeteren om er aan te verdienen en te concurreren met andere bedrijven die hetzelfde doen.
Uiteindelijk zijn de gevolgen hetzelfde want de stock foto clubs gaan hoe dan ook een stuk minder belangrijk worden.
Ook ik zie Getty images en andere stock clubs graag verdwijnen, maar ik denk niet dat dit de juiste manier is waarbij het hele beroep artiest in gevaar gebracht wordt door een technologie dat geautomatiseerd plagiaat pleegt.
[...]
Mooi, je hebt dus alle informatie die je nodig hebt om, mits je de juist instructies geeft, vrijwel exacte kopieën van miljoenen beschermde werken te maken.
Vallen een paar bytes per werk niet gewoon onder citaatrecht?
Dat kan inderdaad. Dus dan moet je jezelf afvragen: waarom deden ze dat dan niet vanaf het begin?
Omdat de mogelijkheid om iets als Stable diffusion te bouwen er nu is en eerst drie jaar onderhandelen over of het wel of niet mag toegepast worden op copyrighted materiaal betekent dat een Chinese partij er met de primeur vandoor gaat?

[Reactie gewijzigd door bzzzt op 18 januari 2023 09:08]

Citaatrecht is een vorm van fair use. Als het nieuwe werk voor slechts een kleine fractie uit bestaande werken bestaat (reken 10% als ik het me goed herinner), èn als bestaande werken zich lenen voor dergelijk gebruik (bv educatieve doeleinden), èn als de auteur dergelijk gebruik niet afkeurt, èn als hierbij aan bronvermelding gedaan wordt, kun je je inderdaad beroepen op het citaatrecht.

Maar je voelt de bui al hangen: AI voldoet aan géén van deze eisen. Gegenereerde werken zijn voor 100% gebaseerd op informatie uit bestaande werken, hoe sterk gecomprimeerd dan ook met hun aggressief denoising algoritme. Bovendien lenen de oorspronkelijke werken zich niet voor dit doeleinde voor het overgrote deel, het zijn namelijk kunstwerken die zonder toestemming van de auteur gebruikt zijn en zonder bronvermelding.

Je stelling mbt de Chinese partij snap ik niet. Wat heeft dat ermee te maken? Stable Diffusion hoort zich gewoon aan de wet te houden. Het risico dat een buitenlandse partij een sterkere marktpositie krijgt als gevolg daarvan is volstrekt irrelevant, het geeft Stable Diffusion niet het recht om hier op extreme schaal de wet te overtreden.
Maar je voelt de bui al hangen: AI voldoet aan géén van deze eisen. Gegenereerde werken zijn voor 100% gebaseerd op informatie uit bestaande werken, hoe sterk gecomprimeerd dan ook met hun aggressief denoising algoritme. Bovendien lenen de oorspronkelijke werken zich niet voor dit doeleinde voor het overgrote deel, het zijn namelijk kunstwerken die zonder toestemming van de auteur gebruikt zijn en zonder bronvermelding.
Als je denoising compressie noemt heb je niks begrepen van de opbouw van neurale netwerken. Er zit 0 brondata in de netwerken, alleen ruwe 'richtingen' gekoppeld aan bepaalde inputs. Ieder origineel werk is hooguit een minimale aanpassing aan dat model. Als jij het model door middel van een voorbeeld leert dat tekenen in de stijl van 'lapjespoes' betekent meer rood gebruiken zit ergens een vector die naar 'meer rood' stuurt, maar jouw voorbeeld wordt nergens letterlijk overgenomen, dat is domweg onmogelijk gezien de grootte van de dataset.
Mag jij verbieden dat iemand opslaat dat jouw tekenstijl een bepaalde eigenschap heeft?

Het lijkt me ook verschrikkelijk moeilijk bewijs te leveren dat jouw originele werken in de trainingsset hebben gezeten. Je zal in het geval van miljoenen inputs misschien hooguit een paar vectoren vinden die enigszins van richting zijn veranderd door jouw specifieke afbeelding. Dat valt niet onder een compleet werk, of kopie daarvan. Misschien onder databankrecht, maar geen idee hoe dat internationaal werkt.,
Je stelling mbt de Chinese partij snap ik niet. Wat heeft dat ermee te maken? Stable Diffusion hoort zich gewoon aan de wet te houden. Het risico dat een buitenlandse partij een sterkere marktpositie krijgt als gevolg daarvan is volstrekt irrelevant, het geeft Stable Diffusion niet het recht om hier op extreme schaal de wet te overtreden.
AI is een hyper-competitief vakgebied op dit moment. Jij neemt de extreme positie in dat dit soort training per definitie door de wet verboden is terwijl veel anderen het een grijs gebied vinden.
Het is voor Stable diffusion gewoon opportuun risico op een rechtzaak te nemen dan iedereen te gaan vragen of ze het eens zijn met wat ze doen (want er is altijd iemand die 'nee' roept en worden ze door andere partijen zoals bijvoorbeeld uit China, waar copyright hooguit als 'suggestie' of 'lastig' wordt gevonden) voorbij gelopen.
Als je denoising compressie noemt heb je niks begrepen van de opbouw van neurale netwerken.
Denoising IS een aggressieve vorm van lossy compression.

https://vciba.springerope...10.1186/s42492-019-0016-7

https://pub.towardsai.net...compresssion-6f1f0a399202

https://www.mathworks.com...sing-and-compression.html
Er zit 0 brondata in de netwerken, alleen ruwe 'richtingen' gekoppeld aan bepaalde inputs.
Ten eerste is dat dus een verwerkte vorm van brondata, wat niet afwijkt van het principe van encryptie of compressie. Een versleuteld of gecomprimeerd bestand is nog steeds de brondata, maar dan in een verwerkte vorm. Dat diffusion daar op een agressievere manier mee omgaat doet er niet toe. Dat de originele afbeeldingen niet opgeslagen worden is ook volstrekt irrelevant, er vindt nog steeds decompressie/denoising plaats om bij een specifiek resultaat te komen.
Als jij het model door middel van een voorbeeld leert dat tekenen in de stijl van 'lapjespoes' betekent meer rood gebruiken zit ergens een vector die naar 'meer rood' stuurt, maar jouw voorbeeld wordt nergens letterlijk overgenomen, dat is domweg onmogelijk gezien de grootte van de dataset.
Niet onmogelijk, enkel veel moeilijker. Dat de gewichten in het algoritme gebaseerd zijn op meerdere werken houdt enkel in dat je te maken hebt met een amalgamaat van gecomprimeerde data, op een zodanig agressieve wijze dat je een enorme vermindering van vereiste opslagruimte krijgt maar met de juiste formules alsnog terug kan bij het origineel (behalve lossy artifacts).
Mag jij verbieden dat iemand opslaat dat jouw tekenstijl een bepaalde eigenschap heeft
Als die "tekenstijl" direct overgenomen is van mijn werk, mag dat. De stijl an sich is niet beschermd door het auteursrecht maar de manier waarop er met mijn kunst wordt omgegaan geeft me wel dergelijke rechten. Het maken van afgeleiden is één daarvan. Het doet er niet toe welke methode je gebruikt en het doet er niet toe of bij deze methode het origineel wordt opgeslagen op een directe manier.
Het lijkt me ook verschrikkelijk moeilijk bewijs te leveren dat jouw originele werken in de trainingsset hebben gezeten.
Daar heb je inderdaad gelijk in. Het is zeer moeilijk om een directe correlatie tussen een resultaat en een origineel aan te tonen, door de complexe manier waarop de machine learning algoritmes werken. Dat is echter een praktische beperking. Dit verandert niet het feit dat er derivatie plaatsgevonden heeft. Dit is dan ook de reden dat de rechtzaken zich richten op de AI ontwikkelaars en niet op individuele "artiesten" die er gebruik van gemaakt hebben om andermans werk over te nemen in de vorm van amalgamaten. In plaats daarvan richten ze zich op iets wat wel aangetoond kan worden: dat er daadwerkelijk gebruik gemaakt wordt van bestaande kunst zonder toestemming van de rechthebbenden.
Je zal in het geval van miljoenen inputs misschien hooguit een paar vectoren vinden die enigszins van richting zijn veranderd door jouw specifieke afbeelding. Dat valt niet onder een compleet werk, of kopie daarvan.
Inderdaad. Het valt onder het maken van afgeleiden. Auteursrecht omvat meer dan enkel het maken van kopieën, zoals reeds toegelicht.
AI is een hyper-competitief vakgebied op dit moment. Jij neemt de extreme positie in dat dit soort training per definitie door de wet verboden is terwijl veel anderen het een grijs gebied vinden.
Nee, ik neem de positie in dat het gebruik van auteursrechtelijk beschermd materiaal om hier complexe amalgamaten mee te maken illegaal is, een stelling die tot dusverre ondersteund wordt door de wetgeving. Het is namelijk verboden om derivaten te maken zonder toestemming.
Het is voor Stable diffusion gewoon opportuun risico op een rechtzaak te nemen dan iedereen te gaan vragen of ze het eens zijn met wat ze doen
Stable Diffusion weet inderdaad heel goed waar ze mee bezig zijn. Het is dan ook niet voor niets dat ze met een bedrijvenconstructie werken waarbij ze niet zelf verantwoording dragen over de dataset maar hier wel gebruik van maken voor commerciele doeleinden. Mocht deze rechtzaak in het voordeel van artiesten afgesloten worden, moet Stable Diffusion hun gehele model opnieuw opbouwen op basis van uitsluitend rechtenvrije afbeeldingen en mogen AI ontwikkelaars in de toekomst geen gebruik meer maken van kunst zonder toestemming.
Met consequentie dat mensen hun werk alleen maar exclusiever gaan verbergen op het internet. Waarom zou je nog eens een mooie foto of een schilderij op het internet zetten als er toch mensen mee aan de haal gaan om er geld mee te verdienen. Stoppen ga je nooit kunnen, maar hoe het nu gedaan wordt kun je niet maar goedkeuren met de reden 'mensen inspireren zich ook van x'.
Verbergen is nog zacht uitgedrukt. Dit heeft veel verdergaande consequenties, artiesten uploaden überhaupt veel minder als gevolg van deze complexe vorm van geautomatiseerd plagiaat. Het helpt natuurlijk ook niet dat propagandisten ze het bloed onder de nagels vandaan haalt met die irritante mythes als "inspiratie" en "ze slaan niets op".
Gelukkig doen "artiesten" precies hetzelfde met woorden als "collage" en "kopiëren" :+
Artiesten kunnen (!) inderdaad ook plagiaat plegen. Betekent niet dat ze dit doen. Als ik nu Photoshop, Apophysis of wat dan ook open om een werk te maken, kan ik dat prima uit mezelf zonder een bestaand werk op te zoeken. AI kan dit niet.
Jij, en vele andere tegenstanders van AI, blijven termen gebruiken die gewoon feitelijk onjuist zijn, en wekken daarmee (bewust?) de indruk dat SD dingen doet die het helemaal niet doet (afbeeldingen zoeken of knippen en plakken uit bestaande afbeeldingen bijvoorbeeld). Het is dan een beetje hypocriet om te klagen dat de voorstanders van AI bewust verkeerde termen zouden gebruiken om de gemiddelde artiest te pesten.

Overigens zou jij zonder de input die je middels je zintuigen hebt binnen gekregen net zo goed niet in staat zijn om een werk te maken. Je kan geen auto tekenen als je niet weet wat een auto is.
Het is nogal hypocriet om anderen de les te lezen over onjuiste stellingen terwijl je die zelf in veelvoud maat in deze draad. En de vorige. En die ervoor.
de indruk dat SD dingen doet die het helemaal niet doet (afbeeldingen zoeken of knippen en plakken uit bestaande afbeeldingen bijvoorbeeld)
Glasharde leugen, dit heb ik namelijk nooit beweerd. Jij draait telkens mijn argumenten om in een stroman om hier tegen te argumenteren.
Overigens zou jij zonder de input die je middels je zintuigen hebt binnen gekregen net zo goed niet in staat zijn om een werk te maken. Je kan geen auto tekenen als je niet weet wat een auto is.
Dat klopt, maar de discussie gaat niet over het al of niet vereisen van input, maar of deze input auteursrechtelijk beschermd is. Deja vu, het is alsof ik je dit al heel vaak uitgelegd heb.
Als je netjes een kaartje voor toegang tot het museum hebt gekocht moet dit geen probleem zijn.
Dat is volgens mij de analogie met wat Getty nu aangeeft: Dat kaartje hebben ze niet gekocht.
Alleen heeft volgens het artikel de kunstschilder geen ticket gekocht om naar de schilderijen te mogen kijken ...
"Beetje hetzelfde als een kunstschilder verbieden om rond te kijken in een museum?"
Opzich geen slechte opmerking natuurlijk, alleen heeft de kunstschilder op dat moment ook betaald om naar de schilderijen in het museum te gaan kijken.
Is toch meer dan normaal dat je betaald voor de data waarop je je algoritme traint lijkt me.
Ze hebben toch een watermerk op de preview plaatjes? Dat de AI dat er uit kan shoppen om er iets anders van kan maken is een mankement van het watermerk systeem.

Trouwens is het weer een mankement van de AI dat Getty foto’s kan herkennen in de AI creaties.
Voor zo ver ik begrijp hebben ze wel een licentie, maar niet de juiste, dus dan hebben ze geen last van de watermerken gehad.
Ze hebben wel de juiste licentie, omdat wat Stable diffusion er mee doet onder de allergoedkoopste licentie valt.

Stable diffusion gebruikt de foto voor eigen gebruik. Dat gebruik is trainen v/d AI.
De foto komt verder niet in folders, websites etc.
Die eigen gebruik licentie is niet geldig voor commerciële doeleinden. Tevens staat in de voorwaarden van Getty overduidelijk dat werken gebruiken voor machine learning/AI learning alleen mogelijk is na toestemming van Getty en/of met het afnemen van de juiste licentie.

Ik snap dan ook niet hoe jij tot jouw conclusie komt?

[Reactie gewijzigd door Groningerkoek op 6 februari 2023 23:56]

Dus gaan ze ervan uit dat de foto’s nu miljoenen keren gebruikt gaan worden.

Beetje hetzelfde als de voorbeeld processen in de vs rond de illegale muziek downloaden. Een persoon voor miljoenen aanklagen vanwege het delen van een album op Napster omdat het zoveel keer geüpload was, en volgens hun redenering waren dat andere allemaal aankopen geweest.
Ja, maar er is wel een verschil in het recht om een afbeelding te gebruiken om te tonen en het recht om een afbeelding te aanpassen en herdistribueren.

Zelf hebben ze er in ieder geval een licentie met het doel om AI te voeden, zoals in het artikel staat en in de bron: "Getty Images provided licenses to leading technology innovators for purposes related to training artificial intelligence systems in a manner that respects personal and intellectual property rights." en Stability AI heeft die dus niet gebruikt.
De afbeeldingen worden al daadwerkelijk zovaak gebruikt als er afbeeldingen gedownload zijn zonder de juiste licentie. Eenmaal verwerkt door de AI is het verwerkt, dat kan je niet zomaar terugnemen.
Dat je het watermerk eruit kan halen wilt nog niet zeggen dat dat betekend dat je die afbeelding zomaar ineens mag gebruiken. Dat is als zeggen dat ik in een kleren winkel het alarm aan de kleding kan breken en dat dat dan automatisch betekend dat die kleding van mij is. Zo werkt niets natuurlijk.
Als we die analogie willen laten kloppen is het meer alsof je een nieuwe set kleding aanpast in de winkel, een selfie neemt, en de kleding vervolgens weer op het rek hangt. Stable Diffusion slaat de afbeeldingen die het gebruikt voor training niet daadwerkelijk op.
Waar heeft Loller1 dan gezegd dat SD de afbeeldingen opslaat? Ik zie dat je deze stroman erg vaak maakt.
Nee, in jouw analogie is het de kleding aanpassen en dan zeggen "dit is van mij en ik mag het nu verkopen".

Ik wil je er even op wijzen dat jou argument hier overeen komt met naar GitHub gaan, een willekeurig project opzoeken, de code in duiken en alle referenties naar de makers/licentie eruit gooien en dan zeggen "ik mag dit gebruiken want ik kon de licentie ervan gewoon verwijderen".

Ik herhaal: zo werkt niets natuurlijk.
"Ze hebben toch een slot op hun deur? Dat iemand al hun dure spullen gestolen heeft is hun eigen schuld, hadden ze de deur maar op slot moeten doen." Deze redenering houdt natuurlijk geen stand als de dief zijn zegje doet tegen de rechter. Het is hier geen kwestie van mankementen, maar doelbewust gebruik van afbeeldingen waarvoor de nodige licenties niet verkregen zijn. Oftewel plagiaat.
Is dit niet gewoon Getty (waar o.a. Bill Gates achter zit) die achter stable diffusion aangaat en niet achter openai/dall-e omdat MS daar interesse in heeft? Follow the Money zeggen ze dan.

Nuancering: ik gooide Corbis en Getty door elkaar (Corbis was van Bill, Getty niet). Maar dan nog: waarom wel stable diffusion en niet Dall-E?

[Reactie gewijzigd door latka op 17 januari 2023 15:25]

Je kan iedereen wel tegelijkertijd aanklagen maar dat is kostbaar en je kan potentieel de zaak verliezen. Als je wint bij 1 partij dan heb je jurisprudentie en (onder gelijke omstandigheden) meer kans van slagen bij een volgende partij.
M.a.w. pak diegene met de minst diepe zakken
Ik vermoed dat de diepte van de zakken erg zal meespelen..

Hoe meer geld je hebt, hoe betere (en meer) advocaturen je kunt inhuren, hoe langer je een zaak kan rekken, etc.
Misschien heeft Dall-E wel gewoon de juiste licentie?
grappige is, als je "stock photo of ..." in je prompt zet, rendert SD er zelfs een watermark op... dus tja! :D
Kan je dan de query niet aanpassen met "without watermark" zodat hij die niet erbij doet? (Geen idee of dat kan want ik heb dit soort dingen nog nooit gebruikt).
Ja, dat werkt inderdaad. Stable Diffusion "tekent" enkel een watermark omdat het "denkt" dat de gebruiker daar om gevraagd heeft.
Jup je kan "watermark" in de negatieve prompt zetten.
Lees: Getty wil geld hebben.
Lees: Getty wil geld hebben.
Dat is natuurlijk normaal, dat wil elk bedrijf, de grotere vraag is, hebben ze gelijk, persoonlijk denk ik het wel, Stable Diffusion heeft Getty's materiaal gebruikt om om de IA te laten leren.

Dat is net zoiets als een huis op andermans grond te bouwen, en dan het raar vinden dat de eigenaar van de grond zegt, hey wtf ben jij aan het doen?
quote: JDx
Vind dat niet echt een goede vergelijking, het is meer naar de buren kijken hoe zij hun huizen gebouwd hebben en dan dat namaken.
Nee dat is anders, want daar zit geen copyright op, Stable Diffusion heeft letterlijk gebruik gemaakt van dat al het material om wat nieuws te maken.

Maar laten we het omdraaien, jij bent fotograaf, en heb je levenswerk van 30j aan beeldmateriaal online staan, dat jij verkoopt als stok foto's voor website, zou jij het dan prima vinden als Stable Diffusion ze van jouw website ript, en gebruikt om daarna weer met jouw de concurrentie aan te gaan?

Imho, wat Stable Diffusion doet zit denk ik wel in een heel donkergrijs gebied, en denk dat het nu al illegaal is in veel landen.

[Reactie gewijzigd door player-x op 17 januari 2023 15:12]

Vind dat niet echt een goede vergelijking, het is meer naar de buren kijken hoe zij hun huizen gebouwd hebben en dan dat namaken.
En nog geen eens namaken, maar laten inspireren. Er is namelijk geen sprake van exacte kopieen
Voor de auteursrechtenwetgeving hoeft dat ook niet, ook het maken van afgeleiden is een voorbehouden recht. Je mag niet zomaar een schilderij overtrekken, dat is plagiaat. Ook al is het overtreksel geen kopie.

Tevens is het voor huidige vormen van AI, eigenlijk gewoon machine learning, onmogelijk om inspiratie op te doen. Zo werkt het simpelweg niet. Het zijn programma's die zeer specifiek doen waarvoor ze geprogrammeerd zijn.
Maar wel onbetaald gebruik, of vind jij het goed dat jouw buurman ongevraagd je schuur inloopt, en je boormachine leent omdat hij hem nodig heeft voor zijn eigen project?
Nee, maar hij mag best door het raam naar de dakconstructie kijken om te leren hoe hij zelf een goed dak kan maken, er vanuit gaande dat mijn raam aan de publieke weg grenst en ik mijn gordijnen open laat staan (lees je plaatjes op Google images zetten). Als je niet wilt dat hij naar binnen kijkt moet je je gordijn dicht doen.

Tevens ben ik heel benieuwd hoe ver we deze keer met alle metaforen kunnen komen!
Mag hij dat? Je mag niet eens foto's van de verlichte Eifeltoren online plaatsen, het lijkt me sterk dat je eigen exacte replica van je Eifeltorenlampjes dan wel ineens zou mogen, ook al heb je daar zelf inspiratie voor opgedaan in Frankrijk. Copyright is nogal raar in dat opzicht.
Dan ontneemt hij je iets. Een beter voorbeeld zou zijn. De buurman kijkt naar jouw huis vanaf de stoep en neemt jouw huis als inspiratie voor de bouw van zijn eigen huis. Vind je dat dat niet mag?
Als hij enkel inspiratie opdoet mag dat. Als hij de bouwtekening of delen ervan overneemt, al of niet met wijzigingen, mag dat niet (zonder toestemming van de auteur). In dit geval heeft de buurman zelf er echter niets over te zeggen, het is immers de architect die het auteursrecht over de uitvoering bezit. Ook is het de vraag of huizen uitgesloten zijn van deze wetgeving, dat weet ik zo niet.
Aangezien deze ai programmas werken op basis van inspiratie en geen directe kopien maken mag het dus. Thanks.
Machine learning algoritmes zijn programma's die precies doen waarvoor ze geprogrammeerd zijn. Waar haal jij vandaan dat deze inspiratie kunnen opdoen? En wat versta jij precies onder deze term, welke definitie geef jij aan inspiratie?
inspiratie is dat op basis van iets wat je ziet een soort gelijk iets of iets in dezelfde trant maken. Zonder dat het een exact kopie is. Exact wat een AI dus doet. Het mengt allerlei ideeën van wat het eerder gezien heeft net als een mens dat doet. Als inspiratie niet meer mag dan kan iedere kunstenaar die niet zijn hele leven afgesloten is geweest van de buitenwereld wel er mee ophouden.
Maar dat is dus niet exact wat een AI doet. AI kan niet nadenken, het is geen cognitief wezen met een creatief intellect. Het is software geprogrammeerd om informatie uit bestaande kunstwerken te halen. Hoe je het ook went of keert, dat is het maken van afgeleiden, niet het opdoen van ideeën.

Je kan wel mooi stellen van "als inspiratie niet meer mag", maar daar gaat de hele discussie niet over. Niemand wil inspiratie opdoen verbieden. Men argumenteert terecht tegen de valse notie dat een plagiaatprogramma ideeën kan opdoen.
Een mens haalt ook informatie uit bestaande kunstwerken. Waarom mag een mens dat wel en een stuk software niet? Wanneer is iets een idee en niet een afgeleide van?
Een mens mag dat ook niet zomaar. Daar is het auteursrecht (en in bredere zin het concept intellectueel eigendom) voor in het leven geroepen.

Een idee is gewoon een idee. Een afgeleide maken houdt in dat je van een bestaand werk gebruik maakt. Eerstgenoemde staat los van het auteursrecht, laatstgenoemde absoluut niet. Als jij een kunstwerk van een banaan ziet en geïnspireerd raakt zelf een banaan te tekenen, prima. Als jij dat bestaande kunstwerk hiervoor gebruikt, niet prima. Dat is het verschil.
Maar je maakt wel gebruik van de banaan. Het kopie zit in je hoofd. Dat is die inspiratie. Wij doen het via chemische software in ons hoofd maar het principe komt op precies hetzelfde neer.
Niet volgens de wet. Met deze argumentatie moet je ook niet bij mij aankomen maar bij de wetmakers. Het is hoe dan ook een feit dat inspiratie opdoen niet hetzelfde is als auteursrechtenschending. Je kan blijven doordrammen op dit punt maar je gaat je gelijk er niet mee krijgen.
Jij zegt dat dit auteurs schending is. Dat is helemaal nog geen feit noch uitgesproken door een rechter. Je moet je eigen mening niet als feit gaan verkondigen. Knap staaltje circel redenatie

[Reactie gewijzigd door Mirved op 20 januari 2023 15:26]

De wet voorziet de maker van een werk het alleenrecht om afgeleiden te maken van dit werk, naast een aantal andere rechten. Dit is dus al feitelijk zo. Vandaar ook de rechtzaken. Het zou pas een wijziging van de status quo (en het einde van artiest als carrière) zijn als de rechter in het nadeel van rechthebbenden zou spreken.

AI ontwikkelaars voegen beschermde werken toe aan de datasets. Deze verwerken ze vervolgens, om er nieuwe afbeeldingen mee te maken. Dit is dus per definitie het maken van afgeleiden. Er is hier geen cirkelredenatie aan te pas, het is een strakke lijn van links naar rechts. Artiest > kunstwerk > dataset > AI model > gegenereerde afbeelding.

Het is heel makkelijk om te zeggen dat een feit een mening is, als het je niet uitkomt.
Een kunstenaar kijkt naar een kunstwerk en maakt daar een afgeleide van (inspiratie). Dat mag dus niet? Dit begint al op de basisschool als een kind voor het eerst iets gaat na tekenen. Al deze patronen en indrukken slaat een mens op en gebruikt hij. Komt dit bekend voor?

[Reactie gewijzigd door Mirved op 21 januari 2023 19:55]

Je snapt het nog steeds niet. Inspiratie opdoen is NIET hetzelfde als een afgeleide maken. Aangezien ik dit hierboven al meerdere keren heb toegelicht zal ik het niet nogmaals herhalen. Mocht jouw redenering juist zijn, dan kan je het hele concept van auteursrecht wel in de prullenbak gooien. Gelukkig denkt de wetgeving daar heel anders over.

Kern: Blijf met je tengels van andermans werk af en gebruik "inspiratie" niet als smoes om plagiaat te plegen.
Waar ligt het verschil Definieer dat eens precies wanneer maakt een mens een afgeleide en wanneer is ie enkel geïnspireerd?

Als ik raster lijntjes trek met kleuren doe ik Mondriaan dan zijn werk stelen of was ik enkel geïnspireerd?

[Reactie gewijzigd door Mirved op 21 januari 2023 22:25]

Inspiratie opdoen is contextueel. Je ervaart iets (ongeacht de bron) en de betekenis ervan gebruik je vervolgens om iets te doen. Je hebt dus enkel woorden nodig.

"Hee, dat is leuk, gekleurde lijntjes. Zoiets ga ik ook tekenen." Cruciaal hierbij is dat je enkel vanuit het idee werkt, dus de woorden zijn voldoende. Je hoeft het werk van Mondriaan in dit geval zelfs nog nooit gezien te hebben om iets te maken wat er op lijkt.

Het maken van afgeleiden is visueel. Je ervaart een kunstwerk waarop het auteursrecht berust en verwerkt dit in een ander werk, op welke manier dan ook. Je haalt dus onderdelen van het kunstwerk zelf eruit als het ware. Met toestemming van de auteur mag dit, zoniet is het auteursrechtenschending.

Dit principe komt overeen met het overtrekken van de lijntjes van Mondriaan. Je maakt gebruik van zijn visuele kunstwerk. Jouw werk is ervan afhankelijk, het bleef dus niet enkel bij het idee "gekleurde lijntjes" maar je nam direct visuele informatie over van het werk. Dat is het maken van een afgeleide.

Mocht er nog auteursrecht op zijn werk berusten, zou dat plagiaat zijn. Meneer is intussen meer dan 70 jaar overleden, dus zijn werken vallen intussen in het publiek domein en mogen vrij gebruikt worden om afgeleiden van te maken. Als je dit principe echter toepast op een kunstwerk waar nog wel auteursrecht op berust, pleeg je plagiaat. Je moet namelijk toestemming van de auteur verkrijgen.

---

Inspiratie: ervaring --> idee (woorden) --> verwerking --> afbeelding.

Derivatie: kunstwerk --> visuele informatie --> verwerking --> afbeelding.

Auteursrechtenschending: derivatie zonder toestemming.

---

AI modellen passen principes uit beide zaken toe. Hoewel het geen ideeën kan opdoen omdat het geen intelligent wezen is maar een computerprogramma, kan het wel contextuele informatie verwerken. Dit is voornamelijk afkomstig uit metadata als titels, tags, beschrijvingen en dergelijke. Mocht AI intelligent zijn, zou je dit aanmerken als inspiratie. Er wordt namelijk enkel gebruik gemaakt van de woorden die bij het werk horen, niet het werk zelf.

AI haalt echter ook visuele informatie uit de werken, en dit is de hele crux van de technologie. Zonder dit principe kan het niet functioneren zoals het doet. Er wordt voor elke afbeelding in de dataset (afkomstig van verscheidene bronnen) zoveel mogelijk visuele informatie gehaald en via neurale processing "getraind" - dit is het maken van afgeleiden, al dan niet op een complexe manier. Het getrainde model kan vervolgens gebruikt worden om mooie niet-lineaire amalgamaten van de bronafbeeldingen te maken. Wanneer gecombineerd met de contextuele informatie (waarbij de prompts dus gebruikt worden) kan je sturen in welke mate bepaalde visuele informatie terugkomt in de renders.

Cruciaal is dus dit laatste stuk: verwerken van visuele informatie. Als AI enkel 'inspiratie' zou opdoen, kon je het een woordenboek geven en had het geen enkel kunstwerk nodig.

Opzich een prachtige technologie, in essentie een slimme manier van zeer agressieve datacompressie met minimaal verlies. Maar het feit dat hiervoor beschermde werken gebruikt wordt leidt terecht tot weerstand van de rechthebbenden. Die hebben hier geen toestemming voor gegeven en zien hun inkomstenbron verdwijnen als gevolg van plagiaat.

[Reactie gewijzigd door Lapjespoes op 21 januari 2023 22:56]

Ok dus iedere kunstenaar die een ander kunstwerk gezien heeft en een variant er op maakt schendt dus het auteursrecht.
Als die kunstenaars daarbij gebruik maken van de oorspronkelijke kunstwerken, dan is dat inderdaad auteursrechtenschending. Als ze dat niet doen, dan niet. Op dit moment ben ik ervan overtuigd dat je dit heus wel begrijpt, dus verspil je moeite niet om te doen alsof je de twee concepten nog steeds door elkaar haalt.
Onbetaald gebruik waarvan? Van de mogelijkheid om een idee op te doen? Als we daar geld voor gaan vragen dan is het einde zoek en zal alle innovatie stagneren.
Dat argument gaat toch helemaal nergens over in deze context.
Er is helemaal niets ongevraagds gebeurt er staat namelijk het volgende:
[qupte]De AI-ontwikkelaar zou hiervoor niet de juiste licentie van Getty hebben afgenomen[/quote]
Er is dus waarschijnlijk zelfs betaald voor de afbeeldingen, maar ze hadden niet in deze context gebruikt mogen worden.

En een boormachine lenen is ook compleet iets anders dan iets gebruiken als inspiratie/leermiddel.
Een boormachine gaat stuk door hem te gebruiken, een afbeelding niet.

Ik ben het er mee eens dat het nogal dubieus is hoe er aan input gekomen word, maar aan de andere kant vraag ik mij wel af waar de grens ligt om afbeeldingen te gebruiken voor machine learning en een persoon die zelf iets tekent in de stijl van die afbeelding.

Ik kan ook op Wikipedia een paar afbeeldingen zien en dan iets tekenen in die stijl, dan is het ineens inspiratie.
En een boormachine lenen is ook compleet iets anders dan iets gebruiken als inspiratie/leermiddel.
Een boormachine gaat stuk door hem te gebruiken, een afbeelding niet.
Dus jij zegt dat er geen waardevermindering (stuk) plaatsvindt, als er meer concurrentie plaatsvindt door IA gegenereerde materiaal, dat is gegenereerd met jouw bron materiaal?
Geld dit niet ook voor zaken als ChatGPT?

Ik vind het twijfelachtig, zeker als er blijkbaar een licentie is waarmee het wel mag.

Een schilderij van Van Gogh of Picasso verliest zijn waarde ook niet als iemand er een vergelijkbare van produceert.

Er word zelfs grof geld betaald voor de meest simplistische kunst of zelfs afbeeldingen zoals logo's dus wat is de waarde van de afbeelding op zich dan als het als input dient?

Uiteindelijk zijn zelfs die logo's weer geïnspireerd door andere logos.

Zelfde geld voor een foto. Er zijn duizenden foto's van het zelfde maar toch hebben sommige waarde ookal verschillen ze praktisch niet van een andere.
"Het klinkt vooral als een hoop boohoo van andere eigendombezitters" na bestolen te zijn van hun fysiek eigendom.

"Niets houdt je tegen om zelf diefstal te plegen" behalve dan de wetgeving, tenzij de rechter er anders over denkt. Met dat laatste heb je nog een kans om je gelijk te halen, maar op dit moment is er geen enkele wettelijke uitzondering die het gebruik van andermans kunst op deze manier toestaat.

"Photoshop is ook niet eerlijk tegenover een arm-" Ja hier ga ik dus niet op in, deze analogie heeft niets met het onderwerp te maken.

"Nogmaals, AI kopieert niets" behalve afbeeldingen om deze vervolgens te verwerken tot noise en een formule om vanuit noise terug te komen bij het origineel. AI kopieert wel degelijk, én het maakt afgeleiden. Beiden zijn rechten voorbehouden aan de artiest volgens het auteursrecht.

"Het is gewoon efficiënter dan een mens" in het plegen van grootschalige plagiaat. Betekent niet dat we dit moeten accepteren. Als ik een technologie ontwikkel om automatisch jouw huis leeg te roven, zou jij dat ook niet goedpraten met slappe redenen als efficiëntie.
behalve afbeeldingen om deze vervolgens te verwerken tot noise en een formule om vanuit noise terug te komen bij het origineel
Simpelweg niet waar.
De link in het artikel toont vrij duidelijk aan hoe dit gebeurt. Het feit dat je van noise terug kunt komen bij een vrijwel exacte kopie van het origineel bewijst de stelling. Hier kan je niet onderuit komen.
Haha ok omdat ai een circle kan maken kan het ook de Mona Lisa maken? Heb je het zelf ooit gebruikt? Waarschijnlijk niet omdat je er dan al snel genoeg achter kwam het niet zo werkt.

Zelfde model, zelfde prompt, zelfde seed, andere stukje hardware geeft al een andere afbeelding.
...wat? AI is ironisch genoeg zelfs beter in het namaken van de Mona Lisa als een cirkel...

En je laatste stelling klopt ook van geen kanten. Met dezelfde input krijg je altijd exact dezelfde output. Daar is de seed voor. Pas als je deze wijzigt (en bijvoorbeeld laat afhangen van hardware) krijg je een ander resultaat. Als je de juiste formule toepast kan je van een noise set terugkomen bij het origineel, minus wat artefacten.

https://i.imgur.com/Ym4lzGj.png
Zoals ik al zei heb jij geen idee waar je het over hebt, sterker nog,
zelfde prompt, zelfde seed, zelfde model, zelfde pc, best groot verschil tussen 2 outputs, ik heb het net voor je getest.
Dan heb je dus niet dezelfde seeds gebruikt. Waarschijnlijk ben je verkeerdelijk onder de indruk dat je alle parameters tot je beschikking hebt, terwijl er in de back-end alsnog een echte seed voor variatie zorgt. Gezien de natuur van computerchips moet dit ook wel het geval zijn, die staan namelijk geen willekeur toe.
Nee, bij "sample parameters" (extra setting waar stiekem een extra noise factor wordt toegevoegd) staan allemaal op 0.

Maar blijf vooral volhouden dat jij gelijk hebt en ik niet terwijl ik het programma hier draai en het test, luister vooral gewoon naar je onderbuik gevoelens.
Right back atcha. Blijf vooral volhouden op basis van jouw incorrect gebruik van een programma dat je gelijk hebt.

Hoe dan ook, het verandert niets aan het feit dat, hoe moeilijk ook, een origineel weer verkregen kan worden uit noise, al is het met enkele artefacten.
Maar heb je het zelf weleens gebruikt? Je kan zeker iets terug krijgen wat erg op het origineel lijkt, maar als je het over elkaar legt zal je altijd verschillen zien.
Eerder dat je buurman kijkt welk merk en type boormachine je hebt.
Ik zie het in dit geval meer als de bouwtekening van het huis van je buren "lenen", om vervolgens zelf een bouwtekening te maken met delen van de huizen van je linker, en je rechter buur.
Ondanks dat je buren het misschien niet heel tof vinden, denk ik dat de architect van beide huizen toch even een woordje met je wilt spreken.
Alleen gebruikt het niet twee tekeningen maar miljarden. Denk niet dat de architect een poot heeft om op te staan.
Individuele architecten misschien niet, maar als de rechter in de gaten krijgt dat men op grote schaal methodes toepast om dergelijke ontraceerbare vormen van plagiaat te plegen, kan hij daar wel een stokje voor steken.

Het is net alsof je een grootschalige fietsendief bent en denkt dat het oké is omdat niemand nog na een paar wielverwisselingen en verfbeurten nog aanspraak kan maken op hun gestolen eigendom.
Stable Diffusion heeft Getty's materiaal gebruikt om om de IA te laten leren.
Dit is een misvatting, momenteel is het issue niet een AI/Neural Net iets te laten leren, maar wat hier gebeurd is niet het 'leren', maar het kopiëren van materiaal om het vervolgens te remixen. Dat kan gewoon niet meer onder het (Amerikaanse) fair-use vallen...
Sta­ble Dif­fu­sion, a 21st-cen­tury col­lage tool that remixes the copy­righted works of mil­lions of artists whose work was used as train­ing data.
Sta­ble Dif­fu­sion con­tains unau­tho­rized copies of mil­lions—and pos­si­bly bil­lions—of copy­righted images. These copies were made with­out the knowl­edge or con­sent of the artists.
Zie het als volgt: Je gaat naar de videotheek en huurt een paar films. Die kijk je en je brengt ze terug, helemaal geen issue. Maar nu: Je huurt alle films, maakt een kopie van alle films en bewaart deze. Vervolgens knip en plak je delen van verschillende films aan elkaar en publiceert ze... Zie je het verschil en het probleem?

Nu zou iemand met een eidetisch geheugen wellicht de film als 'kopie' kunnen onthouden en deze exact kunnen reproduceren. Eidetisch geheugen is een omstreden onderwerp en het lijkt alsof men er nog niet over uit is of het daadwerkelijk bestaat en in hoeverre dat een 'kopie' is.

Een groter probleem is hoe de wetten in verschillende landen AI/Neural Netten (gaan) zien. Je kan een bepaalde tekenstijl herkennen als mens, als je daar voldoende kennis van hebt zelfs zonder een bepaald werk voorheen te hebben gezien. Je kan specifieke werken herkennen, maar niet exact reproduceren van geheugen. Als je een werk exact namaakt is dat ook een wettelijk issue (indien je daar geen toestemming van hebt van de 'auteur'), zelfs het namaken van werken die al in het publieke domein vallen en je niet duidelijk aangeeft bij de verkoop dat het om een kopie gaat is een probleem! Als een AI/Neural Net een 'abstractie' kan onthouden/opslaan van een bepaald werk, zonder deze exact te hoeven/kunnen reproduceren, is dat dan ook een wettelijk issue met auteursrecht omdat de wet een mens anders ziet dan een AI/Neural Net (aka. geautomatiseerd systeem)?

Bron: https://stablediffusionlitigation.com/
Ik zie vaak de termen "remixen" en "collage tool" langskomen in kritiek op Stable Diffusion, maar dat is niet wat het programma doet. De originele afbeeldingen, of zelfs stukjes van de originele afbeeldingen, zitten niet eens in het model.
Met andere woorden, de in het Tweakers.net vermelde bron(en) zijn onbetrouwbaar?
https://stablediffusionlitigation.com/ is inderdaad niet accuraat.
Sta­ble Dif­fu­sion con­tains unau­tho­rized copies of mil­lions—and pos­si­bly bil­lions—of copy­righted images. These copies were made with­out the knowl­edge or con­sent of the artists.
Het zijn ab-so-luut geen kopieën. als je kijkt dat Stable Diffusion op 2.3 MILJARD afbeeldingen getraind is, en het model 4GB is. Dan blijft er +- 2 byte per afbeelding over.

Dit een kopie te noemen is gewoon heel erg misleidend.
Deze omgekeerde redenatie gaat niet zomaar op. Je kan op basis de omvang van een reultaat na verwerking niet stellen dat er slechts een zelfde omvang verwerkt is en dus ook niet dat er geen kopieën gemaakt zijn. Het gaat er om wat het bedrijf werkelijk verwerkt heeft voor het tot het resultaat is gekomen. Daarbij lijkt de voorwaarde om te mogen verwerken niet dat het slechts om het resultaat gaat om in de tussentijd iets te doen alsof dat dan valt te negeren.
De data is verwerkt, klopt, dat betwist ik niet.

Ik zeg alleen dat het een flinke leugen is om te zeggen dat het model kopieën bevat van deze miljarden plaatjes.

Ik heb even één van de afbeeldingen geopend. 38757 bytes groot.
In het Stable Diffusion model wordt dat vertaald naar gemiddeld 2 bytes. Dat is 0,00005160358129% van de grootte......... Dit is simpelweg geen kopie te noemen.

Als je dit percentage doortrekt naar een speelfilm, kom je op +- 10 frames uit. Het is toch ook belachelijk om te zeggen dat deze gif een 'kopie' is van de Matrix?

Of 'verwerken' mag is een lastiger vraagstuk, vandaar deze rechtszaak.
Het slaat noised versies van de afbeeldingen wel degelijk op en kan deze met de juiste formule weer omzetten in de originelen, minus wat lossy artifacts. Je hebt enkel gelijk als je in de meest strikte zin van het woord "kopie" oordeelt, maar als je dat doet is plagiaat opeens zeer eenvoudig legaal te maken door slechts 1 pixel te wijzigen. Zo werkt het natuurlijk niet.
Er zit nog een heel heel groot gebied tussen: '1 pixel wijzigen', en letterlijk 2 bytes opslaan |:( . Als ik op een piano de C3 toets aan raak heb ik ook niet ineens een kopie gemaakt van een stuk van Mozart.

Zo werken fair use wetten ook. 99% overnemen mag (meestal) niet, 1% overnemen mag (vaak) wel.

Verder slaan ze helemaal geen noised versies op. Bekende werken kan je met enige nauwkeurigheid terug halen, omdat deze bij het trainen van het model vaker voorkwamen.

2.3 miljard afbeeldingen terughalen op deze manier is echter volstrekt onmogelijk.

Ik heb ook meer succes met het uit m'n hoofd na tekenen van de Mona-Lisa, dan van een schilderij dat ik ooit een keer 1 keer heb gezien. Stable-diffusion is op dat punt niet anders. Heb ik nu ook illegale kopieën in m'n hoofd zitten? :?
Voor deze discussie doet het er niet toe hoe efficiënt informatie opgeslagen wordt. Het gaat om het maken van afgeleiden van bestaande werken, wat hier daadwerkelijk gebeurt. Opslag van de originelen is voor de wetgeving volstrekt irrelevant. Je kan het "trainen" noemen maar ook dat maakt het verschil niet. Als ik jouw werk overneem en wijzig, en zeg dat ik "geinspireerd was", kom ik daar niet mee weg.

Fair use wetgeving heeft een viertal stricte eisen waaraan voldaan moet worden en AI image generators voldoen aan géén ervan. Kopieerplak van mijn vorige reactie:
1: Er mogen geen negatieve gevolgen ontstaan voor de artiest ten gevolg van het gebruik van diens oorspronkelijke werk. AI schendt dit op extreem grote schaal en brengt zelfs het beroep van de auteur in gevaar.

2: De hoeveelheid van en mate waarin een werk gebruikt wordt is beperkt. Zo is er bijvoorbeeld een limiet van, iirc, 10% voor het gebruik van bestaand werk in een nieuw werk van literatuur. AI probeert zoveel mogelijk visuele informatie uit het origineel te halen en is ook in staat om een vrijwel exacte kopie terug te krijgen, en voldoet dus ook niet aan beperkingen op dit front.

3: De aard van het gebruik is van belang. Gebruik voor educatieve doeleinden weegt positief terwijl gebruik voor commerciële doeleinden negatief weegt. Dit weten de AI-bedrijven maar al te goed en daarom hebben ze een bedrijvenconstructie opgezet om te doen alsof ze altruïstisch bezig zijn. Het ene bedrijf doet alsof het onderzoek doet voor wetenschappelijke non-profit doelen, maar speelt vervolgens de data door naar het bedrijf dat winstoogmerk heeft. Data laundering. Duidelijk nog een fair use factor waar niet aan voldaan wordt in het totaalplaatje.

4: De aard van het oorspronkelijk werk speelt ook mee. Is het werk bijvoorbeeld bedoeld voor educatie, of voor het maken van winst? AI ontwikkelaars geven hier niets om en voegen diens werk toe aan de dataset. Sterker nog, dit doen ze ook als gebruikers expliciet aangeven dat ze hun werk niet toestaan voor gebruik door AI.
" 2.3 miljard afbeeldingen terughalen op deze manier is echter volstrekt onmogelijk." Het is volstrekt mogelijk, als je de artifacten van denoising wegdenkt. Het enige wat hiervoor vereist is is de juiste instructie. En nogmaals, de auteursrechtenwetgeving gaat niet enkel om het maken van kopieën, maar ook afgeleiden. Het is een feit dat beschermd materiaal gebruikt wordt. Dat alleen al botst met de huidige wetgeving.

"Ik heb ook meer succes met het uit m'n hoofd na tekenen van de Mona-Lisa, dan van een schilderij dat ik ooit een keer 1 keer heb gezien." Prima, maar ook als je uit je hoofd een beschermd werk natekent of hier een variatie op maakt, mag dat niet.

"Stable-diffusion is op dat punt niet anders." Oh nee? Wanneer jij een schilderij maakt, raadpleeg jij dan een dataset die je hebt opgebouwd met een statistisch noising algoritme dat informatie uit miljoenen afbeeldingen verwerkt heeft? Lijkt me stug.

Het is een glasharde leugen dat een zeer specifiek computerprogramma exact hetzelfde werkt als het menselijk brein, en aangezien de bewijslast bij jou ligt zie ik graag wetenschappelijke artikelen die je stelling waar maken.
Zo is er bijvoorbeeld een limiet van, iirc, 10% voor het gebruik van bestaand werk in een nieuw werk van literatuur.
En hier gaat het om 0,005160358129%............ wat is dan in hemelsnaam je probleem?
" 2.3 miljard afbeeldingen terughalen op deze manier is echter volstrekt onmogelijk." Het is volstrekt mogelijk, als je de artifacten van denoising wegdenkt.
Alleen al hierdoor is discussie onmogelijk. Je negeert 100% de feiten. Als je oprecht denkt dat je 2.3 miljard individuele afbeeldingen, op een herkenbare manier terug kan brengen vanuit de dataset van 4GB dan begrijp je er werkelijk waar geen bal van. Dan zou ik echt eens beginnen aan basis wiskunde.
"Stable-diffusion is op dat punt niet anders." Oh nee? Wanneer jij een schilderij maakt, raadpleeg jij dan een dataset die je hebt opgebouwd met een statistisch noising algoritme dat informatie uit miljoenen afbeeldingen verwerkt heeft? Lijkt me stug.
Begrijpend lezen is ook een kunst....... "op dat punt" slaat op het stuk: "Ik heb ook meer succes...... keer heb gezien". Dat is basisschoolniveau zinsontleding.
Het is een feit dat Stable diffusion makkelijker een bekend schilderij na maakt, dan een onbekend schilderij.
Het is een glasharde leugen dat een zeer specifiek computerprogramma exact hetzelfde werkt als het menselijk brein
En dit heb ik nooit gezegd.......... hou op met dingen verzinnen a.u.b. |:(
En hier gaat het om 0,005160358129%............ wat is dan in hemelsnaam je probleem?
Het gaat hier om 100%. De algoritmes extraheren zoveel mogelijk informatie uit de bronafbeeldingen en alle resultaten zijn uitsluitend gebaseerd op deze informatie.
Alleen al hierdoor is discussie onmogelijk. Je negeert 100% de feiten. Als je oprecht denkt dat je 2.3 miljard individuele afbeeldingen, op een herkenbare manier terug kan brengen vanuit de dataset van 4GB dan begrijp je er werkelijk waar geen bal van. Dan zou ik echt eens beginnen aan basis wiskunde.
Persoonlijke aanval daargelaten, het is een feit dat je bij een vrijwel exacte kopie van het origineel kan komen door te denoisen. Dat is de hele opzet van het diffusion model. Door dit principe te combineren vanuit meerdere bronafbeeldingen tegelijk, kunnen deze indirect op een elegante manier gecombineerd worden.

Het is in iets meer detail uitgelegd op deze pagina zoals ook gelinkt in het artikel: https://stablediffusionlitigation.com
Begrijpend lezen is ook een kunst.......
Je meent het.
Het komt van één van de partijen die een rechtszaak is gestart, die staan er dus niet echt neutraal in. Nu doe ik dat zelf ook niet, maar ik probeer wel bij de feiten te blijven.

Overigens wordt het niet echt als bron gebruikt, en wordt er enkel verwezen naar het feit dat ze SD hebben aangeklaagd.
Naast het feit dat deze stelling onjuist is (de datasets bevatten WEL de oorspronkelijke afbeeldingen), is dit ook irrelevant voor de kwestie. Als ik een kunstwerk van jou en van een ander op een complexe manier overtrek, pleeg ik nog steeds plagiaat, ook als ik beide originele kunstwerken niet bewaar.
Dat gaat dan ook om het maken van een (exacte) kopie, niet een interpretatie daarvan die eerder stijl-/techniekgebonden is (SD zoekt naar "trends"/patronen).
En niet geheel ontoevallig; schilderstijlen/technieken genieten geen-enkele auteursrechtenbescherming, énkel de individuele werken.
Waarom heb je het opeens over stijlen? Daar gaat deze discussie niet over. Het gaat hier om het overnemen en verwerken van kunstwerken, niet stijlen.

De methode waarop een bestaand werk gebruikt wordt is ook niet relevant, het gaat om het feit dat het gebeurt.
Prima als je het over enkel dat feit wilt hebben, dat is namelijk (in ieder geval vanuit de Nederlandse copyrightwetgeving) expliciet toegestaan;
bron: https://business.gov.nl/regulation/copyright/ onder "Copyright violation"

Het feit is dat DS kijkt naar trends en patronen binnen sets van afbeeldingen; wat zodoende valt onder een dataminingproces/TCM en dat mág, zónder toestemming.

De UK heeft daar ook al aanvullende wetgeving voor aangenomen, Frankrijk, Duitsland zijn hen onder-andere gevolgd.

De US verbiedt enkel directe kopieën en herpublicatie; dus eigenlijk ook niet anders dan wat de andere voorbeelden wel verbieden; hoezo zou het dan alsnog niet mogen?

Misschien wel handig om te vermelden: in al die uitvoeringen is wél bepaald dat partijen gerechtigd zijn tot een opt-out mogelijkheid, dan mag nadien geen nieuwe data meer verzameld worden, maar bestaande resultaten mogen (iig in de UK en NL uitwerking) behouden blijven,
In het artikel is voor mij niet 100% duidelijk dat SD onmiskenbaar een overeenkomst heeft met Getty, daarom ga ik voor nu voor het gemak ervanuit dat er géén daadwerkelijke overeenkomst is, lijkt mij ook fijner voor de grotere discussie om het niet tot dit voorval te beperken :)

[Reactie gewijzigd door Annihlator op 17 januari 2023 20:31]

Het "kijken naar trends en patronen" is niet het punt van discussie, dat is een erg simplistische en deels ongeïnformeerde interpretatie van hoe machine learning diffusion werkt. Wat ter discussie staat is hoe deze methodiek toegepast wordt op bestaande kunst. Omgekeerd geldt dus dat er geen probleem zou zijn als er uitsluitend gebruik gemaakt wordt van rechtenvrij materiaal.

Overigens hebben de makers van de datasets toestemming moeten vragen om gebruik te maken van de afbeeldingen zonder winstoogmerk, waarbij vooral dit laatste een cruciaal bewijsstuk is - de bedrijven hebben namelijk een constructie opgezet om de data door te sluizen. In essentie het witwassen van data. For-profit zusterbedrijven maken er vervolgens winst mee, geheel tegen de voorwaarden van het verwerken van de data in. Maar ze komen er mee weg. Althans, tot nu toe, die rechtzaken zijn er niet voor niets.
Het witwassen zie ik ook wel problemen in, dat ik mij het laatst daarin probeerde te verdiepen viel mij op dat het mogelijk is als "non-profit" eigenlijk vrij ongelimiteerd die data te verzamelen, en ze mogen die data zelfs toepassen (daarmee zouden ze in-theorie ook reproducties kunnen maken, voor bijvoorbeeld het genereren van een nieuwe trainingsset) en voor zover ik weet is het die instantie vervolgens vrij om dat rechtenvrij te publiceren; ik vraag mij dan ook af wat daar in theorie tegen te doen kan zijn / wat er "mist" in de wetgeving om dergelijke vormen van misbruik te voorkomen...

Ik weet eerlijk gezegd niet zeker hoe hard te maken is dat de makers van de datasets toestemming gevraagd danwel gegeven is, tenzij Getty daar direct ontkrachtend bewijs voor heeft kunnen de mensen achter SD net-zogoed glashard proberen te beweren dat de afbeeldingen enkel via zoekmachineresultaten zijn opgevraagd... "for the sake of argument" dat een deel van deze werken indirect via social media bemachtigd zijn (als-het-ware via een zoekmachine naar een social-media post/item).
Dit haalde ik iets breder aan in reactie:Annihlator in 'Getty klaagt Stable Diffusion-maker aan vanwege 'misbruik' afbeeldingen voor AI' en zoals je daar wss ook kan zien vind ik het moeilijk een standpunt te vinden daarin.

Misschien vraagt een oplossing ook wel om een (her-)definitie van wat een kopie van data/een werk kan vertegenwoordigen of zal de uitzondering voor non-profits enigszins bijgesteld/herzien moeten worden om dat witwassen tegen te kunnen gaan.
Tenminste, áls het dan zo is dat als een netwerk, getrained door een non-profit (óók op basis van werken die copyright genieten), die trainingsdata danwel resultaten niet alleen mogen delen maar for-profit zusterbedrijven daarmee aan de haal kunnen.

Terugdenken naar schilderstijlen komt denk ik omdat ik de werking van Stable Diffusion enigszins wil vergelijken met het algoritmisch uittekenen van een stel materialen/objecten, zoals een texture op een mesh. Het is zeer mogelijk met een aantal combinaties van verschillende noise-patronen allerlei materialen na te bootsen, zowel in kleur, als hoogte/bump/normal, in het voorbeeld van graphics/game-engines/3d-suites/etc.
Neem bijvoorbeeld wolken, water, sterrenluchten als voorbeelden voor hoe dat gereproduceerd kan worden door (noise)-patronen toe te passen op andere noisepatronen, of net-zogoed datavelden (alpha net-zogoed als voorbeeld, om de lagen te combineren), áls ik de uitleg van hoe stable diffusion een afbeelding genereert/reprduceert niet verkeerd begrepen heb.

Als (vind ik) ook toepasselijk voorbeeld voor SD en andere image-generating AI's is ook wel mee te wegen dat emulatie van allerlij schilderstijlen goed te emuleren zijn met een combinatie van effecten zoals redelijk wat mensen zich kunnen inbeelden van een bewerkingsprogramma als photoshop/gimp (oilify, "Van Gogh"), dat zijn uiteindelijk ook mathematische expressies met vast op een of meerdere punten noise (dit is wat meer een aanname, zou niet daadwerkelijk weten hoe de photoshop filters precies werken).

Vandaar dat ik in een andere reactie ook al uit als voorbeeld "wat maakt 'een Rembrandt'?
Ik vind het gewoon best moeilijk, want als ik eerlijk ben ziet het er naar uit dat ze misbruik/gebruik maken van een combinatie van mazen in de wet...

Ik denk inderdaad dat dan het enige wat in dit voorbeeld "werkt" is het aantonen van het doorsluizen van data als dat is wat ze doen...
maar wat dan als er geen directe link te leggen zou zijn of bij een ander voorbeeld/bedrijf is, is er dan alsnog een grens en waar ligt die? dat is voor mij dan vooral niet duidelijk.
Dat de input niet meer exact aanwezig is maakt het niet minder inbreukmakend. Als je een CD ript en daar kleine MP3s van vrijgeeft, mag dat ook niet. Als je een programma maakt dat een MIDI genereert op basis van een liedje, dan mag je dat ook niet zomaar zonder licentie vrijgeven. (Belangrijk: dat dit alsnog gebeurt maakt het niet minder inbreukmakend). Zo’n midi bevat ook het originele werk niet, maar wel latente data als representatie er van.

Het punt hier is dat de reproductie genoeg lijkt op het bron materiaal, zonder dat een natuurlijk persoon voor een transformatie heeft gezorgd. In feite is het gewoon een kopie (de latente data over de afbeeldingen), “maar verander wel een paar dingen zodat het niet lijkt alsof het gekopieerd is”.
Je had geen slechtere bron kunnen vinden.

"Ajax is slecht!"
Bron: Feyenoord.
Getty's materiaal
Dat is nog maar de vraag. Getty staat erom bekend dat ze ook foto's die publiek beschikbaar zijn op hun website verkopen, en dan mensen brieven gaan sturen als ze die afbeeldingen gebruiken. Zo was er een fotograaf die ook gezeik had met Getty omdat hij z'n eigen foto's op z'n eigen website had staan, want hij had die foto's beschikbaar gesteld voor iedereen en Getty heeft daar gebruik (misbruik) van gemaakt.

Ik denk dat Getty wel de laatste is die mag klagen
Maar laten we het omdraaien, jij bent fotograaf, en heb je levenswerk van 30j aan beeldmateriaal online staan, dat jij verkoopt als stok foto's voor website, zou jij het dan prima vinden als Stable Diffusion ze van jouw website ript, en gebruikt om daarna weer met jouw de concurrentie aan te gaan?
Dat vat alles samen wat je gehele argumentatie in duigen laat vallen.


Stock-foto’s zijn standaard foto’s in allerlei standaard situatie dat door een bedrijf commercieel wordt geëxploiteerd en waar het begrip kunst niet achter kan worden geplakt.

De situaties en bijbehorende foto’s vallen in principe niet te copyrighten, het is te alledaags en kan door jan en alleman worden worden uitgevoerd. Sterker nog,
ik kan morgen een ultra-hd camera neerzetten bij het station van vb Amsterdam die de hele dag aan het opnemen is en die de AI laten voeden en waar je jezelf niet in kunt herkennen.


Het enigste argument wat Getty heeft is dat het niet zou kunnen/mogen volgens de algemene voorwaarden en dat willen ze door de rechter laten toetsen wat het allemaal nog interessanter maakt,

ze hebben het staan in de algemene voorwaarden alleen twijfelen ze daar zelf zoveel over dat ze het de rechter willen laten toetsen.
Als jij nog nooit een camera hebt vastgehouden, neem jij met je Ultra-HD camera de komende weken nog geen serieuze stock-foto's. Al zijn er altijd mensen die genoegen nemen met een leuk kiekje.

Maar goed, Getty gaat wel wat verder dan gewoon simpele stockfoto's.
Ik denk dat hier ergens ook wel de vraag gesteld zal worden sinds wanneer het er in staat en wanneer is het model getraind er mee.

Ik vind het wel typerend dat er nu ineens een hoop drama is terwijl dit toch al een tijdje loopt. Ja het is ineens snel groot geworden sinds er brede beschikbaarheid van dergelijke tools is, maar dat betekend ook dat hier voor er waarschijnlijk niet over na gedacht is en het dus ook waarschijnlijk niet zo heel lang geleden in de voorwaarden is gezet.
Wat zou er dan recent in de voorwaarden zijn gezet volgens jou?

Er zijn veel sites waar foto's gratis beschikbaar zijn voor niet-commercieel gebruik.
Wil je het wel commercieel gebruik dan moet je er iets voor betalen. Dat staat al heel lang in de voorwaarden. Lang voordat mensen van dit soort AI's hadden gehoord.

Stability AI heeft niets betaald, maar maakt wel commercieel gebruik van de data.
Dat is duidelijk in conflict met de voorwaarden.
ja nou ja, zo gek is dat ook weer niet natuurlijk, jij moet ook eten, ik... en die gasten ook.
Ja ga dan gewoon werken, probleem opgelost.
De hele kunst branche is een hele grote farce, Het mooiste voorbeeld vind ik Vincent van Gogh
Het hele Vincent van Gogh museum hangt vol met schilderijen die niet kloppen want van Gogh
kon heel slecht om gaan met perspectief, zelfs de Zonnebloem schilderijen ( ja er zijn er meerderen )
Kloppen niet.
En voordat je denkt, dat is hoe hij de wereld zag. Nou dan weet ik dat je nog nooit in het Vincent van Gogh museum geweest bent, want daar is hele ruimte die daar aan gewijd wordt. En Vincent van Gogh wist dit en probeerde er alles aan te doen om zich daar te verbeter. Is hem niet gelukt trouwens.
De Slaapkamer is echt een heel duidelijk voorbeeld van hou slecht hij was.
Vrijwel alle schilderijen uit die periode waren in principe van de rijkere elite omdat zij het geld hadden om schilderijen te laten maken.

Van Gogh is juist een van de uitzonderingen omdat die zo middelmatig was maar wel consequent opdrachten had en bleef schilderen.


En wat toendertijd gold, geld nu nog steeds,
ons kent ons.

Met de juiste contacten binnen die groep kon je een heel eind komen en dat zie je vandaag de dag ook. De groep die onder kunst zou moeten vallen is niet gebaseerd op kwaliteit maar op achtergrond en bijbehorend verhaaltje dat kan worden verkocht en dat wordt heel snel doorbroken door AI die het verhaal aspect achterwege laat en gaat voor kwalitatief aansprekend werk dat door jan modaal kan worden gemaakt.

De kans dat die jan modaal daar financieel profijt zal hebben is minimaal maar de meeste mensen vinden het wel mooier en de kans dat het weer wat veranderd is ook veel groter omdat de input zoveel groter is.
Pieter Mondriaan is mijn #1 voorbeeld van slechte kunst. Letterlijk plakband op papier voor miljoenen.
Je vergeet dan de hele weg die hij daarvoor heeft afgelegd (en de ideeën en tijdgeest erachter). Piet Mondriaan heeft ook gewoon realistische dingen geschilderd, voor zijn "minimalistische"(?) periode.
Kunst is niet alleen maar "oh wat knap". Het staat nooit los van de tijd waarin de kunstenaar leefde en de afgelegde weg van de maker (al zijn voorgaande werk). Het heeft context. En die heeft AI gegenereerde content expliciet niet, in mijn ogen. Leuk, mooi, vaak grappig maar geen kunst.
Ja echt waanzinnig hoe hij na 30 jaar kunst maken uit kwam bij gekleurde plakband, inderdaad 12 miljoen waard nu je het zo zegt.
Kunst is vooral een groepje mensen die jou vertelt wat wel en geen kunst is en dan maar ja knikken en mee gaan met de professionele witwassers.
Met als enige verschil dat jij, ik en hij geen tientallen miljoenen, zo niet honderden miljoenen per jaar aan winst produceren...

Dit is een bedrijf welke zijn investering lange termijn wil verdedigen. Maar zelfs met die motivatie, betekend nog niet dat ze geen gelijk hebben.
oh wie gelijk heeft weet ik niet, ik snap het alleen wel.
Doet me aan het sprookje denken van de bedelaar die zijn brood voor wat smaak in de rook van een marktkraam houdt. Als de koopman hem voor de rechter sleept bepaalt deze dat de geur van eten betaald moet worden met het geluid van geld.
Ik ben benieuwd hoe onze huis jurist @Arnoud Engelfriet hier tegenaankijkt. Ik heb er verder geen kaas van gegeten, maar Getty zou wel eens een punt kunnen hebben.
Snap het wel, maar dan moeten ze zich ook laten verwijderen uit de resultaten van Google en co, je kan geen plaatje meer vinden zonder watermarks van hun of andere aanbieders.
Waarom zouden ze dat moeten doen? Andere situatie, andere licenties. Overigens heeft Google vast een case met fair use, aangezien het geen winst met de afbeeldingen maakt of plagiaat pleegt.
Omdat je geen abonnement nodig hebt van Getty om te leren van hun plaatjes, dat kan gratis via Google.
Maar dat is dus niet toegestaan zonder de juiste licentie. Google mag wel afbeeldingen in hun zoekmachine tonen onder bepaalde voorwaarden. Stable Diffusion mag niet afbeeldingen gebruiken voor AI-doeleinden zonder de juiste licentie, of de afbeeldingen nu direct van Getty komen of van Google. Voor de licentie maakt dat helemaal niets uit.
Ik kan er toch ook gratis naar kijken voor inspiratie? In plaats van een mens kijkt er nu een robot naar, Google doet hetzelfde met jouw websites. Scrapen van de inhoud voor eigen gebruik.
Dat algoritme doet meer dan alleen maar "kijken". Nogmaals, kan je precies definiëren wat inspiratie opdoen betekent volgens jou? Want dat is iets wat enkel wezens met een cognitief vermogen kunnen doen. Kunstmatige intelligentie is nog lang niet zo ver, en deze vorm van machine learning is eigenlijk überhaupt geen AI maar enkel zo genoemd vanwege marketing redenen.

Het "inspiratie" noemen is niets meer dan een slap excuus om plagiaat te rechtvaardigen. "Edelachtbare, ik keek alleen maar naar deze kunstwerken die verdacht veel lijken op hetgeen ik hier gemaakt heb maar ik heb het helemaal zelf gemaakt pinky promise!" gaat je niet redden in de rechtzaal.

Google mag mijn website overigens niet zomaar scrapen voor eigen gebruik. Als zij code kopiëren en herpubliceren, plegen ze plagiaat. Dat doen ze echter niet en hebben ze ook niet nodig om te functioneren als meest succesvolle techbedrijf.
Dat is toch precies wat die robots doen, alle teksten van alle websites halen om er een zoekmachine van te maken, dit soort programma's halen plaatjes van alle websites om nieuwe plaatjes van te maken. Maar whatever, niet mijn pakkie an, ben wel benieuwd naar de uitspraak en de toekomst van AI images.
Mooi dat dit nu in diverse rechtszaken wordt uitgevochten. Zolang er geen rechterlijke uitspraken worden gedaan blijven zowel de voor- en tegenstanders roepen dat ze gelijk hebben en dat het gebruik van afbeeldingen voor AI trainingsdoeleinden wel/niet is toegestaan.

Overigens kunnen de stock-foto boeren wel inpakken, ongeacht de uitkomst van deze rechtszaak.
Ik begrijp het wel maar dit is een zinloos gevecht. Open A.i. is hier en gaat hoe dan ook een hoop dingen vervangen en overbodig maken. Ik denk dat voor image databases de tijd om geld te maken van foto's met copyright voorbij zal zijn aangezien A.i. afbeeldingen kan maken die wat erop lijken maar net voldoende afwijken voor copyright te ontwijken.
Tools als Stable Diffusion kunnen die afbeeldingen alleen maar maken dankzij de datasets met bestaande afbeeldingen. En als die datasets gereduceerd worden tot alleen maar afbeeldingen zonder copyright of een copyright dat vrij gebruik toestaat zal de kwaliteit van de gegenereerde afbeeldingen ook drastisch afnemen.
Je zal misschien specifieke voorbeelden missen, maar als ik om de stijl van Dali vraag zijn er geen miljoenen datapunten gebruikt want zoveel schilderde die man er niet. Ik betwijfel dan ook of de kwaliteit echt minder wordt als de trainingsset beperkt wordt tot copyrightvrije content.
Maargoed, AI partijen kunnen ook bulk copyrighted materiaal inkopen...
De AI programmeurs kunnen toch contact zoeken met meta? Tegen een leuk bedrag krijgen ze vast wel een api waarmee iedere afbeelding gescand kan worden een betere trainingsomgeving bestaat er volgens mij niet voor afbeeldingen

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee