Getty begint zaak in VS tegen Stable Diffusion-maker wegens copyrightinbreuk

Stockfotodatabank Getty Images heeft Stable Diffusion-maker Stability AI aangeklaagd in de VS. Volgens Getty is ongeoorloofd gebruikgemaakt van zijn afbeeldingen om de Stable Diffusion-tool te kunnen ontwikkelen. Eerder begon het bedrijf al een zaak in het Verenigd Koninkrijk.

In de aanklacht, die is ingediend in een rechtbank in Delaware, spreekt Getty Images van een 'brutale inbreuk op duizelingwekkende schaal op het intellectueel eigendom van Getty Images'. Het stockfotodatabankbedrijf stelt dat Stability AI meer dan twaalf miljoen foto's van de collectie van Getty Images heeft gekopieerd, inclusief bijbehorende toelichtingen en metadata, met als doel om het AI-model te trainen, terwijl hier geen toestemming voor was of compensatie is geboden. Getty stelt dat deze handelingen van Stability AI tot doel hebben om een concurrerend bedrijf op te bouwen. Ook stelt de stockfotodatabank dat de output van Stable Diffusion vaak een aangepaste versie van een Getty Images-watermerk bevat, waardoor er verwarring kan ontstaan.

Vorige maand is Getty Images al een zaak tegen Stability AI begonnen bij het Londense High Court of Justice, al is deze nog niet officieel van start gegaan. Conform die procedure heeft Getty eerst een brief naar Stability AI gestuurd, waarna de Stable Diffusion-maker binnen een bepaalde periode moet reageren. Over deze rechtszaak zei de ceo van Getty dat zijn bedrijf duidelijkheid wil over het gebruik van auteursrechtelijk beschermd materiaal voor AI-doeleinden. De AI-ontwikkelaars zeggen doorgaans dat hun gebruik onder fair use valt.

De zaak in de VS zal in ieder geval draaien om de interpretatie van de fair use-doctrine. Eerder hebben enkele kunstenaars ook al een collectieve zaak aangespannen tegen Stability AI, maar volgens een auteursrechtadvocaat zit de nieuwe Amerikaanse zaak van Getty beter in elkaar dan de collectieve zaak, omdat Getty het toespitst op de fase waarvan auteursrechtelijk beschermde afbeeldingen ingevoegd worden om het model te trainen.

Vanwege de zorgen over het wel of niet schenden van het auteursrecht, verbood Getty eerder al het uploaden van door AI gemaakt beeldmateriaal. Stability AI besloot eerder om een mogelijkheid te introduceren voor rechthebbenden om zich af te melden van Stable Diffusion, zodat hun werk niet meer wordt gebruikt om het model te trainen.

Door Joris Jansen

Redacteur

06-02-2023 • 20:38

86

Reacties (86)

86
84
55
11
0
18
Wijzig sortering
In tegenstelling tot wat veel mensen lijken te denken, het genereren van afbeeldingen gebeurt niet d.m.v. knip & plak werk of extractie uit een database. Alles wat nodig is om afbeeldingen te genereren met bijv. Stable Diffusion is een 4GB tot 7GB bestand, zoals deze: https://huggingface.co/ru.../v1-5-pruned-emaonly.ckpt
Door het 16bit of zelfs 8bit te maken kan het nog veel kleiner worden, respectievelijk 2GB en 1GB. Dan zijn er ook nog technieken om dit terug te brengen tot zelfs ~200mb zonder al te veel aan kwaliteit in te leveren. Hoe kunnen hier al die terabytes aan afbeeldingen in staan? Als elke foto hierin zou voorkomen dan is elke foto slechts enkele bytes groot. Er staan dus geen kopieën in. Als dit verboden wordt zal het ook op andere gebieden (onbedoeld) juridische gevolgen hebben. Artiesten schieten zichzelf alleen maar in hun eigen voet.

Stable Diffusion / MidJourney bijv. kan worden vergeleken met een kunstenaar die een uitgebreid repertoire aan concepten (waaronder stijlen) kent om uit te kiezen om zo unieke en originele werken te creëren. De prompt dient als een soort sleutel om deze stijlen te ontsluiten. Het weet hoe een hond eruit ziet, dat deze meestal vier poten heeft etc.

De prompt is de sleutel. Potentieel kan er een prompt (tokens / embedding) + seed worden gevonden waarmee het model een bestaand werk genereert zonder hierop getraind te hoeven zijn net zoals een programma dat willekeurig pixels plaatst op een 64x64 oppervlak uiteindelijk iets zal creëren dat al bestaat: https://en.wikipedia.org/wiki/Infinite_monkey_theorem

Als een model een beeld genereert dat te veel lijkt op een bestaand werk kan dat een teken zijn dat het model overtraind is op die specifieke afbeelding. Dit kan gebeuren als de trainingsdataset niet correct is voorbereid. Om dit te voorkomen is het belangrijk ervoor te zorgen dat de trainingsdataset divers en goed uitgebalanceerd is (ontdubbeld enz.). Dit helpt het model beter nooit eerder geziene concepten (waaronder stijlen) te kunnen genereren en "overfitting" te voorkomen. Dit probleem wordt vaak gebruikt als bewijs dat het stelen is, maar het is eigenlijk meer een bug of onbedoelde fout die kan worden aangepakt.
Getty claimt (ik heb er nog geen bewijs van gezien) dat het met de juiste parameters mogelijk is om het originele werk te laten genereren door SD. Met andere woorden: de AI is in staat om met de dataset het originele werk te reconstrueren. Volgens Getty zou dan zelfs het watermerk weer verschijnen.

Indien het klopt, zou de dataset als een extreem gecomprimeerde database gezien kunnen worden (hoewel de data alleen gereconstrueerd kan worden en niet bit-voor-bit in die database is opgeslagen. Een beetje hoe het menselijke geheugen werkt dus.

Maar los van dat is Getty heel duidelijk in de UELA van de website: de thumbnails/previews zijn uitsluitend bedoeld om te beoordelen of dit het werk is dat je zoekt (of dat het werk voldoet aan je wensen) voordat je een licentie afneemt. Getty stelt (m.i. terecht) dat de thumbnails op geen enkele andere wijze gebruikt mogen worden en dat SD dus een licentieovereenkomst had moeten sluiten voor het gebruik van de werken.

De totale waarde van de dataset, uitgaande dat ze alle afbeeldingen hebben gescraped, is een kleine 3,5 miljard euro (ongeveer 290 euro per afbeelding voor gebruik op een website). Getty kennende valt daar best over te praten: ik heb ze ooit benaderd over een TV-serie die zij in het archief hebben (kopieën van de broadcast masters) die voor $150 per aflevering over de toonbank gingen. Toen ik aangaf dat ik alle afleveringen wilde hebben en daarbij ook niet tot publicatie over zou gaan, kon dat voor een veel lager bedrag. ik kan me voorstellen dat ze met handjeklap best de hele database ter beschikking hadden gesteld voor een paar miljoen (op voorwaarde dat je de werken niet 1-op-1 publiceert maar alleen voor de AI-training gebruikt).

[Reactie gewijzigd door Heroic_Nonsense op 22 juli 2024 15:04]

Maar dat is niet al te apart als je een computer specifiek iets vraagt dan is de kans dat je een specifiek antwoord krijgt aardig hoog. vooral met stable diffusion als de foto in de dataset zit zou het kunnen voortkomen dat met bepaalde prompts een orgineel bijna compleet nagemaakt wordt,
Als de stelling van Getty klopt (big if...) dan is het wel heel bijzonder dat exact het origineel kan worden gereconstrueerd.

Stel dat het bronbestand een foto van twee sportauto's is, een rode en een gele, geparkeerd voor een historisch kasteel op een herfstdag. Hoe groot is dan de kans dat het resultaat van SD precies (maar dan ook precies) hetzelfde is als een foto uit Getty's portfolio? Ik denk "klein".

Sowieso, als ik drie keer dezelfde prompt invoer, dan krijg ik drie verschillende foto's van SD. Weliswaar voldoen ze allemaal aan de prompt, maar ze verschillen onderling wel flink.

Of er moet een hiaat in de query zitten waardoor je de opdracht kunt geven om de foto te matchen met een foto van Getty ("red sportscar and yellow sportscar parked in front of a historical castle on an autumn day, exactly like a photo XXX from Getty"). Maar dat lijkt me sterk.

EDIT: ik heb hem gelijk maar eens door Stable gehaald. Dit is het resultaat.

EDIT 2: Ik heb het eens anderrs aangevlogen. Ik heb eerst een mooie foto op Getty uitgezocht met een duidelijke omschrijving ("Car Driving on Remote Appalachian Highway in Fall"). Diezelfde prompt heb ik vier keer door Stable Diff gehaald.

Dit is de Getty-afbeelding: plaatje
Dit is vier pogingen van Stable om er wat van te maken: plaatje

Geen van de SD-foto's lijkt op het origineel van Getty.

[Reactie gewijzigd door Heroic_Nonsense op 22 juli 2024 15:04]

Wat de schade betreft moet je niet kijken naar wat 1 afbeelding kost, maar moet je kijken naar welke inkomsten zijn misgelopen en dat is in dit geval een licentie die toestaat om afbeeldingen te gebruiken voor het trainen van een AI, nu heb ik geen idee hoe duur zo'n licentie is maar dat zal neem ik aan niet in de buurt komen van de 3,5 Miljard.
Mijn kennis van generatieve is niet heel uitgebreid, maar volgens mij is het argument ook helemaal niet dat de afbeeldingen in het model zelf zitten.

Het punt is dat de afbeeldingen zonder toestemming (ze hadden ze ook gewoon kunnen kopen) zijn gebruikt om een model te trainen. Zodanig zelfs dat er voorbeelden zijn van het getty watermerk dat wordt gegenereerd in het plaatje van je prompt (dat zal ondertussen zijn weggeoptimaliseerd lijkt me).

Het kan gewoon verboden zijn om afbeeldingen voor commercieel gebruik te gebruiken om modellen te trainen. Als een artiest iets teveel laat lijken op het origineel kan het ook auteursrechtinbreuk zijn (over bijvoorbeeld samples in muziek zijn best vaak rechtszaken).

En uiteindelijk, stability of openAI hadden ook gewoon toestemming kunnen vragen en de eigenaren kunnen betalen alvorens het voor eigen gewin in te zetten. Het trainen van deze modellen bouwt verder op het idee dat data maar gratis moet zijn voor iedereen die het kan pakken (a la facebook), daar ben ik het niet mee eens. Je dat wordt verwerkt in een model waarna ze zich achter een technische facade verschuilen dat het daar niet meer uit te halen is.
Ziet er niet best uit voor Stability AI.

Stability AI heeft geen licentie genomen op de beelden, vandaar dat deze zaak gaat over fair use van de previews op de site. Lijkt me duidelijk dat preview niet voor commercieel gebruik zijn bedoelt.

Als je kijkt naar "wat is fair use" checklists, zie je dat op bijna alle punten dit geen fair use is: https://www.library.ucsb....airUseChecklist_final.pdf

[Reactie gewijzigd door Utrecht25 op 22 juli 2024 15:04]

Ik heb gehoord dat fair use gesteld kan worden, aangezien de kunstwerken die met diffusion gemaakt kunnen worden als zeer transformatief gebruik van het werk in vergelijking met de originele saaie object foto’s kunnen inhouden: https://youtu.be/gv9cdTh8cUo

Fair use is dus inclusief:

1) Transformative or productive use (changes the work for new utility)
2) Parody”

[Reactie gewijzigd door Weicool op 22 juli 2024 15:04]

Ik heb er ook wat uitleg over gezien die het tegenovergestelde claimt. Wat is er transformatief aan?

Word het ingezet in een totaal andere content?

En parodie? Wat is er parodie aan?

Je moet er rekening mee houden dat het niet gaat om de afbeeldingen die gebruikers er mee maken maar wat Stability AI er mee heeft gedaan. Parodie gaat daar niet op.
De AI filters voegen zoveel ruis toe aan het originele werk dat het resultaat transformatief is. Het werk wordt veelal gebruikt als parodie in de zin van de toegevoegde humoristische entertainment waarde aan het originele werk.
Je definitie van parodie lijkt wel heel wanhopig. Als ik via stable diffusion nieuwe stock images maak ("man sitting at laptop looking excited" ofzo) krijg ik echt geen parodie op stock images. Ik krijg gewoon een nieuw, AI-gegenereerd stock image terug.
Als het een “nieuw” werk is met een andere man, of andere opwindende gezichtsuitdrukking of andere laptop, dan is het kan het effect natuurlijk humoristisch zijn zoals in een parodie.
De dingen die stable diffusion maakt zijn geen parodieën, in elk geval nog niet. En als ik bij "man sitting at laptop looking excited" de Dell door een Apple vervang maakt dat ook geen verschil.
Transformatief is bijv. als je het niet meer herkent als werk van een vorige maker. Er zijn bijv. hip-hop producers die samples dusver bewerken (stretchen, omkeren, effecten…) dat ze “ermee wegkomen”.

El-P is een van de grootste (en beste) producers in underground hip-hop. Mooi hoe hij het zegt:
While discussing how the threat of copyright infringement has pushed him to be even more radical in the way he transforms his sound sources, El-P smiled mischievously and said, “If you can catch me, then I didn’t do my job. Straight up, it’s my fault.” With that in mind, El-P approaches sampling differently today than when he started out in the 1990s with his first group, Company Flow.
https://littlevillagemag....is-musical-life-of-crime/

Zo ver kun je zeker gaan met Stable Diffusion en copyrighted datasets.

[Reactie gewijzigd door Rutger Muller op 22 juli 2024 15:04]

Ja maar transformatie kan ook betekenen dat je de context van een stuk veranderd. Je kunt bijvoorbeeld videoreviews geven en daarbij fragmenten uit een film laten zien om deze te kunnen discussieren. Het is daarbij dan wel heel belangrijk dat het transformatief moet zijn op een manier zodat mensen die jouw werk zien het origineel niet gebruiken zoals het oorspronkelijk bedoeld is.

Er is hier dus een duidelijk verschil tussen iemand die snippets van een film laat zien om de onderliggende context te bespreken, of misschien zelfs de cinematografie te analyseren en bijv een Pokimane die volledige afleveringen van Avatar the Last Airbender streamde met het enige verschil dat ze af en toe wat geluid maakte en haar gezicht in beeld was.
En parodie? Wat is er parodie aan?

Getty CEO, met z'n droids de CFO, CTO, LEGAL.....

Legal: Won't stick
CFO: Bruh, the money !
CTO: Won't stick
CEO: MONEY !!!!

File case.
Die Video is op geen enkele wijze relevant hier omdat die rechtszaak gaat over de werken welke de AI maakt, deze rechtszaak gaat om het gebruik van de originele werken om de AI te trainen, dat zijn 2 totaal verschillende dingen.
Copyright gaat over het recht om een werk te verspreiden, niet over het gebruik ervan.
"A copyright is a type of intellectual property that gives its owner the exclusive right to copy, distribute, adapt, display, and perform a creative work"

"According to World Intellectual Property Organisation, copyright protects two types of rights. Economic rights allow right owners to derive financial reward from the use of their works by others. Moral rights allow authors and creators to take certain actions to preserve and protect their link with their work."

"Right owners can authorise or prohibit:
  • reproduction of the work in various forms, such as printed publications or sound recordings;
  • distribution of copies of the work;
  • public performance of the work;
  • broadcasting or other communication of the work to the public;
  • translation of the work into other languages; and
  • adaptation of the work, such as turning a novel into a screenplay."
"The Berne Convention, in Article 6bis, requires its members to grant authors the following rights:
  • the right to claim authorship of a work (sometimes called the right of paternity or the right of attribution); and
  • the right to object to any distortion or modification of a work, or other derogatory action in relation to a work, which would be prejudicial to the author's honour or reputation (sometimes called the right of integrity)."
https://en.wikipedia.org/wiki/Copyright

Copyright gaat dus over veel meer dan enkel distributierechten. Het gaat óók over gebruik van het werk op bepaalde manieren.

[Reactie gewijzigd door Lapjespoes op 22 juli 2024 15:04]

Tja dat is de output. Dan hebben ze alsnog als bron beelden gebruikt voor commerciële doeleindes.
Copyright gaat over het publiceren van materiaal, niet het gebruik ervan.
Precies, Google Books is nog veel commerciëler in het scannen van boeken en het verkopen van advertenties en nog steeds fair use
Copyright gaat over meerdere handelingen die als uitsluitend recht toegekend worden aan de auteur. Inclusief maar niet beperkt tot kopiëren, het maken van afgeleiden, publiceren en commercialiseren. Je kan dus niet zomaar andermans werk gebruiken voor eigen gewin, zeker als dit op commerciële basis is.

https://en.wikipedia.org/wiki/Copyright
Helemaal correct. Maar er zijn zeker uitzonderingen.

Voorbeeld 1: Google heeft de Java APIs 1:1 van Oracle gekopieerd maar opnieuw geïmplementeerd. Afgeleid werk? Ja. Copyright infringement? Nee.

Voorbeeld 2: De zeefdrukken van Andy Warhol vallen onder fair use, en dat zijn letterlijk ge-resizede kopieren van het origineel. Ook bestempeld als fair use.

Een quote van het Supreme Court in 2021: "example of how somebody can take an original work and make it be something entirely different, and that's exactly what the fair use doctrine wants to protect."

Dus ik zou niet zo stellig zin dat Stable AI het copyright van Getty heeft infringed.
Getty : We must PROTECT the Cyber Corn Woman !
Ik vind het heel lastig.

Als je de database scraped, met bv keywords om dan wat je uitlevert foto's zijn die er op lijken.

Ja de uitkomst is mogelijk fair use. Maar de imput vind ik wel dubieus.
Copyright gaat over het kopieëren van beelden.

In dit geval worden de beelden gebruikt om AI te trainen; er wordt geen kopie gemaakt, alleen een groot aantal kenmerken wordt opgeslagen. In dit geval lijkt me dus het toepassen van copyright wetgeving niet van toepassing.

Dit verbod verwerken in de licentievoorwaarden van de eigenaar van de beelden lijkt me ook erg moeilijk; het komt eigenlijk neer op een verbod om de beelden te bekijken. Trainen van AI is precies hetzelfde als een kunstenaar die inspiratie opdoet door naar beelden te kijken.

Tsja, en bovenal ligt de bewijslast natuurlijk bij de eigenaar van de beeldrechten; hoe gaat hij aantonen dat zijn beelden gebruikt zijn bij het trainen van de AI.
Copyright gaat over veel meer dan enkel het kopiëren van beschermd materiaal. Er zijjn ook wettelijke bepalingen betreffende het overnemen van delen ervan, ook als dit op een manier gebeurt dat niet als kopiëren beschouwd wordt.

https://en.wikipedia.org/wiki/Copyright

Als er alleen een "groot aantal kenmerken" wordt opgeslagen, zijn de oorspronkelijke afbeeldingen überhaupt niet eens nodig. Dan kan je dat met een woordenboek ook al voor elkaar krijgen. Of Wikipedia. Genoeg text en contextuele informatie om kenmerken uit te herleiden. Maar het feit is dat dit niet is hoe AI werkt. Het slaat op een slimme manier de visuele informatie uit extreem veel afbeeldingen tegelijk op, niet enkel de contextuele zoals jij doet suggereren.

Tevens is je stelling over het verbod onjuist. Het bekijken van werken is niet verboden. Het gebruik ervan voor specifieke andere doeleinden wel. Dat is duidelijk in de licentievoorwaarden opgenomen. We hebben het hier niet over een mens die individuele werken bekijkt, maar een slim programma dat zeer specifiek miljoenen tot miljarden afbeeldingen verwerkt met een machine learning algoritme om een model te bouwen waarmee afbeeldingen gegeneerd kunnen worden. Dit "trainen" is geen trainen, want er worden geen technieken geleerd. Dit is dus hoe het verschilt van de mens, in plaats van hiermee overeenkomt.

https://arxiv.org/abs/2006.11239
De vereisten voor fair use worden ook geschonden voor de originele versies van werken in plaats van enkel de previews. Deze rechtzaken kunnen dus maar zo een zeer scherp precedent scheppen dat het gebruik van auteursrechtelijk beschermd materiaal door AI aan banden legt.
Ziet er zeker niet best uit. Ze hebben zelfs het watermerk overgenomen. Je kan zeggen dat Getty niet genoeg heeft gedaan om scraping tegen te gaan, maar hier hebben ze echt een punt. Het watermerk impliceert al dat de images niet zomaar gebruikt mogen worden
Het gaat ook helemaal niet om fair use, dat is het argument wat Stability AI opvoert, maar dat gaat ze waarschijnlijk niet lukken.

Sommige werken die Stability uitpoept zijn zo gelijk dat de AI zelfs het Getty watermerklogo gebruikt in het werk. Er zijn ook voorbeelden dat het werk exact hetzelfde is, maar dan zonder watermerk.

Dat is meteen ook een onderdeel van de klacht, want Getty claimt ook dat er inbreuk wordt gemaakt op zijn trademark omdat Stability zonder toestemming het logo gebruikt.

Daarnaast is het ook maar de vraag of je zomaar de originele mag gebruiken voor commerciële doeleinden, ook al is het transformatief. Kan je het zien als "inspiratie" als je massa's aan data aan het voeren bent aan een algoritme?

Als je er technisch tegenaan kijkt dan gaat het hier eigenlijk om het algoritme, het eindresultaat is bijzaak, een demo van wat de mogelijkheden zijn. Omdat het gaat om de ontwikkeling van het algoritme is de data die je het voert een substantieel deel van de ontwikkeling waardoor je zal moeten betalen voor die data als het niet gratis is. Daarom zie ik ook geen uitweg voor Stability, elk argument wat ze aanvoeren schieten ze direct zichzelf meteen ook in de voet, maar ik ben ook geen duur betaalde advocaat.

[Reactie gewijzigd door TechSupreme op 22 juli 2024 15:04]

Ik denk dat het belangrijkste argument voor het aanklagen van Stability AI vooral strategisch is.
Het is een open-source stichting en zij hebben niet de geldstromen om zich goed te verdedigen. Niemand praat over DALL·E terwijl ik nog steeds niet kan achterhalen waar zij hun trainings data vandaan hebben.

Stability AI is als enige hier transparant over en krijgt nu alle shit over zich heen terwijl Microsoft zich stil houdt. Voor Getty is het natuurlijk veel eenvoudiger om een open-source project aan te klagen dan Microsoft en eenmaal een gunstig oordeel op zak, kan Getty ook achter de 'grote jongens' aan...

Dit zal natuurlijk slechts een van de redenen zijn.
Wat schijnbaar weinig geweten is zelfs onder tweakers gebruikers, is dat het auteursrecht meer omvat dan enkel het maken van kopieën. Ook het maken van afgeleiden van werken, dus het direct gebruik maken ervan, is niet toegestaan zonder toestemming van de maker. Dit is de reden dat deze rechtzaken op het moment gaande zijn.
AI ontwikkelaars weten dit heel goed en vermijden doelbewust het gebruik van beschermd materiaal bij muziek-gebaseerde modellen, omdat ze weten dat ze anders in de problemen komen met organisaties die opkomen voor artiesten. Artiesten van de visuele kunst hebben helaas weinig van dergelijke organisaties.

Tevens bestaat er de veronderstelling dat AI inspiratie opdoet net zoals de mens en het dan niet om auteursrechtenschending zou gaan, maar dat is niet het geval. Het gaat hier namelijk niet om een kunstmatige intelligentie zoals de naam doet vermoeden, maar een machine learning algoritme dat zeer specifiek visuele informatie uit afbeeldingen op een complexe manier verwerkt zonder er bij na te denken. Mocht het daadwerkelijk om het opdoen van inspiratie gaan, dan zouden de makers genoeg hebben aan woordenboeken. Inspiratie gaat immers om het opdoen van ideeën. Daar heb je de werken zelf niet voor nodig.
Ook het maken van afgeleiden van werken, dus het direct gebruik maken ervan, is niet toegestaan zonder toestemming van de maker.
Ehm, nietes. Wat niet mag is het maken van afgeleide werken, wat subtiel maar belangrijk verschilt van het veel algemenere "afgeleiden van werken". Als ik tel hoeveel zonnebloemen er op schilderijen staan, en dat eventueel zelfs in een handige catalogus zet met de titel en de hoeveelheid zonnebloemen, heb ik direct gebruik gemaakt van die werken om een afgeleide te produceren, maar dat specifieke gebruik heeft met auteursrecht natuurlijk niets te maken -- mijn catalogus is geen afgeleid werk van een schilderij, laat staan van alle schilderijen die ik van een zonnebloemtelling voorzien heb.

Wanneer iets nu precies een "afgeleid werk" wordt en in hoeverre dat dan het auteursrecht schendt is natuurlijk waar je juridisch over kunt gaan touwtrekken, en dat is dan ook wel degelijk relevant als je het over AI en modellen trainen hebt (is dat meer als zonnebloemen tellen, of meer als het werk overnemen?), maar zoals jij het hier stelt is het wel erg kort door de bocht.
Er zijn uitzonderingen die onder fair use vallen en je inderdaad ook als "afgeleide werken" kan beschouwen, maar dat is anders dan hetgeen in deze context relevant is. Het is inderdaad zo dat een catalogus gebruik maakt van bestaande werken op een toegestane manier - vermits er aan bronvermelding wordt gedaan, iets dat AI ook nogal vaak vergeet (100%, plus of min 0%).

Waar bovenstaand verhaal op doelt is het op een directe manier gebruik maken van bestaande werken, dus dat er daadwerkelijk visuele informatie (in tegenstelling tot slechts contextuele in de vorm van ideeën of dingen als het tellen van bloemen) uit de afbeeldingen gehaald wordt. Het grote legale probleem met AI is dat dit op een zeer complexe en moeilijk herleidbare manier gebeurt (en doelbewust zo ontworpen is), op een extreem grote schaal (miljoenen tot miljarden afbeeldingen), zonder bronvermelding én voor commercieel gewin.

Semantische discussies daargelaten, wordt er dus geprofiteerd van andermans werk zonder diens toestemming, en op een zodanige manier dat de auteur er onder lijdt. Het hele AI gebeuren heeft immers een desastreuze invloed op de baankans van artiesten. Geen enkel weldenkend bedrijf neemt nog een dure en tijdvereisende artiest aan als het in een aantal seconden voor vrijwel geen geld al iets kan krijgen wat goed genoeg is.
Wat zou er gebeuren als je stekt: de database is 4GB groot, er zijn (stelling) 4 miljard afbeeldingen "in gestopt", dus per definitie is er niet veel van 1 werk over in die database, namelijk gemiddeld 1 byte.
Leuk idee, maar dat is wat makkelijk gerekend. Je kunt ook argumenteren dat het netwerk een zeer effectieve, holografische compressiemethode toegepast heeft waardoor er feitelijk een hele hoop afgeleide werken verstopt zitten die met het tweaken van slechts een paar parameters opgeroepen kunnen worden. Aangenomen dat die parameters zelf veel kleiner zijn dan een complete afbeelding (en dat is zo, bij AI prompts) kun je heel goed argumenteren dat (te) veel van de werken in het model is vervat.

Ik kan ook een complete CD omzetten naar MIDI files en die in zeer weinig ruimte opslaan. Toch ga ik er niet mee wegkomen als ik vervolgens roep dat de CD miljoenen bytes bevat en mijn zipfiletje met MIDIs maar een paar honderd. Ik zou zelfs een melodie in slechts een paar bytes op kunnen slaan, en daarmee makkelijk het copyright op die melodie schenden.
Maar dan moet je nog wel waar kunnen maken dat je kopieën van deze afbeeldingen eruit kan halen, en in dit geval van precies de afbeeldingen van Getty Images zelf.
Er zijn onderzoekers die dat hebben geprobeerd en hun bevindingen in deze paper geschreven: https://arxiv.org/abs/2301.13188 In dat onderzoek hebben ze afbeeldingen getarget die meerdere keer in de trainingsset voorkomen om zo de kans op een kopie te krijgen groter te maken. In totaal waren dat 350000 verschillende afbeeldingen. Dan hebben ze per afbeeldingen met verschillende prompts 500 keer geprobeerd er een kopie uit te halen. Uiteindelijk hebben ze hiermee 109 afbeeldingen kunnen kopiëren. Waarschijnlijk was deze aantal minder geweest als de afbeeldingen niet dubbel in de trainingsset voorkwamen.
Nou, dat hoeft dus niet per se. Zou Stability AI ontkennen dat men de afbeeldingen van Getty gebruikt heeft dan moest dat nog bewezen worden en had je zo'n onderzoek als bovenstaande nodig, maar voor zover ik weet doet men dat niet en argumenteren ze alleen dat hun gebruik geen copyrightschending is.

Het is wel ideaal als je de oorspronkelijke afbeelding er 1-1 uit kunt halen, want dan is het overduidelijk copyrightschending, maar het is ook al voldoende als je hard kunt maken dat het hier om afgeleide werken gaat, d.w.z. afbeeldingen die overduidelijk verkregen zijn uit van Getty geslurpte bronbestanden die op een interessante, maar uit de aard van de techniek niet-creatieve wijze gecombineerd zijn.

Daarvoor is in ieder geval geen exacte kopie nodig, al sta je natuurlijk sterker naar mate er meer overeenkomst is. Maar zelfs al leek het er alleen maar heel erg op qua stijl en was niet goed hard te maken welke afbeelding(en) van Getty precies een bepaalde output tot gevolg hadden, dan kan het argument alsnog zijn dat er schending plaatsgevonden moet hebben, omdat er uit de aard van het netwerk geen creatieve beslissingen genomen kunnen zijn die "alleen maar" de stijl overgenomen hebben zoals een mens dat doet.

Hierbij begeven we ons biologisch gezien wel op enigszins glad ijs, omdat het niet gezegd is dat mensen dan wel zo verschrikkelijk origineel zijn en niet ook gewoon neurale netwerken die grappig recombineren, maar juridisch maakt dat gelukkig niet uit, omdat het onderscheid tussen een hersenpan en een computermodel fysiek makkelijk gemaakt is.

[Reactie gewijzigd door MneoreJ op 22 juli 2024 15:04]

Exacte replica's eruithalen zal lastig zijn, maar een output zoals in onderstaand artikel laat toch duidelijk zijn dat ze de previews hebben gebruikt om dat model te trainen (https://www.theverge.com/...sion-getty-images-lawsuit). Ze ontkennen het ook niet, en de aanklacht gaat over commercieel gebruik van foto's van Getty.

Uiteindelijk denk ik dat Getty als licentie-eigenaar mag besluiten wat mensen er mee mogen doen, en ze hebben gewoon een licentie te koop voor dit doel. Stability heeft daar (misschien onbewust) niet voor betaald.

[Reactie gewijzigd door WoutervOorschot op 22 juli 2024 15:04]

Dit is een erg misleidend argument dat vaak aangehaald wordt door AI-verdedigers, want dit wekt de indruk dat de informatie van een enkele afbeelding verwerkt is tot slechts 1 byte. Maar dit is absoluut niet het geval. De informatie is gecombineerd met dat van vele andere afbeeldingen op een zeer efficiënte en context-afhankelijke manier - de kracht van machine learning algoritmes. Het is dus verspreid over een veel groter gedeelte van die 4GB.

Andersom zou je ook kunnen redeneren dat als echt slechts een byte per afbeelding gebruikt werd, je die afbeeldingen net zo goed niet nodig had en met een woordenboek al voldoende informatie zou hebben. Toch zijn die afbeeldingen ergens voor nodig geweest - en daar zit hem dus het potentieel legale probleem ivm het auteursrecht.

Ook zou je dezelfde redenering kunnen gebruiken om regelrechte plagiaat goed te praten. Als ik een foto van jou overtrek met potlood op papier, zal geen enkele pixel gelijk zijn. 0 bytes overeenkomst. En toch zit er heel veel informatie van jouw afbeelding in mijn afgeleide werk (wat terecht als plagiaat beschouwd wordt).
Dit wordt door AI-verdedigers aangehaald omdat het de waarheid is.

Het (herkenbaar) comprimeren van miljarden foto's in 4GB is iets uit science-fiction films. Iets wat zelfs theoretisch niet mogelijk is.

Je kan dat de hele dag blijven herhalen, maar het is simpelweg niet waar.
Toch is dat hoe de software werkt. Met de juiste opdracht kan je terugkomen bij een originele afbeelding. Wellicht met wat ruis omdat het een lossy compression algoritme is, maar dat is dus de kracht van denoising en machine learning in het algemeen. Dat de meeste resultaten niet op de originele lijken is vanzelfsprekend, omdat men de opdrachten daar niet naar specificeert. En wanneer men dat wel doet, krijgt men ook daadwerkelijk resultaten die verdacht veel lijken op specifieke werken van anderen. Met inbegrip van watermerken, wat überhaupt niet mogelijk zou zijn zonder de originele afbeeldingen op een handige manier op te slaan.

Bewerk:

https://arxiv.org/abs/1503.03585

https://arxiv.org/abs/2006.11239

https://stablediffusionlitigation.com/

https://pub.towardsai.net...compresssion-6f1f0a399202

Hier wat meer informatie. Tevens niet de eerste keer dat svane desinformatie verspreidt, het is elke keer raak in artikelen over dit onderwerp.

[Reactie gewijzigd door Lapjespoes op 22 juli 2024 15:04]

Lees je wel je eigen bronnen?

in https://pub.towardsai.net...compresssion-6f1f0a399202 wordt inderdaad een 'aggresieve compressie' toegepast met behulp van Stable diffusion.

Maar als je even kijkt naar die mooie getalletjes naar de plaatjes: 4,97kB aan data voor één plaatje.
Dat zijn 4970 bytes voor 1 plaatje. Dit is realistisch.

Jij beweert dat je 2.3 miljard individuele afbeeldingen herkenbaar kan terug herleiden uit een bestand van 4GB. Dat is niet realistisch, dat is compleet achterlijk. dat zou +- 2 bytes per afbeeldingen betekenen. Vergelijk dit eens met de bovengenoemde 4970 bytes per afbeelding. Kleine tip: 4970 is groter dan 2. 8)7
Hier wat meer informatie. Tevens niet de eerste keer dat svane desinformatie verspreidt, het is elke keer raak in artikelen over dit onderwerp.
Ik weet al lang dat jij persoonlijk niet te overtuigen bent, kan gebeuren, blijf vooral in sprookjes geloven. Ik wil enkel voorkomen dat andere mensen deze onzin ook serieus gaan nemen.
Zoals ik je al meerdere keren heb uitgelegd svane, slaat het machine learning algoritme deze soort informatie van meerdere afbeeldingen tegelijk op. 1+1=/=2. Zeer eenvoudige analogie: als jij een half rood - half blauw plaatje hebt, en een half rood - half groen plaatje, hoeft het algoritme maar 3 ipv 4 helften op te slaan.

Jouw berekening slaat ook helemaal nergens op, want niemand - behalve jij - beweert dat de informatie per plaatje neerkomt op [totaal bytes]/[aantal afbeeldingen]. Zo werkt het algoritme totaal niet. Het is geen 2 bytes per afbeelding, het is veel meer bytes per afbeelding, maar met overlap met andere afbeeldingen met vergelijkbare visuele informatie.
leuk verhaal, maar dit werkt enkel tot op zekere hoogte. je kan niet oneindig gaan comprimeren, en dan verwachten 2.3 miljard individuele resultaten terug te krijgen.

Ik ben bewust van hoe compressie kan werken, en hoe je data kan hergebruiken, dus ik speel wel even mee:

Laten we zeggen dat je per afbeelding één pixel variëert. Dus plaatje 1 is compleet wit. Elk ander van de 2.299.999.999 plaatjes heeft één pixel die een andere kleur heeft is.

Per plaatje 'hergebruik' je dus 512x512 - 1 = 262.143 pixels. 99,9996%. Lijkt me prima, nietwaar?

We moeten nu wel opslaan welke pixel er veranderd is per plaatje. Dit kan met een x-y coördinaat
0b000000000 / 0b000000000 = pixel 0,0
0b111111111 / 0b111111111 = pixel 511,511
Per plaatje heb je dus 18 bits (> 2bytes) nodig om überhaupt op te slaan welke pixel er veranderd is.

Helaas heb je nu maar 512x512= 262.144 verschillende afbeeldingen, geen 2.3 miljard. We zullen deze pixel dus een kleur moeten geven. Om elk van de 2.3 miljard plaatjes een unieke eigenschap (pixel-locatie / kleur) te geven, hebben we ruim 8.000 kleuren nodig. Laten we dit opslaan in 13 bits. Niet precies genoeg, maar laten we voor het gemak wat afronden.

Per plaatje zitten we nu al op 31 bit. Klein rekensommetje: 31bits * 2.300.000.000 = 71.300.000.000bits = 8,9125 GB.

Dus zelfs met maximale overlap, en maximaal hergebruik van pixels, kom je op een getal wat ruim twee keer zo groot is als het model van Stable Diffusion.

Het is simpelweg theoretisch onmogelijk om, met welke compressie dan ook, 2,3 miljard verschillende input-afbeeldingen terug te krijgen uit een bestand van 4 GB. Dit is gewoon een kwestie van tellen. Simpeler kan ik het niet maken.

Het is alsof je NASA opbelt om te zeggen dat je een raket naar de maan kan sturen met 1 liter benzine. Compleet onmogelijk. Iedere Tweaker met een rekenmachine zou dit moeten kunnen inzien.
Die resultaten krijg je terug met de juiste prompt. Niet met 100% accuraatheid uiteraard, maar wel des te meer des te specifieker je prompt is. Maargoed, we kunnen de wiskunde ook gewoon negeren. Dan hoeven we daar niets bij te verzinnen en kunnen we gewoon kijken naar bijvoorbeeld overduidelijke tekenen van het overnemen van werken, zoals watermerken en handtekeningen. Wel erg knap hoor, dat die software dat soort informatie kan terughalen met maar enkele bytes!

Je rekensommetje met die 2 bytes toont een minimum aan voor de data die per afbeelding verandert wordt. Niet de daadwerkelijke hoeveelheid data die een oorspronkelijke afbeelding representeert, dat kan veel meer zijn - zelfs meer dan van de afbeelding zelf, als je contextuele informatie meerekent. De enige vereiste in dat geval is dat de informatie uit de afbeelding gehaald niet groter is dan die 4 GB. En dat is makkelijk te redden, de meeste afbeeldingen zijn op het niveau van megabytes. Dit is gewoon een kwestie van tellen. Simpeler kan ik het niet maken.

Je NASA-vergelijking slaat helemaal nergens op. De rest van je opmerking ook niet echt, maar dat had je tenminste nog enigzins onderbouwd.

Hoe dan ook, dit hele verhaal is niet relevant voor de legale kwestie of de manier waarop de software werkt beschouwd kan worden als auteursrechtenschending. Je kan nog zo'n knap staaltje mentale gymnastiek uitvoeren, je komt niet om het feit heen dat er uiteindelijk gebruik gemaakt werd van miljoenen afbeeldingen zonder toestemming van rechthebbenden, voor een doeleinde dat direct of indirect de oorspronkelijke auteurs schaadt. Het besluit van de rechter zal dan ook een enorme impact op de toekomst van kunst hebben.
Toch is dat hoe de software werkt.
Er wordt niets gecomprimeerd, dat is het hele punt. Dat is niet hoe ML werkt. Er wordt een neuraal netwerk getraind, er wordt geen database aangelegd met alle bekende foto's. Als je blijft redeneren dat een netwerk gelijk is aan een database, dan heb je echt een te symplistisch beeld van hoe deze technieken werken.
Er wordt wel degelijk gecomprimeerd. Het is een zeer agressieve vorm van datacompressie middels het denoising principe, uitgevoerd door een machine learning algoritme in de vorm van een neuraal netwerk.

https://arxiv.org/abs/1503.03585

https://arxiv.org/abs/2006.11239

https://stablediffusionlitigation.com/

De verwerkte informatie komt terecht in een kleine database, en de gebruikte afbeeldingen zijn afkomstig uit een grote database. Dit geeft Stability AI zelf al aan. Nergens heb ik geredeneerd dat een netwerk gelijk is aan een database, dus ik zou het op prijs stellen dat je dit niet zo beweert.
Het hele AI gebeuren heeft immers een desastreuze invloed op de baankans van artiesten. Geen enkel weldenkend bedrijf neemt nog een dure en tijdvereisende artiest aan als het in een aantal seconden voor vrijwel geen geld al iets kan krijgen wat goed genoeg is.
Je zegt het precies..., 'goed genoeg'. Een bedrijf wil onderscheidend zijn en zal daarom geen genoegen nemen met 'goed genoeg'. Een vierkante betonnen kolos met kantoren voldoet waarschijnlijk ook prima voor de meeste bedrijven om hun werknemers te huisvesten, toch worden er dure architecten ingehuurd voor fraaie (of minder fraaie) opvallende hoofd optrekjes en staan diezelfde gebouwen vol met kunstwerken die echt niet door AI gemaakt gaan worden. Het gaat wel meevallen met die "desastreuze invloed op baan kansen".
Mocht het daadwerkelijk om het opdoen van inspiratie gaan
Als het daadwerkelijk over het opdoen van inspiratie zou gaan, dan moet het wel een (sapient) intelligente levensvorm zijn, en zouden die wetten van toepassing zijn. Maar StableDiffusion is geen persoon, het is een machine; dat vergeten mensen ook (graag) wel eens.
AI ontwikkelaars weten dit heel goed en vermijden doelbewust het gebruik van beschermd materiaal bij muziek-gebaseerde modellen, omdat ze weten dat ze anders in de problemen komen met organisaties die opkomen voor artiesten. Artiesten van de visuele kunst hebben helaas weinig van dergelijke organisaties.
Breng ze nou niet op ideeën, straks mag je geen Keith Haring meer in je vis restaurant hebben hangen zonder absurde bedragen, per jaar uiteraard, af te dragen.
Kan je eigenlijk ook zo'n uitgebreid stable diffusion model downloaden voor offline gebruik? Zodat je nog even verder kan spelen als straks - wanneer de copyright-legislation advocatuur/industrie wakker is geworden en er een dozijn rechtszaken zijn gevoerd - nooit meer modellen getraind mogen worden van zo'n formaat?
Ja. Google even of kijk op huggingface. Stable diffusion kun je zelfs thuis draaien. Hier draait het op een gtx1080.
Diverse models zijn te downloaden.
Ja, kijk bijvoorbeeld op het eerder genoemde huggingface of op civitai. Als je zelf de benodigde hardware niet hebt kan je het ook via Google Colab draaien (colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast_stable_diffusion_AUTOMATIC1111.ipynb). Zorg er wel eerst even voor dat je een model op je Drive hebt, of een Huggingface token. Hier kan je ook direct aan de slag, al wordt je wel beperkt qua modellen, aantal generaties en NSFW beelden.
Ik denk dat je dat aan een bedrijf moet vragen, niet aan mij. Er zijn genoeg commerciële bedrijven die van alles gratis aanbieden. Datasets, pre-trained models, software, assets, textures, royalty-free stock photos, of complete game engines zoals Unreal Engine. In sommige gevallen is het dan alleen voor educatieve en/of niet-commerciële doeleinden, maar niet altijd. Ik heb onlangs nog gratis pose recognition models van Intel gebruikt. Intel biedt een hoop modellen gratis aan.

Overigens is stable diffusion gewoon open source en dus niet exclusief voor commerciële bedrijven. Er worden soms ook gigantische projecten waar jaren werk in zit gratis aangeboden door enthousiastelingen. Denk aan grote mods voor games. Misschien is er wel een community project om zo'n groot stable diffusion model te trainen die individuele geïnteresseerden niet thuis kunnen trainen. Ik weet het niet. Vandaar de vraag.

[Reactie gewijzigd door Sando op 22 juli 2024 15:04]

Tja het kwaad is al geschied in dit geval, de miljoenen foto's op Getty Images zijn al geinterpreteerd. Je ziet dit ook terug in bijvoorbeeld Midjourney welke vermoedelijk Dribbble en Deviant Art heeft leegetrokken. Soms zie je toch wel dingen voorbij komen welke bijna 1 op 1 over zijn genomen direct van een andere artiest. Het remixed meer dan dat het creeert.
Het kwaad is idd al geschied, maar de rechter kan nog altijd straffen opleggen. Ik kan zo bvb zien gebeuren dat Stable Diffusion achterstallige licentiekosten aan Getty moet betalen voor elke afbeelding die het gebruikt heeft om het model te trainen. 12 miljoen afbeeldingen aan een gemiddelde van 275 USD per afbeelding is 3,3 miljard dollar schadevergoeding. De rechter zou daarnaast ook kunnen opleggen dat SD haar ML model volledig opnieuw moet trainen zonder gebruik te maken van Getty Image afbeeldingen, EN dat ze een manier moeten voorzien voor artiesten om hun afbeeldingen uit het model te kunnen halen binnen een haalbare termijn.
EN dat ze een manier moeten voorzien voor artiesten om hun afbeeldingen uit het model te kunnen halen binnen een haalbare termijn.
Niet om jou, maar dit soort dingen vindt ik altijd een ongelofelijke dooddoener. Je bezit de rechten op iets en plaatst je werken op plekken waar een ieder ze zeer simpel kan kopen en dan nog zou je specifiek een bedrijf het moeten verbieden om jouw werk zonder vergoeding te gebruiken. Ik vindt dat echt de omgekeerde wereld. Bij het plaatsen van jouw werk kun je wel of niet een licentie aanbieden voor gebruik door een AI, is die licentie er niet, dan kan het niet. Lekker simpel.
De rechter zou eventueel kunnen opdragen om de getrainde dataset te vernietigen en opnieuw te beginnen met rechtenvrije of gelicenseerde werken. De enige schade die praktisch niet ongedaan gemaakt kan worden is in de vorm van de al geproduceerde afbeeldingen, maar het programma zelf kan prima gereset worden.
Vindt deze rechtszaak niet vreemd, en kan mij ook niet voorstellen dat Getty hier gaat verliezen. Fair use is meer bedoeld om het anderen mogelijk te maken om bijvoorbeeld nieuws, commentaar en onderwijs te leveren of onderzoek te doen. En hoe breed je het ook uitlegt ik zie op geen enkele manier hoe fair use kan worden gebruikt om miljoenen beschermde werken op wat voor manier dan ook te gebruiken voor de ontwikkeling van je eigen commerciële onderneming.

Ben benieuwd wat de uitkomst gaat zijn, verplichte licentie, schadevergoeding, deleten van de database, een combi?
Het zal vooral te doen zijn om de precedent werking van een eventueel vonnis. Stability AI zal geen geld hebben om een schadevergoeding of een licentie te kunnen betalen. De database is gebruikt voor het trainen van het model. Daarna is die niet meer nodig; dus deleten zal allang gedaan zijn.
Anderen hebben een licentieovereenkomst met Getty voor exact hetzelfde doel, kan Stability AI dit niet betalen dan gaan ze denk ik pech hebben en zou het vernietigen van het model een mogelijkheid kunnen zijn. Maar achter de schermen gaat hier voldoende geld rond om een licentie te kunnen betalen. En dan blijven alleen de andere problemen over zoals het gebruik van Getty's watermerk in de producten van Stability.
Dat is als je er van uit gaat dat er daadwerkelijk een andere type licentie nodig was dan de licentie die ze wél hadden. Je kan niet stellen dat 'als anderen iets doen, dan moet iedereen in dezelfde situatie dat iets doen', indien hetgeen wat anderen doen overbodig is.

Arnoud Engelfriet had hier recent een heel indrukwekkende blog over.

Rest mij de vraag, als er voor gebruik X een licentie A afdoende is, mag je dan dwingen dat afnemers voor gebruik X een veel duurdere licentie B afnemen? Het is niet geheel ondenkbaar (gezien de hebzuchtige reputatie van Getty) dat Stability AI wel degelijk een afdoende licentie had. Daar gaat je slam dunk case. Deze zaken gaan vermoed ik een landmark uitspraak opleveren. Het is niet mijn vakgebied maar ik vind het wel heel interessant.
Tenzij Getty overduidelijk en heel doorzichtig liegt in de bij de rechtbank ingediende papieren is het heel simpel:

- Er is een licentie nodig voor dit specifiek doeleinde en te alle tijde voor commerciële doeleinden.
- Stability AI wordt door de eigenaar hiervan ingezet voor commerciële doeleinden.
- Andere soortgelijke bedrijven hebben een licentie afgenomen voor dit specifieke doeleinde.
- Er is geen andere licentie die dit gebruik toestaat.
- Stability AI heeft geen enkele licentie afgenomen. (Engelfriet. beweert van wel, maar er is geen bron hiervoor en indien zo had men wel toegang tot afbeeldingen zonder watermerk.)

Getty heeft geen enkele reden om hierover te liegen, want als een van deze dingen een leugen zou zijn dan zou die binnen 10 seconden kunnen worden weerlegt, maar dat is dus niet het geval.

Aangaande dit:
Als er voor gebruik X een licentie A afdoende is, mag je dan dwingen dat afnemers voor gebruik X een veel duurdere licentie B afnemen?
Nee natuurlijk niet, afdoende is afdoende. Maar aangezien er geen enkele licentie is afgenomen zie ik niet hoe deze vraag relevant is. Daarnaast is het heel simpel en stellen de voorwaarden van de site dat je een licentie moet afnemen die bij het gebruik past.
Ik denk dat ze gokken op het uitbuiten van een gebrek aan kennis/begrip bij het grote publiek, waaronder veel IT-professionals en juristen. Ik zie veel misinformatie/desinformatie en helaas te weinig goede onderbouwing/uitleg van hoe het echt werkt. Of dit bewust is of uit onwetendheid is vaak onduidelijk, maar ik merk wel dat een groep misbruik maakt van deze onwetendheid.

De vraag is hoe goed StabilityAI zich hiertegen kan verweren en het op een makkelijke manier kan uitleggen. Gaat het populaire verhaal zegevieren of hoe het eigenlijk werkt?

Het is ook vooral een strijd tussen AI gesloten houden of vrij toegankelijk maken voor het publiek. Grote bedrijven, overheden enz. zullen het hoe dan ook kunnen blijven gebruiken en als we niet oppassen het publiek domineren waar we het straks zonder AI moeten doen.
Volgens mij is het allemaal niet zo onduidelijk.

Partij 1 Biedt afbeeldingen aan en biedt voor dit gebruik een licentie aan.
Partij 2 Zegt dat hiervoor geen licentie nodig is want fair use.

Rechter gaat uitspreken wie er gelijk heeft, wat niet al te moeilijk zou moeten zijn daar fair use vrij goed omschreven is. Ook als je kijkt naar de 4 factoren van fair use dan valt men volledig door de mand bij stability AI.

En dat laatste stukje wat je schrijft, nee dat heeft hier niets mee te maken het gaat erom of jij wel of niet materiaal van een ander jou mag toe-eigenen om jouw eigen AI te trainen.
Grote vraag: als Getty geen licentie heeft afgegeven, hoe komt SAI dan aan beelden zonder watermerk……

Omdat ook het watermerk van Getty is meegenomen kan het zijn dat ze alleen de site gescraped hebben.

Niet netjes, maar blijkbaar heeft Getty dan ook geen anti scrape technieken geïmplementeerd (zeg maar, je voordeur open laten en dan klagen dat er gestolen wordt)
In tegenstelling tot wat veel mensen schijnen te denken komt het volgende juist het meest in de buurt van wat het doet:
Hoofdregel van het auteursrecht is immers dat een stukje van het werk in de uitvoer terecht komt, en als ik alleen maar de onderliggende informatie extraheer dat “ondergaande zon” hoort bij een halfronde gelige bol, dan zie ik niet hoe ik een auteursrecht schend.
Alleen hier kan "informatie" beter worden vervangen door de term "concepten".

De rest van de genoemde voorbeelden komen meer in de buurt van mis/desinformatie.

[Reactie gewijzigd door machuidel op 22 juli 2024 15:04]

Het gaat hier niet om het verwijderen van de afbeeldingen die gebruikt zijn voor het trainen, maar het model zelf, de informatie afkomstig van de training. De rechter kan zeker opdragen om deze te vernietigen, waardoor SAI helemaal opnieuw moet beginnen met rechtenvrije afbeeldingen.
Ik vraag me af hoeveel plaatjes van Getty Images die Stable Diffusion heeft gebruikt, "publiek domein" blijken te zijn omdat het auteursrecht is verlopen of de makers ervan hebben ze in het publieke domein gezet.
Getty heeft er een handje van om die "publieke domein"-plaatjes aan zich toe te eigenen.
De plaatjes staan dan wel in de catalogus van Getty Images, maar juridisch gezien zijn ze door iedereen gratis te gebruiken. Zoals bijvoorbeeld de foto van de 2e Wereldoorlog voor €475 op Getty Images. Gratis op Wikipedia.

[Reactie gewijzigd door RoestVrijStaal op 22 juli 2024 15:04]

aangaande jouw voorbeeld foto:

Ja die foto is door iedereen gratis te gebruiken, maar dan wel uit een bron die ze gratis aanbied,

Ik mag die foto als ik wil in mijn winkel te koop aanbieden voor 10.000,- en de buurman mag ze gratis uitdelen. Jij mag rustig de foto bij de buurman ophalen en ermee doen wat jij wilt, maar jij mag niet de foto gratis bij mij weghalen. en ermee doen wat jij wil.

Netjes nee.. maar wel volkomen legaal.

[Reactie gewijzigd door Groningerkoek op 22 juli 2024 15:04]

Er is natuurlijk wel een verschil tussen een licentie bieden, of materiaal distribueren.

Voor het beschikbaar maken van de content geld vragen mag best. Geld vragen voor een licentie het materiaal te mogen gebruiken, wat Getty doet, is toch wel wat anders lijkt me.
Nee, dit is hier niet anders.

Getty vraagt geld voor als jij dingen wilt doen met iets wat zij jou ter beschikking stelt. En als jij het materiaal legaal uit andere bron krijgt dan heeft Getty daar helemaal niets meer mee nodig.
Ik had net het volgende even uitgeprobeerd: https://ibb.co/gtWg82D en in de eerste twee images zou je duidelijk de stijl van het gettyimages watermerk kunnen herkennen, maar ik vraag mij wel af of het net-zogoed kan betekenen dat afbeeldingen via een omweg (bijv watermarked image dat elders gehosted is/was) gescraped zijn.
Als ik bijvoorbeeld requests maak in de orde van "Webpage like x" en dan bijv youtube, facebook ingeef, je vergelijkaardige text-artefacten ziet.

Met andere experimenten (x with "y" written on it) waarbij x een onderwerp en y een willekeurige set woorden en/of youtube/getty/facebook/etc lijk ik wel vergelijkaardige artifacten te zien, maar het valt mij wel op dat als ik voor y gettyimages ingeef en hij er wat mee lijkt te doen (andere y-prompts lijkt hij ook willekeurig te negeren) het vrij steevast het uiterlijk van het watermerk krijgt.
Dit vond ik tot zover het beste voorbeeld waar ik probeer de AI het watermerk te laten repliceren; https://ibb.co/3y0BL73

om mijzelf de vraag te stellen: "herkent" de AI logo's/huisstijlen vond ik deze testen ook wel grappig:
https://ibb.co/1rL23Cy y= youtube
https://ibb.co/r5QvpZj y = google

maar proberen een afbeelding te genereren met shutterstock watermark was toch significant moeilijker, een boel andere variaties ook veel generaties gemaakt, uiteindelijk met "landscape with "Shutterstock" logo" pas het volgende kunnen laten genereren met een stuk of 10 pogingen
https://ibb.co/rfjhz7m
Heb voor deze nog meer pogingen gemaakt, maar dit was even zo snel het dichtstbij dat ik kwam.

Ik denk dat een vraag die mee kan gaan spelen is of het uitmaakt hoe de afbeeldingen gescraped zijn geraakt; stel dat de bron van buiten getty zelf is/was, heeft dat dan nog implicaties op de verdere zaak?

Ik vind het persoonlijk wat opvallend dat de shutterstock watermark zo veel moeilijker te veroorzaken is en vraag me af of daaruit wat af te leiden is :)
Een groot deel van de afbeeldingen die Getty verkoopt hebben ze zelf ook geen alleenrecht op, zie bijvoorbeeld deze artikelen:
https://fstoppers.com/leg...blic-domain-images-354799
https://www.latimes.com/b...-20160729-snap-story.html

Getty staat erom bekend dat ze alle afbeeldingen waar ze een twijfelachtige claim op kunnen maken verkopen en verdedigen, zelfs als het om gebruik door de oorspronkelijke fotograaf gaat.
Dat zijn zaken waar het een kwestie van grote partij tegen freelancer is, Getty weet goed dat ze dat recht niet hebben.

Is dat hier niet ook gewoon het geval? Lijkt me dat gebruik binnen een AI-model gewoon onder fair use valt.
Jouw 1e link: Die zaak is door de rechter verworpen.
2e link: Deels verworpen, deels een onderlinge schikking.

Getty maakt inderdaad fouten, maar ze verliezen maar bar weinig van de rechtszaken tegen hen. Werken in het publieke domain mogen door iedereen die dat maar wil worden verkocht of onder een licentie worden aangeboden, zolang je maar niet het volledige copyright claimt.

Ook jij mag morgen een winkel openen vol met public domain foto's en ervoor vragen wat jij wilt. gebruikt iemand zo'n foto uit een andere bron dan heb jij daar niets mee nodig, gebruikt iemand de foto uit jouw winkel ook al is het de fotograaf zelf dan dient die de prijs te betalen die jij ervoor vraagt.

Ik zie trouwens werkelijk niet hoe miljoenen foto's gebruiken om een commercieel product waarmee je rechtstreeks de concurrentie aangaat met diegene wiens afbeeldingen jij gebruikt te trainen onder fair use valt?

[Reactie gewijzigd door Groningerkoek op 22 juli 2024 15:04]

Ook jij mag morgen een winkel openen vol met public domain foto's en ervoor vragen wat jij wilt. gebruikt iemand zo'n foto uit een andere bron dan heb jij daar niets mee nodig, gebruikt iemand de foto uit jouw winkel ook al is het de fotograaf zelf dan dient die de prijs te betalen die jij ervoor vraagt.
Daar zit het probleem dus ook, het herkennen van de bron van die afbeeldingen. Een beetje hetzelfde als dat het Content ID systeem van YouTube kijkt naar het gebruik van een stukje audio, en niet naar de bron, en daardoor heel vaak false positives herkent. Getty kijkt dus ook gewoon naar het gebruik van afbeeldingen die in hun database staan, en niet naar of ze daadwerkelijk uit hun database komen.
Ik zie trouwens werkelijk niet hoe miljoenen foto's gebruiken om een commercieel product waarmee je rechtstreeks de concurrentie aangaat met diegene wiens afbeeldingen jij gebruikt te trainen onder fair use valt?
Dan zou je je kunnen inlezen over fair use en over hoe een AI model werkt. Het trainen van een AI die daarna zelf afbeeldingen genereert is gewoon keiharde fair use, net zoals een artiest die inspiratie opdoet van dezelfde afbeeldingen fair use is.
Zolang de AI niet knipt en plakt maar nieuwe afbeeldingen genereert op basis van die informatie heeft Getty gewoon geen zaak.
Getty voelt zich gewoon bedreigd en gaat dus een rechtszaak aan in de hoop dat ze het winnen van een kleinere partij zonder juridische basis, zoals ze al vaker gedaan hebben.
Ik zie trouwens werkelijk niet hoe miljoenen foto's gebruiken om een commercieel product waarmee je rechtstreeks de concurrentie aangaat met diegene wiens afbeeldingen jij gebruikt te trainen onder fair use valt?
Een onderdeel van de Amerikaanse Fair Use wetten is dat "Transformative" gebruik wel is toegestaan. Momenteel is het niet duidelijk of het trainen van een AI hieronder valt. Verder gaat Stability AI helemaal niet direct de concurrentie aan met Getty (voor zover ik weet), al maakt Stable Diffusion Getty wel redelijk overbodig.
Beiden bieden een dienst aan waarbij een afnemer aan de hand van een beschrijving een bepaald soort afbeelding wil hebben. Natuurlijk is dat directe concurrentie.

Daarnaast gaat deze zaak niet om wat de uiteindelijk resultaten zijn en wat voor afbeeldingen de AI creëert, de hoofdzaak is hier of het is toegestaan om afbeeldingen bij een ander uit de winkel te halen om te gebruiken voor jouw commercieel doeleinde terwijl de winkelbeheerder in zijn winkel een groot bord heeft hangen dat je zonder hierover afspraken te maken dit niet mag doen.
Beiden bieden een dienst aan waarbij een afnemer aan de hand van een beschrijving een bepaald soort afbeelding wil hebben. Natuurlijk is dat directe concurrentie.
Naar mijn weten biedt StabilityAI niet zelf een plek aan waar je al dan niet betaald via Stable Diffusion afbeeldingen kan genereren maar bieden ze de open source tools aan waarmee mensen dit zelf kunnen doen. Je zou dus op zijn hoogst kunnen spreken van indirecte concurrentie.
Daarnaast gaat deze zaak niet om wat de uiteindelijk resultaten zijn en wat voor afbeeldingen de AI creëert, de hoofdzaak is hier of het is toegestaan om afbeeldingen bij een ander uit de winkel te halen om te gebruiken voor jouw commercieel doeleinde terwijl de winkelbeheerder in zijn winkel een groot bord heeft hangen dat je zonder hierover afspraken te maken dit niet mag doen.
Het gaat in deze rechtszaak inderdaad niet om de eindresultaten, maar om het gebruik van de afbeeldingen voor het trainen van het model. Dit laatste zal mogelijk als "transformative" worden gezien, afhankelijk van hoe de pet van de rechter en/of jury staat. Als het trainen van een model inderdaad als "transformative" wordt bestempeld dan maakt het verder niet uit dat Getty een aparte licentie aanbiedt die het trainen expliciet toestaat.
Voor de bepaling of iets fair use is moeten in elk geval deze 4 factoren worden afgewogen:

- the purpose and character of the use, including whether such use is of a commercial nature or is for nonprofit educational purposes
- the nature of the copyrighted work
- the amount and substantiality of the portion used in relation to the copyrighted work as a whole
- the effect of the use upon the potential market for or value of the copyrighted work

En transformative is 1 ding, al zou het resultaat transformative zijn, dan is er altijd nog de vraag mag ik ongevraagd bij een ander 12 miljoen afbeeldingen wegnemen voor het bouwen van mijn eigen commerciële en concurrerende dienst? En ik kan mij absoluut niet voorstellen dat die vraag met ja gaat worden beantwoordt.

En is stability AI een commerciële dienst, ja natuurlijk. Neem een product als Dreamstudio een commercieel product waarvoor ze hun eigen open source producten gebruiken. Dat die open source producten ook gratis beschikbaar zijn voor anderen veranderd daar helemaal niets aan.
Ik snap wel waar het Getty om gaat, enerzijds natuurlijk de afbeeldingen maar veel meer de goede beschrijving van de afbeelding want dat heb je nodig voor je AI learning. Als je dat zelf allemaal moet invoeren dan kost dat heel veel tijd en geld dus hebben ze het gejat.
Getty images leeft er vooral van dat als je als ontwerper een bepaald idee hebt, je er een passende foto bij kan vinden. Onbeschreven foto's heb je niets aan.

Op dit item kan niet meer gereageerd worden.