OpenAI en Google vragen regering VS om copyright niet te laten gelden voor AI

OpenAI en Google hebben de Amerikaanse regering gevraagd om het trainen van AI-modellen op auteursrechtelijk beschermd materiaal toe te staan. Volgens de bedrijven moet AI-training onder fair use vallen, zodat Amerika marktleider op het gebied van AI blijft.

In zijn voorstel zegt OpenAI dat Amerikaanse AI-modellen moeten kunnen leren van auteursrechtelijk beschermd materiaal. De ChatGPT-maker stelt dat Chinese AI-modellen vrijelijk getraind kunnen worden met beschermd materiaal, waardoor Amerikaanse AI-bedrijven dreigen achter te lopen op China. Volgens OpenAI is het in belang van de nationale veiligheid om de fairuseregels te laten gelden voor AI-training, omdat 'democratische modellen' de 'AI-race' anders verliezen.

OpenAI uit in zijn brief verder kritiek op het Chinese DeepSeek. Volgens de AI-reus wordt zijn concurrent bestuurd door de Chinese overheid en moet deze gebruikersdata delen met de CCP. Hierdoor zou DeepSeek een gevaar vormen voor Amerikanen. OpenAI roept de regering op om dergelijke Chinese AI-modellen die de privacy van gebruikers schenden en een veiligheidsrisico vormen, te verbieden.

Google stelt ook voor om AI-training te zien als een vorm van fair use en om tekst- en datamining van openbaar beschikbare, auteursrechtelijk beschermde bronnen toe te staan. Volgens het bedrijf zorgt dat niet voor een 'significante impact' op rechthebbenden en hoeven AI-bedrijven daardoor geen tijdrovende overeenkomsten te sluiten met deze partijen. Toegang tot dergelijke gegevens is noodzakelijk om toonaangevende modellen te kunnen ontwikkelen, beweert Google.

De bedrijven willen dat deze suggesties onderdeel worden van het aankomende Amerikaanse 'AI Action Plan'. Trump tekende in januari een decreet om een plan op te tuigen waarmee de 'wereldwijde AI-dominantie van Amerika' wordt versterkt. De regering wil hiermee onder meer voorkomen dat 'onnodig zware eisen' de AI-innovatie van private bedrijven belemmert.

Trump draaide op zijn eerste dag als president al een decreet van Biden terug dat AI-ontwikkelaars verplichtte om veiligheidstests met de overheid te delen voordat nieuwe technologie voor het publiek beschikbaar kwam. De regering heeft donderdag zestien grote AI-bedrijven gevraagd om bewijs dat de regering-Biden ze onder druk heeft gezet om hun AI-modellen te 'censureren'. Volgens de overheid probeerde Biden 'schadelijke vooroordelen' en 'algoritmische discriminatie' tegen te gaan, maar zorgde dat ervoor dat de vrijheid van meningsuiting van Amerikanen in het geding kwam.

Door Kevin Krikhaar

Redacteur

15-03-2025 • 10:37

171

Reacties (171)

171
167
84
1
0
67
Wijzig sortering
Waarom zou een virtueel brein niet mogen leren van door auteursrecht beschermd materiaal, ik begrijp die redenatie niet. Al vind ik dat het materiaal waarop getraind wordt wel op legale wijze moet zijn verkregen.
De vergelijking gaat mank, want het is geen brein. Jij leest geen tienduizend boeken met het doel om schrijven te automatiseren - waardoor schrijvers eventueel niet meer aan hun brood zouden kunnen komen.

Voor zulk grootschalig, commercieel gebruik, is een normale licentie niet voldoende. Meer vergelijkbaar met herproducties printen dan het boek lezen.
Al vind ik dat het materiaal waarop getraind wordt wel op legale wijze moet zijn verkregen.
En dat is nou net wat OpenAI en Google dus niet willen. Dat vinden ze namelijk te tijdrovend, om toestemming voor gebruik te vragen:
Google stelt ook voor om AI-training te zien als een vorm van fair use en om tekst- en datamining van openbaar beschikbare, auteursrechtelijk beschermde bronnen toe te staan. Volgens het bedrijf zorgt dat niet voor een 'significante impact' op rechthebbenden en hoeven AI-bedrijven daardoor niet tijdrovende overeenkomsten te sluiten met deze partijen. Toegang tot dergelijke gegevens is noodzakelijk om toonaangevende modellen te kunnen ontwikkelen, beweert Google.
In andere woorden: ze willen het gratis en zonder toestemmings-overeenkomsten met de rechthebbenden gaan gebruiken, want dat is sneller (en dus goedkoper voor OpenAI en Google).

Dat is dus een behoorlijk slechte zaak voor rechthebbenden van werk. Zij steken er een hoop geld en moeite om die content te maken, en OpenAI en Google gaan er vervolgens gratis van profiteren en er winst mee maken (ze doen het immers vanuit een commerciele insteek, niet uit liefdadigheid).
En dat is nou net wat OpenAI en Google dus niet willen. Dat vinden ze namelijk te tijdrovend, om toestemming voor gebruik te vragen:
Technisch gezien willen ze dat wel. Ze willen de wet veranderen zodat ze legaal hun gang kunnen gaan.
Dan krijgt je situaties zoals; “chatGPT, type voor mij het hele hoofdstuk 6 uit het boek van Harry Poter en de sneeuwwitjes “

Copyright omzeild?
Dan denk ik niet dat jij helemaal begrijpt wat een LLM is/kan.

Een model "onthoud" niks op een manier zoals je hier suggereerd. Wat je het wel zou kunnen vragen is doordat er 100 boeken worden "gelezen" door het model je het model beter een verhaal kan laten opschrijven/voorspellen. Bijvoorbeeld wanneer jij het een x aantal personages geeft. Maakt het vervolgens een lopend verhaal hiermee in de stijl van op happy potter lijkende verhalen(fantasy).
Maar deze bedrijven hebben wel de resources om dat alsnog een optie te maken. Al dan niet voor alleen intern bedrijfsgebruik.
In bepaalde gevallen kent ChatGPT wel stukken tekst van de bronnen en gaf dat woord voor woord uit. Daar was dus het trainingmateriaal wel compleet onthouden.
Niet dit specifieke geval geprobeerd, maar bij Deep Seek wel de inhoudsopgave en later tekst gevraagd van een paragraaf uit een betaalde ISO standaard... Zag er redelijk accuraat uit.
Klopt, wilde het eigenlijk erbij schrijven.

Vroeg een en ander over Eurocode, kreeg toch een behoorlijke aantal quotes terug die 100% gelijk waren. Heb nl dat deel.
Zowel chatGPT en DeepSeek gaven het juist weer, alleen DeepSeek was veel beter in het geven van correcte resultaten.

Maar goed, sommigen hierbij tw zien altijd alles anders of moeten gewoon commentaar hebben.
Aangezien ze tot nu toe vooral ongevraagd andermans werk massaal verwerken en andermans rechten niet duidelijk respecteren om er zelf aan te verdienen toont hun verzoek om legaliseren van wat ze doen vooral aan dat ze momenteel de wil toepassen wat ze zelf het beste uit komt. Niet dat hun wil is om de wet en andermans rechten en hun plichten maar te willen respecteren.
Fair use staat al in de wet, daar is geen wetswijziging voor nodig. Het is alleen nog onduidelijk of AI training er nu onder valt. Een uitspraak van het Congres kan dat verduidelijken.
Het is meer een uitzonderingskwestie van een bestaande wet, maar je hebt uiteindelijk wel gelijk. Als je je niet aan wet hoeft te houden dan ben je per definitie gewoon "legaal" bezig.

[Reactie gewijzigd door MrFax op 16 maart 2025 05:25]

Het huidige Amerikaanse regime heeft sowieso besloten om "je niet aan de wet houden" legaal te verklaren voor zichzelf.

Ik neem aan dat als je genoeg Trump coins koopt, ze jouw activiteiten ook legaal willen verklaren.
Volgens mij bedoelt @mvkdev dat het materiaal zelf op legale wijze verkregen moet zijn, dus een boek gekocht in de winkel (ouderwets :) ) bijvoorbeeld en dat het gebruik voor AI verder vrij is. Als ik het verkeerd begrepen heb, dan lees ik dat wel.
Dat is inderdaad wat ik bedoel/schreef :)
Dus 1 bibliotheek abbo en scrapen maar. Alle content van Tweakers zou dan ook zo binnen te halen zijn.

Punt is dat een computer binnen no time alle content binnen kan halen en verwerken. In essentie kom je dan uit op vrijwel niks betalen. Daar gaat een rechthebbende zo goed als niks van terug zien.
Maar 'bibliotheek abbo' is het natuurlijk niet zo simpel als jij zegt.

De grote uitgevers van bijvoorbeeld academische tijdschriften sluiten met gebruikers zoals universiteiten en advocatenkantoren overeenkomsten (abonnementen) op basis van het gebruik per maand. Bijvoorbeeld het aantal gedownloade of gelezen artikelen.

Dat kunnen Google en OpenAI ook gewoon doen. Ze hebben dit al laten zien met een overeenkomst met een Britse krant (The Guardian?).
Volgens het bedrijf zorgt dat niet voor een 'significante impact' op rechthebbenden
Sja, niemand zal meer betalen voor de content waarop de ai is getraind? Ik zie niet in hoe dat te verdedigen is als stelling. Daarnaast zal ‘nieuwe’ content steeds schaarser worden als de schrijvers verdwijnen (want geen inkomsten).
In de jaren negentig stond het internet vol met websites, puur gecreeerd uit passie.
Wellicht zijn advertenties juist wel dé reden voor enshittification van het internet.
Het internet zou zoveel integriteit hebben als er geen geld te verdienen was 😆
Eigenlijk het enige wat ik in dit artikel lees is dat Google en OpenAI hun machtspositie willen behouden en ze gebruiken daarbij woorden als 'democratische modellen' en 'nationale veiligheid' en 'AI race' want dat bekt lekker en daar kan je niet tegen zijn.

Het klinkt heel nobel maar het zijn beursgenoteerde bedrijven en die willen winst maken.

Onder de streep willen ze van dat vervelende copyright af wat ze alleen maar beperkt. Ze willen een vrijbrief om onbeperkt hun AI modellen te trainen.

En dan te bedenken dat ze gigantische winsten maken en ze gebruiken daarbij eigenlijk materiaal van anderen. Nu willen ze een vrijbrief om dat onbeperkt te kunnen doen.
Dat gebeurt al jaren in de USA: de overheid inzetten als wapen tegen concurrenten.
Anoniem: 1201820 @latka16 maart 2025 18:51
In andere wereldmachten zal het niet veel anders zijn.
De mate van invloed is m.i. het grootst in een oligarchie. De VS, China en Rusland hebben best wel wat oligarchen.
Dat is dus een behoorlijk slechte zaak voor rechthebbenden van werk. Zij steken er een hoop geld en moeite om die content te maken, en OpenAI en Google gaan er vervolgens gratis van profiteren en er winst mee maken (ze doen het immers vanuit een commerciele insteek, niet uit liefdadigheid).
Dat is wel wat te simpel en kort door de bocht.

Je hebt het gezien met deepseek en andere modellen. Als er een nieuw model komt wat slimmer, beter, ... Is dan komen op basis daarvan weer andere nieuwere betere modellen. Sommige commercieel, veel gratis en open source. Openai en Google zullen er zeker (even) voordeel aan hebben, snel daarna heeft de hele ai modellen industrie er voordeel van.

Wat ook nog mee zou moeten wegen is dat het erin stoppen van commerciële content het niet op diezelfde manier er weer uit kan worden gehaald. Het model leert bepaalde patronen en kan dat weer toepassen op andere plekken.
Ik wacht echt op het moment dat AI nog enkel kan getrained worden op de AI rommel van de generatie ervoor omdat er niemand (artiesten, journalisten, hobbyisten met tutorials enz.) nog iets wil uitbrengen omdat het toch gedupliceerd wordt door AI. Dan stopt dit spelletje automatisch. Dit klinkt echter als progress waar alles maar voor moet wijken.

Hopelijk zijn we er snel op dat moment en kunnen we weer terug wetgeving gaan toepassen waar het nodig is, i.p.v. de grote techbedrijven die weer eens zonder wet alles willen kunnen. Want hoe je het ook draait, dit doen ze niet voor de mensheid vooruit te helpen maar gewoon om meer winst te maken en voor China en andere te blijven. Je zou stilaan bewust artikels en mass gaan uitbrengen die vol fouten staan om de boel de boycotten...

[Reactie gewijzigd door Powerblast op 16 maart 2025 16:38]

't zou wel kunnen als je een soort thuiskopieheffing gaat inrichten voor LLMs.
Even los van het feit dat AI-modellen geen personen zijn, geen “brein” hebben, en dus ook geen recht hebben om iets te leren - als jij en ik auteursrechtelijk materiaal (zoals boeken, films, krantenartikelen, etc.) tot ons willen nemen, kunnen wij dat ook niet zomaar doen zonder toestemming van de auteur (en deze daar linksom of rechtsom een vergoeding voor te geven).

Daarnaast “leren” deze modellen (dat vind ik altijd een beetje een misleidende term, want ik betwijfel dat je dit gelijk kunt stellen aan hoe mensen leren) met specifiek het doel om meer content te kunnen genereren.
als jij en ik auteursrechtelijk materiaal (zoals boeken, films, krantenartikelen, etc.) tot ons willen nemen, kunnen wij dat ook niet zomaar doen zonder toestemming van de auteur (en deze daar linksom of rechtsom een vergoeding voor te geven).
Volgens mij klopt dat niet. Copyright (de naam zegt het al) gaat over kopieren, niet over consumeren. Je mag alles lezen, kijken, luisteren, ruiken, voelen, etc wat je kan.
De vraag is hoe je aan dat werk komt, maar als je het eenmaal hebt mag je het lezen, dat kan de auteur niet verbieden.
Daarnaast “leren” deze modellen (dat vind ik altijd een beetje een misleidende term, want ik betwijfel dat je dit gelijk kunt stellen aan hoe mensen leren)
Ik vind het ook een misleidende term maar niet omdat het anders is dan hoe mensen leren. Het mechanisme is niet waar het om gaat, het effect wel (net zoals een vliegtuig kan vliegen zonder vleugelgeklapper).
Hoe er geleerd wordt is hier niet belangrijk, het gaat er om dat data wordt gekopieerd.

Dat voelt nogal als een technicaliteit. Het kopieren van data op zich is het probleem niet, het echte probleem is hoe er gebruik van gemaakt gaat worden. Auteursrechten (waarvan copyright er één is) geven echter maar weinig mogelijkheden om dat gebruik te reguleren, de nadruk ligt op kopieren. Wettelijk gezien is het niet verboden om een gekopieerde film te kijken. Dat kan ook niet anders want je kan niet verwachten dat de mensen hun ogen sluiten als ze op straat iets zien waar ze misschien wel geen licentie voor hebben.

Ik vind de term 'leren' misleidend omdat het suggereert dat het iets anders is dan een kopie maken in je eigen database (al dan niet beknopt, samengevat of gecodeerd). Als mensen vinden wel 'leren' een mooi en nobel doel terwijl 'kopieren' de afgelopen jaren verguisd is alsof het een criminele activiteit is.

[Reactie gewijzigd door CAPSLOCK2000 op 15 maart 2025 12:03]

Volgens mij klopt dat niet. Copyright (de naam zegt het al) gaat over kopieren, niet over consumeren. Je mag alles lezen, kijken, luisteren, ruiken, voelen, etc wat je kan.
De vraag is hoe je aan dat werk komt, maar als je het eenmaal hebt mag je het lezen, dat kan de auteur niet verbieden.
En hoe je aan een werk komt, zelfs dat is een twijfelgeval. Als ik een boek koop, mag ik die dan uitlenen aan een vriend of moet hij maar zijn eigen boek kopen?
Juist bij copyright zijn er veel grijze gebieden.
Verschil maakt of je financieel beter wordt van dat uitlenen en zo ja, op wat voor schaal doe je dat? Het kan geen verdienmodel zijn.
Overigens is het bij AI-service gewoon oneerlijk, Als een particulier 0,01% van de stukjes data die in de chatGPT base zit op een eigen server zet en daar resulteten op baseert en reclame erbij doet wordt die waarschijnlijk morgen opgepakt.
Of je er financieel beter van wordt is helemaal niet aan de orde. Als ik een stukje uit de krant kopieer en die ga ik buiten op straat aan iedereen uitdelen, dan schend ik de auteursrechten, ondanks dat ik er niet beter van word. Maar zoals ik al stelde, is dit vaak een grijs gebied, want welke reden heb ik om dat krantenbericht met iedereen te delen? En die reden bepaalt of ik moet betalen voor het schenden van de auteursrechten.
Je moet een vermeend inkomstenverlies veroorzaken en auteursrechteninbreuk faciliteren voordat er ooit iets mee wordt gedaan. Dat het kopieren en verspreiden van een tekst waar auteursrechten op van toepassing zijn een schending is is wel erg vergezocht. Wat als je een boek ergens op tafel laat liggen? Die lezen terwijl je geen eigenaar bent is dan auteursrechtenschending? Of gaat het om de informatiedrager? Dan kun je het niet overschrijven. Leuk bedacht...

[Reactie gewijzigd door blorf op 16 maart 2025 09:52]

Niks leuk bedacht, want mijn voorbeeld is een heel reëel voorbeeld, welke dagelijks voorkomt, o.a. bij demonstraties. En wat je zegt: Is er inkomstenderving, vandaar dat grijze gebied.
Ik ging overigens op jouw opmerking in dat de persoon of organisatie die kopieert er financieel beter van moet worden en dat is dus niet juist.
In ieder geval wel om ergens voor vervolgd te worden. Wat er aan "schending" overblijft is een stukje overdrijvingskunst over eigendom en principe's. Dat heeft geen link met de realiteit.
Dat is niet waar. Om jouw voorbeeld van het vergeten boek op tafel maakt voor de wetgever niet uit of het per ongeluk is of met opzet. Denk je dat al die spookrijders met opzet spookrijden? Maar er zit voor dat per ongeluk wel een flinke boete aan vast.
De wetgever? Er is geen rechter die er iets mee gaat doen omdat het geen maatschappelijke impact heeft. Daar regels over handhaven is compleet zinloos. En dat gebeurt dus ook niet. Je hebt in ieder geval een slachtoffer en schade nodig. De intentie is ook een ding, maar pas daarna.
Je idee van per ongeluk auteursrechtenschending begaan is helemaal flauwekul. Je moet zeker ook uitkijken dat je niet per ongeluk copyrighted muziek met je telefoon opneemt? :D

[Reactie gewijzigd door blorf op 16 maart 2025 10:17]

Ik ga geen discussie voeren voor de discussie. We agree we don"t agree.
Je "grijze gebieden" bestaan helemaal niet. Alsof iedereen constant moet uitkijken om niet in een copyright-zaak te vallen vanwege persoonlijke activiteiten zonder enige valse intentie of winstbejag.
Wie niet betrokken is bij zaken in media-dragers of publicaties heeft ook niks te maken met auteursrechten.
Een AI kopieert geen data, het adsorbeert data in de gewichten van het neurale netwerk.
Als effect net als ik data absorbeer in mijn eigen netwerk (in de volksmond "brein" genoemd) als ik iets leer.
Ik gebruik geen drugs, mijn lijf absorbeert ze.
AI absorbeert soms specifieke kenmerken van trainingsdata, vergelijkbaar met hoe JPEG-compressie werkt via DCT (Discrete Cosine Transform). DCT analyseert en comprimeert frequenties in een afbeelding, waarbij details worden behouden, maar sommige informatie verloren gaat. Op een vergelijkbare manier kan een AI bepaalde details uit de trainingsdata 'onthouden', zelfs als het getraind wordt om alleen patronen te leren, wat lijkt op het kopiëren van die gegevens.
Een AI kopieert geen data, het adsorbeert data in de gewichten van het neurale netwerk.
Dat is wat ik bedoel met dat de data samengevat en gecodeerd wordt opeslagen.

Het is geen 1:1 bitgewijze kopie maar er wordt wel degelijk informatie overgenomen. De wet maakt hier een hard onderscheid dat imho helemaal niet zo hard is. Als ik een 4k film transcode naar 720p dan is dat technisch gezien geen kopie, maar we behandelen het wel zo. Je zou kunnen argumenteren dat het trainen van een neuraal netwerk lijkt op het transcoden van video: je vat de belangijkste data samen in een compact formaat.
Als effect net als ik data absorbeer in mijn eigen netwerk (in de volksmond "brein" genoemd) als ik iets leer.
Om dat te doen zal er toch eerst een kopie gemaakt moeten worden van die data naar het RAM van je computer. De wetgeving is opgehangen aan het kopieren. Dat is een beetje een overblijfsel uit de tijd van de drukpers waardoor het tegenwoordig soms vreemd voelt, maar de beperkingen zitten op het kopieren.

Overigens ben ik het helemaal met je eens dat er geen fundamenteel verschil is tussen menselijk leren en het trainen van een AI, maar de wet ziet dat anders. Ik zou het ook omgekeerd kunnen brengen door te zeggen dat data in je brein absorberen ook een vorm van kopieren is. Een kopie hoeft niet 100% identiek te zijn. Ik snap dat er praktische redenen zijn om verschil te maken tussen die gevallen, maar het is geen onomstotelijke keiharde lijn.
Je analogie met transcoding gaat niet op.
Die technische omzetting is te vergelijken met het opnieuw opslaan van een jpeg - lossy, dus er 'verdwijnen' weliswaar nulletjes en ééntjes, maar de essentie van het werk gaat daarbij niet verloren.
Ik kan mijn scriptie laten drukken op flinterdun pulp papier met crappy inkt die je zo wegveegt, of via een degelijke drukker laten verwerken, maar dat verandert niets aan de content van mijn scriptie.
De wet loopt natuurlijk altijd achter de feiten aan. Ik ken geen wet die ooit gemaakt is om in de toekomst een eventualiteit effectief in goede banen te leiden.
Overigens ben ik het helemaal met je eens dat er geen fundamenteel verschil is tussen menselijk leren en het trainen van een AI, maar de wet ziet dat anders.
In het geval van LLMs en aanverwante technieken zit er wel degelijk een fundamenteel verschil tussen: bij menselijk leren zit er een stap tussen waar je een eigen begrip en inzicht ontwikkelt, en die ontbreekt bij LLMs volledig - die reproduceren de inputs op statistische basis. Dat zit heel veel dichter bij 'slaafse nabootsing' dan menselijk leren, zowel qua mechanisme als qua uitkomst. Het is niet voor niets dat LLMs geen nieuwe inzichten kunnen produceren.

Zou een AI-technologie kunnen bestaan die wel een eigen inzicht ontwikkelt? Misschien. Maar momenteel bestaat het niet, dus dat is voor de huidige wetgeving-vraag niet relevant.
Overigens ben ik het helemaal met je eens dat er geen fundamenteel verschil is tussen menselijk leren en het trainen van een AI, maar de wet ziet dat anders.
Mijn neefje van 4 heeft leren tellen en sindsdien hebben al zijn getekende ‘harkmannetjes’ 5 vingers. AI modellen hebben na het bestuderen van 800 miljard plaatjes en een investering van een paar honderd miljard dollar nog steeds niet ‘geleerd’ dat mensen 5 vingers per hand hebben. Ik denk dus dat er een vrij gigantisch fundamenteel verschil is tussen hoe een.intelligent wezen iets leert en hoe een bak transistors statische verbanden tussen woorden en pixels vastlegt. Eén kleuter leert en weet dat een mens 5 vingers per hand heeft, AI modellen berekenen dat de kans op 5 vingers vrij groot is maar ergens tussen de 1 en 10 per hand kan ook dus gokt het AI model maar wat….
[...]

Volgens mij klopt dat niet. Copyright (de naam zegt het al) gaat over kopieren, niet over consumeren.
Dat is niet helemaal waar. Bij het kopen van een auteursrechtelijk werk krijg je bepaalde rechten. Jij mag een DVD die je gekocht hebt wel kijken, maar niet commerciëel gebruiken of in het openbaar tonen.

Het doel van AI ligt daar een beetje tussenin. Hoewel het werk niet gekopiëert word, word het ook niet geconsumeert. Het doel is om massaal vergelijkbare werken te kunnen produceren.

Ook dat is natuurlijk niet waar een normale, noncommerciële licentie voor bedoeld is.
Een "echt" brein moet ook vaak betalen om auteursrechtelijk materiaal te mogen lezen. Zie de abonnementen die universiteiten af moeten sluiten op allerlei tijdschriften. Ik ben benieuwd of ze dat nu ook in de VS willen omzijlen.
Een universiteit heeft geen brein, dus die vergelijking gaat niet op. Je hebt gelijk dat universiteiten voor abonnementen moeten betalen, maar dat is om de "echte" breinen in gelegenheid te stellen om daar hun voordeel mee te doen.
En waarom zou een ai brein dan niet hoeven te betalen?
Waar staat dat een AI-brein niet hoeft te betalen? Het artikel gaat ook helemaal niet over het niet hoeven te betalen voor de aanschaf, maar over het niet betalen van de auteursrechten en dat zijn twee totaal andere zaken.
Groot gelijk over het mogen lezen. Voor veel zaken die we wel vrij in mogen zien, vrij mogen lezen en zo, geldt ook dat we daar niet vrij uit mogen kopieren. Dus als het om generative kunstmatige intelligentie gaat, dan moeten die ook netjes de rechten volgen.

Of we moeten nu beslissen dat voor de kennis van het algemeen nut alle auteursrechten komen te vervallen. Dan dus als eerste en voornaamste de rechten op de zaken die uit de kunstmatige intelligentie komen, daar zal nooit en te nimmer een recht aan mogen worden gehangen.

Of besef dat dit mogelijk ondoenlijke zaken zijn. Dan mogen de rechten aan de andere kant ook gelden.
Op basis van wat je hebt gelezen mag je wel andere teksten schrijven. Als je maar niet precies schrijft wat je eerder hebt gelezen. Voor een AI moet dat ook wel mogelijk zijn.
Op basis van wat je hebt gelezen mag je wel andere teksten schrijven. Als je maar niet precies schrijft wat je eerder hebt gelezen. Voor een AI moet dat ook wel mogelijk zijn.
Klopt helemaal. Maar dan moet het wel mijn eigen tekst en plaatjes zijn. Of als ik citeer, dat het zich beperkt tot korte stukjes. Grote stukken overnemen is niet de bedoeling. Een schrijfstijl overnemen of doen alsof het door een bepaald iemand is geschreven is niet de bedoeling. En kijk naar de muziek: Daar wordt het overnemen van het kleinste stukje bij wijze van 'sampel' al onderhevig aan rechten en plichten.

En helaas blijkt nu al dat met kunstmatige intelligentie gemaakte stukken vaak iets te veel inspiratie hebben op de originele teksten.
Omdat mijn niet virtuele brein ook niet gratis mag trainen op alle auteursrechtelijk beschermd materiaal? Ik moet toch ook gewoon betalen om een film te kijken?
Waarom zou een virtueel brein niet mogen leren van door auteursrecht beschermd materiaal, ik begrijp die redenatie niet. Al vind ik dat het materiaal waarop getraind wordt wel op legale wijze moet zijn verkregen.
Omdat het geen virtueel brein is maar en taal model, dus een grote grabbelton met woorden, een model die met de juiste woorden komt met je prompt (invoer).

[Reactie gewijzigd door Remzi1993 op 15 maart 2025 13:24]

Waarom zou een virtueel brein
Dat het AI is betekent niet dat het een virtueel brein is.
Een virtueel brein mag best leren van auteursrecht beschermd materiaal als het daar net als een menselijk brein een eerlijke prijs voor betaald. Maar hoe bepaal je wat een eerlijke prijs is? Mij lijkt het niet redelijk dat een virtueel brein dat haast eindeloos opschaalbaar is dezelfde prijs voor het materiaal moet betalen als een enkel menselijk brein.
Waarom zou dat moeten uitmaken? Iedereen betaalt hier toch dezelfde prijs voor een krant of boek ongeacht hoe snel of hoe veel je leest?

Het is alleen de wet van vraag en aanbod die bepaalt hoeveel het werk waard is.

Daarnaast is het ook nog eens zo dat het wordt opgeslagen in het taalmodel. Weliswaar niet op dezelfde manier als jij en ik een pdf opslaan maar effectief wordt het werk wel gereproduceerd en dat valt simpelweg onder het auteursrecht (naburige rechten).

Ik heb een boek geschreven, dat ik gratis laat uitgeven voor bepaalde ideële doeleinden. Daar is mijn overeenkomst (licentie) op gebaseerd. Maar als een commercieel bedrijf daar geld mee wil gaan verdienen dan geldt die licentie niet. Zij mogen mij dan gewoon betalen voor mijn werk.

Waarom zou dat in jouw ogen niet redelijk zijn?
Omdat de output van dat model alleen maar dient om geld te verdienen.
Dat is het verschil dat jij een boek leest of openai
Je lijkt de indruk te hebben gekregen dat ik vind dat een virtueel brein minder of evenveel zou moet betalen terwijl ik juist vind dat het eerlijk zou zijn als daarvoor veel en veel meer voor wordt betalen. Als de rechthebbende specifieke voorwaarden stelt is dat natuurlijk prima.

Waar ik tegen ben is het idee dat een virtueel brein dat kan bestaat uit honderdduizenden cpu's/gpu's gelijk gesteld wordt aan een enkel menselijk brein en daarom een vergelijkbare vergoeding daarvoor zou volstaan of dat het dezelfde toegang zou hebben als die mensen hebben onder fair use.

Dat mensen vaak voor niets of heel weinig toegang hebben tot zoveel boeken, tijdschriften, artikelen, als ze willen via (digitale) bibliotheken en archieven moet niet zo maar opgaan voor virtuele breinen. Vooral niet als ze voor commerciële doeleinden worden op kunnen gebruikt worden en de rechthebbenden daar grote bezwaren tegen hebben.
Google heeft in feite kopieën van alle boeken die er zijn zodat die in zoekresultaten kunnen verschijnen, maar ze delen die niet met hun gebruikers. Als jij het wil lezen kun je het kopen of lenen. Waarom zou Google wel het zonder compensatie aan AI mogen voeren?

Daarnaast komt het probleem er van dat AI het memoriseert en vervolgens dus ook hele boeken uit kan spugen als je daar als gebruiker je best voor doet (zie het werk van Louis Hunt bijvoorbeeld). Het is niet te controleren of dat in de praktijk een probleem is en de AI providers kunnen uiteraard ook niet volgen wat de gebruiker vervolgens met die output doet.

Al met al lijkt mij een grote vergoeding voor dit soort gebruik zeer op zijn plaats. Een boek voor AI kopen moet talloze keren de prijs worden van het boek in de winkel.
Ik vergelijk het trainen van AI eigenlijk een beetje met een mens. Theoretisch is alle kennis wat jij op het internet vind gratis, en hoef je aan niemand een vergoeding te betalen. Alleen alles wat achter een paywall staat dan.

Met deze kennis, kan ik (theoretisch) grof geld verdienen, en ben ik niemand een cent verschuldigd.

Waarom zou een AI bot dat wel moeten? De AI bot doet exact het zelfde; vergaart kennis, leert daarvan (dmv menselijke input), en geeft antwoord.
Als ik wil leren uit een beschermd werk, dan moet ik daarvoor betalen .

AI moet dus ook betalen, !
Jij kunt een auteursrechtelijk beschermd boek toch gewoon lenen uit de bibliotheek om van te leren?

Of anders een auteursrechtelijk beschermde blog gratis lezen om van te leren?

Beschermd <> betaald

[Reactie gewijzigd door comecme op 15 maart 2025 17:50]

Jij kunt een auteursrechtelijk beschermd boek toch gewoon lenen uit de bibliotheek om van te leren?
Waarvoor de auteur gecompenseerd word. Ofwel ondanks dat jij niet betaald (tenzij je wel voor het lidmaatschap betaald) doet iemand anders dat voor jou.
Het zit hem ook natuurlijk waar leg je de grenzen ? Als de vergelijking blijft dat zij minstens net zoveel moeten kunnen als de Chinese bedrijven dan is de volgende stap volledige afstand nemen van privacy. Bijvoorbeeld toegang hebben tot je toestel, communicatie en foto's want daarmee kan je de modellen trainen en op hetzelfde niveau trainen als de Chinezen.
Het is geen brein.
Omdat dat "brein" de data eerst letterlijk kopieert alvorens te processen. Ze zijn volgens in staat is om het bijna letterlijk na te maken. We moeten ze maar vertrouwen als ze daarna zeggen de data te deleten... ja ja.

Dat kopiëren is gewoon diefstal, van het werk van anderen. En OpenAI probeert diefstal legaal te maken.
Omdat de AI dan antwoorden geeft door werken van anderen te citeren (zonder bronvermelding). De AI makers verdienen dan geld en de oorspronkelijke makers niet. Let wel, AI leert niet echt, het herhaald simpelweg wat anderen gemaakt hebben.

Plus daarbij heel simpel: mijn werk is van mij, niet van Google. Dus ik bepaald of mijn werk gratis is of niet.
Volgens het bedrijf zorgt dat niet voor een 'significante impact' op rechthebbenden en hoeven AI-bedrijven daardoor niet tijdrovende overeenkomsten te sluiten met deze partijen.
Ik denk dat vele rechthebbenden daar toch anders over zullen denken. Want de volgende stap is dat AI het creatieve werk kan overnemen in de stijl van zo een huidige rechthebbende en dat hun werk dus ineens een stuk minder waarde heeft. Waarom geld betalen aan een creatief persoon als de AI het gewoon kan nadoen voor een fractie van de kost. Misschien minder origineel, maar wel efficient.
Ja, die zin "geen significante impact - niet tijdrovende overeenkomsten te sluiten".
Dat spreekt zichzelf praktisch gezien toch tegen?

Als die onderhandelingen tijdrovend zijn, komt dat omdat de onderlingen belangen groot zijn en ver uitelkaar liggen.
en het is ook niet echt zo alsof ze niet de middelen hebben om mensen te betalen...

Zou een prachtige herverdeling van welvaart betekenen.
De ai is al gemaakt om het creatieve van de originele rechthebbende ongevraagd als resultaat te geven om te concurreren.

https://nos.nl/artikel/25...schadelijk-voor-artiesten
Totdat ze de markt in handen hebben en de enshitification begint.
En daar ligt de komende jaren met heel veel techniek de uitdaging dat onze wetten en regelgeving en verdien modellen ons enorm gaan tegen werken.

Beetje ook alla PV waar je gestraft wordt voor groene energy, autonoom rijden, AI, usa datacenters. zo zijn er heel veel dingen die in het belang van de wereld heel veel waarde hebben maar restrained worden door allerlij wet en regels omdat die regels en wetten 20 jaar achter lopen door jaren lang kort termijn zich van overheden en het niet ww kunnen samen werken van landen
Die verdienmodellen zorgen nu nog voor de nodige spreiding van geld (en daarmee macht).
het niet ww kunnen samen werken van landen
Die gaat alleen op als de technologie in handen in van de overheden. Dat is niet het geval.
Als we streven naar vooruitgang omwille van vooruitgang, dan weet je zeker dat er mensen zijn die die rekening betalen.
Betere titel: OpenAI en Google willen legaal mogen stelen.
Het hek is dan natuurlijk van de dam.
Als de Amerikanen onze rechten mogen schenden voor hun eigen belang dan is er geen reden meer voor ons om Amerikaanse auteursrechten te respecteren.
Maar, dan de vraag: mag er dan wel copyright zitten op AI content? Mijns inzien zou AI content altijd copyright free moeten zijn.
Het ligt iets complexer denk ik. Iemand die een boek schrijft, mag toch ook andere boeken lezen en hier misschien inspiratie opdoen. Als je ze maar niet 1-op-1 kopieert.
Hoezo zou een schrijver op zoek naar inspiratie gratis boeken mogen lezen?

Elk boek mag hij gewoon eerst afrekenen voordat hij het mag lezen.
Het lezen van het boek is niet het probleem, dat kan ook in een bibliotheek of door het te lenen van iemand.

Het echte probleem is als je (delen van een) boek gaat uitgeven onder je eigen naam.
Een bibliotheek betaald gewoon om de boeken te mogen uitlenen. Dat heet leenrecht en is gewoon vastgelegd in de auteurswet.
Je mag andere boeken lezen, maar je moet deze dan wel aankopen.
En als je teveel kopieert uit die boeken dan moet je ook betalen
AI dient dus zeker te betalen.
Ik weet dat een hoop mensen er anders over denken maar AI trainen op informatie die openbaar op internet staat is om mijn ogen 100% ok. AI trainen op boeken en andere dingen achter een betaalmuur is voor mij 100% ok als ze voor die boeken gewoon de prijs betalen.

Iedere student, schrijver of kunstenaar heeft geleerd van alles wat hij heeft gezien gelezen of gehoord. Ik zie niet in waarom een AI dat niet zou mogen.
Dat iets openbaar op het internet staat wil niet zeggen dat het niet auteursrechtelijk is beschermd. Dat de auteur het oké vindt dat jij er niet (direct) voor hoeft te betalen om het te bekijken of lezen, wil niet zeggen dat het vervolgens voor andere doeleinden mag gebruiken.
Ik kan me voorstellen dat je juridisch gelijk hebt. Ik vind het alleen wel gewoon ok en ik vraag me af het houdbaar is zoals jij beschrijft. Of vrijelijk op internet geplaatste informatie nu door een mens word gelezen om te leren of door AI. Ik zie het verschil niet.
Dus jij vindt het OK dat ze eenmalig een boek aanschaffen en dan alle informatie gaan verspreiden onder miljoenen mensen, daar miljoenen winst op maken en degene die de content heeft bedacht krijgt 1 keer een uitbetaling? moet niet gekker worden...
Nee dat vind ik wat anders. De crux zit in dat verspreiden van dat boek. Net zoals het ook niet ok is als een mens een boek wat hij heeft gekocht kopieert en zelf gaat uitgeven.
Maar nu moet elk mens een kopie van dat boek hebben om te leren. Bij is het 1 keer model trainen en daarna kan je het model oneindig kopiëren en op zoveel apparaten laten draaien als je wil.
Dat is toch ook niet anders dan bij een mens. David Attenborough heeft ook dingen geleerd door de uit boeken te lezen die hij eenmalig heeft gekocht om vervolgens met die kennis tv te maken die wereldwijd verspreid is?
Helemaal mee eens. Ik denk dat men het wil tegengaan vanwege (terechte) wanhoop, niet omdat het op zichzelf verkeerd is.

Belangrijk zijn oplossingen zoals minimum en maximum inkomens. Wetten en rechten die verzekeren dat iedereeen een gezond en degelijk leven kan leiden. En dat zouden we ook zonder AI moeten doen.
Volgens de bedrijven moet AI-training onder fair use vallen,
Zou mooi zijn als ze dan de ontwikkelde modellen en de gehele AI ook onder fair use gaan scharen. Dus gratis voor iedereen zonder oay-walls of abonnement. Maar dat is natuurlijk niet de insteek, geld en macht daar gaat dit over.
En dat het dan AI bedrijven tijd scheelt omdat ze dan geen tijdrovende afspraken hoeven te maken met de betrokken partijen : alsof deze miljardenbedrijven het zich niet kunnen permitteren. Ze gooien het op tijd maar wat ze bedoelen is geld. Als ze nu de legal department verkleinen dan is het er opeens wel, maar jah dan wordt het toch moeilijker om illegale praktijken naar semi-legale te verwoorden.
Precies dit. Fair use valt onder persoonlijk gebruik. Ik mag een door mij gekochte DVD zonder problemen delen met mijn gezin. Dat is fair use. Maar als ik het ga streamen naar de rest van de wereld gaat fair use niet meer op
Ik snap je vergelijking, maar die is hier niet echt van toepassing denk ik. Een betere analogie is wellicht YouTube en de manier waarop mensen copyrighted content gebruiken en transformeren. Ik kan gerust films/series reviewen en die beelden gebruiken, zolang ik maar een eigen bijdrage lever en de content ''transformeer'' tot iets nieuws. Dat is fair use in de meeste gevallen en geen probleem. Die video's kun je gewoon monetizen. Ook video's van anderen re-gebruiken en daarop reageren wordt veel gedaan, meestal zonder probleem. Helaas zijn er ook YouTubers die het randje opzoeken (zoals xQc) en de content bijna 1-op-1 opnieuw uploaden zonder iets van waarde toe te voegen, wat dan weer tot discussie leidt. Fair use kan nogal een grijs gebied zijn.

In ieder geval, AI-models delen de content waarop ze zijn getraind niet 1-op-1 met de rest van de wereld. Ze transformeren het tot iets nieuws - vandaar het argument ''fair use'' vanuit OpenAI en Google. Het huidige probleem waar de regelgeving nu mee worstelt is vooral de schaal en snelheid waarmee dit kan. Voorheen kostte het nog tijd en moeite om content te transformeren tot iets nieuws: nu kan het met een paar klikken of is 't zelfs geautomatiseerd.

Ook op social media zie je al talloze accounts die viral content ''stelen'' en re-uploaden met een AI-voiceover en ondertiteling, waarvan een groot deel volledig geautomatiseerd. De ''nieuwe'' content is transformative genoeg om onder fair use te vallen, maar de wijze waarop het wordt gemaakt is bijna achterbaks te noemen. Lekker achterover leunen in je luie stoel terwijl je geautomatiseerde systeem aan de haal gaat met content van anderen. Dat is, in wezen, de positie waarin OpenAI en Google zich nu bevinden. Zij gebruiken het argument fair use, want de output is transformative. Daar hebben ze in principe gelijk in, maarja...

Al met al, een lastige kwestie. Ik zou de oplossing niet weten. Het gaat nog wel even duren voordat men het eens is over de aanpak en regelgevingen omtrent AI. Het hek is in ieder geval van de dam.
Wat jij beschrijft is een heel specifiek geval van fair use, namelijk bij een review. En dat is precies niet wat AI doet. AI reviewt niks, zuigt alleen maar info op.
En dat transformeren tot iets nieuws is in mijn optiek een kul argument. Er is niks nieuws, er is alleen een weging van bestaande zaken ergens in het LLM. Als ik AI vraag wat er voor de Big Bang was, krijg ik geen nieuwe, nog niet bestaande theorie. Het is of bestaand of een ongefundeerde hallucinatie wat eruit komt.

Het is heel simpel, als jij uit mijn boek wil publiceren dan mag dat, als je maar met mij overeenkomt welke vergoeding daar tegenover moet staan. Dat is fair use.
Hoezo heel specifiek geval? Ik gebruik reviews toevallig als voorbeeld, maar 't concept is van toepassing op alle vormen van andermans content gebruiken. Of je nou iets doet reviewen, je eigen video maakt of gewoon wat aankloot met andermans content. Zolang je het in redelijke wijze doet transformeren en het ''je eigen'' maakt is er niets aan de hand. Zo staat het letterlijk in de wet beschreven. Dat is wat AI doet wanneer je vraagt of het een afbeelding kan genereren met de kenmerken van X of Y. Of wanneer je 't vraagt om een gedicht te schrijven. Je krijgt een ''nieuwe'' output van alles waar het op getraind is, en die is 9 van de 10 keer transformative genoeg om te tellen als fair use.
En dat transformeren tot iets nieuws is in mijn optiek een kul argument. Er is niks nieuws, er is alleen een weging van bestaande zaken ergens in het LLM. Als ik AI vraag wat er voor de Big Bang was, krijg ik geen nieuwe, nog niet bestaande theorie. Het is of bestaand of een ongefundeerde hallucinatie wat eruit komt.
Dat is met echte mensen toch ook zo? Niemand heeft een unieke mening of opvatting over de dingen in ons dagelijks leven. Er is altijd overlap, altijd een pad dat al eerder betreden is. Met ''nieuw'' bedoel ik natuurlijk iets dat afwijkt van het origineel. Als je 100 mensen vraagt naar de Big Bang zul je her en der ook dezelfde opvattingen tegenkomen.
Het is heel simpel, als jij uit mijn boek wil publiceren dan mag dat, als je maar met mij overeenkomt welke vergoeding daar tegenover moet staan. Dat is fair use.
Nee, dat is dus niet zo. Ik kan rustig passages uit jouw boek gebruiken voor mijn eigen doeleinden, net zoals ik korte clips kan gebruiken van een film, zonder enige vorm van vergoeding of overeenkomst. Zolang het eindproduct de gebruikte materialen genoeg transformeert valt dat binnen fair use. Hier zijn genoeg rechtszaken over geweest. De wikipediapagina over fair use praat daar uitgebreid over.
Van je eigen referentie

Fair use is a doctrine in United States law that permits limited use of copyrighted material.

Het slaat op HOEVEEL je gebruikt, net als we fair use hebben/hadden bij unlimited data abonnementen. Dat je het moet verpakken met iets nieuws doet daar niets aan af. Als ik een heel boek kopieer en ik stop daar mijn eigen boek achteraan, is het nieuw verpakt, maar nog steeds geen fair use.
Ik kan rustig passages uit jouw boek gebruiken voor mijn eigen doeleinden
Toon maar aan dat AI alleen maar passages gebruikt ipv het hele artikel/boek/publicatie
Wil je dus gratis aan stukken komen én gebruiken waarop auteursrecht zit, dan moet je dus een (heel simpel) AI-model opzetten.
Dat AI-model instrueer je specifiek om bepaalde stukken op te halen en je bent klaar.
Exact. Ik ga maar eens een AI ontwikkelen die zich baseert op de laatste bioscoopfilms in 4K kwaliteit.
Waar het op neerkomt: wij van big tech willen alles kunnen stelen zodat we miljarden kunnen verdienen.

Mocht het doorgaan geeft het wat mij betreft vrijbrief voor de consument om alle films muziek software etc gratis te downloaden etc want gelijke monniken gelijke kappen. Want waarom mag een google of openai dat wel en de normale man niet? Ik verdien er geen geld mee een google wel. Kortom dit kan je niet verkopen aan de maatschappij.
Want waarom mag een google of openai dat wel en de normale man niet? Ik verdien er geen geld mee een google wel. Kortom dit kan je niet verkopen aan de maatschappij.
Omdat Google en OpenAI genoeg geld hebben voor het omkopen lobbyen van politici. Wetten zijn flexibel als je wat miljoenen stort in de fondsen/pump and dump coin van de huidige president.

[Reactie gewijzigd door separhim op 15 maart 2025 17:12]

Ik heb zo'n rare haat liefde verhouding met AI. Als nerd vind ik t prachtig wat er allemaal mogelijk is, maar mijn gevoel zegt dat we uiteindelijk een paar prachtige ontwikkelingen krijgen ten koste van met name een hoop ellende. Het leven lijkt me er in de meeste gevallen niet leuker/beter van worden.
Uiteraard willen OpenAI en Google niet dat hun AI modellen gratis gebruikt mogen worden om nieuwe modellen mee te trainen. Want dat is dan iets heel anders uiteraard.
daar is het trigger-begrip weer: "national security". Wel grappig dat net Amerikaanse bedrijven copyrights willen afschaffen om innovatie en vooruitgang te bevorderen, terwijl ze langs de andere kant patenten bijna als een industrie op zich zien (en zelfs een volwaardig derivaat in de advocatuur hebben).
Tijd voor adblockers op alles, YouTube vanced gebruiken en je streaming diensten weer opzeggen en alles via nieuwsgroepen binnen halen. Schijnbaar zijn auteursrechten en copyrights toch niet zo belangrijk voor bedrijven, dus dan ook niet voor consumenten...

Op dit item kan niet meer gereageerd worden.