Canadese uitgevers klagen OpenAI aan voor schenden van auteursrecht

Verschillende Canadese nieuwsorganisaties hebben OpenAI aangeklaagd voor het schenden van hun auteursrecht. Ze vinden dat het bedrijf hun content misbruikt voor het trainen van ChatGPT. De uitgevers eisen een schadevergoeding en willen dat OpenAI hun artikelen niet langer gebruikt.

Canadese nieuwsorganisaties als Postmedia, The Canadian Press en CBC stellen in hun gezamenlijke aanklacht dat OpenAI 'regelmatig' auteursrechten en gebruikersvoorwaarden schendt door het 'scrapen van grote hoeveelheden content van Canadese media'. Ze schrijven dat het bedrijf geld verdient met hun artikelen, zonder dat ze daarvoor toestemming hebben gegeven of een vergoeding ontvangen.

Ze eisen een schadevergoeding en een deel van de winst die OpenAI heeft gemaakt door het gebruik van de artikelen van de uitgevers. Ze stellen onder meer een vergoeding van 20.000 Canadese dollar (ongeveer 13.500 euro) per artikel dat OpenAI onrechtmatig heeft gebruikt. Ook willen ze dat het AI-bedrijf een permanent verbod krijgt opgelegd om de content van de organisaties zonder vooraf verkregen toestemming te gebruiken.

Een woordvoerder van OpenAI zegt tegen onder andere The Guardian dat de AI-modellen van het bedrijf zijn getraind met openbare informatie en dat dat valt onder fair use. Ook zegt het bedrijf dat nieuwsorganisaties zich hier 'eenvoudig' voor kunnen afmelden als ze dat willen.

Het trainen van machinelearningmodellen op auteursrechtelijk beschermd materiaal is juridisch grijs gebied waar tot op heden nog geen jurisprudentie voor is. In december vorig jaar klaagde The New York Times OpenAI als eerste nieuwsorganisatie aan voor het schenden van zijn auteursrecht. Eerder dit jaar besloten verschillende Amerikaanse nieuwssites en kranten ook een rechtszaak tegen de ChatGPT-maker aan te spannen. Enkele aanklachten zijn al geseponeerd omdat de uitgevers niet konden bewijzen dat ze schade hebben geleden door de vermeende auteursrechtenschendingen. Met verschillende andere nieuwsorganisaties heeft OpenAI overeenkomsten gesloten zodat het bedrijf hun content mag gebruiken voor het trainen van zijn modellen.

Door Kevin Krikhaar

Redacteur

30-11-2024 • 12:33

57

Lees meer

Reacties (57)

57
57
21
4
0
31
Wijzig sortering
Als ik als mens een website lees, en met die kennis geld ga verdienen, moet ik dan ook geld aan de uitgever betalen? Als we op termijn willen dat AI taken van mensen gaat overnemen dan kunnen op een gegeven moment toch niet heen om het feit dat iedereen van publieke informatie moet kunnen leren, mens of machine.
Het verschil is dat jij dit kan doen voor 10-100 websites per jaar, AI doet dit voor miljarden websites iedere dag weer (getallen kunnen afwijken natuurlijk).
En het is niet dat dit gebeurd voor het goede van de mensheid, maar om keiharde pegels te verdienen door de bedrijven die de AI aanbieden. Daar komt bovenop dat AI effectiever wordt naarmate er meer data wordt ingevoerd, waardoor het ook betekend dat alleen de kapitaalkrachtige bedrijven in deze markt kunnen springen.
Ik ben niet per definitie tegen AI, het kan heel veel mogelijkheden bieden en ja het resulteert ook dat mensen banen gaan verliezen zoals iedere keer er een grote innovatie ontstaat. Maar we moeten wel eerlijk blijven richting de content leveranciers die het AI model uiteindelijk trainen.
Het lijkt mij toch wat genuanceerder te liggen:
Nieuwssites verdienen aan reclame inkomsten of aan abonnementen. Deze sites lopen dus wel degelijk inkomsten mis als adverteerders compensatie vereisen voor deze nep/scrape verkeer.
Je hebt het over publieke informatie. Het gaat hier om auteursrechtelijk beschermde informatie.

Als je wilt leren van informatie, dan koop je studieboeken. Elke student koopt zijn eigen studie boeken, je mag een studieboek niet kopiëren en verspreiden zonder te betalen.

Dat is wat hier wel gebeurt, de kennis uit de boeken wordt opgeslagen in het model zodat het gereproduceerd kan worden. En over die reproductie die aan derden aangeboden wordt, wordt geen vergoeding betaald.
Hoe is dat beschermd, achter een paywall? Hoe kan chatGpt er dan bij? Of heeft iemand het artikel gelezen en dan over getikt?

Hoeveel website gebruiken allerlei data wat zo te vinden is om zelf wat te publiceren? Hoe doet tweakers of anderen dat? Hebben ze met ieder bedrijf of nieuws orgaan een afspraak? En hoe vaak zorgt eigen inbreng niet voor fouten! Is dat om originele content te creëren?
Het is wettelijk beschermd. Dat iets publiekelijk toegankelijk is betekent niet dat je er alles mee mag doen. Je kan ook een winkel uitlopen met een zak chips zonder dat je betaald hebt, onder het mom van "Dit was publiekelijk toegankelijk", maar reken maar dat dit smoesje niet werkt bij oom agent.

De auteursrechtenwetgeving geeft antwoord op je vragen. Er zijn bepaalde vrijstellingen om andermans informatie over te nemen, mits je aan bijbehorende voorwaarden voldoet. En het is juist dat laatste stukje waar [makers van] LLM's keiharde lak aan hebben.
Het is inderdaad wettelijk beschermd, binnen bepaalde grenzen. En het probleem is dat die grenzen nooit met AI rekening hielden. Fair use valt buiten de bescherming, maar valt AI binnen fair use? Ook dat is om dezelfde reden nog niet bepaald.

AI makers kunnen l op drie manieren winnen. 1, AI training is niet verboden en dus toegestaan. 2, AI valt wel onder een bestaande categorie van beschermd gebruik, maar valt onder fair use. Of 3, er worden zulke kleine fragmenten gebruikt dat het gebruik legitiem is. Letters zijn niet beschermd, woorden ook niet, en pas op zinsnivo kan er een kans op bescherming zijn. Maar alsnog is ' het regent' te simpel.
Dus als jij auteursrechtelijk beschermde muziek luistert dan blokkeert je brein en kun je er niet door geïnspireerd raken?
Jij denkt dat een LLM geïnspireerd kan raken?
Is het trainen van een LLM zo veel anders dan het inspireren van een mens?
Ja, dat is gewoon een heel veel informatie jatten en daar een hele berg wiskunde (Lineaire algebra, calculus, statistiek, graven theorie, geometrie en dan vergeet ik er nog wel een paar) overheen gieten m.b.v. GPU's. Dat imho heeft 0,0 met inspiratie te maken. Dat iets erg complex is en "gewone mensen" het niet begrijpen hoe het werk, maakt het niet menselijk.
Maar waar leg je precies het verschil dan? Als ik zelf een muziekje verzin wat "een beetje klinkt zoals XYZ" dan is het geen plagiaat, want dan heb ik het zelf verzonnen, met hooguit de akkoordenschema's en klankkleuren van de instrumenten die bewust ergens op lijken, maar niet identiek zijn.

Als ik hezelfde aan een GPT vraag dan is het ineens wél plagiaat.

De input, namelijk bestaande stukken muziek, en de output, namelijk een nieuw stuk muziek wat op een bepaalde manier klinkt, is verder helemaal gelijk.

Onder die argumentatie zou je dus 'opslaan in je brein' ook als een illegale kopie moeten beschouwen, of het 'opslaan in een LLM' niet als een illegale kopie moeten beschouwen mits de herkenbare elementen niet meer terug komen in de output. Maar dat moet je dus aan de output-kant filteren en niet aan de hand van de trainingsdata, op dezelfde manier als je de output van een mens controleert op plagiaat, en niet aan de hand van wat die persoon heeft gelezen/geluisterd.
Het gaat niet om het verschil tussen de exacte algoritmes, maar de hardware waar et op draait. De vraag is of een computer zonder compensatie (want dat is de klacht) mag leren. Ik vind van niet, netzoals ik dat niet mag. Dat ik soms een boek, film of krant leenva iemand anders ebbe we sociaal geaccepteerd. Maar dat hebben we nog niet met lerende processen op door de mens gemaakte ardware (lees computers). Daar zijn we als mensheid nog niet uit. Om dan alleen naar wetten en rechters tekijken vind ik een beetje kort door de bocht. Zoals alle nieuwe techniek zullen we moeten nadenken over regels, en wij als tweakers/mensen met technische kennis hebben daar ook een voorlichtende rol in.
Er is een theorie die intelligentie omschrijft als 'lossy compressie van informatie'. Als je het zo interpreteert is een deel van het GPT-model een kopie van nieuwsartikelen. Mijn brein is dan inderdaad ook een illegale kopie.
Nee je brein is een legale kopie, dat mag. Een GTP -model reproduceert de informatie uit het artikel voor derden. Waar Open AI zelf geld meer verdiend maar niets afdraagt aan de oorspronkelijke auteurs.
Ok - maar tweaker journalist leest een persbericht - schrijft dit in eigen woorden... maar sommige dingen kun je maar op 2-3 manieren schrijven...
Zo kun je ervanuit gaan dat zelfs dit bericht wat ik nu typ in zijn geheel reeds bestaat ergens op het internet... en onder een andere persoon zijn 'auteursrecht valt' ...
Een LLM is geen menselijk brein. Een LLM slaat daadwerkelijk data op en verwerkt dit onlosmakelijk in diens model. De manier waarop een journalist informatie verwerkt ("in eigen woorden opschrijft," wat toch wat een simplistische manier is om het journalistieke proces te beschrijven) is vele malen meer complexer dat hoe een LLM woorden genereert op basis van eerdere woorden.
Is complexiteit het criterium dat bepaalt of iets wel of niet "opslaan van informatie" is? Waar ligt dan de grens? Naar mate we meer leren over het brein en we weten dat steeds accurater in software te simuleren, wanneer mag het "opslaan" dan wel? Het menselijk brein slaat immers ook gecomprimeetde kennis op.

Zoals altijd in deze hoek convergeert deze discussie altijd naar de vraag wat nou eigenlijk het verschil is tussen organismen en machines. Kan een computer denken? Kan een duikboor zwemmen?

Of is opslaan en reproduceren een recht dat inherent aan mensen voorbehouden is? Ik zie schilders al fotografen aanklagen.
Of is opslaan en reproduceren een recht dat inherent aan mensen voorbehouden is? Ik zie schilders al fotografen aanklagen.
Volgens mij is dat aan het einde van de 19de eeuw ook gebeurd...
Yep, dit is gewoon weer hetzelfde verhaal als schilders tegen fotografen, instrumenten tegen synthesizers en traditionele artiesten tegen digitale artiesten. Geef het een paar jaar tot AI-geassisteerd werk gewoon wordt geaccepteerd.
Tweakers journalist doet allerminst aan bronvermelding.

En tuurlijk, er zijn heus dingen die je niet op veel verschillende manieren kan schrijven. Dat doet echter niet af aan potentiële inbreuk op auteursrechten. Als jij het intellectueel eigendom van een ander overneemt zonder de bijbehorende regels te respecteren (waaronder dus bronvermelding, wat ALTIJD verplicht is tenzij de auteur anders stelt), pleeg je plagiaat.

Tevens is het niet zo dat elke banale stelling op het internet beschermd is met auteursrecht. Het gaat om creatieve uitingen van het menselijke intellect. Een nieuwsartikel wel dus, maar een simpele reactie onder een artikel niet.
De GPT word ook niet aangeklaagt voor het "lezen" van de artikelen, OpenAI word aangeklaagt omdat ze de artikelen in het algoritme voeren. Dat is iets anders dan lezen.

Het is een bizarre denkfout om een algoritme gelijk te stellen aan een mens.
Ik denk dat niemand zegt dat het hetzelfde is, dat is een stroman argument. Het argument is dat het vergelijkbaar is. In hoeverre dat zo is, daar gaat de discussie over, daar kun je van mening over verschillen. Het is niet voor niets grijs gebied.
Als het argument is dat het vergelijkbaar is, prima, dan moeten LLMs zich ook aan de auteursrechtenwetgeving houden. Wat ze nu doen is plagiaat. En dat op industriële schaal.
Als jij het persoonlijk leest en er van leert, en dan geld gaat verdienen voor jezelf is er toch geen probleem... Zo werken scholen ook.

Maar als jij een inkomsten gaat genereren, via een bedrijf, commercieel, of hoe dan ook, aan inhoud van derden, dan zal je daar zeker mee te maken krijgen dat die 'derden' daar iets over gaan roepen. Of ze nu gelijk hebben of niet. Je gebruikt hun kennis om geld te verdienen. En als hun kennis valt onder copytights, merkrecht of iets anders, dan krijg je dit.

Trouwens, aan de tekst " en willen dat OpenAI hun artikelen niet langer gebruikt." lees ik dat deze bedrijven niet weten waar ze over praten
Ze willen dat OpenAI hun artikelen uit de trainingsets haalt.
Dat bedoelde ik niet.

Ik zie bij meer en meer van dit soort berichten dat de bedrijven, zoals uitgeverijen, echt lijken te denken dat hun "teksten" in "chatGPT" zitten, want via een slimme prompt krijg je antwoord in bijna 'originele vorm', waar ze dus rechten over claimen.

Als het eenmaal getrained is kan het niet meer eruit. En dan zou je de "agent" moeten vertellen die voor het taalmodel zit, om dit eruit te gaan filteren. Lijkt mij ondoenlijk trouwens.
Hun teksten zijn verwerkt in chatGPT. Dat weten uitgeverijen heus wel, en hebben ze echt wel even uitgevogeld alvorens een rechtzaak aan te spannen. Dat dit niet duidelijk uit het nieuwsbericht van tweakers komt betekent niet dat ze er geen verstand van hebben.
Als het eenmaal getrained is kan het niet meer eruit. En dan zou je de "agent" moeten vertellen die voor het taalmodel zit, om dit eruit te gaan filteren. Lijkt mij ondoenlijk trouwens.
Prima, hele taalmodel maar opnieuw opbouwen met datasets die wèl ethisch en legaal verantwoord zijn. Anders is het wel erg makkelijk om andermans rechten te schenden en dan te stellen "Sorry rechter, het is nu eenmaal gebeurd, we kunnen er niets meer aan doen".
Dat laatste is minder controversieel dan je het voorstelt. De klager mag niet de beklaagde straffen, het is een civiele zaak. Daar kun je schadevergoeding eisen als je als klager kunt bewezen dat je schade hebt.

Ern paar dollar aan bandbreedte is de moeite niet. Maar wat voor schade is er dan wel? Omzetverlies? De bewijslast ligt bij de klager. Hoeveel klanten zijn ze aantoonbaar door Chatgpt kwijtgeraakt?
Dat staat niet in het artikel. Er staat dat ze goedkeuring moeten hebben en vragen/eisen daar geld voor. OpenAI zegt dat het laten verwijderen van die artikelen uit de trainingsets makkelijk gevraagd kan worden.
Dei gedachte had ik ook. Bij het meeste wat wij doen vergaren we ook onze kennis via informatie van anderen. Als ik vanmiddag een gesprek heb met iemand over bijvoorbeeld Canadese uitgevers die OpenAI aanklagen voor schenden van auteursrecht doe ik dat op basis van kennis die ik van dit artikel heb geleerd. En ik kan er een eigen interpretatie aan toevoegen op basis van menselijke intelligentie maar dat hoeft niet. Het komt ook vaak genoeg voor dat ik informatie die ik ergens vandaan heb 1 op 1 gebruik.
Er is een verschil, jijzelf zult niet een krant kopen, elk artikel herschrijven, en dan doorverkopen voor de helft. Een AI zou dat kunnen. Jijzelf ook, in theorie, maar deze concurrentie is niet aan de orde in de praktijk.

Als de praktijk veranderd, moet de wet misschien ook veranderen. Het auteursrecht is minder oud dan de drukpers, omdat het meeste werk in het schrijven van de tekst zelf was, ten minste als meerdere exemplaren werden verkocht. Meeste boeken werden ook voorgedragen. Pas toen boeken goedkoop werden gemaakt ging men nadenken over vergoedingen voor auteurs. Vergoedingen die destijds beperkt waren door een kort auteursrecht.

Om een artikel te schrijven moet een journalist onderzoek doen en interviews afnemen. Dat werk moet betaald worden via het auteursrecht, en als een AI of andere technologie dan het originele artikel herschrijft en wegconcurreerd stort de zaak in elkaar. Het lijkt me in deze nieuwe situatie eigenlijk beter dat OpenAI zou linken naar een artikel met informatie dan zelf die informatie geven. Echter, OpenAI weigert bronnen te geven, dus dan wordt het al lastiger.

Ik vindt het ook lastig als het auteursrecht wordt uitgebreid. Ik heb het boek "Free Culture" van Lawrence Lessig gelezen daarover. Auteursrecht werd ook misbruikt door bedrijven om software upgrades en zo tegen te houden. Maar misschien moeten we nadenken over wat als acceptabel en wat als niet acceptabel wordt gezien hierin. Probleem is ook dat complete industrieën afhangen van commercieel gebruik van auteursrecht, en dat het banen gaat kosten als dat ten onder gaat.

Ik vindt het niet erg als AI wordt gebruikt in een ondersteunende rol. Upscaling van video/audio, foutcontrole, vertalingen van teksten, etc. Maar ere wie ere toekomt als het om origineel werk gaat. Ook hebben mensen meestal een neiging om bronnen te vermelden, wat ChatGPT niet doet.
Er is iets als databankenrecht, een model is een vorm van een databank, een mens niet.
In de EU, ja. Dat is bepaald niet universeel.
Echter werken beide toch heel anders. Voor LLM's zijn gewoon in feite lineaire algebra.
Effectief gezien wordt zijn artikel gekopieerd en gebruikt om een gewicht te hangen aan de vectoren.

Onder de streep is het gewoon kopiëren en plakken, je hebt het alleen niet meer door omdat het zo gefragmenteerd gebeurd.
Het gaat om de schaal en doel. Jij mag een privé kopie maken van een cd, een bedrijf mag niet 1000 kopietjes maken.
Een docent mag een paar citaten of een pagina gebruiken, maar niet een heel boek voor zijn leerlingen kopiëren.

Beetje het verhaal “hoe duur is één patatje? Doe mij dan maar 100x één patatje”
Als individu om persoonlijk van te leren is eenmalig aanschaffen natuurlijk genoeg. Als jij nu een bedrijf opricht en daar voor al je medewerkers honderden kopiën gaat maken van alle boeken van een uitgeverij zodat ze die allemaal kunnen categoriseren, leren en vervolgens samenvattingen van te gaan maken voor winst, dan ga je echt lastig verhaal hebben bij de rechter als je het boek 1 keer gekocht hebt.

Als je dan ook nog een website aan de hele wereld laat zien waar stukken tekst uit die boeken 1:1 uit te halen zijn... wordt een lastig verhaal.
En daarom valt het gebruik voor een mens ook onder fair use, maar grootschalig gebruik om heel veel geld te verdienen is heel lastig ‘fair use’ te noemen.
Nee hoor. Diezelfde kranten schreven boekrecensies, wat legitiem is precies vanwege fair use.

Een essentiële vraag is of het afgeleide werk soortgelijk is. Een vertaald boek is dat, een recensie of AI niet.
Dus OpenAi gaat van open naar closed en moet je voor hun diensten betalen. Maar zij willen wel gratis data om te kunnen doorverkopen.
OpenAI was nooit echt open. Dat gezegd is het inderdaad wel een erg parasitair verdienmodel. Andermans intellectueel eigendom jatten en er dan geld mee verdienen...
Ik lees niet duidelijk dat het zich automatich toegang verschaffen tot andermans systeem en vervolgens het automatisch ongevraagd gebruiken een grijs gebied is.

Veel wetgeving legt de grens tot eerlijk gebruik direct bij de mens, niet bij een middel. Ai-systemen zijn een middel.
Ook legt wetgeving vaak al lange tijd het bepalen van de grens tot gebruik van andermans systeem bij de eigenaar, niet bij de gebruiker en al helemaal niet bij een middels van wie er gebruik van wil maken.

En ook het kunnen verdienen aan andermans werk is maar beperkt. Ook daar gaat het vooral om beperkt recht als persoon, niet als of via een middel. Waarbij bedrijven, zelf of als eigenaar van een middel, niet zomaar zichzelf kunnen verrijken op een manier waarbij men opzettelijk de makers probeert te duperen of zelfs uit te buiten.

Ik lees niet dat de bedrijven achter de ai duidelijk hun systemen ontworpen hebben om eerlijk gebruik na te streven. Ik lees niet dat de bedrijven achter ai moeite doen voorwaarden van gebruik vooraf te erkennen of respecteren. Ik lees niet dat de bedrijven achter de ai hun systemen ontworpen hebben om ook maar een poging tot compenseren actief na te streven. Het heeft eerder alle kenmerken dat men via de middelen probeert meer rechten te negeren dan wat onder eerlijk gebruik als mens gaat.

Als die bedrijven mensen zouden inzetten om het zelfde doel na te streven zou het ze waarschijnlijk miljarden in tijd en geld extra kosten, waardoor ze ook nog niet zomaar de kennis konden behouden om er aan proberen te verdienen. Het verdienmodel lijkt op uitbuiting. Anderen het werk laten doen, ze niet betalen of in dienst willen nemen met gepaste rechten en er zelf enorm aan willen verdienen zolang het kan.
at nieuwsorganisaties zich hier 'eenvoudig' voor kunnen afmelden als ze dat willen.
Zo werkt het natuurlijk niet, al snap ik dat ze dat graag willen.
Hoezo? Er zijn copyright wetten die precies dat vereisen. Je ziet ook wel eens all rights reserved. Some rights reserved is ook een optie. Dan moet je wel aangegeven welke. De consensus lijkt dat je onder die wetten AI specifiek kunt benoemen, juist omdat de wet geen limitatieve opsomming heeft.
Ook zegt het bedrijf dat nieuwsorganisaties zich hier 'eenvoudig' voor kunnen afmelden als ze dat willen.
Heel leuk en zeker beter dan niks, maar dat is een opt-out systeem. Dat is niet ideaal, je zou het juist omgekeerd moeten doen, een opt-in systeem dus.

Het moet niet nodig zijn dat je zélf pro-actief actie moet ondernemen om je rechten (auteursrecht of anderszins een recht) te beschermen. Degene die het materiaal voor commerciele doeleinden (zoals in dit voorbeeld AI) wil gebruiken moet zorgen dat daarvoor toestemming verkregen is, via opt-in dus.

Hoe die opt-in eruit zou moeten zien, dat weet ik niet, maar een opt-out is minder wenselijk imho.
Ze stellen onder meer een vergoeding van 20.000 Canadese dollar (ongeveer 13.500 euro) voor per artikel dat OpenAI onrechtmatig heeft gebruikt.
Dat klinkt mij niet heel proportioneel t.o.v. de kosten om het artikel te maken, en ook niet proportioneel t.o.v. de marge die normaal op een artikel gemaakt wordt, laat staan dat het proportioneel is t.o.v. de waarde van het artikel in de ChatGPT traingsset.

Ze geven de rechter dus wel een flinke uitdaging om een nette afwijzing te formuleren.
Als de som is dat ze normaal gesproken het artikel 1 miljoen keer hadden geserveerd naar individuele gebruikers en er ads op het scherm getoond worden dan is het zo gek nog niet als ze hard kunnen maken dat die 1 miljoen viewers nu via chatgpt deze informatie krijgen.
Advertenties leveren bij lange na geen €13,50 per 1.000 views op bij een gemiddeld nieuws artikel.

Zie hier bijvoorbeeld de tarieven van Tweakers:
https://go.dpgmediagroup.com/tarieven2024-programmatic
Tweakers.net is beter doelgroep gericht is dan een 'gewoon' nieuws artikel en dus meer waard dan gemiddeld nieuws.

Wil je een nieuws artikel kopen bij The Canadian Press?
Custom Content. $4,875 for 6 custom articles (approx. 500 words per article). $555 for 1 photographer to capture as many ..
Bron: https://www.thecanadianpress.com/pricing/
Specifieke artikelen inclusief foto's kun je kopen en laten publiceren voor gemiddeld 905 CAD per stuk.

Dus 22x zo veel per artikel voor ongericht gebruik lijkt mij nog steeds niet proportioneel.

[Reactie gewijzigd door djwice op 30 november 2024 15:25]

Je vergeet hierbij dat het niet enkel om de misgelopen opbrengsten gaat, maar ook om gespendeerde kosten. Journalistiek bedrijf investeert een enorme hoop geld in materiaal, salaris en overige zaken om een artikel te kunnen maken.
Wacht ff als het voor hen commercieel haalbaar is om voor 905 CAD een artikel te schrijven op verzoek incl. foto's, dan is dat zo.

Dus dat zijn kosten (dus incl. investeringen, personeel, etc.) plus marge.

Wat vergeet ik dan?
Het is hun eigen prijsopgave.

[Reactie gewijzigd door djwice op 1 december 2024 00:24]

Nee. In een schadevergoeding claim kan je of kosten of misgelopen inkomsten vorderen. Meestal claim je bij diefstal de verkoopprijs, zeker als die objectief is. De inkoopprijs is meestal makkelijker aan te tonen maar lager. Je kunt niet beide tegelijk claimen.

Het is dus ook een snel einde van de zaak als de uitgever hier een verkeerde dubbele claim indient. Maar hun advocaat is ongetwijfeld niet zo dom om zo'n beginnersfout te maken.
Ik vind het nogal typisch dat hier nog geen wetgeving voor is, want A.I. is niet nieuw.

Ik vind het nogal typisch dat er nog geen wetgeving voor A.I. is, want het is niet nieuw.

// edit \\ iets aangepast want er waren mensen die niet begrepen dat ik het over A.I. wetgeving had en niet copyright ( want dat heeft grijs gebied zoals in het artikel vermeld staat ).

[Reactie gewijzigd door Meros op 30 november 2024 21:00]

Er is wel wetgeving, het heet copyright. Het wordt alleen niet gehandhaafd.
Er zijn ook wetten die aangeven dat feiten overgenomen mogen worden en wetten die aangeven dat analyse om structuur, verbanden en nieuwe inzichten te vinden in datasets mag zonder voorafgaande toestemming.

Voor content met auteursrecht moet de rechthebbende expliciet aangeven dat het niet gebruikt mag worden voor analyse doeleinden in het werk zelf en dat moet op een manier die voor de machines duidelijk en makkelijk te herkennen is.

Een opmerkingen ergens in de voorwaarden op de site is niet voldoende.

[Reactie gewijzigd door djwice op 30 november 2024 15:33]

EU wet is niet van belang in Canada EN de oorspronkelijke EU wet die primacy heeft over de Nederlandse, is niet eenduidig over wat ze nou precies bedoelen met machine readable. De EU wet is een compromis tekst die zo dubbelzinnig is dat het bijna nutteloos is.

Een opmerking ergens in de voorwaarde is precies wat de EU wet omschrijft :
"including ... terms and conditions of a website or a service."

Met een LLM is tekst ook machine readable :p Het is niet een heel natuurlijke interpretatie van machine readable an sich, maar met de bovenstaande zin is er gewoonweg geen natuurlijke interpretatie mogelijk. Een Duitse rechtbank is dat overigens met mij eens.

https://www.mofo.com/reso...rape-first-court-decision

[Reactie gewijzigd door Pinkys Brain op 1 december 2024 01:15]

Ik was gisteren aan het expirementeren met Claude.ai voor seo test tussen 2 websites. Alle info kwam echter in een volgende sessie gaf Claude aan ik bezoek geen websites. Erg vreemd.
Ik denk dat het misschien verstandiger is om AI te behandelen als Patenten wanneer het aankomt op dergelijke rechtszaken. Een patent mag ik lezen, in het lab gebruiken, maar op het moment dat ik het commercieel ga inzetten met een winstoogmerk, zonder licentie, dan is er sprake van intellectuele inbreuk.
Hetzelfde geldt voor de AI modellen, Open AI verdient grof geld aan het werk van derden zonder enige vorm van licentiekosten. Daarin hebben die Canadezen, vind ik, gelijk.

Op dit item kan niet meer gereageerd worden.