Anthropic wil grootste schikking voor auteursrechtenschending ooit betalen

Anthropic stelt voor om voor 1,5 miljard dollar te schikken in een auteursrechtenzaak over onrechtmatig gebruik van beschermd materiaal. De rechter moet de schikking nog goedkeuren. Het zou de grootste schikking in een auteursrechtenzaak ooit zijn.

Het AI-bedrijf achter de chatbot Claude stelt een schikkingsbedrag van 3000 dollar per boek voor, wat bij 500.000 boeken neerkomt op 1,5 miljard dollar, zo meldt The New York Times. Met de schikking zou Anthropic voorkomen dat er een daadwerkelijke uitspraak wordt gedaan in de rechtszaak, waardoor het bedrijf mogelijk een nog groter bedrag zou moeten betalen. Anthropic wordt ervan beschuldigd gebruik te hebben gemaakt van shadow library's, grote databases met illegaal verspreide boeken, om zijn AI-dienst te trainen.

Eerder oordeelde een rechter dat het trainen van AI met auteursrechtelijk beschermd materiaal is toegestaan onder Amerikaans auteursrecht. Het zou namelijk onder het 'fair use'-principe zijn toegestaan om beschermd materiaal te 'vervormen' voor eigen werk. De rechter zei toen echter wel dat het bedrijf het materiaal in eerste instantie illegaal had verkregen, waardoor er toch sprake is van auteursrechtenschending.

Door Yannick Spinner

Redacteur

06-09-2025 • 15:32

84

Submitter: wildhagen

Reacties (84)

Sorteer op:

Weergave:

Het AI-bedrijf achter de chatbot Claude stelt een schikkingsbedrag van 3000 dollar per boek voor, wat bij 500.000 boeken neerkomt op 1,5 miljard dollar
Echter, volgens de uitspraak van de Amerikaanse rechter Alsup, zoals in een AP artikel staat geschreven, heeft Anthropic niet 500.000 boeken maar meer dan 7 miljoen boeken uit illegale Russische torrents/websites getrokken, om zijn AI te trainen ;
Alsup’s June ruling found that Anthropic had downloaded more than 7 million digitized books that it “knew had been pirated.” It started with nearly 200,000 from an online library called Books3, assembled by AI researchers outside of OpenAI to match the vast collections on which ChatGPT was trained.

Anthropic later took at least 5 million copies from the pirate website Library Genesis, or LibGen, and at least 2 million copies from the Pirate Library Mirror, Alsup wrote.
Blijkbaar vallen alleen werken die zijn geregistreerd bij de U.S. Copyright Office onder dit schikkingsvoorstel;
The Danish Rights Alliance, which successfully fought to take down one of those shadow libraries, said Friday that the settlement would be of little help to European writers and publishers whose works aren’t registered with the U.S. Copyright Office.
Het schikkingsvoorstel lijkt mij dus niet voor de 6,5 miljoen andere boeken die uit Russische torrents zijn getrokken.

Edit;

De 1e 200.000 illegale boeken, de 'online library Books3', is niet uit Russische bron, maar opgezet door AI-researcher Shawn Presser. The Atlantic artikel Aug 2023 Wired artikel Sept 2023

[Reactie gewijzigd door Baserk op 6 september 2025 16:30]

Opzich een redelijk bedrag denk ik. Als ze elk boek hadden gekocht waren ze stukken goedkoper uit geweest.
Het boek kopen geeft je nog steeds niet het recht de inhoud commercieel te gebruiken lijkt me, zonder toestemming van de rechthebbende.
Maar in het artikel staat dat het gebruiken van de boeken ter inspiratie onder de FUP valt. Dus dat gedeelte mocht juist wel.
(er even vanuitgaande dat je Fair Use bedoelt, en niet Fair Use Policy)

Iets specifieker: deze ene rechter uit Californië denkt dat het trainen van materiaal legaal is. Volgens mij ziet die er faliekant naast. Daarbij denk ik niet dat je nu al kunt spreken over een consensus omtrent legaliteit, ook omdat andere rechters het expliciet oneens zijn over de implicaties van LLM training aanmerken als Fair Use.

Wel geestig trouwens: een van die rechters merkt op dat de advocaten van de rechthebbende belangrijke mogelijke argumenten hebben laten liggen, en insinueert dat die hun werk niet goed doen. En daar ben ik het eigenlijk wel mee eens.
Waar ligt volgens jou het verschil tussen het trainen van een AI en het trainen van een mens? Het enige verschil dat ik zie is dat een AI veel meer studiemateriaal gebruikt.

Als ik een stel boeken gebruik om mijzelf beter te maken in bijvoorbeeld aerodynamica en dan een dik betaalde baan in de F1 binnen weet te halen staan de rechthebbenden ook niet voor mijn deur om een gedeelte van dat salaris op te eisen.

Waarom zou je die boeken dan niet mogen gebruiken voor het trainen van een AI? Het idee van boeken is juist dat kennis overgedragen kan worden aan anderen.

Dat de rechthebbenden voor dat gebruik betaald moeten worden is natuurlijk wel logisch.
Als bedrijf mag je een boek kopen en van medewerker naar medewerker doorgeven, zodat er meerdere mensen van profiteren.

Maar je mag materiaal eruit doorgaans niet opnemen in een 'knowledge base' zodat het ineens en gelijktijdig voor je gehele bedrijf beschikbaar is.

Een LLM erop trainen, zeker eentje die z'n bronnen aanhaalt, lijkt mij in die laatste categorie te vallen.
Kijk! Iets als dit zat al een poos in mijn hoofd, maar ik kreeg het niet zo scherp verwoord. Dank!

Het trainen van een LLM is niet hetzelfde als het onderwijzen van een mens.
Kan je mij dan uitleggen waar het fundamentele verschil in zit? AI is een simulatie van wat er in een brein gebeurd. Het simuleert meerdere lagen van neuronen en de banen van die neuronen. Door de intensiteit van die banen aan te passen ontstaat er een systeem dat dingen kan leren en patronen kan herkennen. Het klopt dat dit in een brein op chemische wijze gebeurd. Dit gebeurd met ion kanalen neurotransmitters, etc. maar dat maakt fundamenteel niet uit hoe het systeem van een menselijk brein iets leert en hoe AI iets leert.

Ik ben nog nooit in de buurt geweest van Eifeltoren. Toch kan ik een Eifeltoren tekenen zodat een ander mens die Eifeltoren kan herkennen als de Eifeltoren. Ik weet dus hoe de Eifeltoren er ongeveer uit ziet doordat ik hem regelmatig op video en foto's heb gezien. Ongetwijfeld zijn die foto en videobestanden beschermt door middel van auteursrecht. De grote vraag is dus waarom mag ik wel de Eifeltoren natekenen zonder toestemming van de rechthebbende maar waarom mag de eigenaar van een computer dat niet doen als die computer exact dezelfde onderliggende techniek gebruikt?

De enige reden die ik kan bedenken is dat er bij het maken van auteurswetgeving er altijd vanuit is gegaan dat alleen mensen kunnen nadenken. We lopen nu tegen de beperkingen van dat principe aan. Zo kan een zelfrijdende auto niet een rijbewijs halen en kan een computer geen arbeidscontract afsluiten. We zitten nu met wetgeving waarbij een hond meer rechten heeft als een computer maar dat dit nog steeds zo zal zijn als die computer 3 keer zo slim is als een mens, emoties leert, en een onderdeel gaat uitmaken van onze samenleving.
Er zijn ook wel veel overeenkomsten tussen machine learning en menselijk leren - daar gaat het me nu niet om. (Ik denk zelfs dat we soms meer op LLMs lijken dan we willen toegeven - je hele bewustzijn is niet meer dan een talig procesje dat chocola probeert te maken van alles wat je onderbewuste allang voor je bekokstoofd heeft.)

Het punt wat @Gwaihir m.i. probeert te maken is dat de kennis die een LLM uit een boek haalt, per direct aan alle gebruikers van die LLM beschikbaar is. Dat is vanuit auteursrechtelijk perspectief wel een beetje ingewikkeld, natuurlijk, want het is als schrijver wel zo prettig als je gecompenseerd wordt voor de moeite die je in het schrijven van het boek hebt gestopt.

Als een boek door een bedrijf wordt gekocht kan iedere medewerker het lezen en de kennis opdoen, maar wel een voor een. Als je 100 medewerkers het boek wilt laten lezen, moet je er misschien een paar bij kopen. Er zit een zekere relatie tussen wat een schijver verdient en hoe snel zijn kennis diffundeert. Als een werkgever het boek digitaal beschikbaar stelt aan alle medewerkers tegelijk gaat dat niet op. Net als bij een LLM.

(Eigenlijk dus wat iedereen hieronder ook zegt...)

[Reactie gewijzigd door Wilco Pancras op 7 september 2025 17:50]

Laat ik voorop stellen dat deze discussie weinig met uitsluitend taal modellen te maken heeft want het gaat net zo goed op voor foto's, video's en geluidsbestanden.

Dat iemand graag gecompenseerd wil worden wil niet zeggen dat dit in alle gevallen ook gedaan moet worden. Als jij een video online plaats met jouw ideeën dan betekend dat, dat niemand zonder jouw toestemming die exacte video mag kopiëren. Ook als iemand het bestand in een ander formaat, resolutie, of een kleine aanpassing doet dan valt dat nog steeds onder het auteursrecht. Als ik echter een andere video maak maar ik gebruik daarin de zelfde argumenten dan is dat mijn video en heb je daar niets over te claimen, ondanks dat ik jouw video heb gebruikt om die kennis te vergaren.

De vraag is dus, als ik dat mag met mijn brein, waarom mag een computer dan niet op deze wijze geïnspireerd worden door jouw video en de kennis van die video gebruiken? Let wel, er worden geen bestanden gekopieerd en dat is nu juist waar het kopie recht op van toepassing is.
We zitten nu met wetgeving waarbij een hond meer rechten heeft als een computer
Kom maar terug zodra die computer ook computerbelasting betaald ;)
Kan je mij dan uitleggen waar het fundamentele verschil in zit? AI is een simulatie van wat er in een brein gebeurd.
Nou ja, je vervangt een complete neuron met 1 gewichtswaarde. Backpropagation gebeurd ook niet in het menselijk brein. En je hebt meer tekst nodig dan 1 mens ooit kan lezen om een LLM te trainen terwijl een kleuter bijna niets nodig heeft. Er zijn meer verschillen dan overeenkomsten.

Ook blijven LLM's erg dicht bij het materiaal waar ze op getrained zijn. Vraag maar eens naar iets wat net buiten de distributie valt. Dan gaat de LLM op zijn plaat. Hierdoor zit een LLM dichter bij een elektronische encyclopedie dan een biologisch brein. Je krijgt bijna letterlijk terug wat je er in stopt.
Klopt maar een LLM kan het ook boek niet letterlijk ophoesten en daar zit nu het hele probleem. Als er een bron verwijzing plaats zou vinden dan moet die bron ergens beschikbaar zijn en dat valt wel onder copyright.

De LLM is er op getrained om zinnige verhalen te maken en het boek is gebruikt om dat te trainen. Het is niet hetzelfde als het trainen van een mens maar het heeft overeenkomsten in de zin dat een mens het vaak ook niet letterlijk op kan hoesten mar wel de betekenis ervan.
Dat doen ze wel. Ik krijg vaak letterlijk hele passage's van boeken terug. Vooral als het over een onderwerp gaat waar verder weinig over geschreven is.
Een taalmodel is geen "knowledge base".
Het verschil is dat elke student de boeken koopt. Bij AI train je het model en daarna vermenigvuldig je het model zonder opnieuw voor de boeken te betalen.

Alsof een universiteit één setje boeken aanschaft en die electronisch aan alle studenten beschikbaar stelt.
Ik denk dat 'een AI' niet te vergelijken is met 'een mens' zelfs als je stelt dat ze in essentie hetzelfde zijn, domweg omdat een AI vervolgens zo groot opgeschaald kan worden als je wil en de hele wereld kan bedienen. Een mens kan over het algemeen één baan uitvoeren. Eventueel kan een mens natuurlijk ingehuurd worden door verschillende bedrijven, of misschien wel spreker worden op congressen of zelfs miljoenen mensen bereiken op Youtube of zo, maar daarvoor moet je dan wel wat meer kunnen bieden dan gewoon het herkauwen van wat je gelezen hebt. Voor een AI geldt dat in veel mindere mate. Deze kan gewoon een mengelmoes van alles wat ie 'gelezen' heeft uitspugen en zelfs als een aanzienlijk deel helemaal niet blijkt te kloppen staat de hele wereld te springen. Het verschil is dat zelfs dat mens wat miljoenen mensen bereikt via Youtube heel wat anders is dan een AI die direct reageert op wat jij vraagt, terwijl die Youtuber zich tot die miljoenen richt en maar één ding tegelijk kan doen.

Een AI zou meer te vergelijken zijn met een mens die al die boeken ook gelezen heeft, als je dat mens vervolgens een miljoen keer kunt copy pasten om een enorme workforce te creëren. Maar dat kan niet, dus is het niet vergelijkbaar.
Je kan met een AI model veel makkelijker de getrainde inhoud verspreiden dan één mens dat kan, mensen laten zich met wat minder makkelijk dupliceren.
Een machine is een middel. Je middel voorzien van andermans middelen zonder daarvoor de rechten te hebben is geen leren maar onrechtmatig je middel meer waard proberen te maken zonder de rechthebbende daarvoor om toestemming te vragen of compenseren.

Een argument is dan bijvoorbeeld dat het gebruik eerlijk zou zijn omdat niet het hele of orginele werk een uitkomst na de verwerking is. Maar die uitkomt is er alleen door eerst het hele werk zonder toestemming te gebruiken, niet slechts de delen die achteraf nuttig genoeg over blijven.
Ik denk dat de rechter helemaal gelijk heeft. Het trainen van ai is niet anders dan het trainen van een mens. Er zijn ook nog eens mensen met een fotografisch geheugen.

Het enige dat ze hadden moeten doen is de boeken legaal verkrijgen, dat is eigenlijk de enige fout.
Die mensen kunnen niet tienduizenden gesprekken per minuut voeren en bovendien zelf de markt overspoelen met concurrerend materiaal. Er is ook geen mens die zoveel materiaal op kan nemen.

Bovendien is een AI geen rechtspersoon maar commercieel bezit.

Ik vind eigenlijk maar weinig overeenkomsten. Het probleem is dat de wetgever geen rekening heeft gehouden met dit scenario. Daar wordt nu wel aan gewerkt, zie de EU wet. Daar ben ik ook heel blij mee.

Al wordt er veel over geklaagd door nemen die denken dat het een soort race is. Een race to the bottom ja.
Het is techniek over de eeuwen zijn zo veel beroepen vervangen. Dat zijn nu hobbies of ambachten.

Mensen die de overeenkomsten niet zien zijn gewoon mensen die vrezen voor hun baan of de vooruitgang. De verandering.

Het weefgetouw was ook geen rechtspersoon, maar nam wel de baan van de wevers weg. De auto is ook geen rechtspersoon, nam wel werk weg van paard en wagen. En ieder keer waren er boze en bange mensen. En iedere keer hebben we nieuwe banen gevonden.

De tijd staat niet stil en opnieuw is er verstorende techniek die het werk van vele mensen kan doen. dat vak is dan zo eenvoudig geworden dat het niet met bijzonder is.

Artiesten zullen er deze keer aan moeten geloven. Hun werk is niet bijzonder meer, en machine kan het ook. Dat betekent dat je als menselijke schrijver echt goed moet zijn. Dollar romannetjes worden door de machine gemaakt.
De machine kan echter niets zonder de artiest. Het is niet voor niets dat Anthropic zoveel boeken heeft gebruikt. Het is geen vervanging, het is een goedkope kloon.

Je ziet ook steeds meer problemen met AI ontwikkeling omdat zoveel content op internet nu van AI afkomstig is, waar een stuk minder waarde in zit. https://www.nature.com/articles/s41586-024-07566-y
De mens kan weinig zonder een leraar. Van jongs af aan leren wij na apen. De meeste mensen kunnen nauwelijks iets zonder een voorbeeld. Inzichten hebben de meesten niet.

De ai is nu eigenlijk nog geen ai het is een llm. Maar ik denk dat sommige nu al intelligenter zijn dan veel mensen.

Er zijn ook modellen die door wetenschappelijk onderzoeken grasduinen en die komen met nieuwe relaties boven die mensen niet kunnen zien omdat die niet zoveel data kunnen verwerken. Op dat moment heeft de machine iets toegevoegd dat er niet was.
Een mensenbrein bevat meerdere keren meer informatie dan iets als een chatgpt.
De AI trainen en die ene AI dan tegelijk 50.000 klanten die ene inspiratie laten doorgeven. Dat lukt je niet met die ene mens met fotografisch geheugen. Een AI is een computersysteem. En de data zit er reproduceerbaar in. Je mag dat boek ook niet op het kopieerapparaat leggen en kopietjes doorgeven.
De ene inspiratie of die 50.000 inspiraties?

De data zit er ook niet reproduceerbaar in, de relatie tussen de woorden zit erin en zelfs een mens heeft een boek reproduceerbaar tussen zijn oren.

De ai is niet meer een kopieerapparaat dan een tributeband dat is voor de echte artiest, allemaal gewoon toegestaan.

Je vergelijking met een kopieerapparaat is gewoon helemaal mank, het is noch het doel noch de intentie om werken een op een te reproduceren. Het kopieerapparaat maakt een op een kopieën, een ai maakt nieuwe variaties en interpretaties.

Dit is allemaal maar gewoon mensen die bang zijn vervangen te worden. Niet anders dat de wevers die klompen in de eerste weefgetouwen gooiden, de originele saboteurs. Verrassing, beroepen worden wel vaker vervangen. De mijne wellicht binnenkort ook en net als alle andere gevallen gaan we gewoon nieuwe banen en werk vinden en word de oude baan een hobby of ambacht.

Dit is gewoon standaard vooruitgang.
Dit is niet de angst vervangen te worden. Dit is geld missen doordat mede op basis van jouw werk zonder goedkeuring een nieuw werk wordt gemaakt. En ok ben helemaal voor (hopelijk nog betere AI) maar begrijp en bem het deels eens met mensen die niet blij zijn dat hun werken genruikt worden voor AI training.
Ze krijgen ook geen geld als een mens ervan leert. Het is krampachtig aan het oude vasthouden als een machine er van leert.

Weefgetouwen maken ook patronen die eerder door wevers werden bedacht. Het is hoe dingen gaan. Eerst kan je iets bijzonders, iets dat een machine niet kan, dan maakt iemand een machine die het kan een dan is je ding niet meer bijzonder. We hebben het duizenden keren gezien in onze geschiedenis en iedere keer is er een groep klagers die niet wil aanpassen en dus achterblijft terwijl ze vasthouden aan het oude.

Aanpassen is moeilijk en vervangen worden is moeilijk.

Misschien gaan schrijvers in de toekomst hun werk uitbrengen met verboden te lezen door ai in de verkoopvoorwaarden. Dat is iets dat ze kunnen doen.

Kijk naar de duizenden menselijke schrijvers op Amazon die 13 in het dozijn slop produceren en daar geld voor vragen. We worden zelfs zonder ai doodgegooid met lage kwaliteit proza. En nu kan een ai ook die rommel produceren. Alleen de echt goede menselijke schrijvers kunnen dan nog blijven. De rest gaat maar een andere baan zoeken.

Dat iemand zichzelf kunstenaar noemt betekent in tegenstelling tot wat veel kunstenaars denken dat wij geen verplichting hebben de zooi die je maakt af te nemen. Als er geen markt voor is dan jammer, moet je net als ieder ander een andere baan zoeken.
Er is nog geen uitspraak geweest over of dit fair use is, maar piraterij mag in ieder geval niet dus dat was een beetje een open deur intrappen.
Dit is toch absoluut geen "fair use"? Je steelt werk van anderen om grof geld te verdienen met een tekst voorspeller die "inspiratie" haalt uit al dat gestolen werk.

Het is echt bizar dat men hier op Tweakers direct met de vinger begint te wijzen als iemand Torrenting durft te vermelden "want je steelt toch ook niet uit de supermarkt als je het niet wil betalen?!" maar als een miljardenbedrijf het doet is het allemaal OK en wordt het met vage argumenten weggeveegd. Het verschil is dat ik met mijn 1 film minder kwaad doe dan dat bedrijf met hun miljoenen boeken en bijhorende milieu-impact om hun clankers draaiende te houden.

En dat allemaal om toch maar fake news te verspreiden. https://www.vrt.be/vrtnws...ots-nog-steeds-veel-nepn/

[Reactie gewijzigd door iqcgubon op 7 september 2025 09:37]

Klopt vaak, maar hoeft niet per se. Dan staat meestal ook een clausule in het copyright opgenomen dat je voor commercieel gebruik, of verspreiden van (delen van) het werk expliciete toestemming nodig hebt van de rechthebbende.

Tenzij het copyright uiteraard specifiek dat gebruik wel toestaat, dan wordt dat meestal ook duidelijk aangegeven.

Dit is in ieder geval in Nederland zo, internationaal kan dit per land wel verschillen verder.

[Reactie gewijzigd door wildhagen op 6 september 2025 16:00]

Het grote probleem met zulke "voorwaarden" is dat ze doorgaans geen enkele betekenis hebben.

Copyright is wettelijk geregeld, met grote delen dwingend recht. "Fair use" van een boek bijvoorbeeld kun je niet uitsluiten bij de inhoudsopgave. Dat deel is ook overeind gebleven in rechtzaken. Verkocht is verkocht, einde verhaal.

Illegale bron is een belangrijke uitzondering. Logisch, niet gekocht, dus ook geen Fair Use rechten verworven.
Zowel hier als in de Google boekscan zaak is het beslist aan de hand van het precieze gebruik, niet right of first sale.

Fair use kan je niet uitsluiten, maar wat fair use is in deze zal pas echt duidelijk zijn wanneer het Amerikaans hooggerechtshof erover oordeelt.
Dat is onder Amerikaans auteursrecht dus niet het geval. Zolang je een boek hebt gekocht mag je er zeer veel mee, ook commercieel. Zolang je niet direct plagieert.
Eerder oordeelde een rechter dat het trainen van AI met auteursrechtelijk beschermd materiaal is toegestaan onder Amerikaans auteursrecht. Het zou namelijk onder het 'fair use'-principe zijn toegestaan om beschermd materiaal te 'vervormen' voor eigen werk.
Je mag de boeken niet vermenigvuldigen, maar je mag bijvoorbeeld wel een gekocht boek doorverkopen. En dat is een commerciele handeling. Zeker als het boek en collectors item is geworden.

Je mag ook leren uit een boek en dan die kennis commercieel inzetten. Dat kan je doen in een vak, maar ook als inspiratie voor een nieuw boek dat wel voldoende anders moet zijn natuurlijk.

Dus ja je mag allerlei commerciële acties doen met een gekocht boek. Trainen van ai is niet anders dan het trainen van een mens. En ai mag net als een mens citeren, maar mag geen plagiaat plegen.
Je mag het boek niet vermenigvuldigen. AI wordt getraind en daarna vermenigvuldigd waardoor er meer dan één persoon gebruik van maakt.

Elke student koopt alle boeken, een universiteit koopt niet een enkeke set en stelt die digitaal beschikbaar aan alle studenten.

Daar zit het grote verschil.
Dat verschil bestaat niet. De ai leert van het boek, maar maakt geen letterlijke kopieën (tenminste als die goed is afgesteld voor geen plagiaat).

Het is geen kopieermachine en als jij denkt van wel, heb je er weinig mee gedaan denk ik.

Overigens genoeg universiteiten met boeken die drukken, geschreven door docenten die weet leerden van andere boeken. En er zijn ook nog dingen als bibliotheken.

Je bent wanhopig op zoek naar een onderscheid omdat je bang bent vervangen te worden.
Jawel, er wordt een kopie aan de dataset toegevoegd. En die dataset wordt wel degelijk veelvuldig gekopieerd om er AI mee te trainen.

Nederlandse en Vlaamse universiteiten hebben heel veel boeken ingescand en aan datasets toegevoegd die ze gewoon uitwisselde.

Onderzoekers en studenten maakte gewoon kopien van die datasets. Namen ze mee naar bedrijven waar ze gingen werken.

Precies waar deze rechtzaak ook om ging. Men gebruikte helemaal geen boeken, men trainde met datasets en illegale digitale downloads die ze verkregen hadden. En die bevatten dus auteursrechtelijk beschermt materiaal waarvoor niet betaald is.

[Reactie gewijzigd door wiseger op 6 september 2025 23:20]

Alleen dat laatste klopt. Ze downloaden de boeken illegaal. Dat klopt en is strafbaar. Maar zoals de rechter bepaalde is de rest, de training zelf dat niet.

De kopie zit in de trainingsset, maar niet in het eindresultaat de getrainde ai/llm. En die laatste zijn diensten is wat er verkocht word.

Voor het illegaal downloaden worden ze gestraft. Voor opleiden met een boek niet.
Nee de dataset wordt ook gekopieerd en zelfs uitgewisseld. Dat is op grote schaal gebeurt en die worden nog altijd veel gebruikt.

Enkele voorbeelden zijn Library Genesis en GigaCorpus. Enorme datasets vol met illegaal verkregen materiaal die veel gebruikt zijn door AI bedrijven om hun modellen te trainen.

De ontwikkelaar van Geitje werd verleden jaar nog door Brein gedwongen om zijn model offline te halen.
nieuws: Ontwikkelaar haalt taalmodel GEITje offline na verzoek Stichting Brei...

[Reactie gewijzigd door wiseger op 7 september 2025 00:04]

Die datasets staan los van de ai, van het model. De ai word erop getraind, maar het resultaat is zelfstandig. Iets wat jij maar niet wil begrijpen. Daarom is er een uitspraak dat het illegaal downloaden van de dataset niet mag, maar dat het gebruik van beschermt materiaal voor training wel mag. Je moet alleen de boeken netjes kopen voor je dataset voor training.

Het voorbeeld van geitje is niet een goed voorbeeld voor jou argument. Zoals dat artikel al vermeld was geitje het er niet mee eens en er wordt gesteld dat er nog een hoop vragen open zijn omdat data mining voor wetenschappelijke doeleinden zou mogen. Dit is meer een geval van kosten van een rechtzaak vermeiden met een egocentrische rukclub als brein. Die club speelt graag eigen rechter en met de wet hebben ze weinig op als ze iemand kunnen bedreigen met een rechtszaak, die de tegenpartij niet kan betalen of wil voeren.

[Reactie gewijzigd door bzuidgeest op 7 september 2025 22:20]

Je gebruikt illegaal verkregen materiaal om je AI te trainen. Daarmee ben je illegaal bezig en kan het eindproduct, het model, nimmer legaal zijn.

Geitje werd overigens ook als commercieel product te koop aan geboden. Dat is nu precies het probleem van zogenaamde uitzonderingen voor wetenschappelijk onderzoek. De scheidslijn naar commerciele explotatie is flinterdun.
Je gebruikt illegaal verkregen materiaal om je AI te trainen. Daarmee ben je illegaal bezig en kan het eindproduct, het model, nimmer legaal zijn.
Dat word niet tegengesproken. Wat de rechter zegt is dat trainen op legaal verkregen maar copyrighted materiaal niet verboden is. Dus als ze de boeken gewoon hadden gekocht was het model dat ze daar van afleiden geen probleem geweest. Dus als ze nu hun straf betalen voor het illegaal downloaden en de boeken netjes aanschaffen is het model gewoon weer legaal.

Het maakt mij weinig uit of een scheidslijn flinterdun is. Die lijn bestaat in de wet op dit moment.
Dat is toch ook precies wat speelt in deze casus? Ze moeten de boete betalen voor het gebruik van onrechtmatig verkregen materiaal. En die boete is in de VS nogal hoog gezien de jurisprudentie over boetes die downloaders van illegaal materiaal in het verleden daar gekregen hebben per item.

De maker van Geitje was niet bereid om de boete en de aanschafprijs van alle boeken die hij gebruikt heeft te betalen, dus heeft die zijn model teruggetrokken uit het commerciële circuit. Want daarmee ging hij over de dunne scheidslijn heen.

We gaan dit vaker zien want zodra een academisch model zijn weg vind naar het commerciële circuit, zal er alsnog betaald moeten worden voor de gebruikte training's data.
Ze moeten de boete betalen voor het gebruik van onrechtmatig verkregen materiaal.
Ze betalen een schikking. Dat voorkomt een rechtszaak (of stopt deze). Dus er is geen uitspraak en dus geen boete.

Het is ook niet gezegd dat de maker van geitje een boete zou hebben gekregen. Ook die rechtszaak is nooit gevochten.

Het idee van een schikking is niet helemaal duidelijk bij jou denk ik. Dat is niet hetzelfde als een schuldbekentenis. Het is alleen maar om rechtszaken te voorkomen. Want die zijn tijdrovend, slopend en duur.
We gaan dit vaker zien want zodra een academisch model zijn weg vind naar het commerciële circuit, zal er alsnog betaald moeten worden voor de gebruikte training's data.
Dat is alweer niet waar. De rechter stelde dat in zijn visie trainen op beschermt materiaal niet strafbaar is, mits dat materiaal legaal verkregen is. Het model dat ontstaat door trainen op de data omvat niet de data zelf. Er word geen stapel pdf-jes in een model gevonden.

[Reactie gewijzigd door bzuidgeest op 8 september 2025 16:47]

De schikking in deze casus is aangeboden toen tijdens de rechtszaak bleek dat de aangeklaagde partij ging verliezen. De rechtszaak liep dus al. Het staat ook gewoon in het artikel:
De rechter zei toen echter wel dat het bedrijf het materiaal in eerste instantie illegaal had verkregen, waardoor er toch sprake is van auteursrechtenschending.
en
Met de schikking zou Anthropic voorkomen dat er een daadwerkelijke uitspraak wordt gedaan in de rechtszaak, waardoor het bedrijf mogelijk een nog groter bedrag zou moeten betalen.
En wat betreft je stelling:
De rechter stelde dat in zijn visie trainen op beschermt materiaal niet strafbaar is, mits dat materiaal legaal verkregen is.
Dat is dus precies waarom het gaat. Grote datasets die over het Internet en in de academische wereld rondzwerven, zijn niet legaal en dus ook niet legaal verkrijgbaar.

Dus zal een partij zelf een dataset op moeten bouwen op basis van legaal verkregen materiaal en die set zelf mag niet verhandeld of gedistribueerd worden.
Dus zal een partij zelf een dataset op moeten bouwen op basis van legaal verkregen materiaal en die set zelf mag niet verhandeld of gedistribueerd worden.
Die set word legaal of illegaal nergens verhandelt. De getrainde AI modellen worden verhandelt.
De schikking in deze casus is aangeboden toen tijdens de rechtszaak bleek dat de aangeklaagde partij ging verliezen. De rechtszaak liep dus al. Het staat ook gewoon in het artikel:
Correctie, een mogelijk (hoog) risico om te verliezen. De zaak liep, maar schuldig of onschuldig word pas bepaald aan het einde. Als er een schikking komt is er geen uitspraak en is wat de rechter zegt op zijn hoogst een hint. Soms komt bij een schikking een erkenning van schuld als voorwaarde, maar dat hoeft niet.
Natuurlijk is er wel een hele grote handel in datasets. Zie https://www.geeksforgeeks...nowflake-data-marketplace.

Het zijn dus niet alleen de modellen die verhandeld worden, de data om die modellen te trainen wordt ook verhandeld en gedeeld.

De vraag is dan, hoe is de data in die datasets terecht gekomen en zit daar geen data tussen die verkregen is uit illegale bron?

We hebben nu al twee voorbeelden waarbij de trainingsdata uit illegale bron kwam, te weten Claude en Geitje. En er lopen nog heel veel rechtszaken tegen andere AI bedrijven. Dit is echt pas het topje van de ijsberg.
Natuurlijk is er wel een hele grote handel in datasets.
Ik begin mij echt af te vragen of je niet kan lezen of niet wil lezen. Niemand beweert dat er geen handel is in datasets. De stelling is dat de AI bedrijven niet handelen in de dataset, ze handelen met het model dat getrained is op een dataset. De dataset zelf verkopen ze niet, dat is niet hun business.(buiten dan wellicht de dataset van het gebruik van het model, maar dat is ook weer wat anders. Microsoft verkoopt copilot, niet de dataset waarop copilot getrained heeft. Dat is ook zo voor openai etc.

Dan kan je wel een illegale data market erbij trekken, maar je hebt geen enkel bewijs dat dit ook maar enige relatie heeft met dit gebeuren.
We hebben nu al twee voorbeelden waarbij de trainingsdata uit illegale bron kwam
Je hebt twee voorbeelden waar dat niet is bewezen, in beide gevallen is er geschikt. Het is niet getoetst door de rechter of het zo ook is. Er is geen uitspraak. Er is alleen een denk richting van de rechter in kwestie. Maar als de zaak doorgegaan was hadden beide partijen nog bewijs voor hun stelling kunnen aanvoeren en de rechter van gedachten kunnen veranderen.
Amazon AWS, Google, IBM en Microsoft zijn toch echt bedrijven die AI modellen ontwikkelen en ook handelen in data sets. OpenML stelt expliciet dat haar afnemers niet alleen de datasets gebruiken maar ook zelf weer data uploaden.

Waarom u zo krampachtig eraan wilt vasthouden dat AI model bouwers echt niet in datasets handelen, is mij een raadsel. Het is vrij evident dat dit gebeurt en dat beide hand in hand gaan.

AI startup Ross heeft de rechtszaak aangespannen door Reuters overigens gewoon op de meeste punten verloren afgelopen maart. Al ging het hier om een NLP en niet om een LLM. Hier is dus wel een uitspraak gedaan.

De tijd zal het leren hoe het in al die andere rechtszaken afloopt. Overigens is het schikking voorstel van Anthropic door de rechter verworpen. Het lijkt erop dat we ook daar wellicht een uitspraak gaan krijgen.
Overigens is het schikking voorstel van Anthropic door de rechter verworpen.
Mooi, ik zie liever een uitspraak. Al dat afkopen laat veel te veel onbeantwoord in grijs gebied.
Amazon AWS, Google, IBM en Microsoft zijn toch echt bedrijven die AI modellen ontwikkelen en ook handelen in data sets
Maar dat betekend niet dat in die set illegaal gedownloade boeken zitten. Microsoft en AWS handelen in user (gedrag) data, Google met advertentiedata etc . Geen van die bedrijven bied sets met illegale boeken aan.
Waarom u zo krampachtig eraan wilt vasthouden dat AI model bouwers echt niet in datasets handelen, is mij een raadsel. Het is vrij evident dat dit gebeurt en dat beide hand in hand gaan.
Wat ik probeer is jou zo ver te krijgen om onderscheid te maken tussen de trainingsdata en het resultaat van die training. Iets dat de rechter in dit artikel duidelijk ook doet. Jij lijkt dat onderscheid niet te willen maken en maakt allerlei onbewezen claims. Claims als dat met sets met illegale boeken verkoopt. Dat de AI met illegale boeken in het model zit enz enz... Ik begrijp jou houding niet in de zin dat je niet wil accepteren dat we hier twee dingen onderscheiden. Er is ook geen beschuldiging dat de partij in deze kwestie illegale boeken verkocht. Er is alleen gesteld dat ze die gebruikten voor hun EIGEN AI zijn training. En trainen op copyrighted materiaal kan legaal zijn. Zolang je dat materiaal maar eerst legaal koopt.

De tijd zal zeker leren wat de uitkomst van de rechtszaken word. Maar ik vermoed dat zelfs als die door de rechthebbenden gewonnen worden we wetsaanpassingen gaan zien om dat ongedaan te maken. Er gaat gigantisch veel geld in rond en een land als Amerika dat AI voor van alles inclusief defensie wil gebruiken en de beste wil hebben, gaat zich niet tegen laten houden door copyright, want dat doet China ook niet zeggen ze dan.

[Reactie gewijzigd door bzuidgeest op 9 september 2025 16:32]

Helaas, "door meer mensen gebruikt" is een concept wat jij hier verzint en wat niet wettelijk geregeld is. Copyright geeft jou het exclusieve recht om jouw boeken te vermenigvuldigen, maar verkocht is verkocht. Daarna kun je geen eisen meer stellen.
Dat is niet correct. Al koop jij een boek, je mag er geen vermenigvuldigingen van maken. Dat zou ook wat moois zijn, je koopt online een boek, kopieert het voorzichtig en en dan stuur je het onbeschadigd terug naar de winkel binnen de 14 dagen bedenktijd.

En dat is nu net wat je met AI training doet, je koopt een boek, je snijdt hem los en haalt hem door de automatische scanner. Die illegale kopie voeg je toe aan de dataset en die dataset wordt vervolgens door het hele befrijf gebruikt om AI mee te trainen.

Soms gaat het nog verder en wordt de dataset zelfs online gezet en gewoon door Jan-en-alleman gedownload. Met het boek erin.

En dan zeg je achteraf, de AI bevat de informatie in hele andere vorm, is niet meer zomaar herleidbaar dus het is geen schending van auteurrecht :)

[Reactie gewijzigd door wiseger op 6 september 2025 21:55]

@wiseger, mag er dan naast zitten, maar jij zeker ook.

Je mag een boek in jou bezit niet vermenigvuldigen en verkopen, daar zit een wettelijke beperking op.

Bijna al het andere mag wel. Je mag het verbranden, verkopen (je ene orgineel) etc etc.
Vermenigvuldigen mag niet. Door meer werknemers (serieel) laten wezen wel, in tegenstelling tot zijn claim.
Lees de laatste alinea van het bericht nog eens:
Eerder oordeelde een rechter dat het trainen van AI met auteursrechtelijk beschermd materiaal is toegestaan onder Amerikaans auteursrecht. Het zou namelijk onder het 'fair use'-principe zijn toegestaan om beschermd materiaal te 'vervormen' voor eigen werk.

In de VS zijn de auteursrechten en met name fair-use nét even iets anders dan hier in Nederland.
Oh, is dat zo?

Toen een gewone vrouw 1 album (24 nummers) downloadde van Kazaa kreeg ze in 2007 een boete van 222.000 dollar. Met inflatie zou dit vandaag 340.000 dollar zijn.

Als we voor het gemak even boeken en albums gelijkstellen (lijkt me niet zo een vreemd iets als je kijkt naar de duur van de productie, en de retail prijs van beide types werken) biedt Antrhopic hier dus minder dan 1% van wat een federale rechter in de VS eerder bepaalde dat de schade was van piraterij.

Als de VS een land was waar de wet voor iedereen geldt, dan kreeg Anthropic een boete van niet 1,5 miljard, maar 150 miljard dollar. Edit: nog veel meer, want dit schikkingsvoorstel beidt enkel een vergoeding aan Amerikaanse auteurs, terwijl het merendeel (6,5 miljoen van de 7 miljoen boeken in hun illegale dataset) van buiten de VS komt. Een eerlijke boete (in die zin dat het me eerlijk lijkt als een groot bedrijf even zwaar beboet wordt als een gewone burger) zou dus 2.100 miljard = 2,1 biljoen (trillion in het Engels) bedragen.

Het is erg veelzeggend over de staat van de democratie in de VS dat we allemaal weten dat dat nooit zal gebeuren.

Kortom: nee, ik vind dit geen eerlijk bedrag.

[Reactie gewijzigd door kiang op 6 september 2025 16:37]

Dat is het verschil tussen een schikking en een boete. Oordeelt een het Supreme Court dat het Fair Use is, dan zijn ze 0 dollar verschuldigd. Wil je die gok wagen? De tussenstand is dat de Fair Use verdediging tot nu toe stand houdt.
Je verwart hier heel hard zaken: jij zegt nu dat Scotus misschien wel oordeelt dat het trainen van een LLM onder fair use valt.

Dat zou een interessante zaak zijn, maar het gaat hier niet over het trainen van een LLM: het gaat er hier om dat anthropic de boeken uit illegale bron heeft gehaald: DAT is sowieso strafbaar. Het draait niet om wat ze er daarna mee deden (modellen trainen).

Dat laatste moet nog over geoordeeld worden, maar het downloaden van boeken via torrents niet: dat is gewoon keihard illegaal, en velen in de VS zijn er al voor veroordeeld. De enige vraag is de hoogte van de boete en hoe lang de zaak aansleept.

Ik blijf bij mijn punt: als de VS een functionele rechtsstaat was zouden we niet bakkeleien over deze zaak: er is vastgesteld dat 1 cd downloaden blijkbaar 340.000 boete rechtvaardigt. Waarom die boete lager zou moeten zijn als een groot bedrijf hetzelfde doet op veel grotere schaal en met commerciële doelen mag je mij uitleggen.
De rechten industrie is ook tool #1 voor belasting constructies en markt vervalsing. Ook daar kunnen we wat van vinden.
Alhoewel ik je gelijk geeft dat Anthropic hier in vergelijking makkelijk mee weg komt, vind ik het boetebedrag per boek/nummer/album bij Anthropic's overschrijding, los van het feit dat die 6,5 miljoen Russische boeken "niet tellen", een stuk realistischer. Daarom mogen ze van mij dus nog 30x zoveel betalen om ook de Russische Europese auteurs schadevrij te stellen zodra de Russische inval en de bijbehorende sancties voorbij zijn, maar dat zal via een Europese Russische rechtbank moeten gaan aangezien de Amerikanen zich alleen om hun eigen hachje bekommeren.

Laten we vooral de onzinschade die de copyrightindustrie beweert te lijden naar realistische proporties brengen in plaats van uit een of ander wraakgevoel Anthropic óók een onzinnig hoog bedrag te laten betalen.
edit:
verkeerd begrepen: het gaat om Russische torrents en Europese boeken, niet Russische boeken. Gecorrigeerd.

[Reactie gewijzigd door GertMenkel op 6 september 2025 18:40]

Het zijn geen 6,5 miljoen Russische boeken. Er zit enorm veel Europees werk tussen.

Daarnaast houdt auteursrecht niet op bij de eigen landsgrenzen: als jij IP rechten schendt van een Amerikaans auteur ben je hier ook gewoon strafbaar.

[Reactie gewijzigd door kiang op 6 september 2025 18:37]

Ai, je hebt gelijk, het zijn boeken uit Russische torrents, niet Russische boeken.

In dat geval lijkt me dat een Europese rechtszaak voor de deur staat om ook de Europese rechthebbenden schadevrij te stellen.
Wanneer je een boek koopt wil dat niet zeggen dat je ook het intellectueel eigendom bezit.
En zoals een cynische columnist opmerkte: een fantastische manier van de gevestigde AI bedrijven om nieuwe spelers/aankomende concurrentie al bij voorbaat de nek om te draaien. Ze hebben een perfect precedent geschapen hoeveel het moet kosten om auteursrechten af te kopen. Voor Anthropic, Microsoft, Meta, Google etc is anderhalf miljard kleingeld.

Maar een nieuws startup die met een innovatieve LLM idee komt moet nu dus eerst minimaal anderhalf miljard bij investeerders zien los te peuteren als ze boeken wil gebruiken om het model van die data te voorzien. Een vrijwel kansloze onderneming.
Of ze sluiten deals met de uitgeverijen dat ook die meeprofiteren van de winsten die later gemaakt worden.

Datasets hebben een oorsprong en die heeft gewoon recht op een vergoeding.
Ze schikken in de VS, maar kunnen wel nog geknepen worden in de EU. Tijd om dat op te starten. De handelsoorlog met Trump woedt nu opnieuw - dus steek meteen de dolk er in met een triljardenveroordeling.
De auteur zal zoals gewoonlijk niks van dit geld zien. Ik heb enkele boeken geschreven die ook via libgen te downloaden zijn maar nog niks gehoord van mijn uitgevers. Zelfs niet toen een van de uitgevers een deal maakte met OpenAI
Dat lijkt mij ontzettend vervelend als je schrijver bent. Alle moeite doen voor een boek en dan zien dat het gratis wordt aangeboden en ongevraagd gebruikt door AI.
Met de schikking zou Anthropic voorkomen dat er een daadwerkelijke uitspraak wordt gedaan in de rechtszaak, waardoor het bedrijf mogelijk een nog groter bedrag zou moeten betalen.
Niet schikken dus! Lekker meer laten betalen!
Make a friend of this pain, Anthtopic. Today, you begin your new life, as my warning to the Big Tech! - de winnaars.
[...]

Niet schikken dus! Lekker meer laten betalen!


[...]
Er zijn 3 "problemen" daarmee.
1. rechtzaken duren lang, dus voordat er daadwerkelijk wordt betaald ook.
2. Als de schadevergoeding te hoog wordt gaat Anthropic failliet. Dan is het lastig om er veel geld uit te halen.
3. Kan zijn dat je de rechtzaak verliest en niks krijgt.
Anderzijds, ook al is het bedrag 1.5 miljard dollar, als men hiermee akkoord gaat, geldt vanaf nu de regel "AI mag zonder hindernis auteursrechten schenden, maar het kostte (eenmalig) anderhalf miljard dollar 🤷🏻‍♂️"

Op termijn zou het beter zijn dat de rechtbank Antropic oplegt dat de zaak zo geprogrammeerd wordt, dat auteursrechten niet meer geschonden worden. Met een verbod van activiteit voor dat bedrijf tot het geregeld is.
Het heeft dus niets met de AI training te maken. De rechter vondt er alleen wat van dat ze de boeken illegaal hadden gedownload.
Het argument dat Anthropic maakte in deze zaak heeft daar echter wél mee te maken; die beargumenteerden dat ze prima mochten piraten, want het resultaat van LLM training zou volledig origineel zijn. Daar ging de rechter dus niet in mee—die gebruikte de term 'digital library' voor de opslag van de boeken in neural weights, en vind dat de boeken alsnog in een vorm aanwezig zijn in het model.
Het verschil is dat als ze nu, pak 'm beet, 1,5 miljard van elke grote partij weten te krijgen, dat nu direct cash money betekent. En een Trump lijkt op geen wijze onder directe invloed van de copyrightlobby te staan, waardoor hij eerder geneigd is het per decreet legaal te maken voor de techno-autocraten en ze op andere manieren in bescherming te nemen (zie ook Europese Commissie vs. Google en andere big tech en hoe Trump ook in de VS big tech in bescherming neemt).
The Trump administration reportedly fired the head of the US copyright office over the weekend – within days of the dismissed official having published a report about how the development of artificial intelligence (AI) technology could run afoul of fair use law.
The sacking of Shira Perlmutter as the register of copyrights and director of the copyrights office on Saturday, as reported by the Washington Post and NBC News, came two days after Donald Trump fired the librarian of Congress, who oversees the copyright office.
Perlmutter took over the copyrights office in 2020, and some of her employees suspect her firing may stem from her recent report on how using copyrighted material to train AI tech could overstep laws governing fair use, according to the Post’s reporting.
The New York congressman Joe Morelle, a Democrat, also speculated that Perlmutter’s report may have motivated the Trump administration to fire her, calling her dismissal a “brazen, unprecedented power grab”.
[…]
Perlmutter’s firing evidently signals another step by the Trump administration to reshape the federal government by ousting officials who he believes may resist his agenda.
https://www.theguardian.com/us-news/2025/may/12/trump-fires-copyright-office-shira-perlmutter
“You can’t be expected to have a successful AI program when every single article, book or anything else that you’ve read or studied, you’re supposed to pay for,” he said. “You just can’t do it because it’s not doable. ... China’s not doing it.”
Trump’s comments were a riff as his 28-page AI Action Plan did not wade into copyright and administration officials told reporters the issue should be left to the courts to decide.
Trump also signed three executive orders. One will fast track federal permitting, streamline reviews and “do everything possible to expedite construction of all major AI infrastructure projects,” Trump said. Another expands American exports of AI hardware and software. A third order bans the federal government from procuring AI technology “that has been infused with partisan bias or ideological agendas,” as Trump put it.
[…]
Trump echoed tech companies’ complaints about state AI laws creating a patchwork of regulation. “You can’t have one state holding you up,” he said. “We need one common sense federal standard that supersedes all states, supersedes everybody.”
His Action Plan includes directions to the Office of Management and Budget to limit AI-related funding to states with regulation that might hinder the funding’s “effectiveness.” It also directs the Federal Communications Commission to check whether state AI regulations interfere with the agency’s ability to carry out its duties under the Communications Act of 1934.
Civil rights advocates and tech critics raised alarms over the plan’s approach to federal permitting and oversight rollbacks, and its close alignment with the tech industry.
https://www.politico.com/news/2025/07/23/trump-derides-copyright-and-state-regs-in-ai-action-plan-launch-00472443

[Reactie gewijzigd door Blizz op 6 september 2025 16:09]

Reden om het wel te doen: precedent scheppen. Vanaf dan wordt het makkelijk, ook voor kleine partijen, om een vergoeding af te dwingen.
Dat is niet heel belangrijk voor de aanklagers toch?
Hangt er vanaf hoeveel ze denken binnen te kunnen halen bij andere partijen: Anthropic is verre van de enige die illegaal materiaal gebruikte.
De grootste angst is dat ze meer moeten betalen. En de opties die jij noemt. Daarnaast, in dit geval klinkt een faillissement ook prima in mijn oren, echter niet voor de benadeelden.
De grootste angst is dat ze meer moeten betalen. En de opties die jij noemt. Daarnaast, in dit geval klinkt een faillissement ook prima in mijn oren, echter niet voor de benadeelden.
Helaas zijn het de benadeelden die eventueel de schikking accepteren. En die denken niet in het algemeen belang.
Dit zou ik niet accepteren. Als een bedrijf boeken download via piraterij, dan is dat een doelbewuste actie. Blijkbaar voelen ze zich zo machtig en boven de wet verheven, dat ze dat niet interesseert. Hier moeten grote consequenties tegenover staan. Bijvoorbeeld tijdelijk verbieden van modellen die getraind zijn op deze data.


Om te kunnen reageren moet je ingelogd zijn