Het trainen van AI-modellen op auteursrechtelijk beschermde, legaal verkregen boeken valt in de VS onder 'fair use' en is dus toegestaan. Dat oordeelt een federale rechter in een rechtszaak die auteurs hebben aangespannen tegen Anthropic.
Een federale rechter van de Amerikaanse staat Californië stelt dat Anthropic in zijn recht stond om zijn AI-model Claude te trainen met auteursrechtelijk beschermde boeken. Dat valt volgens de rechter onder de fairuseregels, die stellen dat auteursrechtelijk beschermde werken in sommige gevallen zonder toestemming van de eigenaar hergebruikt mogen worden.
Volgens Anthropic maken zijn AI-modellen nieuwe, creatieve content op basis van het trainingsmateriaal. De rechter gaat daarin mee. "Net als iedere aspirant-schrijver worden de llm's van Anthropic niet op bestaande werken getraind met als doel deze te repliceren of te vervangen, maar als voorzetje om iets nieuws te creëren." De uitspraak kan belangrijke gevolgen hebben voor andere bedrijven die auteursrechtelijk beschermd materiaal gebruiken om AI-modellen te trainen. Tegen bedrijven als OpenAI en Meta lopen soortgelijke rechtszaken.
De rechter stelt Anthropic echter niet volledig in het gelijk. Het AI-bedrijf zou de meeste boeken namelijk illegaal hebben verkregen, waarmee het bedrijf alsnog het auteursrecht van de auteurs heeft geschonden. Er volgt nog een aparte rechtszaak over de hoogte van de schadevergoeding die Anthropic moet betalen voor het illegaal downloaden van 'miljoenen' boeken.