Uitgever Penguin klaagt OpenAI aan om ChatGPT-kopie van Duits kinderboek

Uitgever Penguin Random House heeft OpenAI aangeklaagd. ChatGPT maakt volgens Penguin boeken van de uitgever na, zonder hiervoor toestemming te hebben. De chatbot geeft gebruikers ook instructies over hoe ze die boeken zelf kunnen uitgeven.

De rechtszaak draait specifiek om het Duitse kinderboek Het kleine draakje Kokosnoot, schrijft The Guardian. De uitgever vroeg ChatGPT om een kinderboek te maken waarin het draakje Kokosnoot op Mars is. Daarna zou de chatbot 'tekst en afbeeldingen' hebben geproduceerd die 'vrijwel niet te onderscheiden zijn' van een echt kinderboek waarbij Kokosnoot in de ruimte is.

ChatGPT maakte volgens de uitgever ook een kaft met hierop Kokosnoot en zijn twee sidekicks, en flaptekst voor de achterkant van het boek. De chatbot geeft de gebruiker daarnaast instructies voor hoe ze het kunnen publiceren op online platforms.

Penguin Random House stelt dat het ChatGPT-boek laat zien dat het taalmodel onrechtmatig het werk van schrijver Ingo Siegner heeft onthouden en lange stukken tekst woord voor woord kan delen. De uitgever zegt tegen de Britse krant 'fundamenteel open' te staan voor de kansen van AI, maar dat 'de bescherming van intellectuele eigendommen onze topprioriteit is'.

OpenAI zegt de aanklacht te bekijken. Het bedrijf zegt makers en rechthebbenden te respecteren en 'productieve gesprekken' te hebben met uitgevers over 'hoe zij ook kunnen profiteren van de mogelijkheden van deze technologie'. De zaak is ingediend bij een rechtbank in München.

ChatGPT-versie van Het kleine draakje Kokosnoot
De oorspronkelijke versie van Het kleine draakje Kokosnoot in de ruimte versus de ChatGPT-versie van Het kleine draakje Kokosnoot op Mars. Bron: Penguin Random House

Door Hayte Hugo

Redacteur

01-04-2026 • 19:28

99

Reacties (99)

Sorteer op:

Weergave:

Dit valt niet meer te ontkennen dat ze hier plagiaat plegen. Dit is niet meer een creatief afgeleid werk.

Ik mag toch hopen dat ze OpenAI verplichten alles wat hiermee te maken heeft uit het model gehaald moet worden. En ja, ik weet dat je dat niet 'eruit kunt halen', anders dan het hele model opnieuw trainen maar dan zonder die data erin.

Het is toch te zot voor woorden dat die AI-boeren maar alles rippen om er zelf een product van te maken wat ze hopen te kunnen slijten voor schier oneindig veel geld inmiddels en daarmee vrijwel elke bedrijftak in de wereld om zeep helpen.

- Wereldmarkt aan elektronica-onderdelen verstoort wat veel grotere gevolgen heeft dan alleen de dure RAM-kitjes en andere componenten in de price-watch.
- Energie en water gebruiken in dusdanige hoeveelheden dat er voor de gewone mens echt tekorten ontstaan. (en dan heb ik het nog niet eens over eventuele milieuschade of andere problemen zoals subsonisch gebrom zoals in de VS nu in de buurt van datacenters lijkt te ontstaan)
- Het scrapen van al die informatie vergt zo ongelooflijk veel resources, zoals compleet offline trekken van bronnen met al die informatie. (het is bijna een dagtaak om die bots af te weren)
- Echte creativiteit de nek omdraaien omdat iedereen met een paar woordjes en een AI die getraind is op data die vaak zonder toestemming verkregen is hetzelfde over-en-over kan herhalen.
- Echte informatie overstelpt door AI-slop, waardoor dus eigenlijk ook de niet-AI dingen niet meer geloofd worden of gewaardeerd worden.
- Alles en iedereen afhankelijk maakt van die AI tools omdat ze zelf niets meer kunnen (en door de enorme kostenstijging ook geen computer meer kan kopen...)

AI is dan misschien niet verantwoordelijk voor alle onrust in de wereld, maar op deze manier maakt het de onrust wel veel sneller veel groter.
Het is IMHO dus tijd dat iemand daadwerkelijk kan zeggen "tot hier en niet verder". Laten we hopen dat deze zaak daar aan kan bijdragen.
Laat ons anders eens praten over I ( zonder de A van AI).

Hoewel ik je betoog begrijp en hetgeen waarover het artikel gaat geenszins goedkeur, ben ik het niet integraal met je eens.

Waarom niet? Stel nu dat ik een duizend tal boeken lees. En op welke reden dan ook laat ik mij daardoor inspireren om een nieuw boek te schrijven, is dat dan ook plagiaat? Of is dat enkel verboden wanneer het een AI is en mag het wel wanneer een mens het zelf schrijft?

Betreffende verbruiken van kostbare grondstoffen en energie; dat is zo met en zonder AI. Zoek de zandcrisis maar eens op, als voorbeeld. Wij blijven volgens mij een spilzuchtig ras. Het verbruik van de datacenters is daar een voorbeeld van, maar zeker geen uitzondering. Het bannen zal er simpelweg voor zorgen dat er even ademruimte is, waarna business as usual verdergaat.

Ik ben van mening dat het hele ai verhaal moet beschouwen als een gereedschap, een moersleutel of hamer. Dat kan zeker nog beter. En je kan er zeker "stoute" dingen mee doen.

Maar dat kan met een hamer ook. We moeten alleen met deze hamer nog wat beter leren werken, of evt een ander gereedschap verzinnen.

Disclaimer; ik weet dat een statistisch voorspellingsmodel niet hetzelfde is als een menselijk brein.
Behalve dat dat boeken lezen een helemaal verkeerde vergelijking is.

Als je weet hoe "AI" aka neurale netwerken werkt ligt de zaak helemaal anders. De manier waarom die trainen is helemaal anders dan hoe jij een boek leest. Ik lees een boek 1x en kan misschien achteraf 3 quotes zeggen, voor de rest ken ik het verhaal wel maar niet de specifieke stijl en niet de zinnen. Een AI is getrained op elk van die zinnen succesvol na te apen. Want hoe beter hij die zinnen na-aapt hoe beter wij hem vinden omdat hij meer zoals ons zou "denken" en meer zou "weten" (denken is ook een compleet verkeerd woord trouwens). Als een AI dus op een boek van jou getrained is omdat die in de dataset zat, zit die data ergens verscholen, of dat nu leesbaar is of niet maakt niet uit, als hij er niet in zat had het trainen geen effect... En hoewel dit niet woord per woord is kan je dit bij AI wel nog zien. Als je bijvoorbeeld specifiek genoeg gaat bvb met in dit geval de naam van het karakter te noemen, gaat hij die data dus terug bovenhalen omdat die naam enkel maar bij dat plaatje/die zinnen past. Een AI trained op exact dezelfde manier op het na-apen van zinnen uit boeken als het inlezen van feiten van wikipedia. Als je dus erop vertrouwd dat chatgpt correct de eerste koning van Belgie kent, kan hij ook de derde zin uit een boek citeren. Vraag chatGPT maar eens "what is the first sentence in the book ... " Als dat boek in de dataset zit kan hij die perfect citeren, het kan wel zijn dat op sommige boeken chatGPT een filter zet (deze filters zitten niet in het neuraal netwerk maar in de code errond) omdat je dat niet mag vragen, maar ook daar zijn omwegen voor, zie prompt engineering. En ja soms zal het niet perfect zijn, maar dat wil niet zeggen dat het ineens geen plagiaat meer is. Ik kan ook niet goed schilderen maar als ik een schilderij de mona lisa noem en het ziet er als een stickman uit...

TLDR; De correcte vergelijking in dit geval zou eerder zijn als jij niet dat boek leest maar open hebt liggen bij het maken van je boek, en ja dat is ook plagiaat. Je kan ook geen copyright krijgen op AI afbeelding juist om die redenen, het is eigenlijk altijd plagiaat. Soms gewoon heel ver weg gestoken. AI gebruikt dan ook "randoms" bij het generen van antwoorden om tegen te gaan dat hij te veel plagiaat of onecht zou lijken, maar dat is ook maar een truukje en illusie.
De vergelijking met boeken lezen gaat wel degelijk op. Een doorsnee mens heeft echter een selectief geheugen (je filtert alle niet relevante delen eruit om "geheugenruimte te besparen"), en een AI een fotografisch. Iemand met een fotografisch geheugen zou in principe hetzelfde kunnen.

AI is oneerlijke concurrentie met menselijk intellectueel, zeg maar ambachtelijk, werk.
En zelfs als boeken lezen een goede vergelijking is, klaagt penguin ze niet aan vanwege inspiratie maar vanwege 'zo exact als het systeem kan' kopiëren. Dat is toch ook plagiaat voor ons als wij het lezen en kopiëren.
Het is niet duidelijk of de hamer beter wordt in de toekomst. Het is nu meer een steel.
[...]

Betreffende verbruiken van kostbare grondstoffen en energie; dat is zo met en zonder AI. Zoek de zandcrisis maar eens op, als voorbeeld. Wij blijven volgens mij een spilzuchtig ras. Het verbruik van de datacenters is daar een voorbeeld van, maar zeker geen uitzondering. Het bannen zal er simpelweg voor zorgen dat er even ademruimte is, waarna business as usual verdergaat.

Ik ben van mening dat het hele ai verhaal moet beschouwen als een gereedschap, een moersleutel of hamer. Dat kan zeker nog beter. En je kan er zeker "stoute" dingen mee doen.

Maar dat kan met een hamer ook. We moeten alleen met deze hamer nog wat beter leren werken, of evt een ander gereedschap verzinnen.

[...]
Tsja om een auto te maken heb je ook enorm veel energie nodig ook veel grondstoffen en toch heeft het merendeel een auto. Ook is die slecht voor het milieu en er zijn wellicht ook bedrijfstakken door verdrongen toen de auto kwam.

Het grote verschil is alleen dat de auto (en vrijwel alle andere grote ontwikkelingen in de geschiedenis) redelijk geleidelijk ingevoerd werd, zodat alles eromheen tijd had om zich aan te passen. (supply chain, brandstoffen, balans kostprijs/inkomen, wegen, parkeerplaatsen, etc)

Nu is het zo dat de datacenters met zo'n grote snelheid uit de grond gestampt worden of omgebouwd, dat dit de complete supply-chain van componenten platlegt. Het energieverbruik is ook zo achterlijk hoog en de groei zo hard, dat dit eigenlijk niet bij te benen is. Dit terwijl we eigenlijk al in een energie-crisis zaten, het dus nog een stapje erger maken.

Met groot energieverbruik creeer je ook warmte, dus krijg je plaatselijk behoorlijke temperatuurverschillen. Geen idee wat dat voor invloed heeft, maar het zou best wel eens de gevolgen van de al gaande klimaatverandering kunnen versterken. Dus iets wat al niet zo best ging, nog eens een slag erger maken.

Er zijn wereldwijd al enorm veel spanningen, waarbij leugens en halve waarheden verspreiden een belangrijk middel is om 'aan de macht te blijven' (of te komen) en AI vertroebelt 'de waarheid' alleen maar meer waardoor de al aanwezige spanningen alleen maar toenemen.

Door de enorme snelheid waarmee AI zich nu ontwikkelt, heerst er een enorme angst om achter te blijven als je niet meegaat. Dit is als een 'aanbieding' die niet zo'n goede aanbieding blijkt te zijn wanneer je even langer nadenkt, maar je moet _nu_ beslissen. Gevolg is dat heel veel banen van de een op de andere dag overgenomen worden door AI en als na een tijdje blijkt dat dat toch niet zo'n goed idee is, is het te laat en is je product of bedrijf eigenlijk al te gronde gericht. Dit versterkt het gevoel van onzekerheid en dat leidt weer tot spanningen en opkomst van extremisme.

Er is al een enorme ongelijkheid tussen de ultra-rijken en de rest van de wereld (zelfs de afstand tot de 'rijken' neemt enorm toe) en die kleine groep krijgt steeds meer in handen waar de rest van de wereld van afhankelijk is. Doordat AI in handen is van die kleine groep, is jezelf afhankelijk maken ervan zeer onwenselijk omdat het daarmee steeds lastiger zal worden om jezelf staande te houden. AI versterkt dus die ongelijkheid en daarmee ook de onrust wereldwijd.

Je zag in 2008 al met de bankencrisis dat de schuldigen geld moesten krijgen van de belastingbetaler omdat het laten omvallen van die banken nog veel schadelijker was. Kun je nagaan wat er gebeurt als de hele wereld afhankelijk is van een hele kleine groep en die groep komt in de problemen of besluit simpelweg dat je gewoon veel meer moet gaan betalen. Niet betalen is geen optie omdat je er van afhankelijk bent. Wat betreft het afhankelijk maken van de gebruikers, zijn er best veel overeenkomsten met drugsgebruikers en de grote drugsbaronnen.


IMHO is AI zoals het nu door je strot gedrukt wordt een heel gevaarlijke tool. En niet zozeer een tool voor de gebruiker, maar meer een tool voor die kleine groep die een hele grote groep afhankelijk maakt.

Het is gevaarlijk omdat het de al aanwezige problemen significant versterkt, maar ook omdat het mensen stimuleert om letterlijk 'dommer' te worden en daarmee het veel lastiger maakt om je los te wrikken van deze afhankelijkheid.
En door de enorme snelheid van de ontwikkelingen worden er vooral irrationele beslissingen genomen om die trein maar niet te missen waardoor de schommelingen veel heftiger worden.
Heel veel lezen en geïnspireerd zijn is wat anders dan een boek op de kopieermachine leggen, en een paar woorden veranderen.

Overigens wel eens met de rest van je betoog, dat het een instrument is. Het instrument kan goed of kwaad ingezet worden. De verantwoordelijkheid ligt hier voor een deel bij de gebruiker. En de gebruiker moet er mee leren omgaan.

Nu komen we op het volgende punt van de discussie. Kan een gebruiker - is een gebruiker sterk genoeg - om er mee om te leren gaan? Ik ben bang van niet. Het is als het ware alsof je een mens allemaal lekker eten voorschotelt, en zegt: je mag alleen sla eten. Het andere is te verleidelijk, en dan krijg je dat mensen gaan overtreden. Wij zijn immers geen computers die het verstand/gevoel uit kunnen zetten.

Daarom pleit ik er toch voor om het gereedschap slimmer te maken. Die hamer moet zo onaantrekkelijk mogelijk worden om er kwaad mee te doen. Hoe? Ik weet het niet. Misschien door AI te laten leren dat plagiaat plegen niet mag, en dit ook naar ge gebruiker toe te communiceren dat deze een overtreding begaat? Die AI's worden slim genoeg om dat te kunnen beredeneren lijkt me.
Inderdaad, laten we het over die I hebben, want een hoop mensen denken dat dit daadwerkelijk intelligentie is, alsin, informatie tot je nemen als een echt persoon, en dat is juist wat daar _niet_ gebeurd.

Zelfs het woord "trainen" is eigenlijk al verkeerd, wat het eerder doet is (delen van) de informatie kopieeren en daar weights aanhangen. Er is geen besef, or idee wat er nou exact in die tekst staat, enkel een relatie met andere woorden zodat er een relevantie score aan gehangen kan worden en de bot dit als zinnen eruit kan kakken wanneer er om gevraagd wordt.

Dat is dus heel wat anders dan iemand die een boek leest en daar inspiratie uithaalt. De "inspiratie" is in dit geval, letterlijk hele stukken overnemen. Dat maakt het regelrechte plagiaat. Het verschil tussen het kijken naar een schilderij en dan zelf wat schilderen (inpsiratie). Of er een foto van maken en claimen dat je het zelf geschilderd hebt (plagiaat).

Je zegt zelf al dat een voorspellingsmodel anders is dan een menselijk brein (komt er niet eens van in de buurt), dus waarom maak je dan toch deze vergelijking?
En op welke reden dan ook laat ik mij daardoor inspireren om een nieuw boek te schrijven, is dat dan ook plagiaat?
Op welke reden dan ook? nee.
Kan er sprake van plagiaat zijn: ja.

Een draak met hetzelfde postuur en dezelfde kleur, met een petje, met 4 vingers is inderdaad plagiaat als ik dat als persoon als kinderboek zou uitgeven.

En als ik dit artikel lees zitten er dus ook zinnen in die het letterlijk uit het orgineel heeft gehaald. Dat is soieso plagiaat.
Dit valt niet meer te ontkennen dat ze hier plagiaat plegen. Dit is niet meer een creatief afgeleid werk.
Tot hoe ver kan je met de huidige vormen van "AI" spreken van creativiteit?
Niet. Net zo min je kunt spreken over Intelligence. Maargoed, dat doen we ook allemaal.
Binnen de context van AI slaat “intelligence” niet op intelligentie in de klassieke, cognitieve betekenis (begrip, intentie, bewustzijn, doelgericht redeneren). Het verwijst naar een methodologische benadering. Systemen die gedrag vertonen dat functioneel lijkt op intelligent gedrag, zonder dat er sprake is van mentale toestanden.

Artificial Intelligence is een tak van ICT. In AI wordt intelligentie vaak operationeel gedefinieerd als: het vermogen om taken uit te voeren waarvoor normaal menselijke intelligentie nodig is.

Bron: ik heb (lang geleden) Kunstmatige Intelligentie gestudeerd :)
Interessant, dit is de eerste keer dat ik dat lees, nu had ik dit natuurlijk kunnen opzoeken, maar zou kunnen stellen dat dit woordgebruik ambigue is, ik, en misschien meer mensen, vatten dit niet op als:
Intelligentie in de context van een methodologische benadering
maar als intelligentie met een bewustzijn als basis. De vraag is dan, waarom wordt er geen term gebruikt die niet zo ambigue is?

Met de negatieve connotatie -slop dekt het de lading misschien, echter de (warning: triggerwoorden) hyperkapitalische ai-megatechbedrijven hebben liever niet dat we deze term gebruiken.
Het is gewoon een term uit de jaren '80 die is blijven plakken. Ook omdat het lekker bekt en gemakkelijk funding genereerde. Je zou het ook machine learning kunnen noemen.
Mooie uiteenzetting.

Wat we vergeten is dat als mensen iets produceren en verkopen, ze behoorlijk wat (inkomsten) belasting moeten betalen. Als machines en/of AI iets maken, is dat een heel ander verhaal. Dus is het financieel aantrekkelijk om de mens uit het proces te halen.

Als AI net zo zou worden belast als een mens, vraag ik me af of AI wel zo interessant is om 'content' te laten genereren. Gebruikt als ondersteunend gereedschap is het een ander verhaal. En dat maakt het een grijs gebied.
Dit valt niet meer te ontkennen dat ze hier plagiaat plegen
Het is geen plagiaat wat mij betreft.

Plagiaat is "het overnemen van stukken, gedachten, redeneringen van anderen en deze laten doorgaan voor eigen werk.

Dat is niet wat hier gebeurd. De uitgever heeft de AI expliciet gevraagd dit te maken en de uitgever heeft het volste recht om dat te doen. Je kan je afvragen wat de situaties is als een ander dit doet. Maar als het voor eigen gebruik is dan heeft de wet daar weinig problemen mee en iedere mensen kan een afgeleid werk maken. Dus waarom niet een tool.

Verbieden heeft ook geen zin. Een mens kan elk model "finetunen" door heb de boeken te voeren.

De suggestie hoe je het resultaat publiceert is ook niet gek. Als de uitgever had gevraagd of het wel of niet zo mogen dan had de AI geantwoord dat het niet mag als je de copyrights op de karakters niet bezit. Maar dat veranderd niets aan de methode voor publiceren. Er is verschil tussen de methode uitleggen en de legaliteit van die methode uitvoeren. Een boek publiceren is in zijn algemeen niet illegaal en een gebruiker kan toestemming hebben of zoals hier de uitgever zelf zijn.

Als iemand een boek zou publiceren dan kan je ze aanpakken voor copyright schending. Verder niet. En dat is genoeg.

De AI is een tool. Iedere tekenaar had op opdracht dat boekje dat de AI maakte kunnen maken, de teksten kunnen schrijven. De AI heeft niets nieuws of bijzonders gedaan dat niet al kon.

De AI is ook niets meer dan een encyclopedie. En die rippen toch ook niemand?

p.s. Als je mijn inzicht niets vind, kom met een tegenargument. Ga niet lopen -1 doen omdat de visie je niet aanstaat, daar is het niet voor bedoelt.

[Reactie gewijzigd door bzuidgeest op 2 april 2026 12:13]

Volgens die redenatie is de input voor de AI om zo'n boek te schrijven redelijk hetzelfde als wat je vroegah had met die torrent links. En toch werden sites als de PiratyeBay etc. wel degelijk juridisch aangepakt.

Het grote verschil is nu dan dat ze zelf ook nog eens het materiaal hosten.
Groepen als de piratebay werden aangepakt voor het expliciet faciliteren van copyrighted materiaal. Dat was het primaire doel van de site. En zelfs dan was het twijfelachtig geweest, maar die sukkels waren inderdaad ook nog eens zelf materiaal aan het delen.

Dat is echter niet waar voor openAI. Het primaire doel is verre van copyright schending. (wat sommige mensen in hun emotie ook beweren). AI is gewoon het nieuwe google en een generatieve tool zoals er al vele zijn geweest.

Torrent links hosten is niets illegaals aan. Genoeg linux distro's die dat ooit als distributie methode hadden (wellicht nog steeds). Die bundelen op een site is niet verboden.

[Reactie gewijzigd door bzuidgeest op 3 april 2026 14:10]

Ik begrijp niet goed waarom ze achter OpenAI aan gaan en niet achter de persoon die het AI-boek heeft gepubliceerd. De zin 'vrijwel niet te onderscheiden zijn' lijkt me ook behoorlijk overtrokken, afgaand op de afbeeldingen in het artikel. AI is gewoon een non-factor in dit verhaal, en iedereen met een greintje tekentalent had een dergelijke kopie van een Draakje Kokosnoot boek kunnen maken.
AI is gewoon een non-factor in dit verhaal, en iedereen met een greintje tekentalent had een dergelijke kopie van een Draakje Kokosnoot boek kunnen maken.
Klopt. Als OpenAI geen AI bedrijf was, maar gewoon een bedrijf dat door mensen tekeningen en teksten laat maken op verzoek, en ze produceren dit voorje, dan zou dat ook "Copyright-schending as a Service" zijn.

Nu gebeurt het door AI, maar dat is niet de belangrijkste factor. Waar het om gaat is dat het bedrijf (met of zonder welke techniek dan ook) Copyright-schending as a Service aanbiedt.

Eigenlijk hetzelfde verhaal als dat je "Nepnaaktbeelden ook met Photoshop kan maken". En dat als je dat als dienst aanbiedt (voor mensen nepnaaktbeelden photoshoppen) je ook fout bezig bent. Of je Deepfake-as-a-Service nou met AI of met manuele inspanning aanbiedt boeit toch ook weinig?

[Reactie gewijzigd door ZinloosGeweldig op 1 april 2026 20:13]

Het maken van de tekening is iets wat over het algemeen wordt gedoogd, en niet het echte probleem. Dat is het verspreiden ervan, een stap waar Open AI niets mee te maken heeft.

En goed, nu is het geen directe kopie omdat AI bestaat en is gebruikt. Zonder AI had de "schrijver" van het nep boek wellicht een kopieerapparaat gebruikt. Had Penguin dan Xerox aangeklaagd?
Ik vind dat de analogie naar "zonder AI" altijd op de verkeerde manier gemaakt wordt.

"Nepnaaktbeelden maken kan ook met photoshop dus gaan we Adobe aanklagen?"

Nee, maar een bedrijf dat op verzoek, zonder toestemming van rechthebbenden (in dit geval de persoon in kwestie), als dienst nepnaaktbeelden met photoshop produceert hopelijk wel.

"Kopieeren kan ook met een kopieerapparaat dus gaan we Xerox aanklagen?"

Nee, maar een drukker die op verzoek, zonder toestemming van rechthebbenden, 10.000 fysieke kopieën van andermans werk maakt met Xerox apparatuur hopelijk wel.

De bedrijven waar we het over hebben bieden niet alleen een tool aan, maar draaien die tool ook voor je en serveren je het resultaat.

[Reactie gewijzigd door ZinloosGeweldig op 1 april 2026 20:20]

Maar OpenAI maakt geen machine die specifiek gebouwd is om kinderboeken na te maken. Ze hebben een machine gemaakt waarbij je vrijwel alles kan maken, als je maar goed genoeg je best doet. Het is alsof ze de fabrikant van een potlood aanklagen omdat iemand er iets mee heeft nagetekend.
Opnieuw nee, maar iemand die revenge-porn voor je genereert met dat potlood als dienst wel.

Voordat ik op iemands tenen trap: ik snap best dat goed prompten ook een skill is en de een makkelijker een goed resultaat krijgt uit een AI opdracht dan de ander.

Maar hetzelfde geldt voor opdrachten die je aan mensen geeft. De een kan zijn wensen beter opstellen dan de ander en krijgt een beter resultaat als ze een dienst bij een ander bestellen.

Toch zeggen we nooit "Ik heb met een aannemer mijn woonkamer gestuct" maar "Ik heb een aannemer mijn woonkamer laten stucen" maar wel "Ik heb met AI iets nagemaakt" in plaats van "Ik heb AI iets voor mij laten namaken".

OpenAI biedt een tool aan die opdrachten aanneemt, deze voor je uitvoert met de middelen van OpenAI waarna OpenAI het aan je teruggeeft. In elke stap van het proces, van "tool aanbieden" tot "resultaat opleveren" is OpenAI gewoon volledig betrokken. Dat maakt het bedrijf gewoon hardstikke verantwoordelijk voor wat ermee gebeurt m.i.
edit:
Hierbij gaan we natuurlijk volledig voorbij aan het werkelijke vraagstuk: is het legitiem dat OpenAI een tool gemaakt heeft die getraind is op materiaal waarbij voor dat gebruik geen licentie verleend is.

[Reactie gewijzigd door ZinloosGeweldig op 1 april 2026 20:43]

OpenAI biedt een tool aan die opdrachten aanneemt, deze voor je uitvoert met de middelen van OpenAI waarna OpenAI het aan je teruggeeft. In elke stap van het proces, van "tool aanbieden" tot "resultaat opleveren" is OpenAI gewoon volledig betrokken. Dat maakt het bedrijf gewoon hardstikke verantwoordelijk voor wat ermee gebeurt m.i.
De allerlaatste stap van het proces, daar is OpenAI niet bij betrokken: het daadwerkelijk publiceren van het boek. Iets generen en aan de gebruiker laten zien is niet hetzelfde als publiceren.

De uitgevers hebben een groot probleem. Want hun hele business model is stuk aan het gaan. Uitgevers leefden namelijk van dat het produceren van content tijd rovend was (en dus geld waard was) en dat het bereiken van de massa (lees de boekwinkels) ook veel geld waard was.

Het internet heeft er al voor gezorgd dat publiceren veel gemakkelijker is geworden, en met AI word content maken veel makkelijker. Maar echt originele content bedenken.. dat is veel veel moeilijker dan het zoveelste vervolg van iets brengen en uitmelken.

Als ik na die cover kijk, dan zie ik maar 2 overeenkomsten: het lettertype lijkt inderdaad erg veel op het origineel, en het draakje is ook rood.

En de uitgever maakt een grote aanname; als OpenAI hun boekje niet in de dataset had zitten, dan zou dit er niet uitkomen. Wie weet is er wel een boek in publiek domein waar de uitgeverij het idee van het gebruikt..
Als ik na die cover kijk, dan zie ik maar 2 overeenkomsten: het lettertype lijkt inderdaad erg veel op het origineel, en het draakje is ook rood.
En het thema is hetzelfde, de stijl is hetzelfde en toevallig zijn de sidekicks van het rode draakje ook hetzelfde. Sorry maar je hebt wel behoorlijke kleppen voor je ogen als je nog zegt dat dit geen direct afgeleide kopie is.
Dit ziet voor mij echt uit als een 13 in een dozijn kinderboek. Niks bijzonders aan. En niet zo uniek en speciaal. Google voor de grap eens 'kinderboek ruimte' en ik zie er echt een heleboel die een vergelijkbare stijl hebben.
Maar de persoon die het vraagt had het recht op die kopie. Dat is namelijk de uitgever. Het is een uitgever die klaagt dat een tool iets doet wat hij mag doen voor de persoon waarvoor hij het doet.

Ze hebben pas misschien een zaak als ze aantonen dat hij het ook voor een ander doet. En zelfs dan is het twijfelachtig omdat je voor eigen gebruik heel veel mag.

Ze sturen aan op dat er ook publicatie instructie bij kwam. Maar vragen om dat soort instructie is geen misdaad.

Het is wel heel toevallig dat de uitgever niet de vraag stelde of er copyright issues waren om het resultaat te publiceren. Dat AI antwoord ontbreek. Typisch.
Opnieuw nee, maar iemand die revenge-porn voor je genereert met dat potlood als dienst wel.
Opnieuw fout. OpenAI levert geen revenge porn dienst. Ze leveren een teken tool. Wat je er mee tekent is aan de gebruiker. Je legt het verschil tussen wat de dienst is en wat de tool kan helemaal verkeerd.
Hierbij gaan we natuurlijk volledig voorbij aan het werkelijke vraagstuk: is het legitiem dat OpenAI een tool gemaakt heeft die getraind is op materiaal waarbij voor dat gebruik geen licentie verleend is.
Ik heb als mens ook geen licentie nodig om te leren. Waarom een tool wel? En mensen leren ook van wat anderen gemaakt hebben.
Het potlood is getrained om alleen gecopyright materiaal na te maken.... althans, dat moeten we maar aannemen want er is niet bekend wat het trainingsmateriaal is van OpenAI. Maar omdat ze een deal met Disney gesloten hadden en Meta betrapt is op het Anna archive binnenhalen is de kans dat er geen materiaal tussenzit 0%. Dus AI bedrijven verkopen een dienst om alleen maar gecopyright materiaal te reproduceren. De nuance die AI adepten maken is dat mensen niet anders doen (na het lezen van een boek zit die kennis ook in je hoofd). Verschil is wel dat AI bedrijven er alles aan doen om niet letterlijk teksten te reproduceren via system prompts. In het begin kun je de halve lord of the rings letterlijk uit de modellen trekken. De reden dat het nu lastig is is niet omdat de techniek anders is, maar omdat er nu in de (hidden) systeem prompt staat dat de AI dat niet meer mag doen. Ik ken weinig mensen die letterlijk de lord of the rings op kunnen dreunen en daar hun business model van gemaakt hebben.

Let wel: ik ben best voor AI maar we moeten niet doen alsof het niet een grote plagiaat machine is en daar mogen we best wat van vinden/tegenover stellen.
De dienst is niet naaktbeelden maken, de dienst is beelden maken naar aanleiding van een prompt. De controle en schuldige is de gebruiker. Elke dienst kan misbruikt worden, bij email heb je spam. Ga je email verbieden omdat sommige mensen er spam mee maken?
Ik heb nergens het woord verbieden gebruikt. Ik heb het gehad over verantwoordelijk zijn voor wat er met de dienst die je aanbiedt, beheert en draaiende houdt gebeurt.

Want ja, als je een e-mail dienst aanbiedt heb je ook een verantwoordelijkheid in voorkomen dat je platform als spam platform mis/gebruikt wordt.
Die discussie is er ook geweest rondom wapenfabrikanten en de eindstand is dat een leverancier van een product niet verantwoordelijk is voor misbruik van dat product. De wapen fabrikant is niet aansprakelijk voor moorden met die wapens. OpenAI levert een product dat niet primair bedoelt is voor copyright schending of plagiaat. Dat het er wel mee kan is niet relevant (en ik twijfel nog of dit kwalificeert in dit geval omdat Penguin een rechthebbende is en de vraag dus legaal kon stellen aan de tool).

OpenAI zal wel een een dealtje willen sluiten voor het gemak. Maar uiteindelijk zou als het op een zaak aankomt penguin dat verliezen. De prior art is gewoon duidelijk. En er zijn heel veel rechtszaken over de verantwoording voor je product geweest. Dit is een uitgemaakte zaak.

[Reactie gewijzigd door bzuidgeest op 2 april 2026 17:29]

Copyright-schending as a Service aanbiedt.
Dat doen ze wat mij betreft niet, ze bieden een content genererende tool aan. Wat ze die tool vragen te doen kan copyright schendend zijn, maar de vraag stellen aan de tool is dat niet. Als het voor eigen gebruik is, dan is de vraag gewoon toegestaan. Elke moeder of vader zou ook zelf voor eigen gebruik zo een boekje kunnen maken.

Als jij nep foto's maken als dienst aanbied dan ben jij fout. Maar niet photoshop, ondanks dat die tool de mogelijkheid bied. OpenAI bied een tool aan. Niets meer. Als jij die nepfoto's maakt voor je eigen fap plezier dan is dat niet strafbaar. Bedenkelijk wellicht. Maar verder niet.
Het gaat hier niet eens over een persoon die een boek heeft gepubliceerd?

Het legal team achter de uitgever van het origineel heeft getracht een "kopie" te maken van hun eigen populaire kinderboek dmv. ChatGPT. En de gelijkenis is dusdanig groot dat dit volgens hun grond is tot een aanklacht.
Dan vind ik het al helemaal onzin. Als je maar lang genoeg door gaat met prompten en informatie voeren kan je alles maken wat je wilt. Daarnaast lijkt de tekenstijl in de afbeelding voor geen meter op die van het echte boek.
Hoe weet chatgpt hoe coconut er uit ziet ? Jullie lijken er van uit te gaan dat de uitgever zelf heeft aangegeven hoe hij er uit ziet.

Hun hele punt is dat ze copyright schenden omdat hij weet hoe hij er uit ziet dmv copyright te schenden
team had prompted ChatGPT to write a story in the vein of Penguin author and illustrator Ingo Siegner’s Coconut the Little Dragon series.

In response to the prompt “Can you write a children’s book in which Coconut the Dragon is on Mars”, the chatbot generated text and images the publishing group said were “virtually indistinguishable from the original”.

As well as generating the text of a story, the AI-powered chatbot created a cover featuring Siegner’s orange dragon and two sidekicks, as well as a blurb for the back cover and instructions for how to submit the manuscript to a self-publishing platform.
Nee het is niet precies zo, maar lijkt er wel enorm op toch ?

[Reactie gewijzigd door Xfade op 1 april 2026 22:24]

Exact. Grote delen van het originele werk zitten dus in ChatGPT en kunnen door ChatGPT op commando gereproduceerd worden. Waarbij hele lappen tekst woord voor woord hetzelfde zijn. Terwijl ChatGPT nimmer toestemming heeft gehad om die tekst op te nemen in ChatGPT.

Penguin toont hiermee aan de techniek die ChatGPT gebruikt in staat is copyright schendingen te produceren. Waarmee ChatGPT deze schendingen faciliteert door derden toegang er toe te geven. Het is ChatGPT die de reproductie maakt, niet de gebruiker van ChatGPT.
Het is ChatGPT die de reproductie maakt, niet de gebruiker van ChatGPT.
Echter als ChatGPT helemaal niks afwist van dit boek, was het alsnog een eitje om dit voor elkaar te krijgen. Simpel weg door hem zelf voorbeelden voor te schotelen

is ChatGPT dan nog steeds de schuldige?
Dat kan niet als er daadwerkelijk hele lappen tekst exact hetzelfde zijn. Woord voor woord moet elke keer hetzelfde woordje voorspelt worden. Vroeg of laat zal er een ander woordje voorspelt worden. Dat is hoe het zou moeten werken.
Ik lees nergens dat de teksten identiek zijn, alleen dat ze niet van echt te onderscheiden zijn, maar wellicht begrijp ik dat verkeerd

Iig dat is dan makkelijk voor elkaar te krijgen door gewoon teksten in te voeren als voorbeeld. Dan schrijft ChatGPT in precies dezelfde stijl.
the chatbot generated text and images the publishing group said were “virtually indistinguishable from the original”.
Het probleem zit hem niet in stijl, het probleem is als de tekst praktisch hetzelfde is en niet van elkaar te onderscheiden is. Dat kan niet, de kans daarop is simpelweg te klein als je een LLM gebruikt. Tenminste, dat zou het moeten zijn.
Mijn inziens is het niet direct een copyrightschending wanneer de AI een concept heeft van wie en wat Draakje Kokosnoot is.

Daarnaast hebben chatbots als ChatGPT ook toegang tot het internet en kan er dus op basis van het prompt naar afbeeldingen en andere data zijn gezocht om tot dit eindresultaat te komen. Ligt de auteursrechtenschending dan bij de LLM of bij de prompter die vraagt naar een bepaalde stijl en karakter? Als je dit "puur" wilt testen moet je het in de image generator zelf doen.
Slaafse nabootsing/derivative art is niet toegestaan in de copyright-wetgeving. Dus het is wel degelijk een ding.
Slaafse nabootsing/derivative art is niet toegestaan in de copyright-wetgeving
is dit altijd zo of alleen als je het ook daadwerkelijk gaat verspreiden? want volgens mij kan ik best een compleet boek maken gebaseerd op Penguin, niet van echt te onderscheiden. Maar zolang ik het niet zelf publiceer is er niks aan de hand

Ik kan bijvoorbeeld claimen dat ik iets nagemaakt heb puur om te oefenen

[Reactie gewijzigd door Sinester op 2 april 2026 13:02]

Precies wat jij zegt. Ik ben wel heel benieuwd naar de prompt die ze gebruikten, want als je maar precies genoeg prompt kun je de cover van elk boek wel namaken, ookal heeft chatgpt het nooit gezien/gelezen.
team had prompted ChatGPT to write a story in the vein of Penguin author and illustrator Ingo Siegner’s Coconut the Little Dragon series.

In response to the prompt “Can you write a children’s book in which Coconut the Dragon is on Mars”, the chatbot generated text and images the publishing group said were “virtually indistinguishable from the original”.

As well as generating the text of a story, the AI-powered chatbot created a cover featuring Siegner’s orange dragon and two sidekicks, as well as a blurb for the back cover and instructions for how to submit the manuscript to a self-publishing platform.
?
Zelfde prompt geprobeert en kreeg iets heel anders dan het originele boek. Ook heel andere sidekick.

Ook totaal andere cover. Ik vermoed dat hun prompt toch wat uitgebreider was.

[Reactie gewijzigd door DarthSjaak op 2 april 2026 00:04]

Ik heb alleen het woord german toegevoegd aan de prompt en krijg toch een verhaal met toevallig ook een stekelvarken genaamd Mathilda en de groene draak heet toevallig ook Oskar.
Ik heb het originele kinderboek niet, dus kan de inhoud niet controleren, ook geen betaalde versie waardoor ik geen cover kan generen. ik begrijp hiermee wel de frustratie van de uitgever.
Ze schenden geen copyright. De uitgever had het volste recht die vraag te stellen. Dus er is geen probleem gedemonstreerd.

Een andere persoon mag het ook doen voor eigen gebruik volgens de wet. Dus ook daar geen probleem.

Instructies voor publicatie van boeken in het algemeen is ook niet verboden.

Als je de AI vraagt of je het recht had dit boek te publiceren dan had het antwoord waarschijnlijk bevat dat je dat alleen mag als je het copyright hebt. Maar die vraag heeft de uitgever voor het gemak weggelaten.

De geest is uit de fles. Als open AI het niet mag, dan doe je het toch gewoon met photoshop (AI) of met een lokaal model. Even finetunen en klaar.
Het gaat er dan ook niet om dat iemand met een beetje tekentalent dit kan kopieren. Je hebt 0 talent nodig.
Dat AI het makkelijker heeft gemaakt om iets (na) te maken doet niets af aan de regels. Iemand heeft dit boek gemaakt en gepubliceerd. Het is niet in een vacuüm ontstaan op ChatGPT.
Het zat al in de latent space van chatgpt te wachten ;-) Als ik een torrent download maar nooit kijk ben ik dan strafbaar?
Het artikel geeft het vrij duidelijk aan:
Penguin Random House stelt dat het ChatGPT-boek laat zien dat het taalmodel onrechtmatig het werk van schrijver Ingo Siegner heeft onthouden en lange stukken tekst woord voor woord kan delen.
NIemand heeft iets gepubliceerd, ze hebben dat AI boek zelf laten maken door ChatGPT en gaan daarmee naar de rechter. Niet omdat iemand het doet, maar omdat het kan.
Dan moeten ze zichzelf aanklagen... Ze hebben juist zelf gedaan om te kunnen vaststellen of de LLM gebruikt maakt van mogelijk illegaal verkregen data.
Als ik de tekenstijl van ChatGPT hierboven zie zou ik eerder denken dat het nog nooit een Draakje Kokosnoot boek heeft gezien.
Nou heeft de tekenstijl er niet veel mee te maken, gezien op een stijl geen copyright rust maar wel op een karakter. Het gaat er in dit geval dus om dat je met ChatGPT zowel in tekst als in beeld Der kleine Drache Kokosnuss kan kopiëren, tot gehele lappen tekst aan toe. En dat kan eigenlijk alleen als het model op die data getraind is, de kans dat een LLM toevallig 1-op-1 dezelfde tekst of afbeelding genereerd is namelijk miniscuul.
de kans dat een LLM toevallig 1-op-1 dezelfde tekst of afbeelding genereerd is namelijk miniscuul
Klopt, zelfs als er wel degelijk op het materiaal was getraind (wat ook niet verboden is, voor zover ik weet) zou dat niet moeten gebeuren. Eigenlijk kan dat alleen als een model "overtrained" is (i.e. het materiaal zit te vaak in de trainingsdata) of als de prompter behoorlijk veel informatie aan de AI heeft gevoerd. Zinsopbouw en taalgebruik zijn over het algemeen redelijk voorspelbaar, dus als het prompt alle onderdelen van het verhaal bevat en een gewenst publiek (i.e. de doelgroep van Draakje Kokosnoot) dan zou het me niets verbazen als de AI tekst dicht tegen de echte aanschurkt.

Mijn inziens wordt het pas problematisch wanneer men zonder verdere specificatie vraagt om een kinderboek en er dan een Draakje Kokosnoot verhaal uit komt rollen.
[...]

Mijn inziens wordt het pas problematisch wanneer men zonder verdere specificatie vraagt om een kinderboek en er dan een Draakje Kokosnoot verhaal uit komt rollen.
Als je zo'n ruime definitie neemt dan is er natuurlijk bijna nooit iets mis met AI of wat daar momenteel voor doorgaat.

AI is momenteel niet veel meer dan een kopieermachine op steroïden. Dat blijkt maar weer eens uit dit voorbeeld. Zeer handig voor taken waar kopiëren essentieel is (mailtjes beantwoorden, vragen beantwoorden bij de klantenservice, programmeren, etc). Minder handig bij het creëren van iets nieuws, laat staan origineels.
Je gaat wel even voorbij aan het feit dat de mensen die een kopie (voor zover je daarvan kan spreken) uit de AI halen dit ook enkel met die intentie voor elkaar hebben gekregen. Dat maakt het niet "een kopieermachine op steroïden", maar een machine waarmee je ook kan kopiëren. Je kan ook prima iets origineels maken met behulp van AI.

Als iemand Batman probeert te tekenen moet hij niet raar opkijken als hetgene wat hij heeft getekend uiteindelijk op Batman lijkt.
Het is geen machine waarmee je kan kopiëren zoals een kopieer machine. Het bron materiaal is al aan de machine toegevoegd. De machine is zelfs zodanig getraind dat die complete lappen tekst letterlijk woord voor woord kan reproduceren.

Als iemand Batman probeert te tekenen en het resultaat lijkt op Batman, dan kan die dat materiaal niet op het Internet in een afbeelding collectie verspreiden. De stelling maar het is de gebruiker die de afbeelding uit de collectie selecteert dus ik doe niks fout, houdt dan echt geen stand
De machine is zelfs zodanig getraind dat die complete lappen tekst letterlijk woord voor woord kan reproduceren.
Dat hoort een LLM in principe dus niet te kunnen. ChatGPT is echter ook in staat data die niet in de trainingsdata zit te vinden, te interpreteren, en vervolgens met of zonder bronvermelding aan de prompter weer te geven. De info in het artikel (en het bronartikel) is echter zodanig beperkt dat we geen flauw idee hebben of OpenAI überhaupt op Draakje Kokosnoot heeft getraind.
Vandaar de aanklacht van Penguin, ChatGPT hoort het helemaal niet te kunnen maar kan het kennelijk wel.

Penguin stelt:
In response to the prompt “Can you write a children’s book in which Coconut the Dragon is on Mars”, the chatbot generated text and images the publishing group said were “virtually indistinguishable from the original”.

Penguin Random House said the results of its prompts were “clear evidence” that OpenAI’s large-language model (LLM) had unlawfully “memorised” Siegner’s work.

“Memorisation” is a phenomenon whereby LLMs store large portions of some of the texts they have been trained on, and can reproduce long excerpts from those texts. In previous legal cases, AI companies have insisted this is different to a text being copied and saved on a database.

Coming from one of the largest publishing houses in the world, the lawsuit against OpenAI could set a precedent for other publishers.
Penguin Random House said the results of its prompts were “clear evidence” that OpenAI’s large-language model (LLM) had unlawfully “memorised” Siegner’s work.
Dat is het dus niet. Ik heb een LLM laatst ook vragen gesteld over een game die een paar dagen uit was, en kreeg daarop netjes de juiste antwoorden. Die informatie kon echter nooit in de trainingsdata zitten. Als er info zoals covers of misschien hele paginas van Draakje Kokosnoot online staan dan kan ChatGPT die vinden en er iets mee doen, zelfs als OpenAI de originele werken nooit heeft gebruikt voor training.
Dus er is maar een conclusie mogelijk: OpenAI moet de dataset die ze gebruiken voor training openbaren...
Dat heeft pas zin zodra er consensus is over de vraag of training an sich het auteursrecht schendt, en die is er volgens mij nog niet. Mocht die er wel zijn dan is het alsnog de vraag wie welke regels overtreedt wanneer een AI zijn data uit een zoekopdracht op internet haalt. Technisch gezien wordt er dan inderdaad een kopie gemaakt en iets met die data gedaan, maar in feite doet een (non-AI) browser (en waarschijnlijk legio andere onschuldige applicaties) dat ook.
Ik denk dat de route "via het internet gevonden" nauwelijks interresant is: als je IP claims doet dan ga je het niet uitgebreid op het internet zetten. Vandaar dus de trainingsdata openbaar maken als robuuste oplossing.
Jij en ik weten helemaal niet welke data er allemaal in deze kopieermachine zit en hoe die precies aan data komt. Of hoe er dan nieuwe data in terecht komt.

Feit blijft dat deze kopieermachines heel slecht iets origineels kunnen bedenken, maar wel heel erg goed zijn in het letterlijk of bijna letterlijk (re)produceren van bestaande teksten. Bovenstaand voorbeeld is daar een extreem voorbeeld van.
Bovenstaand voorbeeld is daar een extreem voorbeeld van.
Vindt je? Ik vindt dat het draakje, en dan vooral alles wat het draakje uniek maakt (petje, jetpack, redelijk uniek design voor de vleugels), voor geen meter lijkt. Als je hier geen Draakje Kokosnoot maar Dinotje Nootmuskaat boven zou plakken is het zo "legally distinct".
Het draakje is precies zoals AI een foto van mijzelf zou nemen en die dan om zou zetten naar een tekening. Is die 100% hetzelfde? Nee. Maar de gelijkenis is heel erg groot. Zo groot zelfs dat ik zou zeggen dat het een en hetzelfde draakje is.
Het enige wat echt direct te lijkt zijn overgenomen zijn de kleur en de snuit. De lichaamsbouw is gewoon een vrij standaard antropomorfische dinosaurus (zoals in Dinobabies bijvoorbeeld) en alle andere unieke elementen ontbreken.
Het is duidelijk: we worden het er niet over eens. Volgens mij zijn er meer dan genoeg unieke kenmerken overgenomen (kleuren, petje, vleugels). Als je een images search doet op Drache Kokonuss dan kom je heel veel afbeeldingen tegen en daar zijn de gelijkenissen volgens mij onomstotelijk.
Zij geven dus precies aan waar het probleem zit.

AI kan vrijwel alles "kopieren/namaken" en als je het er niet mee eens bent moet je ze maar aanklagen en hopen dat je een eventuele rechtszaak wint.

Dit is natuurlijk de omgekeerde wereld waarin je jezelf moet verdedigen tegen misbruikers van jou gegevens/data.
Wie stelt, bewijst (meestal)
Wat is het verschil met ander plagiaat of diefstal van geestelijk eigendom? Maar eigenlijk zit het probleem weer bij de promptschrijver en hoe deze met het resultaat omgaat. De promptschrijver gebruikt een bepaald concept van een boekenreeks om nieuwe boeken te genereren voor algemeen gebruik.
Nee het probleem zit niet bij de promtschrijver. Als OoenAI de data op illegale wijze heeft verkregen is het OpenAI die fout zit, niet degene die vervolgens al dan niet bewust gebruikt maakt van die data. Hoewel je nog zou kunnen aanvoeren dat het bewust gebruiken van de illegale data óók strafbaar zou moeten zijn, net zoals het bewust kopen van gestolen goederen.
Je zou ook een persoon de opdracht kunnen geven om een boek te schrijven in dezelfde reeks. Het duurt dan wel veel langer maar het resultaat kan ongeveer hetzelfde zijn. Heeft die schrijven die dan de boekenreeks gelezen heeft om het nieuwe boek te schrijven, gebruik gemaakt van illegale data?
Als die daar geen toestemming voor heeft gekregen? Ja.
De schaal. Dat is een belangrijk verschil. De zaken die tot nu toe de revue gepasseerd zijn laten zien dat bedrijven als OpenAI (en Anthropic en Meta) op grote schaal torrents binnenhalen en die gebruiken om te trainen en als je vraagt naar de gegevens dan doen ze moeilijk (bedrijfsgeheim enzo). Als iemand een Picasso natekent en verkoopt is dat iets heel anders dan 1 miljoen picasso's nabootsen voor 1ct per stuk. Ze faciliteren hiermee diefstal van intellectueel eigendom.
Daarom dat dit soort “openbare” AI verboden zou moeten worden. Als ik en model train op mijn eigen data en daarna zelf afgeleide werken maak prima … dat iemand anders op basis van MIJN data hun model traint om dat dan weer aan de man te brengen kan niet.

Maw openai moet kennis en kunde verkopen geen daadwerkelijk data
Ik heb het idee dat je niet weet hoe de techniek werkt. De data zit helemaal niet in het model. Kijk nou eens goed naar de covers in het artikel en vergelijk ze. Het enige wat echt enige gelijkenis vertoont is de titel. Het zou me niets verbazen als alle informatie over een rood draakje in een ruimtepak in een cartoony tekenstijl uit het prompt komt.

Je kan met je eigen data niet een volledig model trainen, en zelfs als je wel voldoende data had verzameld om dat te doen dan was het bijzonder inefficiënt als iedereen zelf de rekenkracht in gaat kopen om een model te trainen. Ja, je kan wel een model doortrainen om een bepaalde tekenstijl te leren of iets dergelijks, maar je hebt daarvoor wel een basis nodig.
Uiteraard slaat een AI (LLM of andere genAI) wél data op. Anders zou het immers niet in staat zijn om steekhoudende antwoorden te geven. Het trainingsmechanisme van een AI probeert immers een functie (gevormd door gewichten) te fitten die gegeven de input, zo goed mogelijk de output benadert. Bij een LLM, die next word prediction doet, moet de functie dus zo goed mogelijk het volgende woord kunnen geven op basis van de reeks voorgaande woorden. Doordat je die uitvoer weer aan de functie kan geven, hoort het op die manier de uitvoer te kunnen reconstrueren vooraleer je van een succesvolle training kan spreken. Die functie (in essentie de LLM) slaat dus op basis van de trainingsdata informatie op om die taak kunnen uit te voeren.

Het is geen exacte data-opslag, maar eerder een lossy opslag. Je kan data opslaan als vorm van kansrekening. En dat is exact wat een LLM doet. Bijkomende effect is dat het "nieuwe data" kan genereren doordat het een (wiskundige) functie is en geen directe data look-up in een database. Dat een predictor (wat een LLM is) aan compressie doet is overgens een gekend fenomeen.

Om een concreet voorbeeld te geven, vraag aan een image generator om de Mona Lisa zo correct mogelijk na te bootsen. Niet via een LLM die eerst de prompt uitschrijft, maar gewoon direct als text-prompt aan de generator: je zal zien dat het resultaat details bevat die ook in het origineel voorkomt, maar die je als mens nooit zou onthouden (exacte vorm van de achtergrond bijvoorbeeld). Verklaar eens hoe dit zou kunnen als de techniek geen data opslaat?

[Reactie gewijzigd door jerisson op 1 april 2026 21:27]

Ik zou je een plus willen geven, maar dat kan niet helaas. In tegenstelling tot de poster waarop ik reageerde weet je hoe de technologie werkt.

In mijn post was ik misschien niet helemaal duidelijk. Er zit wel degelijk data over de Mona Lisa en wellicht ook Draakje Kokosnoot in het model. Wat er echter niet in zit, zijn directe kopieën van de originele data. Het model "weet" vaag hoe Draakje Kokosnoot er uit zou moeten zien (rood met een ronde snuit) en heeft een aardig goed idee van wat een cartoony tekenstijl is. Voeg daar een prompt aan toe en de AI kan inderdaad iets genereren wat (in de verte) op de echte Draakje Kokosnoot lijkt. Het enige wat echt lijkt is de titel. Dit laatste is waarschijnlijk omdat er meerdere Draakje Kokosnoot boeken zijn met allemaal dezelfde gele letters. Het model is dus "overtrained" op die betreffende data en kan het veel beter namaken dan het draakje zelf (maar zelfs hier laat het nog steken vallen).

Dit is overigens gelijk waarom de Mona Lisa een slecht voorbeeld is. Er zitten zo veel kopieën van die afbeelding in de trainingsdata dat de AI hier eigenlijk te veel over weet, waardoor het resultaat meer een directe kopie lijkt dan een nieuwe generatie.

Wat precies de grens is tussen kopieën uit een lossy opslag of nieuwe generaties op basis van concepten blijft lastig. Ik vermoed dat hier nog wel wat uitspraken over worden gedaan voordat daar duidelijkheid in komt. Zelf betwijfel ik echter of dit in het voordeel van de bestaande uitgevers uit gaat vallen.
Als je een prompt kan kan maken: “teken een raket die in vorm en kleur lijkt op die van kuifje getekend door hergé.” … en de AI tool tekent een wit/rode sigaar vorm dan kan dat enkel wanneer de ai getraind werd op data waar deze “info” in voorkomt.

En ik heb het effe geprobeerd …. En je krijgt een perfect nagemaakte raket zoals die in de strips van kuifje

https://imgur.com/a/ai-ge...-comics-of-tintin-EgyFZXW

[Reactie gewijzigd door klakkie.57th op 1 april 2026 21:48]

En dan ga je naar Amazon en maak je gebruik van hun publishing opties om die AI boeken te verkopen.

En zo staat Amazon vol met AI slop.

Maar Amazon vraagt wel heel eerlijk of en hoe je AI gebruikt hebt in je boek.

Heel nobel. Om het vervolgens nergens te vermelden en ook niet te eisen dat dit vermeld word op de product pagina.
Hetzelfde gebeurt bij Bol. En ze doen er helemaal niks aan.
Boeken die (deels) (na)gemaakt zijn met AI, in ieder geval de covers dan, zijn jammer genoeg inmiddels ook al in de bibliotheek te vinden: https://www.reddit.com/r/ik_ihe/comments/1rznhrn/ik_ihe/

En ook bij o.a. bol zijn ze gewoon te koop. Ik heb hier de linkjes geplaatst zodat je de covers wat beter kan zien en ook de omslag kan lezen, die niet altijd even goed is gecontroleerd.
In Nederland is "Don't judge a book by its cover" geen gezegde, maar zolang de inhoud van het boek geen AI nonsens is zie ik het probleem niet zo? Had een stock image als cover het boek wel "waardig" genoeg gemaakt voor Bol en de bibliotheek?
Tja, als ze maar een Duits kinderboek over rode draken op de maan in de leer-data hebben zitten en je vraagt specifiek naar rode draken op de maan, krijg je iets wat lijkt op het origineel.
En dat is het punt natuurlijk. De uitgeverij heeft nooit een akkoord gegeven dat hun boek in hun leer-data mag zitten dus zou het er ook niet in mogen zitten. Maar de AI-boeren vinden dat ze grootschalig auteursrechten inbreuk mogen plegen terwijl je nog niet zo gek lang geleden mensen veroordeeld zag zien tot 100.00 per mp3'tje...
Waarom zou je nog boeken schrijven als iemand aan een AI kan vragen om een kopie van jouw werk te maken?
Tja, wat zal ik zeggen, ik zie genoeg afwijking in de twee plaatjes om hier over een kopie te spreken het enige wat neerkomt is de stelling van de characters, maar genoeg afwijkend vanhet origineel en de stand van de letters, het gebruikte font is ook niet gelijk.

Zolang we niet weten welke prompts de uitgever getest heeft voor het maken van het verhaal in kwestie kunnen we eigenlijk weinig afleiden of het model

a) getrained is op deze specifieke boeken en afbeeldingen (google maar eens op rood cartoon draakje)
b) is er gebruik gemaakt van context upload om het model te sturen naar een bepaalde richting met uitgebreide kennis van het doel je wilt behalen?
c) Het kan zijn dat er in de dataset helemaal geen boeken van deze uitgever gebruikt zijn, maar dat (delen) het boek via andere kanalen in de trainingsdata gekomen is (scholier uittreksels over die verhaal die delen van het boek copy/paste heeft in zijn/haar uittreksel), proef-lees delen (sommige websites geven een deel van het verhaal vrij in de hoop dat je op de aanschaf knop klikt)

Dus om gelijjk te roepen AI slecht, OpenAI is illegaal bezig... beetje voorbarig, maar dat is tegenwoordig het nieuwe woke denk ik zo... AI = bad... slop, stop...
Ie snuit van de draak is groter dan z'n helm. Malle Ai.
Tja wat is origineel, en wat is na-aperij en wanneer gap je een idee? Neem nu Robinson Crusoe, er zijn waarschijnlijk duizenden boeken die er door "geïnspireerd" zijn. Van drenkeling tot gestrande Astronaut op Mars (the Martian)

En Robinson Crusoe zelf was niet het allereerste boek over een drenkeling of iemand die op een onbewoond eiland strandt en zichzelf redt. Het genre van overlevingsverhalen op eilanden was er al eerder. Het oudste bekende werk is De lotgevallen van vijf matrozen (1656) van de Nederlandse schrijver Hendrik Smallegange, waarin vijf zeelieden schipbreuk lijden en maandenlang overleven op een onbewoond eiland voor de kust van Schotland. Henry Neville publiceerde in 1668 The Isle of Pines, een verhaal over een Engelsman die na een schipbreuk op een onbewoond eiland terechtkomt.

Om te kunnen reageren moet je ingelogd zijn