Google boekt overwinning in strijd om auteursrechten

De schrijver Gordon Roy Parker heeft zijn rechtszaak tegen Google verloren. Parker claimde dat de zoekmachine zijn auteursrecht had geschonden door delen van een e-book van zijn hand, die hij had gepubliceerd op usenet en zijn website, in de zoekindex en de cache op te nemen. Hiernaast had de schrijver nog tien andere aanklachten ingediend, waaronder schending van merkrecht, nalatigheid en misbruik van de rechtsgang. De rechter wees alle klachten af met verwijzing naar een uitspraak die een federaal hof in Nevada afgelopen januari deed in een soortgelijke zaak. Daar oordeelde de rechter dat er geen sprake was van opzettelijke schending van auteursrecht bij opname van webpagina's in de Google-cache, omdat dit nu eenmaal een geautomatiseerd proces was, waarop het bedrijf geen invloed kon uitoefenen. Er ligt echter ook een voorlopige uitspraak van vorige maand van een rechter in Los Angeles, die bepaalde dat opname door Google van de pornoplaatjes van het bedrijf Perfect 10 waarschijnlijk wel op auteursrechtinbreuk neerkwamen. Parker heeft al aangekondigd tegen het vonnis in beroep te zullen gaan, zodat het laatste woord hierover nog niet is gesproken.

Google gebouw

Door Arie Jan Stapel

Nieuwsposter / PowerMod

17-03-2006 • 16:03

28

Submitter: remy007

Bron: Cnet News

Reacties (28)

28
28
12
1
0
12
Wijzig sortering
Daar oordeelde de rechter dat er geen sprake was van opzettelijke schending van auteursrecht bij opname van webpagina's in de Google-cache, omdat dit nu eenmaal een geautomatiseerd proces was, waarop het bedrijf geen invloed kon uitoefenen.
helemaal mee eens, terwijl juist Gordon Roy Parker WEL iets had kunnen doen TEGEN de google (en andere search engines) via een robots.txt file
Google kon wel degelijk iets doen. Ze beheren immers de systemen en hebben zelf het beleid aangenomen wat ze wel en niet accepteren. Zo nemen ze bewust sommige zaken niet op in de cache en andere wel.
Wie een geautomatiseerd systeem zo instelt om er gemakkelijk van af te komen is net zo verantwoordelijk voor het opslaan en beschikbaarstellen van autheursrechtelijk materiaal en kan dat dus niet op de slaafse werking van het systeem schuiven. Google wordt er immers zelf beter van, niet het systeem.

Dat van die robots.txt is geen oplossing voor het probleem. Waar het gepubliceerd werd stond niet onder zijn beheer.

Hij had overigens wel degelijk maatregelen genomen. Onder restricties publiceren en in text vastleggen dat er autheursrechten op een rusten moet ook voldoende zijn om aan te geven dat personen of systemen er ongegeneerd mee doen wat ze willen. Dat een systeem te 'dom' is om dat te snappen omdat zijn beheerder geen zin heeft om op dit soort zaken te letten is het probleem van de beheerder van het systeem en dus Google, niet van de persoon die de rechten op het stuk heeft.

Dat is ook wel bewezen: er zijn behoorlijk wat systemen die media waar copyright en autheursrechten op rusten klakkeloos overnemen en daar wordt zeer zwaar tegen opgetreden. Zelfs als het niet geschreven in die media vermeld staat.
Dat van die robots.txt is geen oplossing voor het probleem. Waar het gepubliceerd werd stond niet onder zijn beheer.
Dan had hij eisen moeten stellen aan de beheerder van de site waar het werd gepubliceerd. Die is dan immers verantwoordelijk?
Hij had overigens wel degelijk maatregelen genomen. Onder restricties publiceren en in text vastleggen dat er autheursrechten op een rusten moet ook voldoende zijn om aan te geven dat personen of systemen er ongegeneerd mee doen wat ze willen. Dat een systeem te 'dom' is om dat te snappen omdat zijn beheerder geen zin heeft om op dit soort zaken te letten is het probleem van de beheerder van het systeem en dus Google, niet van de persoon die de rechten op het stuk heeft.
In 2006 is het nog steeds zo dat je om een systeem iets te laten 'snappen', er regels gelden. Voor het indexeren van webpagina's is de robots.txt imo een volledig geaccepteerde methode. Weet jij een betere methode om aan systemen te laten weten wat ze wel/niet mogen verwerken? De tekst 'dit document valt onder auteursrecht' opnemen ofzo? Dat is toch ook een regel? Net als robots.txt?


@SuperDre:
De machine vraagt ook toestemming... door robots.txt te controleren.
En ja, dat vraagt actie van jou, maar als je een boek uitgeeft moet jij ook actie ondernemen om voorin een paar regels mbt copyright te plaatsen?
ik weet een betere oplossing ja, de machine moet toestemming vragen.. hoe? dat is zijn probleem..
Sorry hoor, maar waarom moet IK iets toevoegen op mijn site zodat bepaalde zoekmachines niet mijn site doorspitten en publiceren.. zo zou ik dus zeker elke zoekmachine moeten bekijken hoe ik er voor moet zorgen dat die niet bij mij de boel doorspit.. het moet juist andersom zijn, de zoekmachine moet maar toestemming aan mij vragen of het delen van mijn site mag publiceren..
Dit zijn wel zaken die typische precedenten scheppen. Iemand met een enorme lading kinderporno op zijn pc kan dus zeggen "ik kan er niks aan doen, het binnenhalen en opslaan was een geautomatiseerd proces".
En dan in combinatie met de beroemde "officier van justitie"-uitvlucht: "het was bijvangst aan een geautomatiseerd proces".
Als iemand aannemelijk kan maken dat het onderdeel was van een geautomatiseerd proces of hij er iig niet bewust zelf naar gezocht heeft ..
Is het toch heel normaal als zo iemand vrij komt?
Ik mag juist hopen dat rechters de mogelijkheid daartoe open laten.

Als iemand op basis van onschuldige zoekwoorden en onschuldige bestandsnamen zulke dingen download en pas bij het bekijken merkt dat het 'verkeerde' files zijn en dan misschien niet weet hoe zulke bestanden te verwijderen (ja, dat komt vaak voor, zeker bij een grote doelgroep van P2P-downloaders als Kazaa)..

Zo iemand zou toch niet veroordeeld moeten worden wegens het bezit van kinderpornografie ...?
ja dom is hij wel, maar zulke donheid al als 'strafbaar' te zien, dan sla je erg door in een 'paranoide jacht' op alles wat je niet bevalt.

Juist om zulke zaken kent ons Wetboek van Strafrecht begrippen als 'kwade wil' en slechte intentie en kent men een verschil tussen 'bewust' en gericht de wet overtreden....

In dit geval heeft Google heel gelijk dat het voor hen onmogelijk is om te controleren of zaken die geindexeerd worden 'auteursrechterlijk beschermd' zijn.. Dat had die aanbieder ook kunnen weten toen hij zijn werken via Usenet verspreidde.
Anoniem: 76058 @CopyCatz17 maart 2006 16:49
Dit zijn wel zaken die typische precedenten scheppen. Iemand met een enorme lading kinderporno op zijn pc kan dus zeggen "ik kan er niks aan doen, het binnenhalen en opslaan was een geautomatiseerd proces".
En dan in combinatie met de beroemde "officier van justitie"-uitvlucht: "het was bijvangst aan een geautomatiseerd proces".
Dit is wel een geldig excuus. Er zijn al een aantal keer mensen betrap met porno die afkomstig was van een virus. Deze mensen waren ontslagen of vervolgt, tot het bleek dat dit het werk was van deze virus, en niet van hun toedoen.

Om die kinderporno voorbeeld effe aan te halen. Het binnenhalen was een geautomatiseerd proces. Fine, maar om dat process geautomatiseerd te maken, moest de gebruiker een programma installeren, of enkel zaken uitvoeren. En bingo, daar gaat je excuus.

Nu, als je een virus binnenkrijgt, of er zit een programma verborgen in een legaal programma, en deze haalt de kinderporno binnen, dan ben je NIET verantwoordelijk.

Het grote probleem is & blijft het bewijzen dat je het niet gedaan hebt.

Google & hun cache systeem is een totaal andere zaak. Google is een seach & index engine. Een bedrijf dat zich daarin specialiseerd. De engine discrimineert niet tussen sites. En daardoor worden er idd zaken geindexeerd die mechien niet zouden mogen.

Stel, je start een programma om een website volledig te downloaden. In deze website was er ergens een prive archief van de webmaster met kinderporno. Je kon dit deel enkel maar vinden achter een verborgen link op een pagina. Voor je spider programma is dat kinderspel om te vinden, en plop, hij haal de site binnen, maar ook de illegale kinder foto's. Je bent niet schuldig omdat het programma dat binnenhaalde he.

En nu beginnen we effe met mindgames. Moest die persoon dat met opzet zo doen, om zo een methode van onschuld te behalen, je mag er zeker van zijn, zo een mensen maken fouten. Dan zullen ze nog andere "sites" bezocht hebben met deze content, of and bewijs achter gelaten hebben. Je zou verbaast zijn hoeveel bewijs er achter blijft op je hd & internet van je acties. Zo een mensen zijn vaak niet aan hun proefstuk toe, en men kan deze hun acties wel achterhalen.
Als iemand een aantal kinderporno plaatjes op z'n computer heeft, die meegekomen zijn met het automatisch leechen van allerlei (al dan niet porno) sites, vind ik niet dat hij ervoor veroordeeld zou moeten worden. Daar komt bij dat je door het geautomatiseerd per ongeluk downloaden van die plaatjes geen kinderpornonetwerken in stand houdt of financiëel steunt, dus gebeurt er in principe niet echt iets ernstigs.
Auteursrechtelijk zit er wel degelijk een verschil in het geschreven woord en het beeldrecht. Ik kan me dus wel voorstellen dat Google bij het linken naar foto's veel eerder schuldig wordt bevonden aan schending van deze wetten dan bij het linken naar teksten.
Zou je dat verschil kunnen onderbouwen? Een recht op eigendom op tekst, muziek, illustraties, foto's of bewegend beeld of zelfs kunstobjecten verschilt namelijk bijna nergens. Wat wel verschil maakt is de wijze waarop je het vrijgeeft en wat je er bij zet aan rechten.
Anoniem: 64607 17 maart 2006 18:33
Volgens mij halen hier vele mensen het indexeren en het cachen van een site volledig door elkaar. Zonder indexeren kan Google niet werken zoals het nu werkt. Zonder cache waarschijnlijk ook niet, maar moet de mogelijkheid bestaan dat een site die de web-master offline gehaald heeft nog zichtbaar is door op 'cache' te drukken in de google search resultaten. Het cachen zelf kan je wat mij betreft zien als thuiskopie, maar het vrijgeven ervan aan gebruikers is als het ware het doorverkopen van het orgineel. Het is en blijft een kopie van de site en zoals iemand boven heeft aangegeven bepaald niet Google (dmv zijn geautomatiseerd process) wanneer een copyright rechtsgeldig is, dat bepaald volgens mij de copyright wetgeving. En zover ik weet staat daarin dat het vermelden van een copyright op een werk voldoende is. Wat mij betreft heeft hier de rechter een fout oordeel getroffen. (maar ja wie ben ik ... ik ben geen advocaat/rechter)
En zover ik weet staat daarin dat het vermelden van een copyright op een werk voldoende is.
Juist, en van iemand die werk publiceert op het web (of dat deze persoon is of iemand waar hij dat aan uitbesteed) mag worden verwacht dat hij/zij weet dat je copyright op het web ook aan zoekmachines moet laten weten. Daarvoor is een breed geaccepteerde methode beschikbaar, namelijk de robots.txt.
Tenzij Google een geldig opgebouwde robots.txt heeft genegeerd, zie ik niet in wat Google hier verkeerd heeft gedaan?

Ik denk dat het probleem vooral zit in de laagdrempeligheid om op het web te publiceren, waardoor een publicist zich niet voldoende verdiept in de regels van het medium dat hij wil gebruiken.
Elke uitgever weet toch ook wat hij voorin een boek moet drukken om het auteurrecht geldig te laten zijn? Dan mag je imo van een online-uitgever ook verwachten dat hij op de juiste wijze gebruik maakt van de daarbij geldende regels.
Elke uitgever weet toch ook wat hij voorin een boek moet drukken om het auteurrecht geldig te laten zijn?
Ja, namelijk helemaal niets. Auteursrecht is al geruime tijd "automatisch". Er is geen expliciete auteursrechtvermelding noodzakelijk; het is aan degene die het materiaal verwerkt om vast te stellen in welke gevallen kopiëren toegestaan is. Standaard dus helemaal niet. Natuurlijk laten uitgevers liever niets aan het toeval over, zodat niemand onwetendheid aan kan voeren.

Kopiëren op het Internet is weer een ander verhaal, want hoewel het auteursrecht daar net zo goed geldt, is een argument aan te voeren dat een beperkt recht op kopiëren inherent is aan het medium waarin je publiceert. Denk hierbij bijvoorbeeld aan Usenet; dat werkt helemaal niet als berichten niet gekopieerd zouden mogen worden. Maar IANAL (of is dat IBGA in het Nederlands?), en het is een lastig onderwerp.
Anoniem: 64607 @BertS17 maart 2006 21:19
Dus omdat meneer X een digibeet is mag ik opeens zijn werk jatten. De vraag is gewoon of de robots.txt als rechtsgeldig middel gezien mag worden. Robots.txt is door iemand ontwikkeld en algemeen geaccepteerd, maar is dat genoeg om in de rechtbank stand te houden. Laten we zeggen dat ik een robot bouw die als invoer boeken heeft en als uitvoer digitale boeken die geplubiceerd worden op het net. Deze robot checkt op de volgende eigenschappen om te bepalen of een boek beschermd is of niet: Er is een ISBN nummer of het woordje Copyright komt er in voor. Nu breng ik prive een boek op de markt zonder ISBN en helaas wordt in mijn boek het woordje Copyright onderbroken door een streepje om aan te geven dat het woord verder gaat op de volgende lijn. Ga jij dan maar aan de rechter uitleggen dat jou zelf uitgedachte procedure toch voldoende moet zijn en dat de schrijver van het boek fout zit.
Zodra je iets op internet publiceert weet je toch dat dit in allerlei zoekmachines zal terecht komen (zeker op usenet). Als je je daar niet in kan vinden dan doe je dit niet of plaatst een robots.txt bestand met

User-agent: *
Disallow: /

op je server dan ben je er ook vanaf. Tegenwoordig wordt er om het minste een rechtzaak aangespannen :r
tegenwoordig? in amerika doen ze al eeuwen (bij wijze van) over de meest onzinnige dingen een rechtzaak
Anoniem: 95032 17 maart 2006 16:17
Hoeveel mensen gaan er nu nog zeggen dat ie maar een robot txt had moeten zetten? :Z
16:08
16:09
16:09

allemaal dus waarschijnlijk tegelijk begonnen he? :Z

en we hebben allemaal gelijk! |:(
Zet je iets op het internet, dan wordt het gevonden :+
Parker claimde dat de zoekmachine zijn auteursrecht had geschonden door delen van een e-book van zijn hand, die hij had gepubliceerd op usenet en zijn website, in de zoekindex en de cache op te nemen.
Het is toch niet raar dat Google je boek indexeerd, als je het zelf op internet zet? :? Dan had-ie maar zo'n bestand erbij moeten zetten dat ie niet door zoekmachines geindexeerd wou worden (robots.txt ofzoiets).
Een ding snap ik niet: je zet iets op internet zodat mensen het kunnen lezen, google mept het in een cache zodat mensen het kunnen vínden (een niet onbelangrijke voorwaarde alvorens het te kunnen lezen), en vervolgens ga je daarover zeuren?
edit: dubbelpost doordat Konqueror zei dat de "pagina niet gegenereerd kon worden door een foutieve aanroep" (ofzoiets), waardoor ik dus weer dacht dat de post was mislukt :+ (daar gaan me punten ;) )

Op dit item kan niet meer gereageerd worden.