Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties

Een Texaanse rechter heeft bepaald dat het auteursrecht niet geschonden wordt als een zoekmachine gecachete internetpagina's aanbiedt. Wie zijn webpagina niet wil laten cachen, kan dat immers simpel vermijden, aldus de rechter.

rechter / hamerDe zaak was aangespannen door Gordon Ray Parker, een schrijver die sommige van zijn verhalen publiceert op een gratis toegankelijke website. Diverse zoekmachines hadden pagina's daarvan in hun cache opgenomen, en toonden ze desgevraagd ook van daaruit. Dit was zeer tegen de zin van Parker, die deze mogelijkheid als een schending van zijn auteursrecht beschouwde. Hij klaagde Yahoo en Microsoft aan, omdat hij het tonen van de pagina's vanuit de cache als het verspreiden van zijn werk zonder zijn toestemming zag.

Voor de rechter wezen de aangeklaagden erop dat als Parker niet zou willen dat zoekmachines zijn pagina's indexeren of uit de cache weergeven, hij dit zeer eenvoudig zou kunnen aangeven in het bestand robots.txt. Hetzelfde zou hij kunnen bereiken door de tag 'no-archive' te activeren. Door geen gebruik te maken van deze mogelijkheden had hij volgens de gedaagden impliciet toestemming gegeven de pagina's via de cache te verspreiden.

Rechter Mary McLaughlin kon zich in deze argumentatie vinden en wees er in haar vonnis op dat robots.txt en no-archive algemeen geaccepteerde standaarden zijn, waar Parker mee bekend had moeten zijn. Ze verklaarde de meeste claims van Parker dan ook ongegrond, zo meldt Out-law.

De rechter ging wel mee in Parkers klacht dat de zoekmachines nog steeds de pagina's cacheden nadat Microsoft en Yahoo door hem waren aangeklaagd. Volgens de rechter was het vanaf het indienen van de aanklacht duidelijk dat Parker geen toestemming had gegeven voor verdere verspreiding van zijn werk, en hadden de zoekmachines Parkers pagina's daarop meteen uit hun cache moeten verwijderen. Over dit deel van de aanklacht wordt later beslist.

Moderatie-faq Wijzig weergave

Reacties (49)

Klinkt als een goed oordeel, ik kan inderdaad op iedere beetje search engine de uitleg vinden over robots.txt en de no-archive tag om aan te geven wat er wel en niet met een pagina gedaan mag worden door de search engine.

Het enige probleem dat ik heb met het oordeel van de rechter is dat de search engines deze pagina's hadden moeten verwijderen op het moment dat ze aangeklaagt werden. Het is een beetje in tegenspraak met het eerdere oordeel over robots.txt en no-archive. Als Microsoft en Yahoo de pagina's uit hun systeem zouden gooien dan zouden hun crawlers de pagina's weer net zo makkelijk toevoegen omdat de robots file dit niet verbood en cachen door dat er geen no-archive tag gevonden kon worden. Als een search engine aan hun crawlers een lijst moeten gaan voeren die de indexing van bepaalde pagina's tegengaat zelfs als de auteur van die pagina de moeite niet neemt een robots file neer te zetten dan gaat dat een hele zware wissel trekken op de snelheid van de crawler en zal uit eindelijk de search engine van het betreffende bedrijf gewoon outdated raken door dat de crawler langer bezig is met deze extra lijst door lopen bij iedere gevonden link dan zoeken naar nieuwe links en het updaten van bestaande links.

Maar goed hoe dan ook deze uitspraak kon ook nog wel eens gevolgen hebben voor bedrijven als Google met hun image search waar wel spraken was van autears rechten inbreuk ondanks dat de cache alleen sterk verkleinde afbeldingen bevat, ik ben bang dat dit nog wel eens tot aan de hoogste regionen van het Amerikaanse gerecht zal moeten worden uitgevochten voor dat er echt duidelijkheid is over de legaliteit van het geen er in de cache van een search engine staat.
Ik vraag mij eigenlijk af of de cache functie van zoekmachines sowieso wel gebruikt wordt door de gemiddelde internetter.

Zelf gebruik ik het soms als ik op zoek ben naar een mogelijke oplossing voor een specifiek probleem en Google komt met een forum pagina (meestal index met de nieuwste topics) waar het topic niet meer op te vinden is. Een gemiddelde gebruiker zie ik echter echt niet zo snel de cache functie gebruiken.

Je kunt je ook afvragen of een cache functie in 9 van de 10 gevallen wel nodig is of dat het er alleen is omdat een zoekmachine zijn werk niet goed doet. Stel je zoekt op "probleem X" en Google komt met de index pagina van een forum waar de nieuwste topics op staan. Het topic "probleem X" is daar niet meer te vinden. Als Google goed zou indexeren en up-to-date zou blijven dan zou die index met "probleem X" helemaal niet in de zoekresultaten naar voren moeten komen. Google zou dan de pagina van het betreffende topic i.p.v de index in de zoekresultaten moeten laten zien.

Blijkbaar vindt Google zo nu en dan de index pagina waar nog tientallen andere topics opstaan die niet relevant zijn voor "probleem X" relevanter dan de pagina waar "probleem X" daadwerkelijk wordt besproken. Terwijl voor de gebruiker laatstgenoemde juist relevanter is.

[Reactie gewijzigd door Dlocks op 30 oktober 2008 11:49]

omg. Ik had niet verwacht dat Gordon Ray parker nog een keer op tweakers zou komen. Hij was al eerder op het nieuws hier:
nieuws: Google boekt overwinning in strijd om auteursrechten

hij is nogal berucht op nieuwsgroepen en valt veel mensen lastig. Velen zeggen dat hij psychisch niet spoort en als je zijn geschiedenis bekijkt, lijkt me dat niet zo heel erg vreemd. als je wilt weten wat hij allemaal post, kan je zoeken op zijn meest gebruikte pseudoniem Ray Gordon. Dan heb je wel de meeste berichten. Waar je dan achter komt is dat hij veel onwaarheden en paranoïde gedachten op na houd. Bijna elk forum waar hij op komt en gaat posten, word hij in zeer korte tijd gebanned. Nieuwsgroepen zijn zijn enige toevluchtsoord omdat daar geen controle is. Hij is nog erger dan de standaard internet-troll want hij valt ook mensen irl lastig als hij persoonlijke informatie te pakken kan krijgen. Daarom had hij Google ook al een keer aangeklaagt omdat die alle berichten van nieuwsgroepen bewaard (wat nogal slecht is voor zijn "reputatie").

vanwege zijn paranoïde gedachten meent hij dat bedrijven zijn boeken kopiëren en vervolgens voor grof geld verkopen (wat knap zou zijn want het meeste wat hij schrijft is onlogisch gebrabbel). Daarom heeft hij Google ook aangeklaagd omdat die zijn boeken cachet die hij zelf online heeft gezet.
Wat ik wel knap vind, is dat hij niet zou weten dat google alles cached terwijl hij ook al een tijd had beweerd een professioneel webdesigner te zijn (en professioneel schaker, hypnotist, gokker enz. enz. te erg voor woorden).
Goede uitspraak, want een vreemde aanklacht van Parker. Eigenlijk zegt hij dus dat het bekijken via de gratis toegankelijke website door, zeg, 1000 dus niet betalende mensen geen schending van zijn copyright is, maar als 10000 mensen het kunnen bekijken doordat het in de zoekresultaten van Google verschijnt is het dat ineens wel.

Met twee maten meten heet dat geloof ik. In plaats van een aanklacht indienen voor, nogmaals, GRATIS ter beschikking gesteld materiaal zou hij juist blij moeten zijn met de extra publiciteit die hij ermee krijgt. Misschien kan ie dan in de toekomst nog wat extra boeken verkopen.
Eigenlijk zegt hij dus dat het bekijken via de gratis toegankelijke website door, zeg, 1000 dus niet betalende mensen geen schending van zijn copyright is, maar als 10000 mensen het kunnen bekijken doordat het in de zoekresultaten van Google verschijnt is het dat ineens wel.
Ja en daar heeft hij groot gelijk in. Copyrightschending zit 'm niet in het aantal mensen wat het bekijkt, maar wie het aanbiedt. In het eerste geval doet hij het zelf. In het andere geval doet Google dat (maar 't ging hier niet om Google, geloof ik).

Vergelijk 't met een man die zijn gedichten in 't Vondelpark ten gehore brengt. Dat doet hij openlijk, vraagt er niemand geld voor, maar legt wel een pet met wat muntjes voor z'n voeten. Hier haalt ie een euro of wat per week mee op. Niet schokkend, maar wel leuk.

Nu komt meneer Yahoo! langs, en gaat de gedichten opnemen en zelf verspreiden en vangt daar ook wat geld voor (zal ook niet spannend veel zijn, maar aangezien meneer Yahoo! het erg vaak doet is het "vaak x niet spannend veel" en dan is 't in eens wel weer leuk).

Nou blijkt later dat meneer Yahoo! wel in zijn boekjes zet dat als je dit niet wilt, je een briefje op je rug moet prikken, zodat hij weet dat je 't niet leuk vindt.

Is meneer Yahoo! nu op z'n minst gezegd vreemd bezig?
Met twee maten meten heet dat geloof ik.
Aan de andere kant, als website X een artikel van website Y volledig copy/paste naar zijn eigen website met bronvermelding dan vinden 'we' het normaal en logisch dat dit niet toegestaan is. Dus als je het hebt over 'met twee maten meten' zou je dat er ook bij moeten betrekken.

[Reactie gewijzigd door Dlocks op 30 oktober 2008 12:01]

Ik begon er al aan te twijfelen of er nog wel rechters met verstand waren, maar deze uitspraak geeft me weer een sprankje hoop.
Dit vind ik echter nog wel een beetje zorgwekkend:
De rechter ging wel mee in Parkers klacht dat de zoekmachines nog steeds de pagina's cacheden nadat Microsoft en Yahoo door hem waren aangeklaagd.
Dat zou inhouden dat als iemand de heren Google en Yahoo! duidelijk maakt dat hij zijn pagina's niet in de cache wil hebben, ze daar expliciet rekening mee moeten gaan houden. in plaats van robots.txt aanpassen, zodat alles geautomatiseerd gaat, kan ik de zoekmachines dus ook een brief sturen zodat ze me handmatig moeten toevoegen aan een exclude lijst en uit de cache moeten houden.
  • Niet iedereen heeft de rechten om dat te doen
  • Niet iedereen heeft de kennis om dat te kunnen
  • Niet iedereen heeft de tijd om zich daar mee bezig te houden
  • Niet iedereen is van te voren op de hoogte van het opslaan in cache geheugen
Zomaar wat redenen. Kortom, niet iedereen is ict'er en weet de klappen van de zweep. Er zijn ook mensen die zich met hele andere dingen bezig willen houden. Het is dan ook een beetje de omgekeerde wereld dat alles maar gecached wordt, en dat je je moet verdiepen in het uitschakelen ervan als je überhaupt al op de hoogte bent.
Niet iedereen wil zijn rijbewijs halen om auto te kunnen rijden maar dat is nog geen reden om dat dan maar mogelijk te maken.

Als je een website start en je loopt tegen het cachen van de pagina's aan dan zijn er bronnen genoeg die je vertellen hoe je dat kunt voorkomen, in dit geval krijg ik alleen maar het gevoel dat meneer op geld uit is.

Het is een beetje de omgekeerde wereld dat de regels van het internet aangepast moeten worden aan 1 persoon die niet de moeite heeft genomen om zich in deze "regels" te verdiepen
Niet iedereen wil zijn rijbewijs halen om auto te kunnen rijden maar dat is nog geen reden om dat dan maar mogelijk te maken.
Ik zie wel waar je heen wilt met deze uitspraak, maar in mijn optiek slaat je beeldspraak als een tang op een varken. Ik snap de ballen van auto's (technische gedeelte). Ik hoef ook helemaal niets te snappen van de motor om een rijbewijs te halen. Een webmaster hoeft dus ook niet in alle "regeltjes" te verdiepen. Die moet gewoon z'n dreamweaver/frontpage/cms opstarten en vlammen.
Het is een beetje de omgekeerde wereld dat de regels van het internet aangepast moeten worden aan 1 persoon die niet de moeite heeft genomen om zich in deze "regels" te verdiepen
Het is helemaal geen regel van het internet, of laat ik 't anders zeggen: ik ken geen RFC die het beschrijft. Het is een ongeschreven regel die aan alle kanten genegeerd wordt (ok, de grote heren zoekmachines houden zich er redelijk aan).

Het is _juist_ de omgekeerde wereld om regels van een derde partij, waar jij niets mee van doen hebt, als uitgangspunt te nemen voor misbruik van jouw data door de derde partij.
Mensen die zoiets simpels niet kunnen nakijken en toepassen mogen zich in mijn ogen geen webmaster noemen
Sorry, maar als jij de ballen verstand van auto's hebt krijg jij je rijbewijs niet, hoor.
Je MOET een aantal dingen weten van je auto, en dat wordt voor je de weg op gaat bij je examen ook gecontroleerd. Olie dop, koelvloeistof, ruitenwisser vloeistof, bandenspanning, etc. Verder moet je ook weten welk lampje waarvoor dient, zodat je tijdig hulp in kan schakelen bij technische mankementen.

norobots is trouwens al sinds 1996 in draft als RFC...
Is dat nieuw bij het rijbewijs? Ik hoefde alleen maar te laten zien dat ik de verkeersregels voldoende kende (theorieexamen) en dat ik kon rijden (praktijkexamen). En ik moest een kentekenplaat op afstand oplezen om aan te tonen dat ik niet stekeblind was.

Over olie bijvullen, bandenspanning, reservewiel en alarmlampjes is me niets gevraagd. Ik neem aan dat als daar iets niet in klopte het praktijkexamen niet doorgegaan was wegens de afwezigheid van een bruikbaar voertuig.
Dan heb jij je rijbewijs langer dan 10 jaar, of je examinator is iets vergeten. Ik moest 10 jaar geleden namelijk wél vragen beantwoorden als "waar vul je de koelvloeistof bij"...
Sorry, maar als jij de ballen verstand van auto's hebt krijg jij je rijbewijs niet, hoor.
Ik heb 'm toch al weer een aantal jaartjes en snap immer nog niet hoe 't kan dat de motor zoem zoem zegt, op 't moment dat ik dat gekke pedaaltje indruk. Als ik dan ook de versnellingspook in een andere stand zet, doet ie helemaal andere dingen.

Wat er met koelvloeistof gebeurt boeit mij persoonlijk ook niet veel. Ik moet kennelijk een metertje in de gaten houden. Doe ik dat niet, dan gaat er "iets" mis (en uit de naam leid ik af dat er dan iets niet genoeg gekoeld wordt).

Anyways, ik hoef me niet te verdiepen in regeltjes van de buurman die ergens keurig beschrijft dat hij -tenzij ik aangeef dat ik er problemen mee heb- hij met mijn auto aan de haal mag. Mag ook niet, want 't is *mijn* auto en met de buurman heb ik niets van doen.
norobots is trouwens al sinds 1996 in draft als RFC
Schitterend. Je doelt kennelijk op deze draft?
Status of this Memo
[...]
Internet-Drafts are draft documents valid for a maximum of six
months and may be updated, replaced, or obsoleted by other
documents at any time. It is inappropriate to use Internet-
Drafts as reference material or to cite them other than as
``work in progress.''
Daar heb ik meer dan 10 jaar later weinig aan toe te voegen.

[Reactie gewijzigd door tomhagen op 30 oktober 2008 13:36]

Uiteraard, maar je kan je natuurlijk wel enigzins verdiepen in het world wide web als je een website opzet. Mocht je het hebben uitbesteed aan een designbureau ofzo, dan zullen hun daar rekening mee moeten houden en jou die keuzes laten.
Rechten om dat te doen heeft wel iedereen, als je een pagina kan uploaden kun je ook een robots.txt aanmaken. Tenzei je gebruik maakt van zo'n free webhosting accountje waar je geen ftp toegang hebt bijv. maar dan is het meestal zo dat alles wat je publiceert daar toch voor hun vrijelijk bruikbaar is in de eula.
De eerste 2 kan wel. Maar de andere 2 ben ik echt niet mee eens. Als je iets maak wat op de markt moet. Moet je eerst ook onderzoeken of het wel mag. Als je een eigen auto maakt kan je die ook niet zomaar op de snelweg gebruiken. Of met speelgoed.

Maar in dit geval als je een beetje zoek kom je er heel erg snel tegen om het niet te laten cachen. En niet moeilijk om op te zetten. Als je het al op internet kan zetten dan kan je dat ook wel.

Maar ik denk dat dit alleen maar is om meer bekent te worden.
Wat mij meevalt is dat er geen grotere partijen zijn die hier iets tegen proberen te doen, bijv http://www.experts-exchange.com/ een geweldige site voor een systeembeheerder om informatie te vinden. Normaliter moet je daar een maandelijks bedrag voor betalen, maar al zoek je via google alleen op die site, en gebruik maakt van de in cache link dan kan je kosteloos op deze site rondneuzen.
Toch niet waar, je kan gratis lid worden mits je maar zo'n 3-4 vragen per maand beantwoord. Voor een Tweaker nog een leuke bezigheid ook ;) daarnaast krijg je dan een stoere 'expert' status.

Deze bedrijven willen uiteraard wel goed vindbaar blijven via bijv. Google en het meeste volk dat betaald daar zal dit soort trucs niet kennen / gebruiken.
Hier kun je overigens deze procedure starten, dus voor een Expert account: http://www.experts-exchan...?rsid=110&redirectURL=%2F
3-4 per maand? Ik heb 3 jaar geleden een stuk of 10 onzinvragen na elkaar beantwoord en heb nog steeds toegang :P
offtopic:
Ook al je op de pagina's van Expers Exchange helemaal naar beneden scrolled (onder alle 'footer links') kom je diezelfde content ook gewoon tegen..

[Reactie gewijzigd door PeterSelie op 30 oktober 2008 10:43]

Het rare daarvan is dan ook dat experts-exchange z'n site afgeschermd wil hebben (alleen voor betalende bezoekers), maar wel de inhoud via google vindbaar wil hebben. Mede dankzij Google's cache werkt dat dus niet. Google is ook tegen dat soort praktijken, anders hebben ze straks hun index vol met niet publiek bereikbare sites. Ik vind het ook wel iets hebben van wel de voordelen, niet de nadelen willen hebben.
zo raar is dat niet..

Is het niet ideaal dat gebruikers via google weten dat de informatie die ze zoeken op jouw site te vinden is? En dat ze dan moeten betalen, tja dat is per site verschillend. Als google nooit had kunnen zoeken in de site dan was die gebruiker misschien nooit op het idee gekomen die site te bezoeken....

En je kan als site een deal met google sluiten om jouw betaalde content te indexeren, zoiets doet Elsevier bijvoorbeeld met wetenschappelijke artikelen.... lijkt mij juist een goede situatie voor beide partijen
Voor die website is het ideaal. Google ziet het echter niet zitten. Ze genereren inkomsten voor een bedrijf, zonder dat ze daar zelf enig voordeel bij hebben. In principe mag het ook niet wat ze doen: Ze schotelen de zoekengine andere content voor dan de gebruikers, dat heet (geloof ik) masking, het komt er in de praktijk op neer dat je geen content mag geven aan de zoekengine die de gebruik niet krijgt.
Dit is echter niet helemaal waar, want ook al heb je geen subscription, de solution en andere reacties zijn gewoon te lezen als je helemaal onderaan de pagina kijkt.

on topic:
Klein beetje kinderachtig van de schrijver, er staat duidelijk dat de pagina daadwerkelijk een cache is, het is niet zo dat de zoekmachine het presenteert alsof het eigen content is

edit; woordje minder

[Reactie gewijzigd door Eguna op 30 oktober 2008 12:20]

Ik begrijp dat aanbieders c.q. rechtenbezitters van tekst / beeld / geluid zich zorgen maken over het onbedoeld en / of gratis toegankelijk zijn van hun spullen. Alleen wat deze mensen dan voor het gemak vergeten, is dat juist door deze zoekmachines mensen op de hoogte komen van hun spullen, waarvan ze van te voren überhaubt geen idee hadden dat ze bestonden. Behalve een "goedkope diefstal-mogelijkheid" zouden ze de zoekresultaten van Google en Co. dus ook als gratis reclame kunnen zien.

Gratis lid worden van een website brengt vaak al allerlei reclame-ellende met zich mee. Wie wordt er dan betalend lid van een website, zonder dat hij een "voorproefje" van de inhoud heeft gezien? Iedereen wil toch immers graag weten wat ze krijgen, voordat ze toehappen? Het cachen van tekst / beeld / geluid en het laten zien daarvan in de zoekresultaten brengt behalve een mogelijke copyrightschending, volgens mij verder alleen maar voordelen met zich mee. En zoals ook die rechter beslist heeft: wie echt niet wil, hoort op de hoogte te zijn van de mogelijkheid om zulks te blokkeren.
Simpele vraag : Hanteren alle ( en dan bedoel ik ook echt alle ) zoekmachines een robots.txt 100%?
Want als ze het niet allemaal doen ( dus ook een of andere vage noord-koreaanse ) dan heeft wmb die rechter ongelijk want dan kan je je dus niet wapenen tegen caching. Dan is het gewoon echt : De regels van de buurman bepalen hoe jij je moet wapenen tegen zijn caching.
Als ik me niet vergis werken niet alle spiders zo goed met een robots.txt bestandje. Daarbij vind ik de gedachte "niet niet is wel" niet zo'n goede. Auteursrecht ontstaat immers ook zonder dat je daarvoor iets extra's moet doen, dus waarom zou dit bij caching niet het geval zijn?

Aan de andere kant is het cachen van een pagina een exacte kopie: de originele pagina (en namen/bronnen) staan er nog steeds bij. Parker heeft eigenlijk een heel goed (en lastig) punt aan de orde gebracht: zou het volledig overnemen van beschermde materialen ook onder de wet van auteursrecht moeten vallen? En gaan sommige bedrijven niet te ver in het verzamelen van informatie?
Beetje absurd dat je je werk gratis laat zien aan iedereen en vervolgens klaagt dat het via anderen te zien is. natuurlijk gaat het dan om het zinnetje verspreiden er van, maar ja als ik de tekst opzoek staat hij ook in de cache van mijn browser, zeg ik vervolgens tegen iemand die naast me komt staan: "moet je dit eens lezen"dan leest deze uit mijn cache het verhaal. Als je niet wilt dat iets op internet verspreid wordt moet je voorkomen dat het er op komt. Het is als met een geheim, zodra ik er over praat.... meer zeg ik niet.
Ik denk dat het er me er mee heeft te maken dat het nu zonder reclame wordt voorgeschoteld
Uiteraard, maar via een zoekmachinecache kost het hem ook geen data (misschien wel voor eventuele afbeeldingen?).
Plaatjes worden vaak juist _wel_ weer van de site zelf gehaald (als ik mijn logfiles moet geloven).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True