Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 24 reacties
Bron: News.com

Het Internet Archive, de historische internetbibliotheek van zo'n 40 miljard pagina's die onlangs de capaciteit flink uitbreidde, is aangeklaagd wegens ongeauthoriseerd toegang geven tot webpagina's. De zaak geeft een vreemde draai aan het debat over copyrights in het digitale tijdperk. De aanklager is een medisch adviesbureau dat een ander bureau in een andere rechtszaak heeft aangeklaagd wegens inbreuk van het merkenrecht, en wiens oude internetpagina's ter voorbereiding van die zaak door het advocatenkantoor van de tegenpartij met de WayBack Machine werden opgerakeld. Volgens het medisch adviesbureau, dat ook het bewuste advocatenkantoor heeft aangeklaagd, is met de actie inbreuk gepleegd op de Digital Millenium Copyright Act en de Computer Fraud and Abuse Act. Advocaat John Earley van het aangeklaagde advocatenkantoor vindt het een vreemde gang van zaken. "De WayBack Machine wordt dagelijks gebruikt in het merkenrecht. Het is een heel gewoon hulpmiddel", aldus Earley.

Centraal in de zaak staat de conventie om door middel van een bestandje robots.txt op webservers te voorkomen dat zoekmachines en andere bots (bepaalde stukken van) sites bezoeken. Het medisch adviesbureau beweert dat het voordat het de eerste rechtzaak startte, een robots.txt-bestandje op de website had geplaatst, en dat om die reden hun oude pagina's niet beschikbaar hadden mogen zijn. Het Internet Archive gaat inderdaad zo ver dat robots.txt ook met terugwerkende kracht gebruikt kan worden om toegang te blokkeren tot pagina's die vóór plaatsing van robots.txt op de site stonden. Het aangeklaagde advocatenkantoor zou echter zo snel achter elkaar pagina's hebben opgevraagd dat de blokkeringsinstructies in sommige gevallen werden genegeerd en er toch oude content werd verkregen. Dit zou een illegale omzeiling van een beveiligingsmechanisme zijn. Het advocatenkantoor ontkent dit gedaan te hebben. De aanklacht tegen het Internet Archive omvat onder andere contract- en vertrouwensbreuk, nalatigheid en andere aanklachten die betrekking hebben op het niet in acht nemen van regels omtrent robots.txt.

Het is echter onduidelijk welke wetten er eventueel zouden zijn overtreden. Volgens Martijn Koster, auteur van een uitgebreide robots.txt handleiding, heeft robots.txt helemaal geen wettelijke status maar is het niet meer dan een manier voor webmasters om te communiceren met welwillende bots. Het bestandje kan en mag gewoon genegeerd worden, wat wordt bevestigd door een jurist gespecialiseerd in intellectueel eigendom, die er nog aan toevoegt dat overtreding van eerdergenoemde wetten zeer moeilijk aan te tonen zal zijn.

Bibliotheek van Alexandrië
Moderatie-faq Wijzig weergave

Reacties (24)

het zou wel een heleboel problemen vermijden, als robots.txt een soort "Verboden toegang, art 461 wetboek van strafrecht"-status zou krijgen. Lijkt me eigenlijk wel een goed idee, en ook bijvoorbeeld een stuk bewijslast over hacken kunnen vereenvoudigen.
Gaarne dan ook:

.htaccess files die status geven..

de instellingen van apache (httpd.conf) waarin access kunnen die status geven...

Ja en zo kunnen we nog wel even doorgaan.

Het is gewoon de stommigheid van de webmaster.. Webserver zijn *bedoeld* om zaken online te bedienen...
Webserver dat zegt naam al...

Nee niets die status moet je het maar op een beter en beveiligerder manier je belangrijke bestanden verspreiden
Dat slaat nergens op. Als je een hek om je grond zet, zonder dat bordje erop, dan is er sprake van een minder strafbaar feit. Dat was laatst ook het geval bij ik meen Roel Pieper ofzo, die last van een insluiper had. (Naam weet ik niet zeker, het was toen wel groot in het nieuws, met bewaking en al)

Bij hacking moet er sprake zijn van een poging ongeautoriseerd binnen te dringen. robots.txt zou die lat al heel vroeg kunnen leggen. Dus het heeft zeker zin. En het is zeker duidelijk.
Robots.txt word gebruikt door zoekmachines en heel soms door hackers. Als zoekmachines toch je bestanden lezen dan ligt de fout toch echt bij degene die robots.txt geschreven heeft...

Een zoekmachine is geen insluiper alleen een 'geavanceerde bezoeker die alles zoekt'
beetje raar dat webmasters zich moeten houden aan amerikaanse wetgevingen. deze websites bevinden zich dan wel in de US maar wat als dit archief bv in Ierland ofzo had gestaan. zou me niet verbazen als ze dan net zo snel worden aangeklaagd.
imo zouden ze dan ook niet het archief moeten aanklagen maar de imcompetente admin
Wie vanuit hier gegevens ophaalt uit een ander land doet dat ook onder de voorwaarden die daar gelden. Dwz: als een rechter daar bepaald dat je die gegevens niet had mogen wegnemen dan ben je daar strafbaar. Of je er vervolgens in je eigen land voor wordt aangepakt of uitgeleverd is een heel ander verhaal.
Het gaat niet om de plaats waar je je fysiek bevind terwijl je iets doet maar dat je verantwoordelijk bent voor je daden waar je die ook pleegt.

Als je als persoon zonder enige nationale status van welk land dan ook van de maan geld steelt van een rekening in de USA dan heb je ook 'gewoon' daar in de USA het strafbare feit gepleegt en kan je er daar voor aangepakt worden als je je er ooit laat zien.
Klopt, ook al isset een beetje omslachtig want als een moordenaar over de grens gaat dan mag die ook niet worden opgepakt |:(
Defix-je: Tenzij er een internationaal opsporingsbevel wordt uitgevaardigd en er een uitwisselingsverdrag is met betreffend land. Of zoals NL<->DU: Agenten in de grensstreek mogen, voor zover ik het begrepen heb, een stuk het buitenland in om verdachten aan te houden.
Ik ben het wel eens met de auteur van de robots.txt handleiding; je bent toch zelf verantwoordelijk voor de content op je site? Dan moet je maar beter nadenken wat j publiceert... Iedereen heeft het kunnen inzien.
Het is een groot verschil of je iets tijdelijk laat zien of dat iets voor onbepaalde tijd ergens publiek toegankelijk wordt gemaakt. Vandaar dat de copyright wetgeving je als auteur het recht geeft jouw teksten uit zo'n archief te laten verwijderen.
Gaat hier de bedoeling van internet niet een beetje voorbij ?
Ik bedoel, vrije toegang tot informatie was het toch ?
Die 'doelstelling' is gemaakt door degenen die het goed uitkwam. Niet door de oprichters van Internet of wat dan ook.
Het heeft publiekelijk online gestaan dus een rechtszaak lijkt me onzin. Iedereen heeft het toen al kunnen opslaan toentertijd.
archive.org vind ik prachtig en ze doen het gewoon om het internet voor het na gelacht te bewaren.
ze moeten zich rot schamen de uit zuigers
the internet archive is handig :-), even gekeken naar mijn eigen website en die is keurig archiveerd voor het nageslacht.
Dat is gewoon absurd. Wat ik lees is het volgende:

Internet Archive heeft nieuwe machines gekocht/gekregen dus ze worden gesteund of hebben veel geld.
Advocatenbureau klaagt hen aan omdat zij een bibliotheek hebben van hun oude site

Je gaat toch ook de lokale stadsbibliotheek aanklagen omdat zij een boek of magazine hebben die je firma ooit heeft gepubliceerd en misschien nu niet zo leuk meer vindt.
Internet Archive mag wat mij betreft door blijven gaan, nog maar een voorbeeldje: eergisteren ( http://www.trouw.nl/digitalekrant/today.html , 12 juli pag: verdieping 1,2,3) stond er nog een artikel in de krant over malafide ICT-opleidingsbedrijven. Hoe waren ze achter de fraude gekomen (bevestigd, verbanden, aanstellingen in het verleden etc...) via een "back-up van de site" van jaren terug -> internet archive.
Dus, heel vervelend voor allerlei bedrijven, maar je moet maar uitkijken wat je op het net zet, het is niet voor niets _openbaar_ (dan niet achteraf gaan zeuren, je bent zelf verantwoordelijk, scherm je gegevens af: zet je PC ook niet op straat)
Ik vind het zowieso een beetje een irritante pagina. Ik had een aardig grote (ernstige) fout op een website staan en heb die verwijderd, maar in die leuke archiver staat die er nog voor iedereen om te zien.

Ik vind wel dat zoiets moet werken pas als je het vraagt in plaats van andersom (altijd archiveren tenzij je het anders zegt).
mja natuurlijk wel een beetje vervelend voor jouw, maar ik vindt het goed zoals het nu is, anders zou ik bijna niets kunnen terug vinden in de archiver..
en als ze echt zo nauwgezet omspringen met en ook backwards verwijderen op basis van robot.txt's vindt ik het best wel ok :-)
Waarom? De website is gewoon voor het publiek te zien (en zelfs op te slaan als je wilt). Waarom zouden ze bij bij archive.org dat dan niet mogen doen?

Trouwens, als iedereen moet aangeven dat hij af een bot langs wil hebben zullen er weinig pagina's worden geindexeerd.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True