Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties
Bron: KB

Logo Koninklijke BibliotheekIn augustus kondigde de Koninklijke Bibliotheek al aan dat het gestart is met een project om de kranten van de afgelopen vierhonderd jaar digitaal te archiveren. Vandaag maakte men bekend dat een soortgelijke onderneming op touw gezet is voor Nederlandse internetpagina's. Naast het feit dat mensen het internet gebruiken als primair naslagwerk, hebben de websites ook een zekere historische en culturele waarde. Unesco heeft in de Charter on the preservation of Digital Heritage van 2003 bepaald dat internetpagina's tot digitaal erfgoed behoren. In eerste instantie wil de KB onderzoeken hoe de websites het beste kunnen worden gearchiveerd. De organisatie wil ervaring opdoen over de technische, organisatorische, financiële en juridische kanten van de onderneming en op basis van de resultatien vanaf 2007 een selectie maken uit het Nederlandse deel van het internet om te bewaren. De bibliotheek heeft het Centrum voor Recht in de Informatiemaatschappij van de Universiteit Leiden gevraagd om de juridische voorwaarden en implicaties van het bewaren van de documenten onder de loep te nemen. Er is namelijk ook bij internetpagina's sprake van onder andere auteursrecht, archiefrecht en privacyrecht. Naar verwachting zal het onderzoek in oktober afgerond zijn.

Moderatie-faq Wijzig weergave

Reacties (38)

alvast een tip

http://www.archive.org/

Laten we lekker dubbel werk gaan doen.

edit: flauwe woordgrap verwijderd
Denk dat het vooral is dat die archieven in handen zijn van buitenlandse instanties.

Voordeel van een eigen, binnenlands archief is dat je er controle op uit kunt oefenen en je garanties kan stellen over bijv. hoelang de archieven blijven bestaan.

Als www.archive.org o.i.d. vandaag besluit er mee te
kappen, kan het zijn dat je morgen al geen archieven meer hebt.

Blijkbaar vind de regering het belangrijk genoeg om hier wél garanties van te kunnen krijgen.
Je was me net voor...

http://web.archive.org is meer web gerelateerd
Tja, de wayback machine doet in feite precies wat KB (blijkbaar) ook van plan is, maar dan specifiek voor Nederlandse pagina.

Het zou me ronduit verbazen als ze oprecht van plan zijn het wiel opnieuw uit te vinden, maar het lijkt er wel op. :o
'Mag ik van u www.tweakers.net lenen?'
- 'Maar die is al gereserveerd, er zijn 56.000 wachtenden voor u'

:+
Dit lijkt mij een eindeloze kruistocht... aan enkel content aanbieder, website beheerder moeten vragen of je zijn/haar website mag archiferen. Een beetje bedrijf zal in ieder geval nee zeggen.

edit: Moet je dan ook geld betalen als je de website niet optijd terug brengt? :?
Nou, volgens mij doen Google en cornuiten en Archive.org niet anders.
Als je het er niet mee eens bent moet je maar een deugdelijke robots.txt plaatsen, of je site niet online zetten.
robots.txt is puur een informele afspraak tussen bot en website. Niets bijzonders en geen enkele bot wordt hierdoor belemmerd jou website alsnog in het archief te plaatsen natuurlijk. Sowieso met of zonder robots.txt hou ik auteursrecht op mijn websites, mochten ze archieveren dan hebben ze alsnog mijn auteursrecht geschonden.
Sowieso met of zonder robots.txt hou ik auteursrecht op mijn websites, mochten ze archieveren dan hebben ze alsnog mijn auteursrecht geschonden.
Het lijkt me dat je inderdaad je auteursrecht behoudt, maar mag het daarom niet gearchiveerd worden? Door het online te zetten heb je het gepubliceerd, dan moet je niet vreemd kijken dat de publicatie niet herroepen kan worden.
Volgens jouw redenering mag de KB ook geen kranten opslaan.
Kijk voor de grap dan eens in je temporary internet files.

Is niet slechts het lezen van een website met jouw definitie dan al copyrightschending aangezien er daarvoor een lokale kopie gemaakt dient te worden?

Ik denk dat er op internet pas sprake kan zijn van copyrightschending als je geld probeert te verdienen aan iets wat iemand anders geschreven heeft of letterlijk jouw website weer als website online aanbiedt zonder directe meerwaarde wat betreft functionaliteit. Een internetarchief biedt weliswaar jouw website aan op een website, maar doet dit met het oog op het kunnen terugkijken en de zoekfunctionaliteit.

Overigens vraag ik me af of er met een goed contentmanagementsysteem niet al voldoende door de aanbieders zelf gearchiveerd is.
wat is 'robots.txt'? snap je wat ik bedoel...... Er zijn meer dan genoeg mensen die niet weten wat dat is, maar die wel een 'beschermde' website hebben..

In principe kun je het namelijk ook zo stellen: die zoekmachines willen mijn informatie, dus dan moeten ze ook maar eerst mijn toestemming vragen...
Er is namelijk ook geen wet die een zoekmachine verplicht om rekening te houden met robots.txt...
er zijn zelfs zoekmachines die juist de robots.txt negeren en lekker neuzen in de 'geheime' achterliggende directory's.
das mooi, weet je iig zeker dat de naaktfoto's van je ex voor altijd bewaard worden... Gewoon naar de KB gaan :D
Dat heb je nou eenmaal met cultureel erfgoed... ;)
aleen maar als deze op een nederlandse host staat zie: .nl denk ik ;-)
Wel komisch inderdaad, dadelijk is er dus een archief van het Nederlandse Internet te vinden op de KB-site, die vervolgens weer wordt gearchiveerd door webarchive.org :+
Dat heet een redundante backup. (8>
Als er maar geen Nederlandse websites de KB gaan archiveren, want dan krijgen we straks een enorme loop en implodeert het internet.
Dan mag je hopen dat er niet nóg zo'n initiatief ontstaat binnen Nederland. Dan blijven die elkaars website archiveren...
Nederlandse websites... zal tweakers.NET wel niet herkend worden als zodanig; zit je met een archief van tweakers.NL }:O
Lijkt me welhaast onbegonnen werk. Hoe wil je de koppelingen tussen al die verschillende bestanden en pagina's veiligstellen?

Indexeren al-la google is een mogelijkheid, maar zelfs dan....
Een lanorg waar ik bij zit heeft/had z'n 2e versie van de site nog gecached staan op een archive site, de eerste versie is helaas voorgoed weg, de beheerder heeft 'm ook niet meer.

In zulke gevallen is het wel leuk om een kopie te hebben.
en hoe doen ze het dan met dynamische sites?

platte HTML kan eenvoudig, maar wanneer is een site als bijvoorbeeld t.net nieuw? Elke posting verder?
Tja, wat moet ik daar van zeggen....

waybackmachine doet dit al... en eigenlijk zie ik nergens het nut om dit te doen. Indien men besluit data weg te halen heeft dit meestal wel een goede reden...... blijven mijn tikfouten maar geargiveerd :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True