Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 31 reacties
Bron: Reuters

Een grote groep uitgevers van over de hele wereld heeft het plan opgevat om een systeem te ontwikkelen dat gebruikt kan worden door zoekmachines om content slechts onder bepaalde voorwaarden op te nemen in de zoekindex. Volgens Gavin O'Reilly, voorzitter van de World Association of Newspapers (WAN), zijn de afgelopen maanden steeds meer uitgevers gefrustreerd geraakt doordat de door hen geproduceerde content gebruikt wordt op manieren die hen niet welgevallig zijn. Zo worden bijvoorbeeld steeds vaker teksten en afbeeldingen in informatieportalen van zoekmachines gebruikt. Het te ontwikkelen systeem zou voor uitgevers en zoekmachines duidelijk moeten maken welke rechten gelden op bepaalde content, zodat conflicten in de toekomst minder of zelfs helemaal niet meer voor komen.

World Association of NewspapersOp dit moment is het al mogelijk om via een bestand genaamd robots.txt invloed uit te oefenen op de spiderbots van zoekmachines. De uitgevers vinden dit echter niet fijnmazig genoeg. Het is bijvoorbeeld niet mogelijk om aan te geven dat bepaalde artikels gedurende een bepaalde periode wel en andere niet gratis gebruikt mogen worden in de content van zoekmachines. Het nieuw te ontwikkelen WAN-systeem zou dit wel mogelijk moeten maken. Het project is Automated Content Access Protocol genoemd en de uitgevers hebben ruim 450.000 euro beschikbaar gesteld om advies in te winnen bij een aantal experts. Hoeveel geld gemoeid is met het daadwerkelijk ontwikkelen van het systeem is niet bekendgemaakt.

Moderatie-faq Wijzig weergave

Reacties (31)

Google denkt: "Dan starten we toch onze eigen nieuws redactie op."
Ik denk dat de nieuwssites met plezier Google als nieuwsredactie zullen beconcurreren.
Liever dan Google beconcurreren als nieuwsportaal gebaseerd op een zoek/caching functie.
ik hoop dat er illegale zoekmachines gaan komen, die op een of ander eiland in de stille zuidzee gestationeerd zijn, zodat de informatie gewoon vrij blijft.

Informatie die op internet staat hoort gewoon vrij te zijn, iedereen moet t kunnen bekijken, wanneer ze willen.
Informatie is vrij maar waar staat dat het gratis moet zijn?
Het gaat erom dat ze willen dat google de betaalde content opneemt in zijn zoekindex (om hoog in de resultaten te staan = veel informatie). Maar ze willen niet dat het gratis is en dus mag google het maar een bepaalde periode bijhouden.
Sorry hoor: Als het niet gratis is en je wilt klagen, dan moet je maar zorgen dat google er niet binnen kan! Simple as that. En dat kan nu ook al, is geen nieuwe standaard voor nodig.
Het is dus ook alleen maar een kwestie van macht!
Nu hebben ze een hoop van hun macht in moeten leveren aan de zoekmachines maar door deze zet hopen ze deze macht weer terug te krijgen!
Dat lijkt me ook maar gemakkelijk gezegd tot het je beroep is om die informatie te vergaren (redactie van een krant dus bijvoorbeeld)
Het lijkt me niet dat omdat informatie niet meer op papier wordt afgedrukt dat ze plots geen waarde meer heeft.

Bij kranten enzo is het op dit moment echter inderdaad een beetje een grijze zone, waarin ze aan de ene kant de informatie wel vrij beschikbaar maken op hun website in het begin, maar waarna voor een archief wel betaald moet worden.
Misschien dat de cache-functie van een zoekmachine dus beperkt zou moeten worden tot het beschikbaar maken van documenten die tijdelijk (door trage/onbereikbare server) niet beschikbare documenten, en niet voor het beschikbaar maken van door de auteur verwijderde content.

Ten slotte vindt ik het ook wel logisch dat zonder verdere afspraken tussen de partijen het niet toegelaten is van de informatie op een website te kopieren.
Ik hoop dat je je kan voorstellen dat het ook niet echt eerlijk zou zijn als jij op je server in de stille zuidzee de content van tweakers.net zou kopieren, maar wel met je eigen banners erboven.
Tuurlijk is het idee mooi dat alle informatie op het internet vrij zou moeten zijn. Maar ik blijf bij mijn mening dat Google o.a. deze vrije informatie gebruikt om zijn aandeelhouders geld op te leveren. Want die vrije informatie is een lokkertje voor het genereren van inkomsten voor de aandeelhouders. Maar degene die voor aan de basis stond van die vrije informatie die ziet niets van de inkomsten van Google.
Onzin dat informatie op internet vrij moet zijn... Kijk maar naar bv porno, dat is 9 van de 10 keer niet gratis...
Wie legt mij uit, want ik begrijp de hele discussie niet (volledig), dus correct me waar ik fout zit.

1. Nieuwsuitgevers willen niet dat hun resultaten door Google gelezen en uitgegeven worden. Hoe gaat hun nieuws dan gevonden worden, zodat 'ik' 't lees? 'Ik' ben namelijk een erg lui persoon die zeker eerst de headlines wil zien voordat ik doorklik naar de site waar het betreffende artikel vandaan komt. Gevolg is dat 'ik' nu 'hun' site helemaal niet meer weet te vinden.

2. Nagenoeg iedere nieuwsuitgever geeft ook feeds uit. Die zou ik wel met een (externe) feedreader mogen lezen, maar zodra ik mijn persoonlijke google pagina voor dat doel in zou zetten mag het niet meer?

3. Sinds wanneer mag je tekst die je op het vrije internet, zonder dat iemand daarvoor hoeft te registreren oid, kan vinden/lezen, als beschermd aanmerken?

4. Daarvoor is toch bronvermelding uitgevonden?
Dit rechtensysteem moet volgens mij er vooral voor zorgen dat tijdelijke content, zoals bij krantenartikels die na een bepaalde tijd in een (betaald) archief belanden, niet een veel langere tijd dan door de uitgevers bedoeld nog via google te vinden blijft (cache).
Ik vraag me echter af in hoeverre een zoekmachine verplicht is tot het honoreren van zo'n rechtensysteem.
3. Sinds wanneer mag je tekst die je op het vrije internet, zonder dat iemand daarvoor hoeft te registreren oid, kan vinden/lezen, als beschermd aanmerken?


Zo, dus jij denkt dat als iemand iets op het internet publiceert dat dan de copyright wetgeving niet meer geld.

Laat ik je even wakker maken. Dat is niet zo.
1. Nieuwsuitgevers willen niet dat hun resultaten door Google gelezen en uitgegeven worden. Hoe gaat hun nieuws dan gevonden worden, zodat 'ik' 't lees? 'Ik' ben namelijk een erg lui persoon die zeker eerst de headlines wil zien voordat ik doorklik naar de site waar het betreffende artikel vandaan komt. Gevolg is dat 'ik' nu 'hun' site helemaal niet meer weet te vinden.
Je geven hun nieuws gewoon wel door via sites die ervoor betalen. Als Yahoo ze geldt geeft en Google niet dan zullen de nieuwssites snel Yahoo meer rechten gunnen op hun auteursrechterlijk beschermde content. Waarschijnlijk moet uiteindelijk dus Google gewoon overstag en hun inkomsten via dergelijke portals gewoon delen.
Kom maar op met dat geld, hier is mijn voorstel:

robots.txt content (kan je best elke dag opnieuw generen):

User-Agent: *
Order: Deny, Allow
Deny: /news/
Allow: /news/2006/09/23
Allow: /news/2006/09/22
Allow: /news/2006/09/21
Allow: /news/2006/09/20
Allow: /news/2006/09/19

(met de huidige robots.txt kan je alleen disallow doen en niet allow, een beetje jammer)
Robots.txt heeft geen enkele juridische waarde en zijn voor dit doel dus niet geschikt.
Dit nieuwe systeem ook niet,

Of gaan ze er meteen een rechtzaak omheen spannen?
Als de rechter nu al de rechten volldig beschermt dan kunnen ze met een dergelijke systeem aan bepaalde sites te kennen geven dat ze toch langs mogen komen om te indexeren.
Dat zullen wel sites zijn die bereid zijn daarvoor de inkomsten uit hun index te delen...
niet om er mee rijk te kunnen worden, maar als je je * vervangt met deze user agent:
Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
dan hebben de uitgevers een technische oplossing die stukken goedkoper is dan een juridische.
ik vraag me af hoe men dat hier wel gaan doen,
moet ik hier gaan denken aan een nieuwe extentie van robots txt, wordt dit een server-(apache) module die na nn- dagen de toegang ontzegt
en dan natuurlijk de 'ham'-vraag, word het een 'open' specificatie die 'ook' door derden zoals prive-personen kan worden gebruikt.

maar het idee, 'lijkt' me wel goed, om eens over te denken.
Zo'n systeem kan in mijn optiek zelfs alleen maar werken als iedereen het mag gebruiken. Alsof zoekmachines afspraken zullen gaan maken met een systeem waarvan ze weten dat slechts een handjevol bedrijven het zullen gaan gebruiken. Dat zou betekenen dat ze even later weer met een ander handjevol weer een nieuw protocol kunnen afspreken...
Dit zal een opt-in systeem zijn.
Zoekmachines kunnen dan dus alleen een site indexeren en cachen als de site dat zelf aangeeft en alleen op de manier hoe die site dat aangeeft.
Het kan zijn dat verschillende soorten sites daar verschillende methodes voor bedenken maar het is dan aan de zoekmachines om dat te ondersteunen.

Vermoedelijk zullen dergelijk sites wel een robot.txt gebruiken die alles verbied en die verwijst naar een aanvullende file waarop specifieke info verstrekt wordt over wat een spider wel of niet mag indexeren/cachen.
Ik hoop toch echt dat het een opt-out systeem wordt. Anders kunnen we binnenkort helemaal niks meer vinden met Google.
Anders kunnen we binnenkort helemaal niks meer vinden met Google.
Zeker voor actuele nieuwsdata denk ik dat dat best het geval kan zijn.
Nieuwsbronnen zullen wel toegankelijk blijven maar dan wel via portalen die hun inkomsten doorschuiven naar de nieuwsvergaarders.
Voor niet actuele bronnen is een zoekmachine nog steeds heel interessant. Als je niet gelist bent dan komt er tenslotte ook nooit iemand.
Het is bijvoorbeeld niet mogelijk om aan te geven dat bepaalde artikels gedurende een bepaalde periode wel en andere niet gratis gebruikt mogen worden in de content van zoekmachines.

Als dit wel mogelijk was, dan zijn je zoekresultaten afhankelijk van het tijdstip waarop je zoekt. :Y)
Da's nu ook al het geval: het Internet is namelijk ontzettend dynamisch!
Dat kan niet. Je kan niet als wereldwijde organisatie zeggen; wij vinden dit, en verder geen rekening houden met geledende auteursrechten.Nouhja, je kan t wel zeggen, maar t heeft compleet geen waarde.

Volgens alle auteursrechten die ik ken is wat google news doet gewoon legaal, (BE, NL en USA iig), quoten en linken mag simpel weg nou eenmaal. Zelf tijdschriften mogen quotes van anderen opnemen, mits er een verwijzing bijgeplaatst word, en dat word er bij google news.)

Maarem, hoe willen ze uberhaupt zoiets juridisch gezien grondslag gaan geven?

Wat mij betreft mag google die miepende uitgevers gewoon compleet uit zn database weren.Simpel, en extreem doeltreffend, of heb je tegenwoordig soms het recht in iemand anders zn database te worden opgenomen ofzo? Nein.
Oh, in Belgie is het legaal volgens jou? Hm, de belgische rechter denkt daar anders over.

http://www.nu.nl/news/832...st_protest_Google_af.html
Als het inderdaad een open systeem/standaard wordt, kan het de zaken wel een hoop duidelijker en makkelijker maken.

Maar uitgevers zullen toch moeten wennen aan het idee dat content minder makkelijk te beheersen is. Ze kunnen informatie wel een houdbaarheidsdatum geven en mensen die toch onrechtmatig publiceren aanklagen, maar ze kunnen niet verbieden dat ik een tool bouw waarmee ik hun informatie systematisch verzamel om voor mezelf een archief aan te leggen.

Een firefox-extensie/whatever die elke dag alle artikelen van de Nederlandse kranten ophaalt en opslaat is waarschijnlijk zo gemaakt en iedereen die enigzins interesse heeft in zoiets installeert dat natuurlijk meteen. Het is net als met audiostreams die niet opgeslagen kunnen worden: het leidt tot een hoop bandbreedteverspilling en mensen echt dwarszitten lukt je toch niet.
Volgens mij gaat de gehele wereld even voorbij aan het feit dat je ook gewoon een 'meta' tag kunt opnemen in de (x)html. Zie ook: http://www.robotstxt.org/wc/meta-user.html

In het geval van google kun je ook gebruik maken van 'Google Sitemaps'. Wat eigenlijk gewoon een xml bestand is met alle artikelen welke geindexeerd moeten worden. Alles wat je niet opneemt (of er niet meer instaat) wordt automatisch uit de zoekmachine verwijderd.
Wel grappig dat de afkorting WAN is, (Wide Area Network-poort anyone?) :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True