Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties
Bron: Infoworld

Nadat Google in de Belgische rechtbank schitterde door afwezigheid, zal het bedrijf vrijdag een nieuwe kans krijgen om zich voor de rechter te verdedigen. De uitspraak van de rechter zou wel eens verstrekkende gevolgen kunnen hebben.

Eerder al werd Google in BelgiŽ gedwongen alle links naar een aantal websites van uitgeverijen te verwijderen en onlangs moest de Deense lancering van Google News uitgesteld worden. De uitgeverijen daar willen namelijk een opt-in-systeem ontwikkeld zien, in plaats van hun content automatisch te laten indexeren. Google zelf is van mening dat het binnen de wettelijk vastgestelde grenzen van de auteursrechtenregeling werkt door slechts citaten te gebruiken en door te linken naar de oorspronkelijke bron. In Noorwegen is dan weer protest gerezen tegen het ongeoorloofde gebruik van foto's door Google News. Googles belangrijkste verdediging is het argument dat de nieuwsgaringpagina ervoor zorgt dat de uitgeverijen meer bezoekers, en dus meer inkomsten, krijgen.

GoogleEr staat echter meer op het spel dan de toekomst van Google News. De uitkomst van verschillende rechtszaken die tegen de internetgigant aangespannen worden, zou namelijk wel eens een grote invloed kunnen hebben op hoe andere zoekmachines in de toekomst zullen gaan werken. De uitspraken van rechters zullen in zekere zin dan ook bepalen hoe gemakkelijk gebruikers nog content zullen kunnen vinden. Zo stuurde Copiepresse eveneens een brief naar Microsofts MSN-divisie met de heldere boodschap niet langer ongevraagd de Belgische kranten in zijn index op te nemen. Microsoft reageerde hierop door de sites uit zijn index te verwijderen, maar Google is niet van plan het daarbij te laten en zal zich vrijdag voor de Belgische rechtbank met hand en tand verdedigen tegen de aantijgingen. Copiepresse is immers van mening dat Google, door pagina's te cachen, kopieŽn maakt van de auteursrechtelijk beschermde stukken en daar zelf financieel voordeel uit haalt. Deze redenering geldt echter niet alleen voor Google News, maar kan doorgetrokken worden naar de hele Google-cache.

Danny Sullivan, hoofdredacteur van SearchEngineWatch.com, stelt dat het zoekbedrijven hierdoor onmogelijk gemaakt wordt hun werk in BelgiŽ te doen, aangezien elke indexering een overtreding van de wetgeving op auteursrechten zou betekenen. Als Copiepresse gelijk krijgt, zouden andere partijen hier wel eens inspiratie uit kunnen halen en bovendien zou de uitspraak van de rechter als richtlijn gebruikt kunnen worden voor rechtszaken in andere Europese landen. In tegenstellig tot Amerika heeft Europa geen duidelijke 'fair use'-wet die het bedrijven toestaat een deel van een auteursrechtelijk beschermd werk te citeren zonder voorafgaande toestemming. In het geval van een geschil beoordeelt de rechter over het algemeen de commerciŽle aard van een kopieeractie, de omvang ervan en de invloed van het gebruik op de waarde van het originele document.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (41)

Als iemand niet in de index wil moet google en weet ik welke andere searchenige diegne of dat bedrijf verwijderen, punt uit.

Google roept wel leuk dat ze anderen meer links en dus meer omzet zouden bezorgen maar bovenal bezorgen ze zichzelf meer winst en omzet alleen dat noemen ze er maar niet bij.

De macht van google moet ook aan banden gelegd worden want die begint nu bijna monopolistische vormen aan te nemen en ook de arrogantie van google op allerlei gebied komt meer en meer naar voren.

Ja men wil het zogenaamd allemaal voor de internetgebruiker. Er zijn copyright wetten en die moet men respecteren. Google maakt ook hard gebruik van software patenten en oh jeh als iemand die bij hun patent overtreed.
Copyright op tekst en beeldmateriaal ook dat moet google net als ieder ander respecteren.
Als iemand niet in de index wil moet google en weet ik welke andere searchenige diegne of dat bedrijf verwijderen, punt uit
Want?

Als iemand of een bedrijf een normale publiekelijke site heeft waarom mag google die dan niet opnemen in z;n index?

Volgens jouw redenering zou het dus ook verboden zijn om een link van zo'n site op je web-log te zetten? Waar wil je dan een grens trekken??

Ik zie het als een telefoon nummer, een gewoon telefoon nummer komt in het telefoon boek. Als ik dat niet wil neem ik een geheim nummer (dat zou op het web bijv een gesloten https site zijn).

Het is ook een beetje hetzelfde verhaal als met kranten.com, die mochten van de telegraaf geen links plaatsen naar nieuwsitems op de telegraaf site. Gelukkig heeft de telegraaf de rechtzaak verloren

Als een site niet wil dat de info gelinkt wordt moet de site de info ook niet publiekelijk aanbieden. Maar werken met een inlog systeem oid. doen ze dit niet dan moeten ze ook niet zeuren!
Als iemand of een bedrijf een normale publiekelijke site heeft waarom mag google die dan niet opnemen in z;n index?

Dan wel.

Maar als iemand iets van zijn/haar website afhaalt dan zou Google dat dus niet meer mogen laten zien. Tsja, misschien nog een dag of vier totdat Google weer langskomt, maar dus niet een half jaar in de cache laten staan (oftewel een kopie online laten staan, waar deze rechtzaak ook over gaat)!
En dat zelf kan je ook in je pagina zetten dat dat niet mag.
Dan heb je het probleem niet meer.

Mensen moeten niet zo zeiken.
Want er zijn de regels van zoekmachines.
Hoe ze pagina's behandelen.
Regels van zoekmachines?

En je eigen site dan, heeft die geen regels?

Als ik niets doe kom ik in de zoekmachine. Maar als ik een pagina van m'n eigen site weghaal dan blijft die toch in de cache staan van de zoekmachine. Waarom moet ik dan moeite gaan doen om de pagina die iemand anders gekopieerd heeft weg te laten halen?

Google-cache zou standaard op off moeten staan.
Want als het beelden betreft of tekst met copyright en daar spreken we hierover dan moeten die links gewoon verwijderd worden.

Jou vergelijking met een geheim nummer en het telefoonboek is een slechte. Een telefoonnummer is voor iedereen bereikbaar echter een geheim nummer staat niet in de index.
Een webpagina is normaal ook gewoon bereikbaar en wil je hem niet in de index dan moet dat kunnen.
Als jij een webpagina niet in de index (van google) wil hebben is dat ook goed mogelijk.
Of je past je robots.txt aan, of je blokkeert gewoon de spiders van google.

Maar het punt zit hem er juist in dat deze sites niet uit de index (google) willen verdwijnen. Maar ze willen alleen uit een sub-index gehaald worden ( google-news )

Alleen de eigenaar van de index ( google ) vind dat zij alles mogen doen met de gegevens van de index, vind jij dit niet dan haal je jezelf maar compleet uit de index, het is toch hun index.
Google roept wel leuk dat ze anderen meer links en dus meer omzet zouden bezorgen maar bovenal bezorgen ze zichzelf meer winst en omzet alleen dat noemen ze er maar niet bij.
Google is een bedrijf en moet geld verdienen, mijn inziens vertel je hier niets nieuws.
De macht van google moet ook aan banden gelegd worden want die begint nu bijna monopolistische vormen aan te nemen en ook de arrogantie van google op allerlei gebied komt meer en meer naar voren.
Heeft Google dan een monopolie? Op welk gebied en welke schaal precies? Dat een groter bedrijf meer geld en macht heeft gaat niet alleen voor Google op. Arrogant? Waar haal je dat precies vandaan? Hoe is Google arrogant in jouw ogen? Argumenten a.u.b.
Ja men wil het zogenaamd allemaal voor de internetgebruiker.
Wil niet ieder bedrijf zich zo een imago aanmeten?
Er zijn copyrightwetten en die moet men respecteren.
Het is dus de vraag of die copyrightwetten wel altijd van toepassing zijn, zodra die beantwoord zijn kan Google hier zijn beleid op aanpassen.
Google maakt ook hard gebruik van software patenten en oh jeh als iemand die bij hun patent overtreed.
Iedere marktpartij mag voor de rechter opkomen voor zijn rechten. Ik vind het raar dat jij het Google kwalijk neemt dat het zijn rechten verdedigt, terwijl publiceerders volgens jou per definitie gelijk hebben wanneer het een copyright betreft.
Monopolistisch betekent altijd nog alleenheerschappij, dat is volgens mij nog niet zo met google :?
Idd ze hebben geen alleenheerschappij laten we het er dan op houden dat google een wel erg dominante marktpartij is en uit cijfers van hun concurrenten yahoo en msn zien we dat die er niet sterker op worden.
Letterlijk betekent Monopolie natuurlijk alleenheerschappij, effectief wordt de term ook gebruikt bij oneerlijke concurrentie. Toch zijn er inderdaad nog mededingers op het nivo van Google (MS, Yahoo, AOL)
Als je niet in de index wilt moet je gewoon zorgen dat je dat aangeeft met je robots bestand.

Als je een website publiceert dat moet je er rekening mee houden dat hij wordt opgenomen in een zoekmachine. Zo werkt internet, want waar zouden we zijn zonder zoekmachines?
Tsja, je kan de redenering ook omdraaien. Als je een zoekmachine maakt moet je zorgen dat je alleen zaken indexeert waar je toestemming voor hebt. Dus enkel indexeren als er via een robots.txt expliciet toestemming verleend wordt.

Het omdraaien van de bewijslast komt bedrijven als Google misschien wel mooi uit, maar staat haaks op de principes van normale wetgeving.
Dat is een opt-out methodiek.
Wat als morgen een andere zoekengine kiest voor een andere opt-out techniek dan robots.txt ?
Bijvoorbeeld door hun spider alleen te laten kijken naar het file yahoo_robot.xml ?????
Het gaat er niet om of je kunt aangeven in je robots.txt bestand of je wel of niet wilt dat (bepaalde) pagina's opgenomen worden, het gaat om het principe. Waarom kan Google niet net zo reageren als MSN search door de pagina's uit de cache te verwijderen? Als jij als bedrijf niet wilt dat een ander bedrijf zich verrijkt met jouw gegevens, en dan doet het er niet toe dat deze openbaar zijn, dan heb je dat als ander bedrijf te respecteren. Ik ben het eens met een eerder gemaakte opmerking dat Google zo langzamerhand enge trekjes begint te vertonen...
Denk je dat het, met vele honderden miljoenen websites, niet erg lastig gaat worden om op ieder verzoek van de eigenaren van die websites te reageren? Het gebruik van robots.txt is een mooie, netjes geautomatiseerde oplossing die heel breed geaccepteerd is. Het gaat niet om 'het principe' maar het gaat erom dat de Belgen gewoon lastig willen zijn. Ze zien het succes van Google en willen een stok tussen de wielen duwen.
...met vele honderden miljoenen websites...
Ik denk dat maar een klein deel van die websites echt uit de cache willen. Het overgrote deel wil er wel in.

En het is gewoon de houding die google aan neemt (het niet eruit willen halen) die volgens mij niet kan.
Dat opt-in systeem bestaad al jaren. Het heet namelijk: "publiceren" of "publiekelijk toegankelijk maken"
Als je meer controle wilt hebben over wie het mag lezen moet je gebruik maken van access restriction.
Controle over wie wat mag citeren is niet mogelijk dat recht word namelijk expliciet gegeven door de wetgeving, dan had je het maar niet moeten publiceren.
Het recht om te citeren omvat vermoedelijk niet het aanleggen van een cache van die gegevens. Er is een verschil tussen losse citaten van een werk publiceren en het complete werk in cache opslaan om er willekeurig uit te citeren
Google news heeft geen publieke cache. Over een prive cache (die dus niet gepubliceerd is) hebben content eigenaren geen ene ruk over te zeggen.
Alle berichten (of citaten, zoals Google ze waarschijnlijk liever noemt) die je op Google News ziet, zijn gecached, dus zo prive is die cache niet.

Verder is het zo dat als die gegevens niet gecached zouden zijn, de laadtijd van Google News in grootorde van minuten zou zijn (probeer maar eens in php/asp/.. een RSS reader te schrijven die de te parsen rss-bestanden zelf download, zonder ze lokaal te cachen, duurt voor enkele sites al een eeuwigheid).
Volgens die redenering mag ik onbeperkt kopien maken van boeken, muziek en films. Gelukkig bestaat er ook nog zoiets als auteursrecht.
"aangezien elke indexering een overtreding van de wetgeving op auteursrechten zou betekenen."

Dat betekent ook dat gewoon de website bezoeken inbreuk op de auteursrechten zijn, want dan wordt de website ook gecached.

Dacht ik niet gelezen te hebben dat tijdelijke opslag (zoals die op PC's & ook Google Cache) buiten de (althans belgische) copyright wetgeving vielen?
De vraag is dan dus alleen hoe tijdelijk is de opslag van google cache???

Want op een prive computer kan je redelijker wijze verwachten dat er maar 1 persoon gebruikt maakt van de cache.
Maar op google kunnen er 10.000en gebruik maken van de cache. Als de cache dan "te lang" dingen bewaart dan kan dit best problematisch zijn vanwege het aantal gebruikers.
het lijkt mij in princiepe mogelijk om te doen wat google doet zonder te cachen.

- Google vindt de link op dezelfde manier als nu, genereert zelf (dmv een algoritme) een aantal keywords (met klemtoon op genereert zelf).

- Bij een match wordt de tekst die overeenkomt met de search rechtstreeks vanop de website ingeladen ipv google cache.

Dat lijkt me voor de contentaanbieders veel minder aantrekkelijk (elke keer een search hun site als match heeft gebruiken ze bandwidth) dan het gebruik van een cache, waar de mensen enkel maar bandwidth gebruiken wanneer ze ook weldegelijk op de link drukken.
Waarom vind iedereen het zo raar dat bepaalde sites gewoon niet willen dat hun materiaal opgenomen wordt in een zoekmachine?

Uitgevers als een Wolters hebben Google echt niet nodig om bekender te worden, of meer bezoekers te trekken.
Ik persoonlijk vind dan ook dat ieder persoon c.q groep zelf de keuze moet hebben of ze opgenomen worden in een zoekmachine. Je bent toch ook niet automatisch een organendonor, dit beslis je ook zelf.
Als je dat niet wilt dan zet je dat in je site.
Zoals robot.txt

dat van orgaandonor sta je iets af dat niet voor iedereen zo maar bij kan.
AL je op intenet zet wil je het laten zien.
Het is een open huis.
Als jij je duer open laat staan en er komt iemand er in en neemt iets. Je geeft aan met de duur open kom binnen.
Of je moet een agent(robot.txt) er voor hebben die het tegen hou.
Dan verwijderd google.com toch gewoon alle info over die sites uit al hun indexen? Als ze dat in samenwerking met yahoo en msn gaan doen zullen de uitgevers wel snel tot andere gedachten komen.
Dus dan zeg je eigelijk:

"Als wij jullie auteursrechtelijke bestanden niet mogen gebruiken voor onze eigen commerciele doeleinde zorgen wij ervoor dat jullie niet meer gevonden kunnen worden".

Weet je hoe dat heet? Afpersen...
Nee, dat is geen imho geen afpersing omdat google etc een dienst aanbieden : opgenomen worden in een zoekmachine en in afgeleide werken van deze zoekmachine ( google news bijv ).

Wens jij geen gebruik te maken van deze dienst dan kan je je laten verwijderen uit de indexen. Maar wens jij alleen maar gebruik te maken van de zoekmachine dan wordt dit iets moeilijker, want google betaalt servers, bandbreedte etc. Jij betaalt niets. Dus als google een tegenprestatie ( je neemt gewoon alle diensten af ) wil hebben voor het opgenomen worden in de zoekmachine dan vind ik dit heel normaal.

Want als dit eenmaal verkeerd uitpakt dan kan er straks nog wel eens een rechtszaak komen over alle diensten van google, waardoor google straks geen geld meer binnen krijgt maar iedereen nog steeds verwacht dat ze wel in de zoekmachine te vinden zijn |:(

IMHO zou het pas afpersen zijn als de zoekmachine niet van google was, maar zoals het nu is willen de uitgevers wel gratis gevonden kunnen worden, maar voor de rest mag google er niets mee doen, beetje hypocriet imho.
afpersen
Wat een onzin.

Stel jij hebt een groentewinkel en ik hang overal in de stad posters op met een foto van een banaan uit jouw winkel, met het adres van jouw winkel erbij en jij belt mij vervolgens op: "die banaan is mijn eigendom en jij mag daar geen foto van publiceren, dus haal 'm weg", en ik zeg dan: "dat is goed, maar dan haal ik ook de rest van de poster weg", is dat dan afpersen? Ik denk het niet.

Google levert een gratis dienst voor sites: reclame, en omdat veel mensen op deze vorm van reclame voor sites zitten te wachten, kunnen ze daar goed geld mee verdienen. Maar onder aan de streep blijft het een gratis reclame-dienst voor sites.
Eigenlijk komt 't dus neer op hoe we met het internet willen omgaan. Zonder zoekmachines blijft er weinig over van de internet toegankelijkheid. Misschien wordt het tijd om de wetten aan te passen aan de hedendaagse realiteit, i.p.v. elkaar continu om de oren te slaan met deze (soms zwaar verouderde) wetten.

Ik weet wel dat ik nooit op sommige nieuwssites was gekomen zonder Google News...
*NEWSFLASH*

Belgische justitie eist windows versie waarbij in IE de optie 'offline beschikbaar maken' is uitgeschakeld. :+
Ik denk dat de copyrightwet gewoon eens dringend herzien moet worden. En ik denk eveneens dat de rechters hier in BelgiŽ dringend wat meer zich met de realiteit moeten bezighouden, in plaats van met wetteksten. Als we zo verder gaan betekent dat dat binnen dit en enkele jaren er geen zoekmachines meer beschikbaar zouden zijn in BelgiŽ. Dat is pas een ramp.

En trouwens, als ze zo zagen over de Google cache, wat dan met archive.org? Dat is nog veel erger blijkbaar, want die houden hopen kopies bij van websites.

Ik pleit in elk geval voor een opt-out systeem. Dan is het maar het probleem van de webmasters van de respectievelijke websites om naar behoren die robots.txt file in hun directories te plaatsen. Eventueel kan Google een tegemoetkoming doen en de mogelijkheden van robots.txt uitbreiden. Zo zou het bijvoorbeeld mogelijk kunnen zijn niet geÔndexeerd te worden door Google news, maar wel door Google zelf, of zo zou het mogelijk kunnen zijn geen cachepagina te bewaren, enkel de up-to-date versie.

Overigens: Google indexeert al een goed jaar of 8-9 webpagina's en zou zich dus zogezegd al een jaar of 8-9 schuldig maken aan copyrightschending of dergelijke? Valt dat niet al onder verjaring van feiten dan?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True