Britse rechtbank spreekt Google vrij van laster

Het Britse High Court heeft bepaald dat Google niet verantwoordelijk is voor vermeende laster die in zoekresultaten verschijnt. Volgens de rechter is Google geen uitgever van de informatie en is het zoekbedrijf daarom niet aansprakelijk.

Google logoVia Google was een bericht op het Digital Trends Forums te vinden waarin een cursus van Metropolitan International Schools, een instituut voor onderwijs op afstand, 'oplichting' werd genoemd. MIS klaagde daarop zowel het forum als de zoekmachine aan wegens laster.

De zaak tegen Digital Trends loopt nog, maar rechter David Eady van het High Court in Londen heeft inmiddels uitspraak in de zaak tegen Google gedaan, zo meldt de Daily Telegraph. Volgens de rechter is Google niet de uitgever van de informatie en kan de zoekgigant dan ook niet verantwoordelijk worden gehouden: "Als er als antwoord op een zoekopdracht een fragment op het scherm van de gebruiker verschijnt, verwijst dat naar een stukje op het web dat in meerdere of mindere mate overeenkomt met de ingevoerde zoektermen. De gebruiker kan vervolgens zelf kiezen of hij er toegang toe zoekt. Google heeft dit via zijn zoekdienst alleen makkelijker gemaakt."

In een reactie op het vonnis verklaarde een woordvoerder van Google: "We zijn tevreden met dit resultaat, dat nog eens bevestigt dat zoekmachines niet verantwoordelijk zijn voor content die op websites van derden wordt gepubliceerd. Rechter Eady heeft duidelijk gemaakt dat iemand die zich belasterd voelt door materiaal op een website, de persoon die dat heeft geschreven en gepubliceerd moet aanklagen en niet een zoekmachine, die alleen een doorzoekbare index van content op het internet aanbiedt."

Onlangs nog bepaalde een Nederlandse rechter eveneens dat Google niet verantwoordelijk is voor de samenvattingen bij de zoekresultaten. In deze zaak was niet de geïndexeerde tekst, maar de combinatie van tekstfragmenten bij twee verschillende zoektermen de steen des aanstoots. De rechter was van mening dat de site-eigenaar de gewraakte pagina moest aanpassen, hoewel deze weer niets te maken heeft met de presentatie van de resultaten door Google.

Door Arie Jan Stapel

Nieuwsposter / PowerMod

22-07-2009 • 13:14

40 Linkedin

Reacties (40)

40
40
36
2
0
0
Wijzig sortering
Ik vraag me eigenlijk wel af in hoeverre deze uitspraak invloed kan hebben bij rechtzaken tegen torrent-zoekmachines e.d.
Nu duidelijk gesteld is dat de zoekmachine niet verantwoordelijk is voor de content, zou dat wel eens positief kunnen werken voor datsoort sites, als die stelling daar naartoe doorgetrokken wordt.

[Reactie gewijzigd door mcDavid op 22 juli 2009 13:27]

Nee want een torrentsite is geen zoekmachine zoals google is. Een torrentsite kijkt in 1 of meerdere databases naar torrents welke geupload worden (dus geregistreerd bij de sites). Een torrentsite laat dus gefilterde resultaten zien. Aangezien de torrentsite de databases beheren hebben ze invloed/inspraak op de content. Bijvoorbeeld mininova haalt alle 18+ rommel weg. Dus torrentsite kunnen volledig controle uitoefenen op hun database en dus zoekresultaten. Daarnaast hosten de torrentsites vaak zelf de trackers.

Google heeft web robots die hun eigen weg gaan en alles indexeren wat ze vinden. Over die robots heb je als website zelf controle over door gebruik te maken van robot,txt. Dus als je content hebt wat je niet op google wil laten zien pas je de robot.txt aan. Google heeft echter geen invloed op de inhoud van de pagina's omdat ze wereldwijd zoeken en niet alleen in eigen content.

[Reactie gewijzigd door seal74 op 22 juli 2009 13:52]

Nee maar na deze aanklacht kunnen ze op ze minst de resultaten verwijderen die aanleiding waren van deze rechtbank... Ik bedoel maar een torrentsite die dat wel netjes doet (na klagen over een torrent) wordt evengoed nog boos aangekeken maar google mag het gewoon laten staan ookal is het een link naar laster...
Google heeft ook een 18+ filter in z'n afbeeldingen zoek staan. Daarnaast heeft Google van alles in z'n cache staan en in tegen stelling tot trackers die alleen maar naar een andere computer wijzen heeft Google dus echt de gewraakte content op hun server staan.
Naar een torrent wijzen kan in ditzelfde daglicht niet verboden worden.
Het wordt anders als je bijvoorbeeld illegale content host, of bewust naar auteurrechtelijk beschermd materiaal wijst.
Als je net als Google naar ALLES wijst, dan denk ik dat je in het nederlandse rechtssysteem een kans maakt.

Grappig om te weten is bijvoorbeeld dat er een nederlands gesubsidieerd project is genaam Fusion, dat meervoudige semantische en sociale software toepassingen integreert waardoor het een aantrekkelijke omgeving wordt voor content communities.
http://www.kennisland.nl/...n-cultuur/P2P-Fusion.html

Er bestaat ook een P2p applicatie gebouwd door de TU Delft - platgesubsidieerd door NL en de EU!
Zie: http://www.tribler.org/

Zolang dit bestaat zal het wel niet zo illegaal zijn... denkt u ook niet?

[Reactie gewijzigd door mrlammers op 23 juli 2009 12:23]

Je kan zelf heel eenvoudig dat filter toepassen: zoek voor gewenste product + "torrent", en viola...
Correct me if I'm wrong, maar ik heb nog nooit gehoord van rechtzaken tegen zoekmachines van torrents. Het zijn de sites die de torrent bestanden aanbieden die het zwaar te verduren hebben op dit moment. Zij worden dus niet geholpen met deze uitspraak.
Ik vind het sowieso vreemd dat commentaar van een persoon op een bedrijf of dienst zo snel als laster wordt behandeld. Een zoekmachine staat hier natuurlijk al helemaal buiten.

Als ik product X van leverancier Y kut vind mag ik dat vinden, dat mag ook een volkomen ongefundeerde ongenuanceerde mening zijn, daarom hebben we vrijheid van meningsuiting. Als een dergelijke reactie als één van de eersten bij zoekresultaten naar voren komt zijn er kennelijk geen of weinig positieve meldingen over het bedrijf. Daar kan je dan wel allemaal mensen om aan gaan klagen maar dat doet meestal meer kwaad dan goed.
Vrijheid van meningsuiting betekent niet dat ik zomaar iedereen zwart mag maken, van alles mag zeggen/roepen. Het betekent dat ik achteraf ter verantwoording geroepen kan worden over wat ik schreef/zei door een onafhankelijke partij, en niet dat vantevoren mijn mening al geblokkeerd wordt.
Anoniem: 46304
@Decalies22 juli 2009 16:23
Wat jij beschrijft gaat over (preventieve) censuur, niet over vrijheid van meningsuiting.

Als je vrijheid van meningsuiting hebt kun je voor een mening niet veroordeeld worden, ook niet als jouw blog waarin je product X afkraakt er voor zorgt dat de fabrikant van product X falliet gaat. Je kunt wel aangepakt worden als je de zaak belazert, zoals Exota ooit overkomen is (consumentenprogramma deed net alsof hun flessen zomaar kunden ontploffen, ze hadden de ontploffingen in scene gezet).
Iemand beschuldigen van oplichting is geen mening maar een waardeoordeel en dus een beschuldiging. Beschuldiging mogen best geuit worden maar dan moeten ze wel onderbouwd worden en onderzocht worden. Gebeurt dit niet is het niets meer dan laster.

Vrijheid van meningsuiting betekent dat jij inderdaad je mening mag geven maar als deze mening bovengenoemde beschuldiging is dan zal je toch met bewijzen moeten komen omdat het anders laster is. Dan ben je strafbaar en zal er rectificatie moeten plaatsvinden.

Vrijheid van meningsuiting betekent zeker niet dat jij ongefundeerde uitspraken kan doen die een ander kwaad kunnen berokkenen. Als er dingen in scene worden gezet, zoals jij als voorbeeld aangeeft, dan moeten deze mensen daarop kunnen worden aangesproken/aangepakt. Dit ter bescherming van onschuldigen.
Anoniem: 158240
22 juli 2009 14:47
Niet mee eens. Foute uitspraken blijven nog maandenlang zichtbaar in Google cache. Google is wel degelijk verantwoordelijk voor de cache IMO. Bij het bewaren van cache neemt men bewust het risico dat hierin ook foute of illegale content toch bewaard blijft. Dit is een beslissing die Google zelf maakt: de cache functie kan Google makkelijk weglaten zonder grote consequenties voor de zoekresultaten. Google beslist ook zelf hoelang en hoe de cache zichtbaar is. Dus allemaal hun probleem IMO.

Verder vindt ik het flut excuus om te stellen dat men geen "uitgever" is. Google heeft een behoorlijke reputatie in de gemeenschap en wanneer Google iets publiceert nemen een hoop mensen dit klakkeloos voor waar aan. Google moet doen wat "redelijkerwijs" mogelijk is.

Vergelijk Google met de Telefoongids: het is ook behoorlijk irritant wanneer de Telefoongids niet klopt toch? Maar om de Telefoongids verantwoordelijk te stellen voor het feit dat 1 nummer niet klopt gaat te ver. Maar dit neemt niet weg dat de Telefoongids er alles binnen haar mogelijkheden moet doen om te zorgen dat de inhoud klopt. Hoe moeilijk dat ook is.

[Reactie gewijzigd door Anoniem: 158240 op 22 juli 2009 14:57]

het lijkt me technisch gezien onmogelijk om de cache weg te laten. immers, de resultaten die je vindt zijn niet 'realtime', dat zijn juist de resultaten uit de cache. de informatie waarop google zoekt is wat dat betreft altijd 'verouderd'; als de informatie op de site wordt weggehaald duurt het even voordat de google indexeer-bot opnieuw die site bezoekt en de verandering doorheeft.

maw; als je die cache verbied moet google realtime op alle sites naar je zoekopdracht gaan zoeken en wordt het allemaal vele malen trager en inefficienter. en dus onwerkbaar.
Zolang Google kan aantonen dat zij alles hebben gedaan, wat binnen hun mogelijkheden ligt, dan kan ik er wel mee leven.

Ik vindt het bijvoorbeeld positief dat Google eerst waarschuwt voordat men wordt doorgelinkt naar risicovolle pagina's. Dat is natuurlijk zeer positief van Google.

Het is volgens mij net zoals YouTube: men moet proberen zoveel mogelijk slecht materiaal te weren. Maar men kan simpelweg niet alles vangen. Zolang men het ergste maar verwijderd.

[Reactie gewijzigd door Anoniem: 158240 op 22 juli 2009 18:56]

Je kan zelf aangeven of pagina's wel of niet opgenomen mogen worden in de Google cache door de volgende metatags toe te voegen in de <HEAD> sectie van je HTML document:
  • Alle zoekmachines verbieden de pagina te cachen:
    <META NAME="ROBOTS" CONTENT="NOARCHIVE">
  • Alleen Google verbieden de pagina de cachen:
    <META NAME="GOOGLEBOT" CONTENT="NOARCHIVE">
wat ik me afvraag, is of Google die beschrijvingen van websites steeds opnieuw 'rendert' of dat die een keer gemaakt worden en dan opgeslagen. Als het dat laatste is kunnen ze best af en toe iemand die beschrijvingen laten aanpassen.
DIt is ook de enige uitspraak waar ik denk iedereen het mee eens is. Het zou wat worden als Google in alle talen allerlei vormen van Laster moet gaan scannen en dat uit de resultaten halen.

Inderdaad doet een zoekmachine niets anders dan het internet voor ons toegankelijker maken. Daarbij ben ik ook van mening dat het altijd beter helpt om dit soort zaken bij de bron aan te pakken. En zeker het aanklagen van Google, je naam wordt genoemd (positief) maar aan de andere kant zullen ook veel mensen zich achter de oren krabben, omdat het zo meer over komt alsof MIS er niet goed over heeft nagedacht.

MISpoes dus voor MIS.. ;)
Maar zodra NZB en torrent index sites linken naar illegale content roepen alle rechters ineens in koor dat het niet mag. In feite doen zij ook niks meer dan indexeren, maar omdat Google een alom gerespecteerd bedrijf is kan het wel. In mijn ogen ook niet meer dan logisch overigens.
Google maakt dan ook geen aparte categorien voor illegaal aangeboden software of films, zodat jij die makkelijk kan vinden.
En laat mensen daar ook geen beschrijving bij geven zodat jij kan bepalen of die versie van de illegaal aangeboden film wel de kwaliteit heeft die jij wenst etc.


Ik heb nog nergens een NZB en/of torrent index site gezien die veroordeeld is door een rechter als ze dat soort zaken achterwege lieten, en werkelijk alleen maar indexeerden op de manier zoals Google dat doet.
M.a.w. afgezien van de opties om een zoekterm in te geven niets doen doen om het voor de gebruiker makkelijk te maken om zijn content te vinden.
Google doet er juist alles aan om ervoor te zorgen dat haar gebruikers makkelijk de content vinden die ze zoeken. Ik zou zelfs de open deur in durven trappen dat het de kernactiviteit van het bedrijf is. En óók google categoriseert. Enkel op haar frontpage zie ik links naar: 'Het internet', 'Afbeeldingen', 'Video's', 'Maps', 'Nieuws', 'Discussiegroepen', 'Boeken' en een dropdownmenu dat 'Meer' getiteld is. Wie het openklapt, ziet nog een aantal items, waaronder 'Nog véél meer...' En reken maar dat het overgrote merendeel van de door Google gevonden hits verwijst naar auteursrechtelijk beschermde werken.

Nee, Google maakt geen categorieën voor illegaal aangeboden software of films, maar dat is nogal een suggestief argument. Ik ken geen enkele torrent index die wél een verdeling maakt tussen illegaal en legaal aangeboden content. Deze legaliteit is ook helemaal niet gekoppeld aan de informatie in een .torrent-file, laat staan dat hij eruit zou volgen, dus het maken van een dergelijk onderscheid is voor een indexeringssite niet eens mogelijk. Voor Google evenmin. Technisch zijn er heus weinig relevante verschillen. Het zit hem vaak in details als intentie, schaal en het feit dat Google één van de weinige partijen is die een groot entertainmentconcern kapot kunnen procederen in plaats van vice versa. =]
Jij wilt dus beweren dat bv een categorie voor 0-day releases van films voor legale content is?
Dat is gewoon niet hard te maken!
Google doet er juist alles aan om ervoor te zorgen dat haar gebruikers makkelijk de content vinden die ze zoeken. Ik zou zelfs de open deur in durven trappen dat het de kernactiviteit van het bedrijf is
*zucht* je weet verrekte goed wat ik bedoel. De boel verdraaien en dan doen alsof je een open deur intrapt is niet bevordelijk voor de discussie.

Als iemand "the day the earth stood still" post als DTESS (dus zonder de eerste T) dan ga jij 'm met google echt niet zo makkelijk vinden.
En google geeft je dan ook geen opties om dat makkelijker te maken.

Maar op een site als TPB kan je 'm wel makkelijk vinden.
Kijk, daar zit nou net dat verschil.

En dat er torrent sites geen aparte categorie voor legale content maken is nogal logisch. Daar is zo weinig vraag naar dat dat geen aparte categorie rechtvaardigd. }>
Maar zodra NZB en torrent index sites linken naar illegale content roepen alle rechters ineens in koor dat het niet mag. In feite doen zij ook niks meer dan indexeren, maar omdat Google een alom gerespecteerd bedrijf is kan het wel.
Dat heeft er niks mee te maken. Het verschil is -steeds opnieuw- de intentie. Google heeft niet de bedoeling om iemand te helpen laster te versprijden. Daar waar redelijkerwijs mogelijk zullen ze zelfs helpen te voorkomen dat hun dienst misbruikt wordt. Sommige torrentsites hebben echter wél de intentie om copyrighinbreuk te laten plegen, zodat hun site meer bezoekers trekt. Zij die geen minimale inspanning doen om illegale praktijken tegen te gaan maken dus snel hun bedoelingen duidelijk...
Inderdaad, met een paperclip kunnen ook mensen vermoord worden (als je maar heel erg graag wilt 8)7 ) maar het is niet de intentie van de maker om mensen te vermoorden.
Datzelfde geld volgens mij voor google.
Terwijl nzb-sites en torrent-sites meer te vergelijken zijn met wapens, je hoeft er niemand mee te vermoorden, maar de stap is wel een stuk kleiner...
Ben ik volledig met je eens afvalbak ;)
Ik vind intentie in de meeste gevallen echt te vaag.
Als ik een Audi koop, heb ik dan de intentie te hard te rijden? Als ik in het bezit ben van een pistool, heb ik dan de intentie iemand te vermoorden? Als ik p2p software op mijn computer heb staan, heb ik dan de intentie auteursrechtelijk beschermd materiaal te downloaden?
Als je een zoekmachine hebt, heb je dan de intentie om laster de wereld in te spuiten?
En redelijkerwijs? Dat is ook zo'n term...

Je bent onschuldig tot het tegendeel bewezen is. Dat betekent wat mij betreft dat je niet veroordeeld kunt worden op je intentie. dat betekent dat je eerste te hard gereden moet hebben, of iemand moet hebben vermoord, of op illegale wijze in het bezit moet zijn gekomen van auteursrechtelijk materiaal... én dan moet je nog betrapt worden... en dán pas kun je veroordeeld worden.

De uitspraak van deze rechter is goed. Goed voor iedereen.
Slechte vergelijking. Een zoekmachine als Google indexeert alles, of probeert zoveel mogelijk te indexeren en daar zit soms ook illegale content bij maar daar kunnen zij niets aan doen, wanneer Google NZB of torrent bestanden vindt is dat omdat iemand ze aanbiedt op een website en is dat voor Google slechts bijvangst. Het is dan onzin om de zoekmachine aan te gaan klagen.
Anoniem: 247379
@jbdeiman22 juli 2009 13:30
DIt is ook de enige uitspraak waar ik denk iedereen het mee eens is.
MIS ook?
Anoniem: 232966
@jbdeiman22 juli 2009 13:43
mee eens..

en sterker nog misschien was het nooit door MIS opgevallen als het niet in de zoek machine was gevonden? dus had het mooi daar blijven staan met alle consequenties van dien...

imo moeten ze google bedanken... O-)
Dit klinkt vrij zinnig.

Maar waar ik nog steeds niet mee kan leven is de beslissing van de nederlandse rechter een tijd terug.
In dat geval presenteerde google onafhankelijke tekstfragmenten alsof ze bij elkaar hoorden.
Ik vind dat die beslissing nooit in het voordeel van google had mogen vallen.
In dat geval presenteerde google onafhankelijke tekstfragmenten alsof ze bij elkaar hoorden.
Bijna goed !

Google presenteerde inderdaad de tekstfragmenten, maar niet alsof ze bij elkaar hoorden. Daar zat een duidelijk scheiding d.m.v. puntjes in.

Dat is een wezenlijk verschil lijkt me.
Dat is ook niet helemaal waar. Daar de ellipsis inderdaad aangeeft dat er een gedeelte uit een quote is weg gelaten, duidt het nog steeds wel op een bestaand verband tussen de twee delen. Het is niet netjes om de essentiele betekenis van een zin die je quote te veranderen door zinsdelen weg te laten.

Ik maak van jouw post ook niet: T-men stelde dat "de tekstfragmenten ... bij elkaar hoorden"; "duidelijk ... lijkt me", concludeerde hij. ;)
Als er iemand laster heeft gepleegd op internet en ik zou dat artikel niet via Google kunnen vinden dat zou ik eerder een reden vinden om Google aan te klagen.
Want? Google heeft geen controle over de resultaten van zijn webbots. Als ik in de robot.txt zet dat google die pagina niet mag opnemen in maar de rest wel kan google niet verantwoordelijklijk worden gehouden. Ook als je een pagina op 1 of andere vage host zet waar geen pagina na verwijst dus de bot niet via linkjes kan benaderen dan is het ook moeilijk of onmogelijk voor de bot om die pagina te vinden. Dus google kan niet verantwoordelijk worden gehouden voor content van een ander.

Daarnaast webpagina's veranderen elke dag, denk je dat google elke dag gaat kijken alle pagina's veranderen? Natuurlijk niet!
Als zoekmachines toch niet verantwoordelijk zijn voor de content die het oplevert, volgens de woordvoerder, waarom filtert Google dan de zoekresultaten voor bv. China..?

(Antwoord weet ik al, het is alleen een constatering ;))

[Reactie gewijzigd door Gardocki op 22 juli 2009 15:37]

Anoniem: 46304
@Gardocki22 juli 2009 16:24
Ze zijn nu in Engeland niet verantwoordelijk. China heeft niks te maken met wat een Britse rechter zegt.
Anoniem: 107117
22 juli 2009 13:24
Lijkt me ook niet meer dan logisch, het zou vreemd zijn als Google verantwoordelijk wordt gehouden voor content op andere sites...

Uiteraard cachen ze de search-index wel, maar het blijft gecachde info..
Leuk voor google, want moest die rechter Eady gewonnen hebben zouden er ineens een hele hoop aanklagen komen. Om er gewoon geld mee te verdienen :9~

Lijkt me trouwens niet zo moeilijk, veel googlen totdat je iets tegenkomt dat je niet bevalt
Rechter Eady heeft duidelijk gemaakt dat iemand die zich belasterd voelt door materiaal op een website, de persoon die dat heeft geschreven en gepubliceerd moet aanklagen en niet een zoekmachine, die alleen een doorzoekbare index van content op het internet aanbiedt."
Geldt dat dan automatisch niet ook voor torrent-indices? Lijkt me een mooie jurisprudentie.

[Reactie gewijzigd door Bosmonster op 22 juli 2009 13:37]

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee