Google verwijdert alle links naar klagende Belgische kranten

In een reactie op de eis van de rechtbank, heeft Google de links naar een aantal sites van Belgische kranten en dagbladen uit zijn index verwijderd. Diverse Frans- en Duitstalige magazines hadden zich bij de rechter erover beklaagd dat artikelen van hun site via de zoekmachine volledig te raadplegen waren, terwijl dit op de site zelf voorbehouden was aan betalende klanten van het dagblad. Het ging daarbij overigens niet uitsluitend om vermeldingen op Google News, maar ook om zoekresultaten op de gewone Google-pagina's. Naast het verwijderen van de gecachete pagina's moest Google ook het vonnis op zijn website publiceren. Een zoektocht naar artikelen van de Franstalige krant Le Soir levert dan ook een link naar dit vonnis op.

Aangezien het vonnis in Brussel door een Belgische rechtbank uitgesproken werd, zijn de internationale versies van de zoekmachine vooralsnog ongewijzigd te raadplegen. Bovendien gaat Google met de actie verder dan de eis die door de rechter gesteld werd. Het bedrijf werd immers slechts verplicht de gecachete pagina's niet langer raadpleegbaar te maken, maar Google besloot Le Soir geheel uit zijn Belgische index te verwijderen. Het lijkt dan ook aannemelijk Google hiermee een wraakactie wil ondernemen, gezien websites over het algemeen net hun best doen om zo hoog mogelijk in de zoekresultaten te verschijnen.

Google - Le Soir

Door Yoeri Lauwers

Eindredacteur

19-09-2006 • 16:24

71

Submitter: Denhomer

Reacties (71)

Sorteer op:

Weergave:

Goede zet van de oude media. Zo weten ze zeker dat ze over tien jaar niet meer gelezen worden.
Vraagje... maar hoe komt content waar normaal voor betaald moet worden... in vredesnaam terecht in een google search machine?? Dat kan toch niet, sinds de google robot verbindt naar dezelfde pagines (die dus beveiligdt zijn) etc??
slecht beveiliging waarschijnlijk.
waarschijnlijk kan je er zelf ook zo komen door even in de mappen structuur van de site te kijken bijvoorbeeld.

ook kan je de google bot (en elke andere zoek machine bot) heel goed vertellen waar hij wel en niet mag komen)
ik zou tegen die sites zeggen eigen schuld dikke bult als ik die rechter was geweest
ook kan je de google bot (en elke andere zoek machine bot) heel goed vertellen waar hij wel en niet mag komen)
Mits die bot zich aan jouw instructies houdt, anders maakt het nog niets uit.

Maar over het algemeen heb je wel gewoon gelijk. :)
als hij dat niet deed, DAN zouden ze inderdaad een gegronde reden hebben om te klagen.
Neen hoor, veel nieuwssites laten met plezier alles indexeren door search engines, en geven deze dan ook volledige toegang tot hun site (op basis van user agent, eventueel ook ip range). Wanneer je dan als gewone gebruiker op een link in google klikt die naar zo'n pagina verwijst kom je op een login pagina terecht.
Als het goed beveiligd is, kan je de content alleen bekijken indien je bent ingelogd. Zolang je niet bent ingelogd bestaat er geen sessie/cookie en wordt je geredirect naar een pagina dat je niet ingelogd bent. Hierop zal elke bot ook uitkomen...

Gewoon slecht en onveilig opgebouwd. Net goed dat ze er door hun gezeur nu helemaal niet meer op Google voorkomen.
Ik kom heel vaak op betaalpagina's van forums terecht de laatste tijd via google. Je zoekt iets, vindt het, klikt erop: betalen voor registratie en dan mag je het lezen.

Met andere woorden: ze zetten het open voor google om mensen te lokken, ze zetten het dicht voor de bezoeker om inkomsten te krijgen. Smerige methode, en blijkbaar is het dan verboden als google ineens de content die gespiderd is gecached wordt.
Dat is nou juist het leuke. Google leeft de robots.txt na echter de kranten zijn niet in staat om dit na behoren te te configureren. Google kan beveiligde websites cachen omdat deze zich voordoet als een spider en dat spiders.txt dit ook toelaat. Neem bv Firefox kun je je voordoen adhv je config als een spider en kun je behoorlijk wat websites benaderen zonder dat je ervoor betaald.
Volgens mij is niet zo zeer dat google spiders.txt niet naleeft echter in hoeverre google 'quote' in de zin van hoeveel wordt op hun website afgebeeld. Naar mijn idee te weinig om eigenlijk een nieuws bericht fatsoenlijk te begrijpen echter inhalige kranten denken hier schijnbaar anders over. De kwestie is dan ook eerder dat de kranten geld willen zien omdat google quote, nu zullen ze zien in hoeverre het quoten geld waard was en of de kranten eigenlijk niet google zouden moeten betalen voor wat google levert.
Hm, dat verklaart:

http://www.lesoir.be/robots.txt

Volgens mij zijn de een "/" vergeten op de 2de regel :)
Volgens http://en.wikipedia.org/wiki/Robots.txt is dat idd om het juist wel toe te laten. Zo'n klein foutje is snel gemaakt. Maar misschien hebben ze dit bestandje alleen maar gemaakt om minder 404 errors in de logs te krijgen. Het is iig wel een karig bestandje.
Over het algemeen is online nieuws de eerste paar dagen gratis te lezen. Daarna gaat het in een archief waar voor betaald of lid moet zijn.
Er zijn HTTP headers om de geldigheid van een pagina aan te geven. En volgens mij houd Google daar ook rekening mee.
De kranten bieden het nieuws eerst een aantal dagen open en bloot aan en verplaatsen het vervolgens naar een afgesloten deel dat alleen toegankelijk is voor abonnees. De betreffende pagina's bleven echter - zeer tegen de wens van de kranten - beschikbaar.
Als het zo ongewest is waarom hebben ze dat dat niet zo gemaakt dat meer zichtbaar is na een paar dagen.
Dat is allemaal in te stellen.
Want niet alleen Google heeft die pagina's maar andere zoekmachines ook.
twee mogelijkheden:
De bot kan langs de beveiliging (gebeurd wel vaker)
De pagina's waren tijdelijk open en komen zo in de cache terecht.
Het bedrijf werd immers slechts verplicht de gecachete pagina's niet langer raadpleegbaar te maken, maar Google besloot Le Soir geheel uit zijn Belgische index te verwijderen. Het lijkt dan ook aannemelijk Google hiermee een wraakactie wil ondernemen, gezien websites over het algemeen net hun best doen om zo hoog mogelijk in de zoekresultaten te verschijnen.
Ik raad jullie aan om tegenlicht te kijken waarin het over Google gaat.

Als je de folisofie van Google na leest op hun website dan staat deze actie hier recht tegen over.

"Onze missie is dan ook om informatie voor iedereen, waar ook ter wereld, toegankelijk te maken"

"De perfecte zoekmachine begrijpt precies wat je bedoelt en vindt precies wat je zoekt
...
Google doet er alles aan om de 'perfecte zoekmachine' te ontwikkelen"

"Door de belangen van gebruikers altijd voorop te stellen"

"Google is er echter van overtuigd dat alleen wijzigingen waarvan gebruikers profiteren, doorgevoerd moeten worden"

"We baseren onze gegevens niet op de mening van een vaste groep editors of op de frequentie waarmee een bepaalde term voorkomt, maar wij bepalen de positie van een webpagina op basis van een revolutionaire technologie, genaamd PageRank™. Met PageRank wordt aan alle sites die een koppeling naar een bepaalde webpagina bevatten, een waarde toegekend"

In tegenlicht werden ook enkele zeer goede vragen gesteld waar flink omheen gedraaid werd. Het lijkt of Google zijn ware aard laat zien.

"Wij doen wat we willen of we zorgen ervoor dat mensen jullie niet meer kunnen vinden". Met het marktaandeel dat Google heeft hebben ze zo'n vinger in de pap dat ze van alles uit kunnen halen.
"Google is er echter van overtuigd dat alleen wijzigingen waarvan gebruikers profiteren, doorgevoerd moeten worden"
Misschien voeren ze dit nog altijd hoog in het vaandel. Had jij liever gehad dan dat ze de Belgische rechterlijke macht daarvoor negeren? Die vind ik namelijk ook vrij belangrijk.
Leg mij eens uit hoe de belgische gebruiker profiteerd dat Google de site uit de index heeft gehaald?
Simpel, geen resultaten die naar een loginpagina verwijzen. Een login die je trouwens alleen kan krijgen door te betalen. Als het nou nog een gratis registratie was, zoals bij de NY Times tot daar aan toe, maar dat is het in dit geval niet.

Ik vind dit dus een goede actie van Google, en van mij mogen ze het met alle sites doen die content voor search wel toegankelijk maken, maar voor gebruikers achter een betalende login steken.
"Onze missie is dan ook om informatie voor iedereen, waar ook ter wereld, toegankelijk te maken"
als je ze dan tegenwerkt moet je niet raar opkijken als google je vervolgens links laat liggen. Zou ik ook doen.
Je links laat liggen of je links laat liggen? :Y)
als je ze dan tegenwerkt moet je niet raar opkijken als google je vervolgens links laat liggen. Zou ik ook doen.
Google is veroordeeld door het verwijderen van "al het tekst- en beeldmateriaal van een aantal Frans- en Duitstalige dagbladuitgevers, die zijn verenigd in de maatschappij Copiepress.".

Dit betekend dat ze SCHULDIG zijn. Ze kunnen dit niet hebben en gaan dan maar de hele site uit de index halen.

Vergeet niet dat Google News iets heel anders is dan Google zoekmachine. Of te wel, Google doet wat ze willen, bevalt het je niet en krijg je gelijk van de rechter dan wordt je maar uit de index geflikkerd en eventueel alle andere diensten.


Dit heet misbruik maken van je positie/marktaandeel aangezien Google marktleider is op zoekgebied.

Google zegt wel leuk dat de pagerank automatisch gaat, maar blijkbaar flikkeren ze handmatig sites eruit die ze niet bevallen. Dat heet censuur. Vreemd dat iedereen er over valt dat ze het in China doen maar in Belgie mag het blijkbaar wel...
Belgische gebruikers zoeken gewoon even via google.nl of google.fr. Voor de gebruiker niets aan de hand dus.
Wellicht is het technisch gezien gewoon veel makkelijker een website volledig uit een (lokale) database te kieperen dan de google-cache-versie van een website niet te tonen. Dat ze dan meteen ook de website van lesoir.be boycotten is [google-modus] mooi meegenomen [/google-modus].
Zo moeilijk is dat niet voor ze hoor. Als je op scholar.google.com op artikelen zoekt dan krijgt je van de grote uitgevers niet de optie om de cached versie te raadplegen, terwijl dat bij versies die van een willekeurige andere website afkomen wel het geval is.
Omdat die tenminste niet te dom zijn om robots.txt of de meta tag te gebruiken om aan te geven dat caching niet gewenst is. Google en de meeste andere search engines volgen dit braaf.

Dat Le Soir nu te dom is om dat ook te doen, en in plaats daarvan maar Google aanklaagt is niet de fout van Google he. Van mij had de rechter Le Soir gewoon mogen zeggen van op te rotten, omdat dit gewoon door een simpele technische ingreep op te lossen was.

Ik ga er hierbij dan wel vanuit dat wanneer de optie om caching af te zetten aan staat in de robots.txt of metadata, deze paginas ook niet getoond worden op Google News en gelijkaardige sites...
Tja,

Het doel van Google is om alle informatie wereldwijd toegankelijk en bruikbaar te maken.

http://www.google.com/corporate/

Ze zijn vergeten om er achter te zetten ( behalve als het uit een belgische/franse krant komt).

En welke informatie kan je nog meer niet vinden? Zoals G-Earth, zijn sommige zoekresultaten ook geblurred?
Natuurlijk zijn bepaalde mappen geblurred.

Een legerbasis zal zijn infrastructuur toch niet laten zien aan de buitenwereld?
Welke belgische kranten? ik ken ze niet, want ze staan niet op google. }>
Ik vind dat google groot gelijk heeft eigenlijk, want het is gewoon een probleem dat bij die sites ligt. Wanneer de beveiligde pagina's te omzeilen zijn, vind ik niet dat google ongelijk heeft.
Ik denk dat de kranten hun eigen graf hebben gegraven, nu hebben ze waarschijnlijk nog veel hits op hun website door alle commotie, maar ik denk dat over een paar weken(wanneer iedereen dit gedoe alweer is vergeten) bijna niemand meer de websites van deze kranten bezoekt!
Als google deze websites totaal uit hun index heeft gefiltert dan mogen de kranten blij zijn als ze nog 20% van de hits krijgen die ze hadden toen ze nog wel geindexeerd stonden bij google!
Dit resulteerd weer in minder reclame inkomsten en minder verkochte abonnementen, kortom ERG DOM!
Ik denk dat je daar totaal de plank misslaat.

Kranten in Nederland, zoals het AD, Trouw, NRC Handelsblad, kan ik allemaal prima vinden zonder Google. Dat is dus het probleem niet.

Die kranten gebruiken geen tags om niet gecached te worden, en willen niet gecached worden. Waarom niet? Nou omdat de content die vandaag gecached wordt, morgen op hun sites achter een abo zit. En via Google was die cache dus wel in te zien.

De stelling met minder abo's gaat dus niet op. Waarom een abo nemen, als je het via de cache van Google ook kan lezen.

Ik denk dat Google gekozen heeft voor een totale verwijdering van Le Soir, omdat Le Soir geen aansturing voor de robots biedt, en dus Google de vrij loop geeft. Google kan dus niet ruiken dat iets wel of niet geindexeerd of gecached mag worden.

Ik denk namelijk dat Google News gewoon de cache gebruikt van Google Search, Beetje omslachtig om 2 keer te crawlen als het ook in 1 keer kan. Zelfde verhaal als je een site snel geindexeerd wil hebben in Google, mik er Adsense op. Het versneld het indexeren behoorlijk. Ze gebruiken dezelfde cache.
Aangezien het vonnis in Brussel door een Belgische rechtbank uitgesproken werd, zijn de internationale versies van de zoekmachine vooralsnog ongewijzigd te raadplegen.
Verander .nl maar even in .be ;)
wel ik krijg geen directe links, maar in de beschrijvingen staat toch nog www.lesoir.be :)
Zo zie je maar hoe ethisch google omspringt met de "macht" die het heeft. Als ze de krant Le Soir uit de Belgische index halen als een soort wraakactie vindt ik dit toch maar laag. Het is natuurlijk wel waar dat een goede configuratie bij de kranten of nieuwssites zelf ligt.
Niet meer dan logisch toch?
Google heeft macht over wat hun eigen website weer geeft, binnen de bepalingen van de wet natuurlijk

Dat je te vinden bent op google is geen recht, maar alleen maar mooi meegenomen.
Het is niets anders dan spierballen rollen van Google.

Begin er een beetje de pee in te krijgen met die toko.

Overal zie je Google ads en er zit heel veel bedenkelijk spul tussen.
Nee, het is het elimineren van een ander probleem, anders zouden ze nog een vakje moeten toevoegen in hun database of ze de data wel mogen cachen van verschillende sites.

Nu is het makkelijker om meteen een hele domein te verwijderen, uiteindelijk levert dit namelijk minder administratie op voor Google. (En meer kosten)
Ik vind dat je een beetje makkelijk conclusies trekt. Van "Le Soir" mogen ze (bijvoorbeeld) lesoir.be/nieuws/blaat.htm niet indexeren.
Waarschijnlijk staat het nieuws van vandaag op www.lesoir.be . Een deel van de content waarvoor ze na een paar dagen betaald willen hebben.

Wil jij de google bot, zonder fatsoenlijke robots.txt (want die is er niet, zie de vorige reacties) uitleggen wat ie nou precies moet doen?
Hoogstwaarschijnlijk zit er ook nog wel een dwangsom achter, of andere maatregelen, dus je moet echt zeker weten dat je filter goed werkt.
Denk niet dat google kinderachtig genoeg is om het om een andere dan een practische reden te doen. Denk dat de rechter te slecht ingelicht is om uberhaupt de kranten gelijk te geven.
Als jij je fiets op straat zet, en je wilt dat mensen hem gebruiken, en je verteld er niet bij dat je hem na 3 dagen terug wilt hebben, moet je achteraf niet klagen dat je je fiets niet terug krijgt. (Waarbij je fiets dus door "content" kunt vervangen).

Sue MSN search
(Bij settings even gezegd dat ik in brussel woon)

Sue yahoo
Naar yahoo.be gegaan, werd geredirect naar .fr

Ask valt niet te sueen
Grappig, ook geen resultaten

Sue altavista

Hoop voor lesoir dat ze een advocaat hebben met een behoorlijke conditie, want je kunt het natuurlijk niet maken om alleen de populairste zoekmachine aan te klagen. Denk dat iig de "notoire" illegale nieuwslezer wel de moeite nemen om hetzelfde te doen als wat ik net deed, even de concullega's testen...

Edit:
Altavista en ask houden geen caches bij, dat zijn dan verlichtende omstandigheden omstandigheden... :)
had ik al meteen zien aankomen wanner ik het artikel (in de krant dan nog wel :D ) las, dat google netjes alle links verwijderd naar hun site.
en niet meer gevonen worden door google...voor een commerciële stie....pech

Op dit item kan niet meer gereageerd worden.