Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties
Submitter: Denhomer

In een reactie op de eis van de rechtbank, heeft Google de links naar een aantal sites van Belgische kranten en dagbladen uit zijn index verwijderd. Diverse Frans- en Duitstalige magazines hadden zich bij de rechter erover beklaagd dat artikelen van hun site via de zoekmachine volledig te raadplegen waren, terwijl dit op de site zelf voorbehouden was aan betalende klanten van het dagblad. Het ging daarbij overigens niet uitsluitend om vermeldingen op Google News, maar ook om zoekresultaten op de gewone Google-pagina's. Naast het verwijderen van de gecachete pagina's moest Google ook het vonnis op zijn website publiceren. Een zoektocht naar artikelen van de Franstalige krant Le Soir levert dan ook een link naar dit vonnis op.

Aangezien het vonnis in Brussel door een Belgische rechtbank uitgesproken werd, zijn de internationale versies van de zoekmachine vooralsnog ongewijzigd te raadplegen. Bovendien gaat Google met de actie verder dan de eis die door de rechter gesteld werd. Het bedrijf werd immers slechts verplicht de gecachete pagina's niet langer raadpleegbaar te maken, maar Google besloot Le Soir geheel uit zijn Belgische index te verwijderen. Het lijkt dan ook aannemelijk Google hiermee een wraakactie wil ondernemen, gezien websites over het algemeen net hun best doen om zo hoog mogelijk in de zoekresultaten te verschijnen.

Google - Le Soir

Reacties (71)

Reactiefilter:-171070+155+26+32
Moderatie-faq Wijzig weergave
Goede zet van de oude media. Zo weten ze zeker dat ze over tien jaar niet meer gelezen worden.
Vraagje... maar hoe komt content waar normaal voor betaald moet worden... in vredesnaam terecht in een google search machine?? Dat kan toch niet, sinds de google robot verbindt naar dezelfde pagines (die dus beveiligdt zijn) etc??
slecht beveiliging waarschijnlijk.
waarschijnlijk kan je er zelf ook zo komen door even in de mappen structuur van de site te kijken bijvoorbeeld.

ook kan je de google bot (en elke andere zoek machine bot) heel goed vertellen waar hij wel en niet mag komen)
ik zou tegen die sites zeggen eigen schuld dikke bult als ik die rechter was geweest
ook kan je de google bot (en elke andere zoek machine bot) heel goed vertellen waar hij wel en niet mag komen)
Mits die bot zich aan jouw instructies houdt, anders maakt het nog niets uit.

Maar over het algemeen heb je wel gewoon gelijk. :)
als hij dat niet deed, DAN zouden ze inderdaad een gegronde reden hebben om te klagen.
Als het goed beveiligd is, kan je de content alleen bekijken indien je bent ingelogd. Zolang je niet bent ingelogd bestaat er geen sessie/cookie en wordt je geredirect naar een pagina dat je niet ingelogd bent. Hierop zal elke bot ook uitkomen...

Gewoon slecht en onveilig opgebouwd. Net goed dat ze er door hun gezeur nu helemaal niet meer op Google voorkomen.
Neen hoor, veel nieuwssites laten met plezier alles indexeren door search engines, en geven deze dan ook volledige toegang tot hun site (op basis van user agent, eventueel ook ip range). Wanneer je dan als gewone gebruiker op een link in google klikt die naar zo'n pagina verwijst kom je op een login pagina terecht.
Ik kom heel vaak op betaalpagina's van forums terecht de laatste tijd via google. Je zoekt iets, vindt het, klikt erop: betalen voor registratie en dan mag je het lezen.

Met andere woorden: ze zetten het open voor google om mensen te lokken, ze zetten het dicht voor de bezoeker om inkomsten te krijgen. Smerige methode, en blijkbaar is het dan verboden als google ineens de content die gespiderd is gecached wordt.
Dat is nou juist het leuke. Google leeft de robots.txt na echter de kranten zijn niet in staat om dit na behoren te te configureren. Google kan beveiligde websites cachen omdat deze zich voordoet als een spider en dat spiders.txt dit ook toelaat. Neem bv Firefox kun je je voordoen adhv je config als een spider en kun je behoorlijk wat websites benaderen zonder dat je ervoor betaald.
Volgens mij is niet zo zeer dat google spiders.txt niet naleeft echter in hoeverre google 'quote' in de zin van hoeveel wordt op hun website afgebeeld. Naar mijn idee te weinig om eigenlijk een nieuws bericht fatsoenlijk te begrijpen echter inhalige kranten denken hier schijnbaar anders over. De kwestie is dan ook eerder dat de kranten geld willen zien omdat google quote, nu zullen ze zien in hoeverre het quoten geld waard was en of de kranten eigenlijk niet google zouden moeten betalen voor wat google levert.
Hm, dat verklaart:

http://www.lesoir.be/robots.txt

Volgens mij zijn de een "/" vergeten op de 2de regel :)
Volgens http://en.wikipedia.org/wiki/Robots.txt is dat idd om het juist wel toe te laten. Zo'n klein foutje is snel gemaakt. Maar misschien hebben ze dit bestandje alleen maar gemaakt om minder 404 errors in de logs te krijgen. Het is iig wel een karig bestandje.
Over het algemeen is online nieuws de eerste paar dagen gratis te lezen. Daarna gaat het in een archief waar voor betaald of lid moet zijn.
Er zijn HTTP headers om de geldigheid van een pagina aan te geven. En volgens mij houd Google daar ook rekening mee.
De kranten bieden het nieuws eerst een aantal dagen open en bloot aan en verplaatsen het vervolgens naar een afgesloten deel dat alleen toegankelijk is voor abonnees. De betreffende pagina's bleven echter - zeer tegen de wens van de kranten - beschikbaar.
Als het zo ongewest is waarom hebben ze dat dat niet zo gemaakt dat meer zichtbaar is na een paar dagen.
Dat is allemaal in te stellen.
Want niet alleen Google heeft die pagina's maar andere zoekmachines ook.
twee mogelijkheden:
De bot kan langs de beveiliging (gebeurd wel vaker)
De pagina's waren tijdelijk open en komen zo in de cache terecht.
Het bedrijf werd immers slechts verplicht de gecachete pagina's niet langer raadpleegbaar te maken, maar Google besloot Le Soir geheel uit zijn Belgische index te verwijderen. Het lijkt dan ook aannemelijk Google hiermee een wraakactie wil ondernemen, gezien websites over het algemeen net hun best doen om zo hoog mogelijk in de zoekresultaten te verschijnen.
Ik raad jullie aan om tegenlicht te kijken waarin het over Google gaat.

Als je de folisofie van Google na leest op hun website dan staat deze actie hier recht tegen over.

"Onze missie is dan ook om informatie voor iedereen, waar ook ter wereld, toegankelijk te maken"

"De perfecte zoekmachine begrijpt precies wat je bedoelt en vindt precies wat je zoekt
...
Google doet er alles aan om de 'perfecte zoekmachine' te ontwikkelen"

"Door de belangen van gebruikers altijd voorop te stellen"

"Google is er echter van overtuigd dat alleen wijzigingen waarvan gebruikers profiteren, doorgevoerd moeten worden"

"We baseren onze gegevens niet op de mening van een vaste groep editors of op de frequentie waarmee een bepaalde term voorkomt, maar wij bepalen de positie van een webpagina op basis van een revolutionaire technologie, genaamd PageRank™. Met PageRank wordt aan alle sites die een koppeling naar een bepaalde webpagina bevatten, een waarde toegekend"

In tegenlicht werden ook enkele zeer goede vragen gesteld waar flink omheen gedraaid werd. Het lijkt of Google zijn ware aard laat zien.

"Wij doen wat we willen of we zorgen ervoor dat mensen jullie niet meer kunnen vinden". Met het marktaandeel dat Google heeft hebben ze zo'n vinger in de pap dat ze van alles uit kunnen halen.
"Google is er echter van overtuigd dat alleen wijzigingen waarvan gebruikers profiteren, doorgevoerd moeten worden"
Misschien voeren ze dit nog altijd hoog in het vaandel. Had jij liever gehad dan dat ze de Belgische rechterlijke macht daarvoor negeren? Die vind ik namelijk ook vrij belangrijk.
Leg mij eens uit hoe de belgische gebruiker profiteerd dat Google de site uit de index heeft gehaald?
Simpel, geen resultaten die naar een loginpagina verwijzen. Een login die je trouwens alleen kan krijgen door te betalen. Als het nou nog een gratis registratie was, zoals bij de NY Times tot daar aan toe, maar dat is het in dit geval niet.

Ik vind dit dus een goede actie van Google, en van mij mogen ze het met alle sites doen die content voor search wel toegankelijk maken, maar voor gebruikers achter een betalende login steken.
"Onze missie is dan ook om informatie voor iedereen, waar ook ter wereld, toegankelijk te maken"
als je ze dan tegenwerkt moet je niet raar opkijken als google je vervolgens links laat liggen. Zou ik ook doen.
Je links laat liggen of je links laat liggen? :Y)
als je ze dan tegenwerkt moet je niet raar opkijken als google je vervolgens links laat liggen. Zou ik ook doen.
Google is veroordeeld door het verwijderen van "al het tekst- en beeldmateriaal van een aantal Frans- en Duitstalige dagbladuitgevers, die zijn verenigd in de maatschappij Copiepress.".

Dit betekend dat ze SCHULDIG zijn. Ze kunnen dit niet hebben en gaan dan maar de hele site uit de index halen.

Vergeet niet dat Google News iets heel anders is dan Google zoekmachine. Of te wel, Google doet wat ze willen, bevalt het je niet en krijg je gelijk van de rechter dan wordt je maar uit de index geflikkerd en eventueel alle andere diensten.


Dit heet misbruik maken van je positie/marktaandeel aangezien Google marktleider is op zoekgebied.

Google zegt wel leuk dat de pagerank automatisch gaat, maar blijkbaar flikkeren ze handmatig sites eruit die ze niet bevallen. Dat heet censuur. Vreemd dat iedereen er over valt dat ze het in China doen maar in Belgie mag het blijkbaar wel...
Belgische gebruikers zoeken gewoon even via google.nl of google.fr. Voor de gebruiker niets aan de hand dus.
Vraagje... maar hoe komt content waar normaal voor betaald moet worden... in vredesnaam terecht in een google search machine?? Dat kan toch niet, sinds de google robot verbindt naar dezelfde pagines (die dus beveiligdt zijn) etc??
Botjes [niet van je afgekloven kip] van Google lopen overal langs waar wat staat en heel de meuk wordt ge´ndexeerd, gaat door vele filters en komt uiteindelijk in Google terecht.

@kain134; WinFS wat later komt is zo'n soort spider[bot] hoe je het ook noemt die alles indexeert. Dan is Vista nog de voorloper met haar snelle search.
Google ziet je website net zoals je deze zou bekijken met een Text-Browser zoals Lynx
En indexeerd ook alleen maar wat deze daar aantreft.

Als je als website bouwer delen netjes afschermt kunnen de google bots daar ook niet komen, en zullen ze het ook niet indexeren.
Links die in het verleden zijn geindexeerd worden dan niet meer gevonden, en dus uit de index verwijderd.

Echter, het geval van deze krant is dat als je een directe link wist naar het artikel , je zomaar naar binnen kon wandelen.

Nu zie ik net dat deze pagina een PR van 7 heeft , die zullen ze dan met de volgende update ook kwijt raken.
Heel erg zonde want zo een PR geeft je een goede vindbaarheid in de zoekmachines.

Uiteindelijk , ze zijn een enorme berg met traffic kwijt, en een hoop geld.
Maar dat voelen ze over een tijdje pas :+
Wat heeft WinFS met mijn vraag te maken ? Ik zoek een tool of een prog die random webpagina's laat verschijnen. Indexeert WinFS random webpagina's ?
Wellicht is het technisch gezien gewoon veel makkelijker een website volledig uit een (lokale) database te kieperen dan de google-cache-versie van een website niet te tonen. Dat ze dan meteen ook de website van lesoir.be boycotten is [google-modus] mooi meegenomen [/google-modus].
Zo moeilijk is dat niet voor ze hoor. Als je op scholar.google.com op artikelen zoekt dan krijgt je van de grote uitgevers niet de optie om de cached versie te raadplegen, terwijl dat bij versies die van een willekeurige andere website afkomen wel het geval is.
Omdat die tenminste niet te dom zijn om robots.txt of de meta tag te gebruiken om aan te geven dat caching niet gewenst is. Google en de meeste andere search engines volgen dit braaf.

Dat Le Soir nu te dom is om dat ook te doen, en in plaats daarvan maar Google aanklaagt is niet de fout van Google he. Van mij had de rechter Le Soir gewoon mogen zeggen van op te rotten, omdat dit gewoon door een simpele technische ingreep op te lossen was.

Ik ga er hierbij dan wel vanuit dat wanneer de optie om caching af te zetten aan staat in de robots.txt of metadata, deze paginas ook niet getoond worden op Google News en gelijkaardige sites...
Tja,

Het doel van Google is om alle informatie wereldwijd toegankelijk en bruikbaar te maken.

http://www.google.com/corporate/

Ze zijn vergeten om er achter te zetten ( behalve als het uit een belgische/franse krant komt).

En welke informatie kan je nog meer niet vinden? Zoals G-Earth, zijn sommige zoekresultaten ook geblurred?
Natuurlijk zijn bepaalde mappen geblurred.

Een legerbasis zal zijn infrastructuur toch niet laten zien aan de buitenwereld?
Dan zal le Soir binnenkort nog wel weer een rechtzaak beginnen. Dit keer om weer in de Google index te worden opgenomen...

Google weet best wat ze hadden moeten doen en wat ze hadden moeten laten. Het het hele caching verhaal is zowiezo redelijk omstreden en op het randje van de ip-wettten. Ze weten best hoe deze zaken er voor staan en om op deze manier wraak proberen te nemen lijkt me behoorlijk kinderachtig.
Deze caching is standaard op het net. Gegeven de kosten van net-traffic, namelijk dat een externe verbinding erg duur is, cachen alle net-providers zoveel mogelijk. Dit is meestal onzichtbaar, en, vooral, niet meer zo belangrijk voor http omdat dit toch niet zoveel bandbreedte kost. De google cache is dus zichtbaar, maar er zijn zeker meer caches waar cache-bare paginas in blijven staan.

Om caching te controleren is het niet eens nodig om robots.txt aan te passen, de http headers die door elke website worden meegestuurd voldoen. Echter, deze juist instelling is niet makkelijk, en gebeurt dus op bijna geen website helemaal optimaal.

Er is heel veel (slechte) wetgeving omtrent informatie als eigendom: Het lijkt mij niet dat google verplicht is om iemand te representeren in hun zoekresultaten, vooral als ze een order krijgen om deze zoekresultaten uit google news, google cache en willekeurig andere namen te verwijderen.

Duidelijk is alleen dat deze wetgeving ertoe leidt dat er dure rechtzaken gevochten worden die tot conclusie hebben dat maatschappelijk zinvolle taken gestaakt moeten worden. Deze wetten moeten dus geschapt of aangepast.

Ondanks het feit dat zowel google als le soir zichzelf hiermee in de vingers snijden, is dit niet zo maar af te doen als een uitzondering veroorzaakt door twee koppige, domme bedrijven: Hoogstwaarschijnlijk zullen er veel situaties die veel duidelijker tot voordeel van een partij leiden en dus ten koste van iedereen zullen worden opgezocht door verstandige partijen.
Eerlijk gezegt begrijp ik het niet, normaal is het namelijk de user-agent van de googlebot, waardoor sommige site's de artikelen laten indexeren, zonder dat je hoeft in te loggen. Als je nou gewoon doet dat je wel moet inloggen, ook de googlebot, dan is het probleem toch opgelost?
Vind het wel een goede actie. Zoals eerder gezegd kunnen die kranten ook gewoon een robots.txt maken en configureren. Google gaat nou eenmaal voor informatievrijheid. En de informatie heeft blijkbaar toch ooit online gestaan, dus of Google het nu indexeerd of dat ik alles overschrijf }:O

Voor als een redacteur van die belgische kranten hier toevallig komt:
http://www.robotstxt.org/
http://en.wikipedia.org/wiki/Robots.txt

Lees en leer ;)
Gisteren deze video nog bekeken en vandaag dit nieuws..toeval??

http://epic.makingithappen.co.uk/

kijk-se....
((Epic 2015 (new updated version))

Op dit item kan niet meer gereageerd worden.



Microsoft Windows 10 Home NL Apple iPhone 6s Star Wars: Battlefront (2015) Samsung Galaxy S6 Edge Apple Watch Project CARS Nest Learning Thermostat Windows

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True