Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties
Submitter: Cheetah_777

Google heeft zijn zoekalgoritme aangepast om websites die niet of nauwelijks eigen content bevatten, lager in de zoekresultaten te tonen. Met de vernieuwingen zou bijna twaalf procent van de zoekresultaten zijn veranderd.

De aanpassingen zijn bedoeld om websites die de zoekmachine van Google proberen te manipuleren met irrelevante content, zogenaamde content farms, niet langer boven in de lijst met zoekresultaten te laten verschijnen. Volgens Google krijgen sites die vooral content kopiëren nu een lagere ranking toebedeeld. Sites die veel eigen content produceren stijgen daarentegen in de lijst, wat de zoekresultaten relevanter moet maken.

Eerder bracht Google al een extensie uit voor de Chrome-browser waarmee zoekresultaten zijn te verwijderen. Het nieuwe zoekalgoritme maakt geen gebruik van informatie die Google hiermee binnenhaalt, maar volgens de zoekgigant heeft 84 procent van de vaakst in Chrome verwijderde zoekresultaten een lagere Google-ranking gekregen.

Google beloofde eerder een hardere aanpak van websites die irrelevante content plaatsen om hoog te scoren in de lijst met zoekresultaten. De veranderingen aan het zoekalgoritme worden eerst geïntroduceerd in de Verenigde Staten, waarna een uitrol in de rest van de wereld volgt.

Moderatie-faq Wijzig weergave

Reacties (74)

Hopelijk worden hiermee die sites als "$apparaat reviews" uit de top 10 van resultaten verwijderd. Prima als er een review op staat, maar niet als er dertig keer het woord "$apparaat review" op staat en dan "be the first to write a review!".
Inderdaad, rete irritant is dat! Ik lees er inmiddels overheen maar het is toch vervelend dat je soms naar page 2 of 3 moet bladeren voordat je ook een daadwerkelijke review tegenkomt.
Amen to that. Ook irritant zijn sites die niets anders doen dan informatie van allerlei open fora plukken en opnieuw weergeven. Dan vindt je een interessante post om tot de conclusie te komen dat je voor de volledige discussie of soortgelijke threads toch echt naar het originele forum moet.
Ja dat, dat zijn toch content farms, zonder content zeg maar?
"be the first to write a review!".
Dat kun je ook gewoon uitsluiten. Maar meer werk is het wel en erg irritant.
ben eigenlijk toch wel benieuwd wat voor aangrijpingspunten zo'n algorithme heeft. Met andere woorden, hoe kunnen ze afgeleide content van authentieke content onderscheiden. In de link wordt al aangegeven dat de personal user block lists niet als input worden gebruikt. Dit is verstandig, want die informatie is subjectief. Er kunnen allerlei redenen waarom pages/sites geblocked worden. Een compare runnen met andere web pages lijkt me te massief, en dan weet je nog niet wat de bron is.

Ik kan mij in ieder geval niet voorstellen dat naast een inhoudelijke analyse van web pages ook ergens wordt bij gehouden waar en wanneer informatie X het eerst op het net is verschenen....

Misschien wordt weer meer richting proces gekeken, hoe snel, en op welk moment, duwt een site pages op het net. Is het patroon chaotisch, dan kan dit op authentieke pages duiden, is het een systematisch patroon, met reguliere intervallen, dan kan het een bot zijn.

Google zal vast het achterste van zijn tong niet laten zien in reactie op bovenstaande vragen, een beetje het geheim van de smid.
Heel erg moelijk is het niet. Link farms zijn zo herkenbaar dat ook een simpel algortime ze spot. Veel links naar slechte content.

Ook het vergelijken met andere pagina's is triviaal. Tineye kan het zelfs met foto's. Google hoeft niets anders te doen als een hele pagia als input voor hun eigen search engine te gebruiken, en te kijken welke andere pagina's hoog scoren.
Met andere woorden, hoe kunnen ze afgeleide content van authentieke content onderscheiden.
We kunnen gewoon wachten op een technisch verhaal hierachter, maar stiekem denk ik dat Google dat liever geheim houdt, om te voorkomen dat mensen een workaround gaan zoeken.

Wat ik zelf kan bedenken:

* Content op een site analyseren en kijken of die content ook op een andere site staat
* Bepaalde sites als 'bron' aanmerken (bijv. Wikipedia). Indien content gelijk is aan wikipedia, zou de andere site wel een kopie / content farm moeten zijn.
* Kijken naar timestamps. Als Google alles indexeert, zullen ze ook - beetje zoals archive.org - een timestamp op bepaalde content kunnen zetten. Als ze later dezelfde content op een andere site vinden kunnen ze vervolgens de timestamp bekijken, en zien dat een andere site diezelfde content al eerder had.

Lijkt mij, iig.
Zou dat dan geen invloed hebben op wikipedia?
Want als ik mij niet vergis bevat die site ook redelijk wat content die gewoon gekopieerd is.
Ik denk dat Google bepaalde bronnen wel specifiek vrijstelt. Daarbij, iedereen kan zeggen wat de bedoeling is van Wikipedia (niet-commercieel, geen nepsite).
de volgende stap mag van mij zijn om met een optie de prijsvergelijkers er uit te halen. Vaak wil ik specs weten van een device en niet eerst 30 sites waar ik hem het goedkoopst kan kopen.
Die optie zit er al in. Gewoon Chrome downloaden. Dan kun je precies de sites uitsluiten uit de resultaten die jij niet wilt zien.
Dat jij graag teveel wil betalen voor een apparaat tot daar aan toe.

Iik wil juist wél graag weten waar ik iets het goedkoopst kan krijgen. Veelal raadpleeg ik juist daarom een prijsvergelijker zoal tweakers pricewatch.

Daarnaast kun je via een pricewatch ook direct de website van de fabrikant raadplegen, dus ik zie je probleem niet zo.
Dat jij graag teveel wil betalen voor een apparaat tot daar aan toe.
Dat zegt hij toch helemaal niet? Hij wil een optie om de prijsvergelijkers eruit te halen. Natuurlijk zijn prijsvergelijkers handig voor het zoeken van de goedkoopste winkel, maar als je alleen geïnteresseerd bent in specificaties of reviews, dan staan die dingen je inderdaad hopeloos in de weg. :)
Het probleem is dat als je zoekt naar specs of een review je vaak op een webshop komt met summiere specs en/of een prijsvergelijker met "be the first to write a review!".

Soms wil je weten waar je het product het goedkoopst kan krijgen en soms wil je weten of je het product daadwerkelijk wilt kopen :)

[Reactie gewijzigd door walterg op 25 februari 2011 11:52]

Wil jij een prijsvergelijker die 10 aanbieders toont? Of wil je dat Google zelf alle 20 aanbieders toont, ook diegenen die niet 5% van hun omzet doorschuiven naar zo'n prijsvergelijker?

(Niet dat de T.net Pricewatch hieronder lijdt, die hebben een redelijk gezond businessmodel)
Als ik prijsvergelijker wil, typ ik wel in '<gewenst product> + prijsvergelijker' of zoiets. Nu vormen de prijsvergelijkers vaak de eerste links.
Een voordeel is dat veel spam en vergelijksites uit Google verdwijnen.

Een nadeel van dit nieuwe zoekalgoritme is dat kleine spelers bestraft worden. Google geeft extra waardering aan A-Merken.

ANP persberichten worden 1-op-1 overgenomen door veel websites zoals Nu.nl en andere Sanoma titels, maar deze worden niet bestraft omdat ze A-Merken zijn en Google ziet ze als betrouwbaar.

Een ander voorbeeld is Yunomi.nl, een website van Unilever die het moet hebben van artikelen toegevoerd door gebruikers. Die nemen dagelijks 1-op-1 artikelen over van andere websites, echter Google straft de oorspronkelijke bron ipv Yunomi, omdat Unilver een betrouwbaar bron is volgens Google.
Heb je voor het Yunomi verhaal bronnen?
Een algoritme kan geen A-merken defineren. Wel kan de pagerank door inkomende links worden gedefinieerd.
Google geeft A-merken sinds begin 2009 meer waardering. Dit heeft niets met de nieuwe algoritme te maken. Het gevolg van dit nieuwe algoritme is dat het nu extra bekrachtig word.

Google noemt het zelf liever geen brand, maar heeft het over herkenning en vertrouwen en een merk van Sanoma, VNUMedia, Unliver en andere grote merken hebben volgens google meer herkenning en vertrouwen.

Bron:
http://www.youtube.com/watch?v=LMfWPWUh5uU
Wat een genot voor de programmeurs onder ons. Niet langer meer Expert Sex Change als eerste 5 hits, waar je vervolgens voor het antwoord op je vraag dient te betalen.
Dat antwoord staat op die paginas helemaal onderaan onder die ads en lijstjes die het doen laten lijken dat je moet betalen.
Dat was vroeger inderdaad zo maar de laatste tijd zie ik ze toch niet meer verschijnen.
Het hing af van je referer; komend vanaf Google werkte dat inderdaad zo.
Zoek je dan naar "Remove string from object" ofzo? ;)
Als je een stuk of vijf vragen per maand beantwoordt behoud je je lidmaatschap. Ik heb dit een tijd volgehouden, en wanneer ik verwacht EE weer nodig te hebben zal ik hier weer mee verder gaan. Ideaal mechanisme, maar wel flauw dat je voor het inzien van aan anderen gegeven antwoorden moet betalen inderdaad.
Gelukkig heb je tegenwoordig Stack Overflow, het gratis en veel betere alternatief voor Echte Programmeurs. Die komt ook langzaamaan hoger in de resultaten te staan voor dat soort zoekopdrachten.
Nog nooit last van gehad. Heb t zoekfilter sowieso op streng gezet. Sluit je ongetwijfeld een hoop bagger van uit. Of heb je bepaalde interesses? O-)
Google begon inderdaad minder te worden als zoekmachine. Zodra je bijvoorbeeld zocht op messenger (o.i.d) was pas de 4e a 5e in de lijst de downloadpagina van windows live messenger. die pagina's ervoor waren dan kleine websites die honderd keer het woord messenger op hun site hadden staan. :/
heeft toch niks met google te maken? het zijn de lullo's die misbruik van Google maken..
Zoals die content farms om zo Google te foppen en op die manier bovenaan te komen.

Google doet zijn best om dit te voorkomen, maar omdat het een vol automatisch proces is, is het lastig onder controle te houden.
Tuurlijk heeft dit met Google te maken. Het algoritme is verouderd :) Het algoritme is wat Google zo krachtig maakt en als dat faalt dan blijft er niks over.
Volkomen mee eens. Vind zelf ook dat de relevantie van google's zoekresultaten achteruit gaat. Ze zijn groot geworden door de goede searchengine, maar begin het idee te krijgen dat ze teveel afwijken van hun Core-activiteit "De zoekmachine".

Zoek op Review en je krijgt loze pagina's met "Ben jij de eerste die een review schrijft?"
Zoek op Speaker specs en je krijgt 20 webshops waar ze deze aanbieden,
Zoek op de naam van een persoon en je krijgt pagina's met doorverwijzingen naar andere pagina's waar je mogelijk info van die persoon vind.

Het zijn allemaal zoekresultaten waar men volgens mij niet op zit te wachten....

"Schoenmaker ga terug naar je leest" zou ik zeggen :)
Misschien moet je een goede zoekopdracht geven. Ik weet met Google in 99% van de gevallen de juiste informatie te vinden op de eerste resultaten pagina. Maar mijn zoekopdracht bestaat uit meer dan twee woorden.
Als je zoekt op review, wat verwacht je dan voor resultaten? Reviews van wat? En het woord messenger? Is die alleen toe te schrijven aan Live Messenger? Een goed resultaat begint ook bij jezelf.

Maar verder is het uiteraard prima dat Google het algoritme aanpast. Daardoor worden de zoekresultaten alleen maar beter!
Is jouw strategie in de loop van de jaren gewijzigd?

Waarschijnlijk wel omdat je aangeeft dat je op meerdere woorden moet zoeken.
Tuurlijk is het zo dat de meer zoekwoorden je gebruikt, de specifieker je zoekresultaat wordt. Echter kon ik vroeger via Google uit de voeten met 1 a 2 (en heel soms 3) steek woorden. Nu ontkom je er bijna niet aan om er 2 a 3 en soms 4 te gebruiken.

Daarbij heeft Google ondertussen een MEGA userprofiel van mij opgebouwd en als ik zoek op "jamo speaker review" dan krijg ik engels zoekresultaten. Als ik vervolgens aanklik dat ik "in het nederlands geschreven resultaten" wil dan krijg ik wel nette resultaten. Vroeger werkte dit wel en dan ga je je afvragen waarom dit zo is....
Het lijkt me ook wel logisch dat je je zoekopdracht zo specifiek mogelijk maakt. Als je vijf jaar geleden op een product zocht kon je aan de productnaam wel genoeg hebben omdat alleen de producent er een website over had. Nu zijn er tutorials, forums, verkopers, enz. die allemaal dat product op hun site hebben staan en moet je dus wat gerichter gaan zoeken.
Dat is waar.
Maar ik zoek regelmatig voor code oplossingen via Google. Ik tik dan gewoon simpele opmerkingen in de lijst, dat kan regelmatig. Tot een half jaar terug. Toen kreeg ik steeds vaker sites die info hadden gejat van andere sites. Zoals die bigresources site (de naam verklapt het ook wel) met info gejat van stackoverflow o.i.d., of sites waar je ineens op een "stel je vraag" pagina komt terwijl er ergens op het internet allang uitleg te vinden is over je vraag. Daar werd ik wel een beetje gek van, en heb ook weleens wat naar Google gestuurd daarover. Maar nu begrijp ik waarom dat zoeken soms niet lekker gaat.
Maar gaat dit dan wel beter met andere zoekmachines? En je skipt toch automatisch de sponsored results? Dat is gewoon een automatisme geworden bij mij.

Ik vind Google nog steeds het fijnst werken en vind tot nu toe altijd wat ik zoek met Google. Af en toe probeer ik een andere zoekmachine, vooral omdat je veel gezeik hoort over Google (zoals hier af en toe...) maar krijg gewoon niet wat ik van Google gewend ben, en dan bedoel ik, relevante zoekresultaten! Hoef zelden verder te zoeken dan de eerste 10 resultaten.

Kan overigens best een gevalletje "wat de boer niet kent dat vreet 'ie niet" zijn, ik ben zo gewend aan Google en de manier waarop je zoektermen moet gebruiken, dat ik andere zoekmachines onvoldoende de kans geef..
als ik zoek op "jamo speaker review" dan krijg ik engels zoekresultaten.
Er staan dan ook verrassend weinig Nederlandse woorden in de vraag.
Google ziet allang dat je in NL zit, en een op de NL ingestelde taal computer hebt (of niet), dus dat is geen argument dat het Engelse woorden zijn. In veel talen worden woorden gebruikt uit andere talen zoals wij ook best wat Franse woorden gebruiken, moet ik daarom hits krijgen van Franse sites? Dacht het niet!
Kan men zich niet afvragen of het web niet rijker is geworden aan informatie? ik kan best wel geloven dat je dan meerdere termen moet gebruiken om te zoeken.
Dan moet je ook naar 'recenties' zoeken, niet naar 'reviews'. Google doet het juist 'te' goed in deze situatie!
Dan moet je ook naar 'recenties' zoeken, niet naar 'reviews'. Google doet het juist 'te' goed in deze situatie!
--edit--
Heej... ik heb helemaal geen quote geplaatst... Gaat iets mis bij het plaatsen van een bericht als je eerst nog moet in loggen?

[Reactie gewijzigd door conhen op 26 februari 2011 19:20]

wat zijn recenties? ;-)
Tjah... Wat is je "core-activiteit" ? Dat geen wat je klanten het beste (her)kennen, of dat wat het meeste geld in het laatje brengt?

Ik heb toch echt het vermoeden dat de zoekmachine niet langer hun "core-activiteit" is. Dit is het advertentienetwerk wat ze hebben (ad-words / ad-sense).

Dat datzelfde advertentienetwerk op de zoekmachine zelf inkomsten opbrengt is mooi meegenomen natuurlijk. Maar ook zonder zoekmachine blijft Google bestaan.
Hun advertentie netwerk drijft echter nog voornamelijk op de zoekmachine. Daarom dat Google's bestaan voorlopig wel degelijk direct gekoppeld is aan de kwaliteit van hun zoek algortihme.
maar begin het idee te krijgen dat ze teveel afwijken van hun Core-activiteit "De zoekmachine".
Google is een reclame bedrijf, niet een zoekmachine. Ze hebben de zoekmachine gemaakt zodat de websites waar hun reclame op te zien is ook gevonden kan worden.
Euh, dat is complete onzin natuurlijk. Google had een betere search engine dan de concurrentie en heeft vervolgens een innovatieve manier gevonden om er geld aan te verdienen. Dat ze op die manier geld willen blijven verdienen spreekt natuurlijk voor zich wanneer je het gros van je diensten gratis aanbiedt.
Historisch gezien heb jij gelijk, Akufen, maar in de huidige praktijk zit backspace219 er toch echt dichter bij. Google is gewoon een reclamebedrijf. Daar leven ze van. De zoekmachine is een middel, al lang niet meer het doel.
Altavista. Vroegah' toen we nog met z'n allen netscape gebruikten was iedereen fan van Altavista of Hotbot oid. De wereld kan binnen een jaar veranderen, dat heeft google ooit eens bewezen. Arme Yahoo. Mensen zijn gestopt met de andere sites te gebruiken omdat google met een of twee woorden meestal wel een site gaf waar je tevreden mee was.

Mensen zijn niet perse gebonden aan google, als www.Yellow©Search.com betere antwoorden geeft op vragen stapt de 'tweakers/geek' groep meteen over en de massa volgt binnen X+1 maand.
Als dat het geval zou zijn, zou iedereen het destijds wel over "hotbotten" of "altavistaen" hebben gehad. Toch heeft iedereen die ooit iets gezocht heeft het tegenwoordig over googelen, en niet over bingen, yahooen of wat dan ook. Google is de norm, en het is alleen maar sterker geworden met google mail, docs, earth, maps, etc.
En er zijn ook gewoon nog steeds weinig alternatieven. Bing is een ramp, en de rest gebruik ik eigenlijk al helemaal niet. Ik ken niemand bij wie dat anders is.
Zolang Googelen staat voor 'iets zoeken op het internet' zal Google niet verdwijnen. En al helemaal niet als de concurrentie dusdanig slecht is dat zelfs die brakke contentfarm resultaten google relatief gezien niet slechter maken.
de resultaten lijst die in google te voorschijn komt heeft niks met google te maken... vreemde redenering
Hopelijk komt het snel naar Europa. Zeker als je dingen zoekt die in een mailing list staan krijg je die resultaten echt te vaak.
Google is wel bezig met zichzelf te verbeteren in dit opzicht.
fijn dat zoon bedrijf als google dit doet aangezien het de meest gebruikte search engine is.
ik had eerder het idee dat ze zich beetje "nutteloos" aan het verbeteren waren.

als website's geen eigen content brengen zijn deze ook niet interessant voor mensen die "googlen" dus ik denk dat dit een mooie extra is op een mooie zoekmachine.
Nu maar hopen dat het goed werkt, dat zou echt een verademing zijn.
Het werkt echt, ik typ net even een zoekterm in waarvan ik weet dat ik vorige week nog de lijst beslist.nl, kelkoo, ciao-shopping, kieskeurig.nl voor kreeg (bij wijze van spreken, dit zijn allemaal sites die alleen maar prijzen vergelijken). Nu krijg ik wél relevante resultaten :).
Zou dit ook invloed hebben op nieuwssites? Veel van hen hebben een abonnement op de berichten van de gebruikelijke persbureaus zodat al die sites identieke niet-eigen content hebben.

- verduidelijking n.a.v. de reacties -

Op nu.nl lees zie ik een ANP-bericht over Dioxine in Duits diervoer kwam uit Nederland. Als ik Google op het karakteristieke zinsfragment niet bekend is, leverde cacaobotervetzuur uit dat bericht vind ik 37 resultaten. Aan deze resultaten kan ik zien wie het bericht hebben opgepikt en het aantal resultaten geeft mij een indruk hoe belangrijk nieuwssites dit bericht vinden. Als Google deze resultaten weg zou laten omdat het geen onderscheidende content betreft krijg ik ook deze 'metainformatie' niet meer.

[Reactie gewijzigd door Kalief op 25 februari 2011 22:12]

hoevaak zoek jij op nieuws? Bovendien als mensen een nieuwssite hebben die ze prettig vinden gaan ze daar meestal wel gewoon naar toe.
Maar ik verwacht dat dat wel impact zal hebben. Maar in principe zijn dat ook niet de sites waarvan je er 10+ onder elkaar wilt zien.

Ik heb nog niet gekeken hoe het werkt maar ik kan me voorstellen dat ze dingen gaan groeperen zoals ze dan nu ook al doen voor de dubbele hits op de zelfde pagina
"Toon alle relevante links" was dat geloof ik?
Als je zoekt naar dat nieuws en de artikelen zijn identiek dan maakt het aan de andere kant ook niet echt uit op welke site je het artikel leest. Kan je net zo goed alleen de versie van bijvoorbeeld het ANP vinden in de resultaten.
Ik denk wel dat het effect zal hebben op de 13 in een dozijn nieuwssites. Maar of dit slecht is? Zo houdt je originele versies van artikelen over met dus hopelijk meer variatie in belichting van het onderwerp en achtergrondinfo. Zo krijg je een completer beeld van het verhaal dan 20x hetzelfde herkauwde stuk te vinden denk ik.
Dan maakt het ook niet uit waar je het vandaan haalt :z
Maar geen rare vraag nee. Als je voorkeuren hebt voor sites dan wordt dat wel lastig denk ik zo. Maar de nieuwssites publiceren het vaak wel zelf, althans, het ANP heeft geen site zoals nu.nl, fd of de telegraaf o.i.d. het presenteert.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True