Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Google blokkeert 'zoek-geoptimaliseerde' pagina's

De afgelopen jaren hebben webmasters verschillende trucs gebruikt om pagina's een hogere waardering te laten krijgen van het PageRank-algoritme, dat door Google gebruikt wordt. In de New York Times is hierover een artikel verschenen. Sommige kopers via Internet zoeken een shop uit door het gewenste product op te zoeken via Google. Ze selecteren vervolgens één van de shops die op de eerste pagina genoemd worden en doen hun aankoop. De afgelopen tijd is het 'in' geweest bij sommige bedrijven om bijvoorbeeld extra URL's te gebruiken die in feite verwijzen naar dezelfde shop, maar die toch net weer een andere lay-out hebben. Dit gedrag wordt sinds een paar dagen door Google afgestraft en zo'n shop wordt niet meer zo eenvoudig teruggevonden via Google.

Dit aangepaste gedrag is ook de site Search Engine Guide opgevallen en zij zijn een onderzoek gestart: Google heeft op 16 november een grote update doorgevoerd waardoor een aantal pagina's niet meer hun oude vertrouwde PageRank hebben. Er zijn geen sites uit de database verwijderd, aangezien alles nog wel is terug te vinden via een omweg. De vraag die de schrijver van het artikel bezighield is: wat Google precies gedaan heeft en waarom de update is uitgevoerd. Op het eerste oog lijkt het erop dat er een anti-SEO (Search Engine Optimizer) filter is toegepast. Google controleert of externe links naar een site bepaalde woorden bevatten. Als die woorden terugkomen in de URL van de site en als dezelfde tekst ook nog eens te vaak op de pagina zelf voorkomt, dan wordt het filter ingeschakeld en dus de PageRank aangepast.

Google logoDeze stappen waren nog te volgen, aldus de schrijver van het artikel; het is Google's manier om af te rekenen met SEO's. Op 21 november werd het filter echter scherper afgesteld. Ettelijke duizenden sites verdwenen uit het zicht en verloren plekken die ze soms al jaren innamen. Een aantal van deze sites had echter geen speciale optimalisaties doorgevoerd, en was dus ongewild slachtoffer geworden van het feit dat ze 'teveel' commerciële termen hadden gebruikt op hun site. In plaats van deze URL's worden sindsdien links gegeven naar educatieve sites, nieuwssites, sites van overheden en portals. Opvallend is echter dat niet bij alle zoekwoorden gebruik wordt gemaakt van het nieuwe zoekfilter. Dit is eenvoudig te controleren, door eerst een zoekopdracht te doen op het woord 'shelving' en de resultaten te vergelijken met een zoekopdracht naar 'shelving -waffle'.

Op basis van deze gegevens zijn de mannen van Search Engine Guide tot de volgende conclusie gekomen: de afgelopen jaren is de database van Google behoorlijk vervuild door allerlei sites met SEO's. Hierdoor is de waarde van het PageRank-algoritme op bepaalde punten te ver gedaald en waren de resultaten niet langer voldoende. Deze update van Google's software is een poging om de balans te herstellen en betere resultaten tevoorschijn te laten komen. De eenvoudigste manier om dit te bereiken is het aanpassen van de zoekresultaten van potentiële fraudegevoelige zoekwoorden. Er zijn echter nog een aantal mogelijkheden, die aan het einde van het artikel netjes worden uitgewerkt. Het artikel sluit af met de volgende opmerkingen:

Google ArtDespite the furore, there is no great conspiracy theory. Google are trying to redress the balance by trying to eradicate obvious search engine manipulation from their most competitive results. Remember, it is what Google considers their most competitive results probably gauged by both value and number of searches. As such, certain types of site don't fall into this category. SEO sites, for example, may be competitive but are not searched for with huge frequency.

The results of the filter have probably surprised Google, but, for the moment, few surfers will notice anything - unlike webmasters. The quality of the results has changed, with searches for home alarm, web design Calgary, and medela breast pumps showing, variously, sites with nothing to do with home alarms, a hockey team being top for web design and a listing of pretty much nothing but shopping portals. (My thanks to some of the many people who have posted some of the searches they have seen and I have used - you know who you are!) Many feel this has been a severe downgrading in relevancy, others believe that this is an improvement in the surfer experience. It is your judgement!

It is certain that Google will be watching the result of their change and will adjust the algo if they think it will reward sites of merit and increase relevancy. Whatever happens, though, the days of easy rankings through simple SEO are over.

Door

Freelance nieuwsposter

46 Linkedin Google+

Bron: Slashdot

Reacties (46)

Wijzig sortering
Dit is ook zo'n voorbeeld van vervuiling, als je bijvoorbeeld: Zoeken naar adsl bestel

Gewoon heel veel domeinnamen registreren en heel veel woorden op de eerste pagina neerzetten (in wit, op een witte achtergrond) en dan loop iedereen bij je naar binnen.. :(
Zo van die technieken als witte text op witte achtergrond kan je dus rapporteren op http://www.google.be/intl/nl/webmasters/spamreport.html
Dus maar even gedaan voor die sites waar je op terecht komt als je op 'adsl bestel' zoekt.
Goedzo! Stelletje mafkezen, ze gebruikten zelfs _mijn_ sitenaam in hun sneaky keywords :(
Als het door het Amerikaanse kantoor wordt behandeld wordt dat op zijn vroegst maandag, kreeg net een automatic reply op een mailtje van mij dat ze vanwege Thanksgiving gesloten zijn :(
Ik dacht dat sites met te vaak het zelfde woord al lang onderaan terecht kwamen. Dat is namelijk een truukje die ik jaren geleden met succes toepaste om bij Ilse te scoren (toen nog een goede populaire zoek machien), maar op een gegeven moment werkte dat ineens niet meer.

Nu heb ik al een tijdje een truukje die niet kan falen, bij welke filtering dan ook: namelijk gewoon goed duidelijk maken waar de pagina over gaat. Mijn sites zijn in elk geval niet gezakt de laatste tijd... maar ook niet gestegen helaas...
Je bedoelt toch niet dat je pagina's echt ergens over gaan?

Je weet toch dat je daarmee de hele SEO industrie om zeep helpt, en het is al zo zwaar sinds de dotcom crash :7
Ik vindt dit best wel goed, maar wat ik niet snap: waarom worden sommige pagina's (dus niet het basisadres) meerdere keren als resultaat getoond?

En waarom worden subpagina's geindexeerd?

En waarom worden dynamisch opgebouwde pagina's geindexeerd? (zeg nou niet dat dat NIET gebeurd, want het gebeurt wel!). Die pagina's zijn na een X-tijd weg, terwijl de database ze nog wel geeft als resultaat.

Al met al, steeds meer signalen dat internet ten onder gaat aan haar eigen succes...
De Googlebot die je website bezoekt kan niet het verschil zien tussen een dynamische en een statische page. hij krijgt van de webserver html terug. en dat pagina's er niet meer zijn, das dan jammer, maar meestal helpt dan de door google gecachte versie te klikkenm heb je in ieder geval de text nog
Zo vaak zal dat toch niet voorkomen? Googlebot die loopt sites met een PR van 1 of hoger vaak dagelijks langs, hoe hoger de PR hoe meer bezoekjes, voor linkjes naar onderliggende pagina's.

Subpagina's iets minder bezocht, maargoed, Google gaat er meer van uit dat die dingen blijven bestaan als 'archief', waarom zou een site die verwijderen?
Nu nog die pagina's eruit vissen met fake-content, van die pagina-names die als naam jerry-springer-nude.php3 hebben waar 1 MB aan sleutelwoorden inzit :r
Zoek jij daar dan op dan? :+
tipje voor iedereen, als je allemaal van die pr0n rotzooi krijgt eventjes "-free" erbij zetten (zonder aanhalingstekens) dat scheelt je direct weer een hele lading sites
Volgens mij moet het niet heel moeilijk zijn om het volgende systeem in te voeren:

Op het moment dat je gezocht hebt en op een resultaat klikt is dit een redirect. De 'eerste' pagina van google meet wanneer er door wie (ip/cookie) op welke link is geklikt. Als dezelfde persoon te snel terug komt met dezelfde, of vrijwel dezelfde, zoekopdracht dan daalt de link in rating. Komt de bezoeker niet terug dan stijgt de rating.

Op die maniet kun je, volgens mij, best goed de betere links eruit filteren.
Dat heeft voor mij weinig zin. Ik open zowiezo altijd de gevonden pagina's en nieuwe Tab's zodat ik direct terug kan naar Google.
Tuurlijk werkt het dan ook, je gaat dan evengoed via de redirect, en op het moment dat je 10 seconde later op een link klikt ga je weer via de redirect en komt google tot de conclusie dat de eerste waarschijnlijk niet zo goed was.
Zeer slimme zet van Google, het werd idd steeds moeilijker om goede resultaten te krijgen door al die sites die naar dezelfde plek doorverwezen etc. :Y)
Vind het wel jammer dat als ik egogoogle mijn homepage niet meer de eerste pagina van google is.. alleen nog maar de eerste 2 links. }:O

Aan de andere kant was dat natuurlijk ook een beetje van de gekken :)
Zo krijg je nu toch iets gevarieerdere zoekresultaten, en daar kan ik alleen maar blij om wezen...
een goed initiatief vind ik, een site moet er niet zijn om als beste resultaat te komen op een zoekmachine, maar moet deftig zijn voor de bezoekers.

Al kan er ook een (iets kleinere) negatieve kant van zien: dat bepaalde sites misschien ten onrechte verlaagd zouden worden; waar Google toch ook al een paar keer problemen van gemaakt heeft (Kazaa Lite) of problemen mee heeft gekregen (die advertenties die op een zoekopdracht voor concurrentie kwam). (Die laatste problemen vind ik persoonlijk bull-shit: een zoekmachine mag van mij wel enige selectie maken, maar dan moet die wel consequent zijn [als ze K-lite filteren, moeten ze ook alles Warez filteren en een pornofilter aanbieden] , en Google is niet in fout als concurrenten hun advertenties op bepaalde zoekopdrachten plaatst, dat ligt aan de concurrentie)
Ik ben blij dat Google dergelijke initiatieven ontplooid en niet stil blijft zitten. Nu maar wachten op de eerste die gaat klagen dat ie te laag op de ranking lijst staat.
Op zich een goed iets (mijn sites hebben plotseling een hele hoge PR gekregen), maar ik kan me ook voorstellen dat veel sites er helemaal niet blij mee zijn. Als men inderdaad een SPAM filter op de bot heeft gezet dat checkt of een bepaald woord op een site heel erg vaak voorkomt dan krijg je toch ook heel erg veel "goede" sites die hier nadeel van hebben. Neem bijvoorbeeld RTL (de tv zender) als je daar naar zou willen zoeken en veel sites linken naar de site met het woord RTL erin. Vervolgens komt Googlebot langs en die ziet toch wel heel erg veel RTL op de RTL-website staan (tuurlijk het is een site van RTL en over RTL) dan zou Googlebot die site vervolgens niet hoog in de rank opnemen.... beetje vreemd.

@Van: misschien moet je als je zoekt op één woord eens twee of drie woorden gebruiken. Als je alleen "Voorbeeld" doet kan het alles zijn, en je moet Google vertellen wat je zoekt het is niet zo dat jij denkt: ik zoek een voorbeeld van ADSL en dat je dan enkel "voorbeeld" intikt dat je dan results krijgt met voorbeelden van ADSL. Gebruik twee woorden of meer dus :)
Een tip voor mensen met een goede site;
plaats hem in een rubriek via http://dmoz.org/add.html

Heb ik ook gedaan en werkt prima

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*