Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties

Een verversingsronde van het PageRank-mechanisme door Google heeft slecht uitgepakt voor diverse websites. Een groot aantal sites die bewust intensief naar elkaar linken, hebben een lagere PageRank gekregen.

PageRankNiet alleen kleinere weblogs die middels crosslinking hogerop willen komen, zagen hun PageRank dalen; ook gevestigde namen als Techcrunch, The Washington Post en Engadget zijn door Google's zoekalgoritme lager gewaardeerd. Ondertussen wordt er binnen de webgemeenschap druk gespeculeerd over de mogelijke motieven van Google. Het bedrijf zelf heeft nog geen verklaring uitgegeven. Sommige webloggers spreken hun waardering uit over de stap van Google, terwijl anderen spreken van een 'publieke waarschuwing' aan het adres van seo-bedrijven om de populaire zoekmachine niet te misbruiken.

Zoekmachine-analist Barry Schwartz stelt tegenover Forbes echter dat, in tegenstelling tot eerder, de meeste websites ondanks de lagere PageRank geen dalende trend zien in het aantal bezoekers dat via de zoekmachine binnenkomt. Hij meent dat het PageRank-mechanisme, dat Google als zijn kroonjuweel ziet, in de loop der jaren al zover is aangepast dat het doorlinken steeds minder effect sorteert. Volgens Schwartz wil de zoekgigant vooral aangeven dat populaire websites moeten stoppen met het tegen betaling linken naar laaggenoteerde spelers.

Google wordt bekeken Google heeft al vaker ingegrepen, onder andere door link directories te verbannen naar de diepste krochten van zijn zoekmachine. Critici menen echter dat het indirecte 'verbod' op crosslinking webmasters ertoe dwingt om uitsluitend zaken te doen met Google of indirecte partners van de zoekgigant. In enkele gevallen werd de zoekreus aangeklaagd door websites die ontevreden waren over hun vindbaarheidsclassificatie, maar Google wist deze zaken te winnen.

Moderatie-faq Wijzig weergave

Reacties (39)

en laten ze ook wat aan websites doen waar je eerst moet inloggen om reacties te kunnen lezen... laten ze ook het spam woordenboek dat ze bij email gebruiken toepassen op de zoekmachine. Het gebeurd steeds vaker dat ik naar pagina 2 of hoger moet om nuttige resultaten te vinden. En tot slot websites die puur informatie met flash of elk ander moeilijk te kopiëren/het doorzoeken van tekst moeilijk/onmogelijk techniek maken verbannen.
en soms ook nog van die pagina's waarin zoekmachines in de zoekmachine van de pagina zoekt, bv naar ramen. Dan komt er bv uit dat er op die site resultaten zijn met ramen maar je eigenlijk hebt gezocht in die site en niets gevonden hebt en dus weer tijd hebt verspilt. Maar ook bij google afbeeldingen, de meeste van die afbeeldingen waar je op zoekt zijn beschikbaar, maar dan is de google database niet up to date en zit er weer rommel tussen.
Ik ben quality rater bij google en beoordeel dus de sites. Het zijn niet alleen "grote" sites maar ook kleinere die een lagere ranking krijgen. Veel sites problemen op veel verschillende manieren de robots te slim af te zijn. Echter als er een echt persoon naar kijkt vallen ze al snel door de mand en krijgen ze een lagere ranking. Als dit door meer quality raters wordt gedaan zakt hun ranking.
Waar woon je dan? ;)
Desalniettemin wel een goede zaak; vooralsnog is de techniek (helaas) nog niet zo ver dat 't zonder verdere 'menselijke bemoeienis' "stand-alone" kan werken. Maar als er al iemand zo ver is en alles voor zover mogelijk goed voor elkaar heeft dan is het Google wel ;)

[Reactie gewijzigd door RobIII op 26 oktober 2007 09:33]

SEO is geen onzin. Het omvat veel meer dan een beetje crosslinken hoor :S
Het is zeker meer dan crosslinken, maar dan is het nog steeds onzin. Het is een manier om zoekresultaten op een heel flauwe manier te manipuleren en dat is echt niet goed, want als je op iets zoekt moet je de meest relatieve zoekresultaten bovenaan hebben staan, en niet degene die het beste zijn site heeft geoptimaliseerd voor zoekmachines.

Maak een goede site met content en informatie waar veel mensen wat aan hebben, steek er tijd in en promoot het goed, dan kom je vanzelf hoog op Google. En als mensen dán zoeken en op jouw site uitkomen, dan is de kans dat ze er daadwerkelijk wat aan hebben vele malen groter dan waaneer je snel een site in mekaar knutselt en de rest van de tijd aan SEO besteedt.

Nee, dit is een goede zaak van Google.
Het is zeker meer dan crosslinken, maar dan is het nog steeds onzin. Het is een manier om zoekresultaten op een heel flauwe manier te manipuleren en dat is echt niet goed, want als je op iets zoekt moet je de meest relatieve zoekresultaten bovenaan hebben staan, en niet degene die het beste zijn site heeft geoptimaliseerd voor zoekmachines.

Maak een goede site met content en informatie waar veel mensen wat aan hebben, steek er tijd in en promoot het goed, dan kom je vanzelf hoog op Google. En als mensen dán zoeken en op jouw site uitkomen, dan is de kans dat ze er daadwerkelijk wat aan hebben vele malen groter dan waaneer je snel een site in mekaar knutselt en de rest van de tijd aan SEO besteedt.

Nee, dit is een goede zaak van Google.
Dan nog vind ik SEO geen onzin. SEO is (afaik) namelijk ook het gebruik van bijvoorbeelde de juiste headers versturen (en dus correcter gebruik van protocollen en standaarden). Bijvoorbeeld HTTP 301, permanent verhuisd -> Zoekmachines passen daarop de URL naar het zoek resultaat aan in hun DB... ;) Of de HTTP 404, pagina niet gevonden, dan kunnen zoekmachines de link verwijderen uit de DB, want de link waar naar verwezen word werkt niet (meer). Dát is dus óók SEO en jouw gehele tweede alinea, maar dat was al gezegt... ;)
De 2de alinea is precies wat SEO is. Dus wat is nu je punt? Eerst vind je SEO niets en vervolgens promoot je SEO?

Wat jij beschrijft is white-hat SEO, en wat jij afdoet als zijnde SEO is black-hat SEO: spam dus ;)
Ja. google probeert de gebruiker te imiteren.

Stel ik zoek 'driver win xp hp printer'.

En er is bijvoorbeeld een 'louche' site bovenaan die geen drivers aanbiedt, dan ben ik binnen no-time weer terug bij de zoekmachine en probeer ik een volgend resultaat.

Dat is wat google meet!

Als veel mensen snel een site verlaten is de site dus niet meer relevant!

De site die de drivers wel bevat, zal ergens toch moeten vertellen dat het "hp printer driver(s) heeft voor win(dows) xp"
En om mij te helpen moet de driver ook daadwerkelijk aanwezig zijn.

Google checkte laatst op iets van 630 punten een site.
Denk aan 'validation', 'titels', 'alt tags' en dus nog 600 van dat soort zaken. Zelfs metatags zijn niet helemaal nutteloos bij Google, mits je ze goed gebruikt. (kernwoorden uit de tekst gebruiken)

Verder heb je meer aan 1 of 2 goede sites die naar je linken, dan 100 kleintjes die niet relevant zijn.
SEO is voor 90% wel degelijk pure onzin die in een duur pakketje verkocht wordt aan onwetende klanten.

Om hogerop in een zoekmachine te geraken:
-Produceer code die zich (strikt) aan de standaarden voldoet (HTML en CSS)
-Maak geen gebruik van truukjes om (irrelevante) keywords te registreren bij een zoekmachine en presenteer dezelfde content voor zowel clients als spiders.
-Zorg dat alle relevante content van de eerste keer correct op je pagina staat. Code injecten dmv ranzige JavaScript is een slechte oplossing.
-Zorg dat je geen dode links hebt en enkel relevante links naar eigen of andere pagina's
-Zorg dat je alt-tags hebt voor images en andere content die geen tekst is.

Door die stappen bij de constructie van je site al in gedachte te nemen, moet je de SEO specialist niet meer betalen om het te doen voor jouw en gaan zoekmachines je site automatisch serieuzer nemen en correct parsen. Veel sites geraken moeilijk in een zoekmachine gewoon omdat de machine niet weet wat content is en wat niet of de relevante content wordt geintroduceerd met scripts, images of Flash.
SEO is niets anders dan het uitvoeren van een proces dat tot doel heeft de site beter vindbaar te maken in zoekmachines.

Men kan hierbij agressieve technieken toepassen die overduidelijk ten onrechte de site hoog in de zoekmachine moeten plaatsen, bijvoorbeeld het gebruik van linkfarms om de PageRank te verhogen. Er zijn ook nog vele andere technieken die een pagina of website op een natuurlijke wijze beter in een zoekmachine positioneren, bijvoorbeeld door duidelijk te maken welke trefwoorden relevant zijn op een bepaalde pagina. Je noemt zelf al een aantal technieken en een voorbeeld van een pagina die door een slechte opzet niet goed vindbaar is in een zoekmachine. Deze pagina kan een stuk beter presteren als er wat SEO op wordt toegepast.

SEO is dus geen onzin maar gewoon een proces dat onderdeel zou moeten zijn van de ontwikkeling van de betreffende internetpagina, indien het gewenst is dat deze goed vindbaar is in zoekmachines.
Nog beter, zorg dat je goede content heeft. Als ik zoek wil ik de juiste content hebben. Het maakt mij niet zoveel uit of het correcte HTML is. Dat vind ik belangrijk bij zoeken, en ik hoop de zoekmachine ook!
Het is wel onzin, het is in feite het falsificeren van zoekresultaten. Ben je een goede/interessante toko, komt Google et al daar vast wel achter hoor. Ben je dat niet, hoor je ook niet thuis op de eerste pagina.

Een goede structuur in je website, is gewoon een goede structuur in je website. Als je dat doet in het kader van SEO, vrees ik of het je nu om de website te doen is, of om de centjes die je hoopt te vangen met een hoge ranking. In principe is het in het belang van je website om goed in elkaar te zitten, toch?
Het is geen falificatie. Het is optimalisatie. Een META tag die niets met de inhoud van een pagina te maken heeft wordt met SEO geoptimaliseerd zodat de juiste bezoeker op de juiste pagina komt. En dat is maar gewoon een simpel voorbeeld.
Ik denk de SEO JUIST geen onzin is. En dan niet om maar zo hoog mogelijk in Google te komen, maar het feit dat je veel bereikt door pagina's logisch in te delen, teksten goed in te delen, ervoor zorgen dat namen en titels van pagina's goed zijn, alt teksten bij images voegen en dat soort dingen.

Dat is denk ik best een meerwaarde. Maar goed, dat zou iedereen eigenlijk moeten doen in een ideale situatie. Maar dat versta ik onder SEO. En dit doe ik ook gedeeltelijk professioneel.

[Reactie gewijzigd door Luuk1983 op 25 oktober 2007 15:53]

SEO dient in de eerste plaats om een website goed te laten indexeren, zodat de spider verder raakt dan de eerste pagina en op een eenvoudige manier alle inhoud kan doorzoeken en opslaan. Als sommige deze technieken misbruiken betekend dat nog niet dat SEO op zich slecht is.
Wel mooi dat crosslinken om zo makkelijker hogerop te komen wordt tegengegaan, dit omdat anders de zoekresultaten van google alleen maar meer spam zullen bevatten in de vorm van fora.

Pagerank van mijn website is hetzelfde gebleven :) 2/10

[Reactie gewijzigd door gise op 25 oktober 2007 14:31]

Interessante ontwikkeling, zeker gezien het feit dat er enorm veel SEO-bedrijven zijn opgestart de afgelopen jaren. Ben benieuwd wat er in de toekomst nog meer gedaan gaat worden tegen het grotendeels verkopen van lucht en onzekere diensten.

Optimalisatie van website's en de content is een prima dienst die wij zelf verkopen als SEO met daarbij een concurrentie-analyse. Het inkopen van links e.d. is iets waar wij geen heil in zien maar wat helaas wel veel voorkomt in deze branche (manipulatie Google-algoritme)!

[Reactie gewijzigd door Shr3d op 25 oktober 2007 14:34]

Sommige webloggers spreken hun waardering uit over de stap van Google, terwijl anderen spreken van een 'publieke waarschuwing' aan het adres van seo-bedrijven om de populaire zoekmachine niet te misbruiken.
Ik denk dat de Search engine optimization bedrijven hierdoor juist extra werk krijgen om de websites die zijn gedaald in de page-ranking weer te verbeteren. Ja, het forceert ze om geen cross-linking te gebruiken... Maar het creëert extra werk, dus ik verwacht niet dat ze daar ontevreden mee zijn.
SEO behoord gewoon niet te gebeuren, in plaats daarvan hoor je je gewoon bezig te houden met Web Content Optimalisatie...

waar onder andere verbetering van de toegankelijkheid, de inhoud en andere zaken aan bod zoude moete komen en dus geen crosslinking etc...
seo hoort wel te gebeuren als onderdeel van wco. Het is belangrijk dat ook een zoekmachine vlot door een site kan bladeren en de inhoud kan nagaan. Op die manier kan je meer bezoekers aantrekken die zoeken op minder algemene termen in artikels die dieper verscholen zitten in je website.
De 'echte' SEO's zullen hier inderdaad geen problemen mee hebben.

Het zijn de SEO's die voor het makkelijke geld gaan doormiddel van crosslinking die nu problemen gaan krijgen. En die snappen niet hoe ze een site moeten verbeteren.
Als je nuttige informatie op een toegankelijke manier aanbiedt dan wordt je vanzelf beter gevonden.
Dit is natuulijk goed nieuws! Ik had er al zo'n moeite mee dat sites hoger stonden, waarbij veel werd gecheat, omdat ik juist veel moeite heb moeten doen om een legitieme PR 6 te krijgen.
Wat ik me wel afvraag is welke grotere sites er nog meer aangepakt zijn/worden. De Washington Post en Forbes zijn wel redelijk grote namen, maar ze zitten niet eens in Alexa's Top 500.
Ik heb een site met frames, heel veel tabellen, geen h1 h2 e.d. geen doc-type, geen alt-tags.

Dus 0,0 optimalisatie.

En toch hoog in Google
Ik vind het ook goed nieuws: Google is er juist op gebaseerd dat als er vaak naar 1 site wordt gelinkt, die site ook blijkbaar belangrijk is, vooral als het vanaf een populaire site gebeurt...

Maarja, ik vind het duidelijke en aanvullende logica dat sites die naar enorm veel niet-inhoudelijk-gerelateerde sites linken, waarschijnlijk dan ook minder belangrijk zijn. Sites die veel naar kleinere sites linken zijn blijkbaar dus minder belangrijk in het bepalen van pageranks van sites waarnaar ze linken.

Sorry voor de ingewikkelde zinsconstructie :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True