Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 67 reacties
Bron: Google Weblog, submitter: bl@de

Opnieuw heeft Google een aantal Nederlandse sites bestraft omdat zij gebruikmaakten van niet-toegestane manieren om een hogere pageranking te krijgen. Het gaat hier om (klanten van) Tribal.nl, een zoekoptimalisatiebureau uit ’s Hertogenbosch. Behalve de site van het bureau zelf worden onder andere ook de sites van T4Telecom en Yakult niet meer weergegeven door de populaire zoekmachine. Tribal.nl maakte gebruik van javascript cloacking, een door Google niet toegestane tactiek. Doordat zoekmachines javascript niet kunnen lezen, zien zij een pagina met verborgen teksten en links. Een normale browser laat dit javascript echter wel zien, waardoor een normale gebruiker de mooi opgemaakte pagina te zien krijgt en niets merkt van de verborgen links.

Google logoOok stelde Tribal.nl een gratis gastenboek ter beschikking, waarin verborgen links werden geplaatst naar domeinen van het bedrijf. Deze gastenboeken zijn door meerdere sites gebruikt, hetgeen de pageranking van Tribal.nl verhoogde. Tevens verborg het bedrijf links naar klanten in zijn gastenboeken. Waarschijnlijk maakte het bedrijf hiervoor gebruik van een Engels systeem. Tussen de zeshonderd en vierduizend gastenboeken hebben op deze manier onbewust meegeholpen om Tribal.nl hoger in de lijst van Googles zoekresultaten te krijgen. Naar aanleiding van Googles schoonmaakactie hebben meerdere andere zoekoptimalisatiebureaus toegezegd om geen gebruik meer te maken van niet toegestane technieken. Het lijkt er op dit moment op dat men zich hier ook echt aan houdt.

Moderatie-faq Wijzig weergave

Reacties (67)

Ahh ik snapte al niet waarom ik het bedrijf waar ik werk niet boven hun kreeg :P

Ik ben zelf de laatste tijd bezig geweest met uitzoeken wat nu wel en niet getolereerd wordt, en moet zeggen dat het een erg transparante grens is.
Het lijkt erop dat je wl je content mag optimalizeren voor zoekmachine's door middel van een cloak, mits bezoekers deze zelfde content maar te zien krijgen bij het klikken op het resultaat in de zoekmachine.
Het is dus niet toegestaan een geoptimaliseerde pagina aan Google te voeren, en als de bezoeker deze pagina opent hem via javascript door te routen naar je echte site.
Maar het mag volgens mij wel als je dat javascriptje achterwege laat...
Volgens mij moet je eens gaan lezen wat cloaking is.

Dezelfde geoptimaliseerde pagina aan bots en users laten zien is geen cloaking.

Cloaking houdt in dat je bots en gebruikers op de zelfde url andere informatie laat zien.
Ik ben prima op de hoogte van wat cloaking is.
Vaak gebeurd het als je aan pagina uit de cache van Google opvraagt je ook wordt doorgetrept door een javascript naar een andere pagina. Ook dit valt onder de noemer 'cloaking'. De zoekmachine indexeerd de ene pagina, maar de bezoeker ziet de andere
Als je dat script weglaat ziet de bezoeker wel je echte site bij het klikken op het resultaat, maar de daadwerkelijk geindexeerde pagina bij het openen van de cache. Het is neit helemaal duidelijk of dit nu wel, of niet mag.
Dan zijn het geen cloaked pages meer maar doorway pages, welke door google wel toegestaan zijn maar worden afgeraden omdat de pagina voor de gebruiker gemaakt hoort te zijn en niet voor bots.
Tribal zit hier om de hoek, zodoende weet ik dat het geen "zoekoptimalisatiebureau" is. Het is gewoon een bedrijfje dat websites maakt. En daar hoort natuurlijk het optimaliseren van zoekresultaten bij.

Grappig om op tweakers iets te lezen over een pietepeuterig bedrijfje om de hoek. (dat overigens heel behoorlijke websites maakt)
Veel webbouwers bieden zoekmachineoptimalisatie aan als extra dienst. Met behulp van wat goedkope, technische truukjes (bijvoorbeeld cloaking) wordt een hogere ranking verkocht. Tegen behoorlijke bedragen overigens. Laat de klant wat keywords ophoesten en voer je standaardsciptjes met deze input en klaar is klara.

Ik vind het achterlijke manier van zaken doen. Heb genoeg bedrijven aan mijn bureau gehad die met dergelijke technieken mijn ranking zouden verbeteren. Met als resultaat voor hun het gat van de deur.
Zijn er dan bedrijven die jij niet de deur wijst? Oftewel, bestaat er ook een 'nette' versie van zoekmachineoptimalisatie?
zeker

als je je site beter structureerd kan een bot je beter beoordelen.
In zeker zin kan zo'n bedrijf dus best handig zijn.
Google staat daar zelfs positief tegenover!
Want mensen krijgen dan betere resultaten

Maar met trucjes nee dan niet, zie het resultaat 8-)
Natuurlijk, je site correct opbouwen.
Gebruik headers, links, alt-teksten, bold-teksten en links, en een spider kan je site prima beoordelen.
Ja oke dat snap ik ook wel. Maar er zijn blijkbaar dus geen legale trucjes begrijp ik.
Het is gewoon een bedrijfje dat websites maakt. En daar hoort natuurlijk het optimaliseren van zoekresultaten bij.
en dat kan op twee manieren:
1. door rare pagina's apart toe te voegen (doorways, verborgen links, keywords)
2. door pagina's op een goede manier te structureren (lees: XHTML Strict, CSS)

Met een goede structuur kunnen zoekmachines effectief achterhalen wat titels zijn, wat relevante context is, dus de content goed kunnen analyseren. Daar heb je meer aan dan een vage ontoegankelijke pagina die zogenaamd meer zoekresultaten moeten opleveren.

Ontoegankelijke pagina's die bijvoorbeeld ook bepaalde browsers uitsluiten sluiten ook zoekmachines uit.
XHTML strict is niet meteen beter. HTML 4 volstaat zelfs perfect en in sommige gevallen die ik ken zelfs beter.

De meeste website die claimen aan de xhtml strict standaard te voldoen zijn vaak wel correct volgens de validator, maar semantisch klopt er stront van.

Semantiek is echt het enige keyword wat hier nut heeft, en dan praat je al over significante verschillen in de zoekresultaten.


* 786562 flashin
En xhtml staat per definitie voor een goede structuur? Een zelfde goede structuur (semantiek) is te behalen met html. En CSS heeft natuurlijk weinig met structuur te maken.
Grappig om op tweakers iets te lezen over een pietepeuterig bedrijfje om de hoek. (dat overigens heel behoorlijke websites maakt)
Op het oog misschien, maar niet qua code. Een bedrijf dat websites bouwt en niet eens een DOCTYPE definiert kun je wat mij betreft niet serieus nemen.
Overigens lijkt het er (op het eerste gezicht) op alsof Tribal snel alles er uit gesloopt heeft.
Dit bedrijf maakt geen behoorlijke websites. Zelfs hun index pagina valideert niet (ook de CSS niet). Daarnaast maken ze gebruik van table-layouts. Niet echt iets om lovend over te spreken...
Kan iemand mij vertellen waar ik dergelijke websites kan aanmelden?
Op http://www.google.nl/intl/nl/webmasters/spamreport.html kun je sites die door trucs bovenaan staan doorgeven aan Google. Als je informatie klopt, is de site meestal bij de eerstvolgende update van de Google database verdwenen uit de zoekresultaten.
Melden lijkt me een goede zaak. Het is erg frustrerend dat de sites die ik zelf onderhoud, worden weggedrukt door sites die illegale technieken gebruiken. Argh, niet alleen frustrerend: we lopen bezoekers mis, het scheelt ons dus gewoon omzet. Noemen we dat normaal niet stelen?

Edit: Ik heb er pas nog melding gedaan van de grappen van hardware.z1p.info. Hun description is gestolen van andere websites (waaronder die van ons), maar hun inhoud slaat nergens op. Ik zie het nut van dergelijke actie's ook niet in. Ze scoren nu wellicht wel bezoekers, maar wat levert het ze op?
Ervoor zorgen dat een ander bedrijf bezoekers misloopt, en daardoor omzet, is nou niet echt de omschrijving van stelen. Meer de omschrijving van een betere marketingstrategie.

Volgens jou is de albert heijn dus ook aan het stelen als ze wat artikelen in de reclame gooien, waardoor er mensen die doorgaans naar super de boer gaan, nu naar de appie gaan?

Kan me wel voorstellen dat het frustrerend is, maar meer dan aangeven bij google kun je er denk ik niet aan doen.
Je vergelijkt dit verkeerd: supermarkten zijn heel erg geen websites.

Je kan het wl vergelijken met van die leningbureautjes: "bij ons XXX% rente! LAGER DAN BIJ CONCURRENT Y!!!" maar na wat rekenwerk zie je dat het gewoon net zo duur is als bij de concurrent. Misleiding heet dat en dat mag gewoon niet.

Daar komt nog bij dat Google nog altijd zelf bepaalt wat de content van hun website is :)
@ Hanje: Men maakt gebruik van illegale technieken, dat is wat anders dat een 'betere marketingstrategie' (de vergelijking van Terror623 gaat helemaal op). Als men sites door goed SEO beter laat scoren dan mijn sites, dan moet ik mijn werk beter doen. Maar als concurrenten illegale technieken gebruiken of bedrijven die feitelijk niet eens concurrent zijn mijn content stelen om hun site te boosten... daar kan * 786562 mix
Nog een voorbeeldje van het manipuleren van Google: referer spam. Op misumena.com wordt een tooltje aangeboden waarmee websites worden benaderd met als referer de site van klant X die zijn site hoger wil laten scoren. In de statistieken van de sites die bestookt worden, komt als referer een link te staan naar X hoewel zijn echter helemaal niet bezocht zijn vanaf X. Omdat veel sites hun statistieken openbaar hebben, krijgt X veel links naar zijn site en dat kan een gunstig effect hebben op de Google-pagerank waardoor X beter scoort in de zoekmachines. Zeker blogs hebben de afgelopen jaren veel mee te maken mee gehad met vormen van referer spam.
wel als de albert heyn bv overal lidl naam boordjes plaatst aan de buitenkant, zich compleet voordoet als de lidl aan de buitenkant en van binnen nog steeds dezelfde AH is
Ik denk dat Google dat zelf wel merkt. Statistische analyse laat al heel gauw zien welke sites onevenredig snel stijgen in de rankings. Daar wordt automatisch een 'suspect' vlaggetje bij gezet zodat iemand van Google er naar kan kijken. Die surft vervolgens vanuit het Google domein en vanuit een willekeurig publiek domein naar de site en zoekt 'de tien verschillen' ...
Ik vind de actie opzich wel goed, maar het totaal weglaten van sites kan natuurlijk wel lastig zijn in de gevallen dat je echt naar die site zoekt.

Dus een straf in de zin dat de site lager geplaatst wordt, had ik een betere oplossing gevonden, want nu kan je de sites niet meer zoeken en dat maakt google toch niets minder compleet, ook al zijn het relatief weinig sites natuurlijk.
klopt natuurlijk wel, maar ik denk niet dat google die sites echt lager kan plaatsen zolang ze een hoge ranking hebben, of ze moeten hun hele systeem aanpassen hieraan. De ranking die de site krijgt is in theorie eerlijk, maar de manier waarop die verkregen wordt, dus de aantal keren dat ie bezocht wordt, is dat niet. Ik denk dat bannen dan de beste manier wordt om 1) de gebruikers niet met onbenullige sites op te zadelen in de search results en 2) de makers van de site de site te laten aanpassen en dan terug google te contacteren om het opnieuw in de database te laten opnemen.
Hmm, goede actie van Google, me dunkt.

Hoewel ze waarschijnlijk geen acties kunnen/mogen ondernemen op gebied van rechtszaken, denk ik dat het wel goed is dat ze op deze manier de "creatieve" bedrijven straffen.

EDIT: @adam76

Hoezo is het belachelijk? Die bedrijven maken misbruik van Google's functies, waardoor ze onrechtmatig hoog in de rankings komen. Ik vind het niet meer als logisch dat men daar voor gestraft wordt.
Tribal staat overigens wel nog gewoon in de zoekresultaten :?
http://www.google.nl/search?hl=nl&biw=1132&q=tribal&meta=
Natuurlijk mag Google dat wel, graag zelfs!

De kracht van Google is dat haar zoekresultaten betrouwbaar zijn. Als jij zoekt op bepaalde woorden staan de best matchende sites bovenaan. En dat is de reden waarom Google zo populair is.
Je wilt geen sites bovenaan hebben welke helemaal niet voldoen aan de zoekopdracht. Jij niet, en Google ook niet.
de kracht die jij verondersteld dat google betrouwbaar is. je moet wel bedenken dat we heden ten dagen vaak aannemen dat wat google geeft waar is. maar als binnen google's algoritme bepaalde wijzigingen voorkomen die voorschrijven dat bv tweakers.net slecht is en dat je dan door geroute wordt naar www.onzin.nl accepteren wij dat. dit soort wijzigingen lijken idioot maar met het idee dat google buigt naar de chinese overheid zou ik niet weten waarom google ook niet buigt naar de amerikaanse overheid.
google komt altijd als goed over maar wees altijd alert met wat grote bedrijven als dat doen. betrouwbaarheid is volledig afhankelijk van wat jij verwacht als betrouwbaar.
verder wilt google wel sites bovenaan die niet voldoen. dat heet adverteren en extra inkomsten voor google. er zijn zeker sites die niet #1 zouden moeten zijn maar het wel worden ivm dat zij gewoon meer afdragen.
verder dat je niet hoort te cheaten... er zijn zoveel manier van optimaliseren/cheaten sommige kunnen wel.. sommige kunnen niet, dit kan blijkbaar niet. verder komt dit enorm veel voor als je bedenkt dat dit enkel over NLse sites gaat er zijn nog wel wat meer landen met sites die de boel belazeren
De enige reden dat ik aanneem dat Google betrouwbaar is is uit ervaring. Het is simpel zat: Google geeft verreweg de beste resultaten. Hierdoor blijven ze de grootste en zullen ze dus niet op een sneaky manier bedrijven bovenaan proberen te helpen, daar hebben ze namelijk geen baat bij.

Google heeft gesponsorde links, daar kun je voor betalen. De rest word gewoon gevonden op steekwoorden en polulariteit.

Zodra Google expres resultaten gaat vervalsen om een (betalend) bedrijf bovenaan te krijgen gaat dat heel snel opvallen en zullen hoe dan ook de bezoekersaantallen van Google teruglopen omdat je gewoonweg niet meer de beste resultaten krijgt.

Dit heeft minder met vertrouwen te maken als wel gewoon in de wetenschap dat dit een behoorlijk simpel concept is.
Ik vind het anders een even slechte ontwikkeling dat een bedrijfje "tonnen" aan geld verdient door de regels te buigen, afgezien van het feit dat consumenten worden bedrogen door zoek resultaten die niet objectief zijn.

Je hoort gewoon niet te cheaten.
Beetje relativeren, de straf is dat ze niet opgenomen zijn in google, iets waarover alleen google mag beslissen imho.
monopolie positie? Denk eens normaal na, en duik terug in de boeken. Zoekmachines genoeg hoor.
Je kunt het ook zien als dat ze de service die ze leveren proberen te beschermen.
Sorry. Maar ik heb liever een searchengine die goede resultaten geeft dan een searchengine waarin de top20 resultaten niet te maken hebben met m'n search-term maar met bedrijven die allemaal truukjes gebruiken om mensen naar hun site te krijgen die er geen interesse in hebben.. dan kan ik net zo goed gaan banner-clicken.

Google is min of meer aan zijn functie verplicht om dit soort bord-voor-m'n-kop sites er uit te mikken. Anders is het geen searchengine meer, maar een reclamebord.
Helemaal niet belachelijk. Als ik de enige kroeg in een dorpje zou runnen en elke week komt die zelfde vervelende gast weer die zich helemaal klemzuipt en dan andere mensen gaat lastigvallen, dan sta ik ook in mijn recht om hem mijn kroeg uit te gooien, monopolie positie of niet, die gast is gewoon fout bezig.

Iemand die met dit soort technieken op google bezig is bezorgt last voor zowel de bezoeker als andere websites die juist op die eerste plaats zouden moeten staan.
zolang je niet betaald voor google heeft google geen enkele verplichting, en kunnen ze in of uit de resultaten halen wat ze willen...
Onzin. Google wil gewoon haar database schoon houden. Dat heeft niks met misbruik van haar monopoliepositie te maken. Deze bedrijven gebruiken smerige trucs om hoger in de zoekresultaten te komen en nu zijn ze uit de zoekmachine gesmeten... boontje kom om z'n loontje.
Hoezo monopolie positie? Google misbruikt helemaal niets, Tribal is degene die in overtreding is.

Je begrijpt er echt helemaal niets van he...reageer dan niet.
Ik druk valse euro's en geef ze lekker uit. En vervolgens ga jij klagen dat de politie en de Nederlandsche(Europeesche) Bank mij bestraffen omdat ik de kluit bedot? Ga jij klagen dat die instanties misbruik maken van hun monopolie positie? Omdat Google geen land is maar een bedrijf, geen rechts-systeem kent moet het andere methoden gebruiken.
Tribal maakte gebruik van javascript cloacking, een door Google niet toegestane tactiek. Doordat zoekmachines javascript niet kunnen lezen, zien zij een pagina met verborgen teksten en links
Dit is onjuist googlebot is al enige tijd instaat javascript te parsen en zo ook cheaters te ontdekken, helaas kan het wel eens voorkomen dat een legale techniek gezien wordt als cheaten, om een voorbeeld te noemen, als men gebruikt maakt van hidden layers of iframes met de bedoeling deze uit te laten klappen/showen, kan google dit opvatten als het stoppen van content in verborgen vlakken. Het is dan ook zo dat je niet op basis van 1 trucje een penalty krijgt, meestal moet je dan echt behoorlijk ver gaan!

Dat google in staat is javascript te parsen blijkt ook uit hun identificatie van hun bot "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html) "

Het gastenboek trucje is wel orgineel maar ook ontzettend dom, het is algemeen bekend dat het zomaar laten linken naar je site niet altijd gunstig is, met name als dit gebeurt van zeer veel sites met een lage Pagerank.
javascript cloaking is echt gaar..

Niet dat ik cloaking zelf gebruik, maar je kunt veel beter server-side de user agent op googlebot laten controleren en fftjes een andere pagina laten zien.
het enige is dat je in de cache van google dan iets anders ziet dan wat je website echt is
Maar als iemand dan zijn browser zich laat indentificeren als een google bot krijgt hij ook een andere pagina. Als hij het dan ff aan google doorgeeft ben je het haasje.

Ik weet niet of het het risico waard is..
Wat wel grappig is dat wanneer je zoekt naar "Zoekmachine optimalisatie" je bovenaan een gesponsorde link krijgt naar Tribal.

link: http://www.google.nl/search?q=Zoekmachine+optimalisatie&hl=nl&btnG=Goo gle+zoeken&meta=&sourceid=opera
Hoezo is dat grappig?
Gewoon zorgen dat je een goede site hebt dan kom je vanzelf bovenaan.
Iedereen die search engine optimalisatie toepast heeft een slechte site.
Dat is dus echt volledig onzin. Je hebt zoekmachine OPTIMALISATIE en je hebt de zogenaamde 'blackhat' methodes. Ik heb weinig zin om hier een heel epos te gaan schrijven, kijk hier maar eens als je er ECHT in geinteresseerd bent: http://www.google.com/webmasters/seo.html

Conclusie:
goede site = goede rankings
goede site + normale seo = nog betere rankings

Lijkt me duidelijk.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True