Eigenlijk is het heel erg logisch dat de resultaten steeds vaker gaan verschillen. Zeker de grote search engines (Google, MSN en Yahoo) hebben allemaal hun eigen ranking algoritmes en daarmee wordt dus automatisch dezelfde pagina op verschillende manier beoordeeld.
Heel erg veel gebruikers hebben bijvoorbeeld de Google toolbar geinstalleerd. Dan heeft Google ook nog eens GoogleAds. Beide 'services' geven Google een realistisch beeld van hoe populair een website daadwerkelijk is. Google gebruikt juist tegenwoordig heel erg veel offsite factoren om de ranking te bepalen. Yahoo heeft voornamelijk onsite factoren in zijn algoritme zitten. Zij kunnen dus alleen op basis van zoekopdrachten en de uiteindelijke link uit dat zoek resultaat bepalen hoe 'populair' een pagina is.
En alle searchengines zullen hun indexeringen steeds beter gaan optimaliseren. Maar de manieren waarop zij dat doen zijn verschillend en daarmee zullen ook de zoekresultaten steeds verder uit elkaar gaan liggen.
Volgens het artikel hebben ze bijna 20.000 zoek opdrachten uitgevoert, maar er wordt niet vermeld welke zoekopdrachten (de keywords) dat zijn. Hebben zij bijvoorbeeld meerdere keywords gebruikt (eventueel met boolean search (bijv. 'shakira downloads -torrent -iso')? Dat zijn allemaal zaken die de resultaten beinvloeden, maar waar geen woord over wordt gesproken.
Wat betreft dit onderzoek, vanwege het ontbreken van de zoek context kan ik niet anders concluderen dat dit een bagger onderzoek is. Want voordat je een onderzoek uitvoert moet je eerst bepalen wat je onderzoekt en dat documenteren. Het artikel spreekt alleen maar over resultaat hier en resultaat daar op basis van een x aantal queries. En dat kan in mijn ogen maar een ding betekenen. Ze zijn van achter naar voren gaan werken. Iets wat je steeds vaker bij onderzoeken ziet. Het oorspronkelijke onderzoek is niet interessant, maar een aantal uitkomsten wel en vervolgens wordt de vraagstelling veranderd.
[Reactie gewijzigd door Niemand_Anders op 24 juli 2024 10:27]