Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: Techworld.com

Een onderzoek, uitgevoerd door twee universiteiten in samenwerking met Dogpile.com, concludeert dat de topresultaten van zoekmachines steeds verder uiteen komen te liggen.

Internet zoeken groen (klein)In totaal werden 19.332 verschillende zoekopdrachten gegeven aan Google, Yahoo, Windows Live en Ask. Bij slechts 3,6 procent van de zoekopdrachten leverden de zoekmachines hetzelfde topresultaat en nooit hadden de vier zoekmachines dezelfde top drie. Slechts één procent van de zoekresultaten op de eerste pagina wordt gedeeld door alle vier de zoekmachines. In een studie die twee jaar geleden werd gehouden bleken de zoekmachines vaker dezelfde resultaten op te leveren. Destijds leverden de vier zoekmachines in zeven procent van de gevallen hetzelfde topresultaat. Met het onderzoek toont Dogpile.com aan dat het handig kan zijn om meerdere zoekmachines te gebruiken. Dat is 'toevallig' precies wat gedaan kan worden met de metazoekmachine van Dogpile.com.

Moderatie-faq Wijzig weergave

Reacties (37)

Geef mij dan toch maar Google i.p.v. Dogpile: doe eens een search op beide zoekmachines naar "Tweakers" en zie wat in de top-5 staat...
Inderdaad, het probleem van meta-zoekmachines is dat ze alleen maar lijstjes van resultaten van andere zoekmachines gebruiken. Die lijstjes op een goeie manier combineren en ordenen is nog niet zo eenvoudig op basis van zo weinig informatie.

Als je een maximale recall wilt hebben is een meta-zoekmachine dan ook een goed idee, het probleem voor dogpile & kornuiten is alleen dat de meeste gebruikers dit helemaal niet willen.

@tweakraiser
Toch maakt hij wel een geldig punt, als je bijv. een retrieval experiment zou opzettten om de ranking van zoekmachines van yahoo en google met die van Metacrawler.com te vergelijken zul je zien dat die op de eerste pagina('s) beter is op Google en Yahoo dan op Metacrawler. Grote kans dat dit ook het geval is voor Dogpile.

[Reactie gewijzigd door lucifer666 op 18 juni 2007 20:57]

Als je even verder kijkt en niet klakkeloos altijd maar denken dat google beter is en de preferences van dogpile op nederlands zet:

Zie je dat tweakers wel op 1 staat gevolgd door GoT op 2
Dit lijkt me te verklaren door de zogenaamde "gesponsorde links" die een bedrijf meestal alleen bij de zoekmachine van hun eigen voorkeur kopen. Als gesponsorde link kom je hoger in de resultaten, waar je in een andere zoekmachine waar je niet als gesponsorde link staat lager komt.
Voor zover ik weet kan je bij de meeste zoekmachines je plaats niet verhogen door te betalen.
Gesponsorde links staan appart van de zoekresultaten, en worden zo neem ik aan niet in dit onderzoek meegenomen.

Daarnaast zou het interessanter geweest zijn als ze ook eens onderzocht hadden bij welke zoekmachine de resultaten nu ook het meest relevant waren.
Het is eerder te verklaren door de manier dat mensen zoeken. Deze algoritmes achter de zoekrobots houden tevens rekening met tal van andere zoekopdrachten door andere gebruiker en de appreciaties ervan en niet enkel met de inhoud (tags - metadata) van de pagina. Google zal dus een ander clienteel aantrekken dan msn of yahoo.
Eigenlijk is het heel erg logisch dat de resultaten steeds vaker gaan verschillen. Zeker de grote search engines (Google, MSN en Yahoo) hebben allemaal hun eigen ranking algoritmes en daarmee wordt dus automatisch dezelfde pagina op verschillende manier beoordeeld.

Heel erg veel gebruikers hebben bijvoorbeeld de Google toolbar geinstalleerd. Dan heeft Google ook nog eens GoogleAds. Beide 'services' geven Google een realistisch beeld van hoe populair een website daadwerkelijk is. Google gebruikt juist tegenwoordig heel erg veel offsite factoren om de ranking te bepalen. Yahoo heeft voornamelijk onsite factoren in zijn algoritme zitten. Zij kunnen dus alleen op basis van zoekopdrachten en de uiteindelijke link uit dat zoek resultaat bepalen hoe 'populair' een pagina is.

En alle searchengines zullen hun indexeringen steeds beter gaan optimaliseren. Maar de manieren waarop zij dat doen zijn verschillend en daarmee zullen ook de zoekresultaten steeds verder uit elkaar gaan liggen.

Volgens het artikel hebben ze bijna 20.000 zoek opdrachten uitgevoert, maar er wordt niet vermeld welke zoekopdrachten (de keywords) dat zijn. Hebben zij bijvoorbeeld meerdere keywords gebruikt (eventueel met boolean search (bijv. 'shakira downloads -torrent -iso')? Dat zijn allemaal zaken die de resultaten beinvloeden, maar waar geen woord over wordt gesproken.

Wat betreft dit onderzoek, vanwege het ontbreken van de zoek context kan ik niet anders concluderen dat dit een bagger onderzoek is. Want voordat je een onderzoek uitvoert moet je eerst bepalen wat je onderzoekt en dat documenteren. Het artikel spreekt alleen maar over resultaat hier en resultaat daar op basis van een x aantal queries. En dat kan in mijn ogen maar een ding betekenen. Ze zijn van achter naar voren gaan werken. Iets wat je steeds vaker bij onderzoeken ziet. Het oorspronkelijke onderzoek is niet interessant, maar een aantal uitkomsten wel en vervolgens wordt de vraagstelling veranderd.

[Reactie gewijzigd door Niemand_Anders op 19 juni 2007 09:23]

Nogal arrogant zeg. Je weet niets over hoe het onderzoek is uitgevoerd, maar ondertussen claim je wel dat het een bagger onderzoek is.
toch vind ik de google zoek resultaten slechter worden in verhouding met bv yahoo
als ik bv zoek naar een review van een bepaald produkt krijg eerst 2 pagina voor je kiezen waar je dat spul kan kopen en geen reviews
lijkt mij gesponsord?
Die sites proppen hun pagina gewoon vol met woorden als "review" etc zodat hij hoog in Google's resultaten komt. De meeste mensen zullen er vast ook nog op klikken ook zodat het hoog blijft.. Maar daar mogen ze inderdaad wel wat aan doen.
Je kan overigens wel met [zoekterm] -site:kelkoo.com de resulten op xx.kelkoo.com eruit filteren.
Kleine toevoeging: '-kelkoo' werkt ook gewoon, scheelt typwerk
search extention die dat auto doet, werkt in ie7 en ff2.

http://killerrabbits.org/cleanedg/
Hmm, ik dacht na dit verhaal aan metacrawler.com (ook een meta search engine), blijkt dat dat net als Dogpile van hetzelfde netwerk van Infospace is. Dat kun je onderaan de pagina's van deze twee zien. Daar zie je dat er kennelijk ook nog WebCrawler is, en die doet ook al hetzelfde....?!
Ah, gevonden: http://searchenginewatch.com/showPage.html?page=2160781

[Reactie gewijzigd door Eegee op 18 juni 2007 20:13]

Ik las volgens mij juist in mn rss reader @ work precies het tegenovergestelde, dat de zoekresultaten steeds dichter bij elkaar komen te liggen...

Ik zal eens even snuffelen straks in mn archief of ik de link nog kan vinden
"Dat is 'toevallig' precies wat gedaan kan worden met de metazoekmachine van Dogpile.com."

Gewoon wat reclame voor dogpile.com als je 't mij vraagt.
Of gewoon goed voor de bewustwording dat Google (of andere zoekmachines) niet zaligmakend zijn.
No shit, sherlock..

-1 voorspelbaar
Wij van WC-Eend... :Y)
Niet erg verbasend gezien de ontwikkeling van zoekmachienes. Allemaal hebben ze "ongeveer" het zelfde globale algortime, maar er komen met de tijd steeds meer factoren bij. Was het vroeger alleen maar content rank en sinds Google content rank + page rank, nu is het ook afhankelijk van wie/waar/wat je bent(lang leven cookies..) en wat voor inkomsten bronnen de zoekmachiene heeft.
Persoonlijk lijkt me een zoekmachiene waar je zelf kan zien welk onderdeel welke weging heeft in je resultaten erg handig, weet je minsten waar je aan toe bent. Natuurlijk gebeurd dit alleen niet, kan je om de handige sponsord links heen klikken en verdiend de zoekmachine minder geld... (Maar drome kan altijd :z)

En de ranking van dogpile? Het hangt er natuurlijk helemaal vanaf van wat voor weging zij geven aan iedere zoekmachiene... 8)7

@ Bokma.
Daarom wil het juist zien. Niet iedereen zal het snappen, maar iedereen met een beetje wetenschappelijk (beta) inzicht kan het begrijpen. In een paar uur kan je een PageRank algoritme in elkaar knutselen dat nog goed werkt ook. Immers, de algemene forumle die google gebruikt is gewoon openbaar en er zijn meerdere goede documentaties over. Wat de preciese weging van welke detail is, dat is het geheim van de smit.

[Reactie gewijzigd door Electrowolf op 19 juni 2007 15:50]

Was het vroeger alleen maar content rank en sinds Google content rank + page rank
Het is nooit zo simpel geweest. En Google gebruikt, naar eigen zeggen, al een flinke tijd 100+ "ingredienten" (recent las ik ergens 200+).

Google neemt verder, net als diverse andere zoekmachines, geen sponsor links op in de zoekresultaten zelf.

Het kunnen zien van de weging is nutteloos. Ten eerste te veel factoren, ten tweede moet je behoorlijk verstand van zaken hebben wil je er ook iets mee kunnen doen. Kijk maar naar de verwarring en diverse broodje aap verhalen rond PageRank.
Bij FireFox heb je de snelzoek balk (bij IE weet ik het niet zeker). Daar kan je kiezen met welke zoekengine je werkt. Dus als ik het niet bij google vind, zoek ik het wel met Yahoo! of altavista ;)
yahoo is beter in het zoeken van afbeeldingen

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True