Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 42 reacties
Bron: internetnews.com

Volgens Microsoft Research zou de relevantie van de resultaten van zoekmachines met 31 procent verbeterd kunnen worden als gebruikgemaakt zou worden van onderzoek naar zoekgedrag. Hierbij zou onder meer onderzocht kunnen worden op welke links gebruikers wel en niet klikken, hoe lang men op een bepaalde site blijft hangen en hoe zoekopdrachten verfijnd worden. Wanneer dit soort onderzoek gecombineerd wordt met het tegengaan van klikspam, het expres klikken op irrelevante sites in zoekresultaten om ze een hogere waardering te laten krijgen, zou dit een duidelijk merkbare verbetering in de ordening van zoekresultaten moeten opleveren, zo denken de Microsoft Research-onderzoekers.

Microsoft ResearchOm hun ideëen te testen, hebben de Microsoft-medewerkers een onderzoek uitgevoerd waarin 3000 zoekquery's en meer dan 12 miljoen gebruikersinteracties zijn meegenomen. Door de uitkomsten van dat onderzoek te combineren met de door de zoekmachine geproduceerde zoekresultaten, was het mogelijk een sorteringsalgoritme op te stellen dat beter op de wensen van de individuele internetter was ingesteld. Volgens de Microsoft-onderzoekers zou dit soort onderzoek ook gebruikt kunnen worden voor detectie van klikspam, ranking op basis van specifieke domeinen en het tegengaan van misbruik van zoekmachines.

Moderatie-faq Wijzig weergave

Reacties (42)

Wat houd spammers tegen om botnetwerken op te zetten van bots die zogenaamd op links klikken en een tijdje een website bezoeken? Dan kan je niet meer klikspam tegengaan met bannen van ip-adressen. Is zoiets uberhaupt wel af te schermen?
Het wordt wel een eg trage spam-click-bot als hij een tijdje op een site rond hangt. Bovendien zou het zoekresultaat voor het aantal clicks aan je IP gekoppeld kunnen worden en daarmee haal je dit soort bots meestal onderuit.
Wat is hier anders aan dan de gepersonaliseerde versie van google?
het is niet persoonlijk:
Ze willen kijken naar het gedrag van alle gebruikers, en zo populaire links bovenaan zetten...
Heleboel (download)sites hebben die optie al, dus Microsoft is eigenlijk een beetje laat.
beter op de wensen van de individuele internetter was ingesteld
:X toch wel persoonlijk :X

Ik denk dat Microsoft onderschat hoevaak er naar porno wordt gezocht ;)
Ik denk dat Microsoft meer inzicht heeft in de zoekopdrachten via MSN dan jij.
* panni heeft net 20 miljoen AOL zoekopdrachten naar een MySQL database overgebracht...

/edit typo
:P Ikheb de tekstbestanden hier ook staan, maar heb helaas geen MySQL geinstalleerd en op bij mijn provider mag ik geen MySQL bestand van ruim 2 Gig plaatsen.

Heb je hem ergens op het internet staan?.
zoals ik het interpreteer willen ze de page rankings gewoon aanpassen door de veel aangeklikte links meer naar boven te sturen, maar uiteraard ook rekening houden met clickspam
het is dus totaal niet op 1 persoon afgesteld
...
Door de uitkomsten van dat onderzoek te combineren met de door de zoekmachine geproduceerde zoekresultaten, was het mogelijk een sorteringsalgoritme op te stellen dat beter op de wensen van de individuele internetter was ingesteld.
...
Hieruit blijkt toch dat het wel per inidvidu is afgesteld?
Dat wordt leuk... Komt me vriendin ff wat zoeken via Microsoft's searchengine als ik ff weg ben... "recommended search: pr0n"
Tsja... :Y)
Als ik het goed begrijp, werkt dit systeem anders.. door te kijken waar jij op klikt, creeert men een soort van feedback voor de oorspronkelijke searchresultaten.

Als jij zoekt op iets, krijg je resultaten. Daar ga je op klikken. Een aantal ervan zal niet zijn wat je zocht, die klik je dus weer weg of je klikt er zelfs helemaal niet op.

Als nu iemand anders op hetzelfde zoekt, gebruikt men 'jouw feedback' om alvast de ongewenste links lager in de zoekresultaten te zetten.

Om jouw analogie door te zetten.. als jouw vriendin gaat zoeken op 'strak truitje' zal ze, dankzij jouw eerdere gezoek, allemaal foto's krijgen van dubbel-F cups opgespannen in een wet t-shirt..
Ik lees het meer als sorteren volgens "waar hebben anderen op doorgeklikt met dezelfde zoektermen"

Dus niet gekoppeld aan personen.

Kan ook lastig zijn trouwens als je wat anders zoekt dan de massa. Slecht voor tweakers dus.
Ik zie anders weinig non-tweakers zoektermen invullen als "automated Active Directory service".

In de omgekeerde richting heb ik er geen probleem mee dat de populaire site's voor zoekterm "Britney Spears" door de massa bepaald worden.
Dan maak je toch een apart account aan?
Ja of Steve Balmer gaat zoeken en krijgt de eerste 10.000 resultaten AntiTrust, AntiTrust, AntiTrust, AntiTrust.
Erg nutteloos; de meeste gebruikers klikken bij een zoekopdracht toch op de bovenste link. Afhankelijk van of daar de informatie staat die ze zochten, gaan ze terug naar de zoekmachine om de tweede link te klikken. En de derde, de vierde, etc.

Het is handiger om het doorklikgedrag te meten: als iemand informatie vindt op een site die hij via de zoekmachine vond, is de kans groot dat hij verder gaat kijken op die site. Aan de hand daarvan kun je veel beter bepalen of de site de informatie biedt die een gebruiker zoekt.
Erg nutteloos; de meeste gebruikers klikken bij een zoekopdracht toch op de bovenste link. Afhankelijk van of daar de informatie staat die ze zochten, gaan ze terug naar de zoekmachine om de tweede link te klikken. En de derde, de vierde, etc.
Hoe weet jij dat nou weer? Er is uitgerekend dat de efficiëntie met 31% omhoog kan, dat zal toch niet het geval zijn als iedereen braaf bovenaan begint?

(Zou te vergelijken zijn met een resultatenpagina waarop alleen de ranking staat, geen titel of samenvatting van de gevonden pagina. Dan word je gedwongen alles één voor één te bekijken. Ik denk dat maar weinig consumenten zo'n zoekmachine zouden waarderen...)
Het is handiger om het doorklikgedrag te meten: als iemand informatie vindt op een site die hij via de zoekmachine vond, is de kans groot dat hij verder gaat kijken op die site. Aan de hand daarvan kun je veel beter bepalen of de site de informatie biedt die een gebruiker zoekt.
Dat lijkt me niet. Als iemand doorklikt op een site is dat hooguit een sterke aanwijzing dat de gevonden informatie niet op de eerste pagina stond. Dan zou de zoekmachine het dus juist fout gedaan hebben.
Het is handiger om het doorklikgedrag te meten: als iemand informatie vindt op een site die hij via de zoekmachine vond, is de kans groot dat hij verder gaat kijken op die site. Aan de hand daarvan kun je veel beter bepalen of de site de informatie biedt die een gebruiker zoekt.

Wat je hier beschrijft is wat ze in het onderzoek hebben gedaan. Ze hebben 3000 queries en 12 miljoen gebruikers interacties ge-evalueerd en hiermee een algoritme gemaakt. Dit algoritme hebben ze vervolgens gebruikt om andere zoekresultaten te verbeteren.

Ze gebruiken dus de "ervaringen" van andere gebruikers om de zoekresulaten voor andere gebruikers te verbeteren.
Het is handiger om het doorklikgedrag te meten: als iemand informatie vindt op een site die hij via de zoekmachine vond, is de kans groot dat hij verder gaat kijken op die site. Aan de hand daarvan kun je veel beter bepalen of de site de informatie biedt die een gebruiker zoekt.
Ja natuurlijk. En elke link op de site zal direct informatie terugsturen naar de Windows Searchengine dat de gebruiker geklikt heeft, en niet zijn browser gesloten heeft.

De beste manier, en hoe ze het momenteel trouwens doen, is gewoon kijken hoelang de gebruiker heeft doorgebracht op de site. Als die na 5 seconden terugkomt op de zoekpagina, betekend dit dat het vorige antwoord niet interessant was...
Ik weet niet wat jullie ervan vinden, maar ik heb geen behoefte aan "persoonlijke searches". Microsoft zou er goed aan doen om juist een filter te maken om die dingen te filteren die je juist NIET zoekt. (zoals porn en die irritante Paris Hilton :r)
Doordat search engines gebruik kunnen maken van zoek historiek zouden ze juist weten dat je niet naar paris hilton zoekt, maar omdat ze altijd met een schone lei beginnen weten ze dat dus niet.

Daarnaast heb je het probleem privacy vs goede zoekresultaten.
intressant, maar volgens mij zal MS pas echt volk over de vloer krijgen als google een paar steken laat vallen.

Zolang de service van google snel werkt, degelijke resultaten geeft en geen hinderlijke reclame/banners/popups toont zie ik mij en vele anderen niet overschakelen

Ik weet zelfs de URL niet van de MS search engine
http://www.google.com/microsoft.html

En de msn search

Wist niet eens dat die google microsoft search bestond :P :+
Gebruik de zoekmachine test
http://zoekmachinetest.nl/
Kun je eens lekker bekijken wat de beste resultaten zijn.
betekend dat dan dat ik geen reclame meer krijg omdat ik er toch niet op klik :Y)
Nee, de reclames komen beter herkenbaar in beeld. :D

Eigenlijk net als het anti-rsi pauzeprogramma Workpace: je kunt de melding een paar keer wegklikken, daarna wordt je verplicht een paar minuten aandachtig te kijken.
Toch wel jammer dat het niet zo goed helpt, doordat je het uit je beeld kunt verplaatsen :+
Een goed ingestelde workpace gooit je tobo+muis op slot.
Is dat niet precies wat google doet zoals in de rapportage van onlangs op tv?
Vind persoonlijke zoekresultaten de grootste onzin die er bestaat.
Ze kunnen nooit "relevantere" informatie tonen door alleen maar te kijken wat het zoekgedrag is van een persoon.
Het enige wat ze er uit halen is populaire informatie, wat vaak niet precies is wat mensen zoeken.
Ik zoek bijvoorbeeld erg vaak zeer specifieke dingen, die ik wel altijd met google vind.

Ik zie msn search een beetje als die search-portals die alleen maar advertenties tonen als resultaten.

(Ik heb trouwens nog nooit een relevante search uitgevoerd met microsoft of msn, google is mijn beste vriend O+)
Als zoekmachines de mogelijkheid hebben om zelf bepaalde sites uit te sluiten van de zoekresultaten wordt het al een stuk eenvoudiger om goeie zoekresultaten te verkrijgen.

Bijvoorbeeld om alle kelkoo links te skippen + van die sites die resultaten geven als: "niets gevonden voor [zoekopdracht]". Dat blacklisten kan nu wel al door [zoekopdracht] -kelkoo of [zoekopdracht] -site:kelkoo.nl te gebruiken, maar die moet je bij iedere opdracht weer opgeven.

Als dat excluden gewoon kan via een persoonlijk account zou ik daar al erg blij mee zijn. Zeker als je naar consumenten (electronica) artikelen zoekt is het zo langzamerhand een crime aan het worden om zinnige info te krijgen. Ik wil niets vergelijken, ik wil gewoon de specs en met name reviews van dat ding zien. En niet 80.000 sites waar het ding te koop is.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True