Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties

Op de universiteit van Tel Aviv is een algoritme voor 'virtuele spijt' in ontwikkeling. Door het verschil te meten tussen de voorspelde en de daadwerkelijke uitkomsten uit het verleden kan het algoritme leren om betere voorspellingen te doen.

Professor Yishay Mansour begon eerder dit jaar het onderzoek naar 'virtuele spijt' op de Blavatnik School of Computer Science, onderdeel van de universiteit van Tel Aviv. Het algoritme is gebaseerd op het concept van 'machine learning', een tak van kunstmatige intelligentie dat zich bezig houdt met algoritmes die kunnen leren op basis van beschikbare gegevens. Door virtuele spijt toe te voegen, dat wordt gebaseerd op het verschil tussen de voorspelde en de daadwerkelijke uitkomst, ontstaat terugkoppeling waarmee het algoritme kan leren van fouten. Deze kennis maakt toekomstige voorspellingen accurater, aldus de professor.

Het onderzoeksproject telt twintig onderzoekers met een achtergrond in computerwetenschappen en economie. Volgens professor Mansour kan het algoritme op veel gebieden ingezet worden. Zo zouden servers en routers efficiënter zijn in te zetten bij een plotselinge piek in het bezoek aan een website. Het project heeft de interesse gewekt van Google, dat twaalf van de twintig onderzoekers aan het project levert. De zoekmachinegigant ziet mogelijkheden om de advertentiediensten AdSense en AdWords te verbeteren met het algoritme.

Moderatie-faq Wijzig weergave

Reacties (41)

En wat is hier precies het verschil met statistische regressie, o.a. in gebruik in standaard Neurale Netwerken? Het feit dat je het na de trainingsfase blijft doen is geen vernieuwing...

Anderzijds, in de experimenten in Game Theory die in 1983 zijn uitgevoerd door Robert Axelrod (Alexrod, Robert (1984). The Evolution of Cooperation. Basic Books. ISBN 0465021212) wordt zo'n feedback mechanisme al gebruikt om de toekomstige strategie te bepalen.

In kort, ik snap het ophef niet.
Wat een vaag artikel. Er bestaan al allerlei algorithmes om computers te laten leren van hun fouten. Bijvoorbeeld neurale netwerken + backward propagation, nearest neighbour algorithm en nog veel meer.
Ik kan nergens uit het artikel opmaken wat er nu nieuw is. Ongetwijfeld zal dat er wel zijn, want bij Google zitten geen domme mensen .. :)
Jij hoeft niet aan elke scheet te ruiken. Je kan ook gewoon zo nu en dan je adem inhouden.

@i-chat, zodat hier hetzelfde niveau wordt behaald als op nu.nl of de reacties bij de telegraaf?

Wil je meer over een onderwerp weten, dan is verder (eigen)onderzoek nodig. Vele van de onderwerpen die hier voorbij komen zijn simpelweg niet eenvoudig in makkelijkere termen uit te leggen. Zou je dit wel gaan proberen dan krijg je ellenlange teksten waar ook (bijna) niemand vrolijk van wordt.

[Reactie gewijzigd door GateKeaper op 14 april 2011 17:06]

Ik denk dat de frustratie zit in het feit dat velen hier net zo hard scheten laten. Scheten die vervolgens niet de pers halen. De gegeven beschrijving is niet meer dan larie voor dingen die al bestaan. (Dit is geheel toevallig mijn vakgebied ;) )
Dit is geheel toevallig mijn vakgebied ;)
Scheten laten? :+
8)7 Het begint hier te stinken..
of iets beter uitleggen zodat mensen met meer it-kennis het ook snappen
Ik snap nog niet helemaal wat het nou met "spijt" te maken heeft. Is het zoiets als: de computer "leert" wat hij vroeger heeft fout gedaan, zodat hij daar "spijt" van krijgt en het in de toekomst beter doet?
Denk aan het volgende:

1. Gebruiker zoekt op zoekterm
2. Google komt met resultaten (duh)
3. Uitkomst is niet wat bezoekers verwacht (gebruiker zapt direct naar pagina 2 bijvoorbeeld)
4. Als er dan weer gezocht wordt door deze gebruiker op dezelfde zoekopdracht dan wil google betere resultaten tonen.

Google (of welke partij dan ook) moet dan de actie van de gebruiker interpreteren en verwerken in de uitkomst van de 2e zoekopdracht.

In het kort: Virtual regret is een onderdeel van de techniek achter behavioral targeting.

praktisch voorbeeldje:
De relevantie van een pagina wordt geautomatiseerd bekeken. Het wat slimme SEO kan je bepaalde pagina, zoals die vervloekte vergelijkingsites, hoog in google krijgen. Maar als vervolgens 99% van de gebruikers niet klikt op deze resultaten dan klopt er iets niet... gevolg: deze resultaten zijn niet gewenst (ondanks dat ze kloppen met de zoekopdracht) en moeten dus lager worden inschaalt.

(disclaimer: het onderzoek is niet gericht op het verbeteren van google. Het voorbeeld wat ik hier schets is een mogelijkheid waarvoor google het kan gebruiken. Het totale onderzoek is veel breder, maar dat google je zelf maar)

[Reactie gewijzigd door -RetroX- op 14 april 2011 16:36]

Hoe is dit anders dan normaal machineleren? Ik zie het verschil nog niet helemaal...
'gewoon' machineleren gaat uit van beloning/positive reinforcement. deze nieuwe manier gaat dus andersom kijken, en negatieve situaties proberen te voorkomen voortaan. :)
lol je geeft waarschijnlijk een erg acurate beschrijving voor iemand die het niet snapt..
het is toch niet zo moeilijk om te snappen dat een computer rekening gaat leren houden met fouten in voorspellingen uit het verleden. een webbrowser die leert inschatten wat je volgende pagina zou kunnen zijn en dezen alvast in je cash laden. ga je die dan ook echt lezen dan krijgt dat voorspellings algarytme -1 spijt (of +1 karma, is maar net hoe je er naar wilt kijken,) het verschil zal hem zitten in de vraag waar je die +1 of -1 op wilt toepassen.

is dat op 'het resultaat, of op het gebruikte rekenwerk. in het eerste is het meer en vorm van page ranken, en het 2e een vorm van bewustwording, en in dat laatste geval is 'spijt' niet eens zo'n gekke benaming...
Leuk, maar men zal toch nog altijd dat soort zaken moeten programmeren. Als je software niet weer waar het op moet letten (patroon herkenning van state gerelateerd aan tijd), zal het dat echt niet spontaan gaan doen.
Dat is nu juist waar vele wetenschappers op dit moment druk mee zijn. De computer zichzelf laten leren!

Op dit moment moet alles voorgeprogrammeerd worden ja, hetzij volledig of patronen. Het wordt dus de kunst om de computer zichzelf patronen / algoritmes te laten leren.

Jij kan toch dingen combineren en tot nieuwe nog onbekende oplossingen komen? Waarom zou een computer dat niet kunnen? Wij moeten enkel nog ontdekken hoe wij de computer kunnen voorzien van een "brein" dat in staat is om zelf dingen te leren.
Op dit moment moet alles voorgeprogrammeerd worden
Kijk eens op http://en.wikipedia.org/wiki/Machine_learning
Programma's die zelf leren bestaan al en worden op allerlei gebieden al toegepast. Bijvoorbeeld in zoekmachines, voor spraakherkenning, of onlangs nog door IBM met hun Watson computer.
Bijvoorbeeld in zoekmachines,
Maar daarvoor zijn wel (hele dure) algortimes geschreven. Op dit moment zal de (google) searchengine zichzelf geen andere manier van informatie verzamelen op het moment dat jij niet tevreden bent met de resultaten die hij je voorschoteld.

Wel houdt hij bij of jij op bepaalde linkjes klikt, en zal voortaan vergelijkbare sites aan jou tonen, maar dit is vooraf bepaald door de software engineer.

"Klik bezoeker vaak op type a? Dan moet jij type a vaker voorschotelen dan type b".

Het wordt dus de kunst om te zeggen, "zorg dat gebruiker deze site tevreden verlaat". Om de beslissing over hoe dat dient te gebeuren vervolgens aan de pc over te laten.

Conclusie, echte AI bestaat nog niet, om dit moment zijn er enkel hele mooie complexe algoritmes bedacht.
"De zoekmachinegigant ziet mogelijkheden om de advertentiediensten AdSense en AdWords te verbeteren met het algoritme."

Krijgen AdSense en AdWords dan spijt dat ze constant ongewenste reclame lopen te spuwen naar al die internetgebruikers?
Ik denk dat ze jouw reactie op advertentie's beter willen voorspellen door te kijken naar de advertentie's waaraan je in het verleden het meeste hekel had.

Zodat je hopelijk de nieuwe advertentie's wel waardeert waardoor ze meer geld kunnen vragen voor hun produkt.
Juist. Niets nieuws dus. Het enige nieuwe eraan is dat ze het "spijt" noemen om de indruk te wekken dat het hier om speciale algoritme gaat. Dat lijkt me niet het geval. Maar goed, wachten we de publikaties maar af...
Nee, het zoekt de snelste weg naar je pc zodat het eerder door je browser geladen word dan de rest van de site :p
En hoe is dit anders dan het vergelijken van een schatting met ground-truth en dan deze fout terug te koppelen? Het is voor mijn gevoel niets anders dan online learning/boosting waarbij de classifier steeds beter getrained raakt.

Ik denk dat we deze in het hoekje: "noem het anders middels een modewoordje en vraag opnieuw subsidie aan voor hetzelfde onderzoek" ;)
Volgens mij is 'spijt' (zoals het in het artikel bedoeld wordt) dé reden dat je bij AI spreekt over intelligentie. Anders zou het alleen maar 'kennis' zijn.
Als ik het goed heb is de Turing-Test ook gebaseerd op dit principe.
Overigens blijf ik het raar vinden dat de eigenschappen van een machine met menselijke woorden benoemd worden. Ik bedoel: Dit is een heel andere manier van 'spijt hebben' dan wanneer een kind dat heeft (hopelijk) nadat hij een snoepje gestolen heeft.
Het hebben van spijt en andere emoties is datgene wat een mens uniek maakt, in relatie tot machines. Ik geloof niet dat dat geprogrammeerd kan worden in welke machine dan ook. Het wordt op zijn best een 'toneelspel van de emotie'; enecht; emotieloos dus.
Het nieuwsartikel maakt weinig duidelijk achter de vernieuwing. Dat het hier over een zelf lerende en bijsturend algoritme ging is weinig nieuws (bv. branch prediction heeft een statische achtergrond die adaptief is aan de situatie).
Ik vroeg me al af waarom er economen onder de onderzoekers aanwezig waren, maar als Google het algoritme wil gebruiken voor zijn adsense en adwords dan word het wel duidelijk.
Maar wat houd virtuele spijt nou precies in? Iets anders dan dat je router sorry zegt bij een 404 mag ik hopen :p

Edit: In de bron staat dat computers leren van fouten. A;s een routing server bijv. erg druk blijkt altijd op een bepaald moment van de dag/week kan het verkeer er beter omheen geleid worden om zo de load te verdelen bijv. De bron noemt het ook ff hindsight wat ik veel beter vind passen bij wat dit moet doen :p

[Reactie gewijzigd door svenk91 op 14 april 2011 16:22]

Captain Hindsight to the rescue!
Voor de mensen die de referentie niet snappen, kijk deze aflevering van South Park.
Behalve dat een router geen spijt hoeft te hebben van een 404. Dat Apache daar voor door het stof gaat a la..
wanneer gebeurt dat nou helemaal ? Pfff
Dat klikken op een adword in je Gmail box? Niet. Gmail zit lekker in Mail, en dus geen adwords.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True