Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 151, views: 34.305 •

IBM heeft zijn supercomputer met kunstmatige intelligentie Watson gedemonstreerd aan de hand van een testspelletje Jeopardy tegen twee topspelers. De computer, waaraan 25 IBM-onderzoekers 4 jaar hebben gewerkt, won de match.

IBM beschrijft Watson als een 'analytisch computersysteem dat is gespecialiseerd in de menselijke taal en complexe vragen snel kan beantwoorden'. Het systeem kan als opvolger van Deep Blue worden gezien, in die zin dat die supercomputer een mijlpaal bereikte door in 1997 schaakkampioen Gary Kasparov te verslaan en dat deze keer Jeopardy als strijdtoneel dient.

Watson is een bundeling van 10 IBM Power 750-servers, die in totaal over 15TB ram en 2880 processors beschikken. Belangrijkste onderdeel is echter de DeepQA-software, die de waargenomen menselijke spraak verwerkt en informatie opzoekt. Watson moet hierdoor vragen kunnen 'begrijpen' en antwoorden zo snel mogelijk in zijn database van 200 miljoen pagina's kunnen vinden.

Bij de testmatch beantwoorde Watson de eerste vier vragen als eerste correct, schrijft Wired, en ondanks verwoede pogingen van de andere twee deelnemers, won de supercomputer de ronde met een verschil van 1000 dollar. Begin februari vindt de echte competitie tussen de drie plaats, waarbij een hoofdprijs van een miljoen dollar is te winnen. IBM heeft beloofd het prijzengeld aan een goed doel te doneren; de twee menselijke deelnemers doneren de helft van het geld als ze winnen.

Reacties (151)

Reactiefilter:-11510150+196+215+30
Erg knap.. maar wat zegt het over het menselijke brein dat je zoveel computerkracht nodig hebt om dit te doen?

[Reactie gewijzigd door Bigs op 14 januari 2011 16:28]

Het probleem is dat er over het menselijk brein eigenlijk nog te weinig bekend is om er ook maar iets van te begrijpen. :)
dat het efficiŽnt is :P
maar is dit niet gewoon een brute force manier van a.i. na bootsen?
a.i. nabootsen
Dat lijkt me een pleonasme...

Overigens gebruikt juist het menselijke brein de brute force methode.
An estimate of the brain's processing power, based on a simple switch model for neuron activity, is around 1014 (100 trillion) neuron updates per second.[37] Kurzweil looks at various estimates for the hardware required to equal the human brain and adopts a figure of 1016 cps.[38] He uses this figure to predict the necessary hardware[39] will be available sometime between 2015 and 2025, if the current exponential growth in computer power continues.
(Kurzweil, 2003)

Watson is 130.000 keer minder krachtig dan een menselijk brein, dus brute force is niet op z'n plaats (hoewel het menselijk brein ook andere taken moet uitvoeren).
in principe moet je het systeem eerst alle woorden leren en hoe je deze kunt benutten & plaatsen, dan heb je alleen nog maar de taal..

probeer dan nog maar ok eens het spreken, vertalen, rekenen, etc in te bouwen 8)7
Rekenen kunnen ze al ;)
01010011100011001111000
Dit is een beetje een kortzichtige quote. Het klopt dat het menselijk brein door de parallelle verwerking van data een enorme rekencapaciteit heeft die je zou kunnen proberen te vergelijken met CPU's. Het idee dat we slechts snellere computers nodig hebben loopt echter mank door het volgende:

Neuronen zijn in vergelijking met CPUs enorm traag, ze 'lopen' ongeveer op maximaal 200 hz. Dit betekent dat als een mens een zin begrijpt (zeg dat dat een halve seconde duurt) er een programma van maximaal 100 stappen word gedraaid door ons brein (parallelle verwerking veranderd hier niets aan). CPU's kunnen in 100 stappen misschien net een letter op je beeldscherm tonen. Ons brein verwerkt data toch echt op een veel efficiŽntere manier. Om computerprogramma's te schrijven die op een zelfde manier 'begrijpen' als wij dat doen zal er een totaal andere manier moeten worden gezocht.

[Reactie gewijzigd door Vleer op 14 januari 2011 17:25]

helaas kunnen hersenen dan weer niet in Hz uitgedrukt worden, en is deze verder leuke vergelijking niet echt van toepassing.

Eigenlijk is dit idd gewoon faken; hij "denk" niet, ervaart (dus) ook geen spanning, maar hij checkt gewoon welke woorden gezegd worden, welke functie die woorden hebben, en vertaalt dit even naar een query.

Natuurlijk is het wel heel knap dat hij het zo verstaat. Ik Jeopardy al eens aan het werk gezien, maar toen was hij niet echt in topvorm. Als hij de vraag begreep, had hij telkens een antwoord paraat, maar soms leek het wel of hij Jules de la Tourette had als je hoorde wat eruit kwam.
"helaas kunnen hersenen dan weer niet in Hz uitgedrukt worden, en is deze verder leuke vergelijking niet echt van toepassing." Oh zeker wel. Een zenuwcel doet er ongeveer 5 milliseconde over om van staat te veranderen. Je kan dus stellen dat er nooit meer 'bewerkingen per seconde' kunnen plaatsvinden dan 200, oftewel 200 hz :)
Natuurlijk kan je dit niet zomaar vergelijken met de 200 hz van een CPU maar dit zegt wel iets over de efficiŽntie van het brein (namelijk dat die vele malen groter is dan onze nabootsingen)

[Reactie gewijzigd door Vleer op 14 januari 2011 18:29]

Het punt is denk ik eigenlijk dat je niet zo snel een bepaalde informatie of verwerkingswaarde kunt bepalen voor een enkele neuron.
Zo is de communicatie welliswaar gequantiseerd, de waardes die overgedragen worden en de verwerking daarvan is 'analoog'.
Verder komt een groot deel van de werking, en dus de intelligentie, voort uit de manier waarop de zenuwcellen zijn georganiseerd.
Het uitdrukken in Hz vertelt je dus niet zoveel over het verwerkingsvermogen van de hersenen.
Integenstelling koelpasta, zegt dit juist iets over het verwerkingsvermogen van het brein.
Intelligentie is echter niet alleen afhankelijk van die factor net zoals bijvoorbeeld een CPU tegenwoordig ook niet meer te peilen is op de hoeveelheid Ghz.

Heel interessante stelling die je geeft Vleer! Zo had ik er nog niet naar gekeken.

[Reactie gewijzigd door ro4sho op 14 januari 2011 20:08]

ja maar dat zijn zenuwcellen, dit gaat over hersencellen. Zenuwcellen ligt totaal anders aangezien die zich in 2 staten kunnen bevinden. Hersencellen zijn de enige cellen in het lichaam die zich nooit delen!! (hersentumoren zijn ook tumoren van de weke delen --> simpel gezegd huid, kraakbeen)

Het menselijk brein maakt acties/reacties vanuit prioriteit, verband, kennis ervaring inlevingsvermogen, sociale/maatschappelijke/individuele --> drang,ervaringen, emoties enz.

Dat gebeurt soms in een fractie. Als je dit wel gaan doen met een computer moet je niet 1 gpu hebben maar wel honderden.

Daarnaast heeft een pc geen hormonen. Dit zijn slechte eigenschappen misschien maar tegelijk ook goede!

Immers die pc heeft geen vrouw die thuis op de bank zit en denkt als ik 4000 dollar heb wat ga ik er mee doen ;) :P
hersencellen zijn zenuwcellen
Hersencellen kunnen zich wel degelijk delen. Granule cells bijvoorbeeld, een type neuron wat je bijvoorbeeld in je olfactory bulb vindt verversen zich naar ik meen grofweg elke twintig dagen.

Hormonen zijn weinig meer dan effecten op grotere schaal, zo heeft het brein nog wel meer manieren om lokale activiteit naar een ander gebied te brengen (via gamma-waves bijvoorbeeld, meer coherentie in de firing rate van slechts een paar neuronen lijkt synchroon vuren en phaselocking te bevorderen in een heel gebied). Dat alles valt eigenlijk nog wel prima te simuleren - het zijn de grotere schaal structuren die lastig zijn (al lijkt de neuron-based geheugen implementatie van ACT-R de goede kant op te gaan).

De vraag die je je eigenlijk moet stellen is niet of we neuronen en neurofysische processen kunnen nabootsen. Wat pas echt interessant is is de vraag of dat noodzakelijk is voor intelligentie. Ik weet het antwoord op die vraag in elk geval niet :)
Zenuwcellen zijn net geen hersencellen. En hersencellen kunnen zich zeker niet delen!! Als dit wel kon heb je in 1 klap het Alzheimer probleem opgelost!!! ;) Ik weet dit zo goed als zeker (op mijn werk doen ze stamcel onderzoek. Voor de zekerheid vraag ik het even na!!)
deze vergelijking gaat nog steeds niet op naar mijn mening. het uitdrukken van hersencellen in Hz veronderstelt dat, net als in een CPU, hersencellen synchroon, op een bepaalde frequentie werken. Dit is niet het geval, neuronen zijn op zichzelf staande eenheden. Het lijkt me dat je niets kunt stellen over de verwerking van hersens in termen van Hz. tenzij je meer weet over de organisatie van neuronen en de timing van neuronen ten opzichte van elkaar.
Eigenlijk is dit idd gewoon faken; hij "denk" niet, ervaart (dus) ook geen spanning, maar hij checkt gewoon welke woorden gezegd worden, welke functie die woorden hebben, en vertaalt dit even naar een query.
Een beetje een filosofische vraag, maar wat is "ervaren"? Dat verwerken tot querie doet het menselijk brein toch ook, al is het op een totaal andere manier? Als "faken" betekent dat hij het net zoals een mens moet doen dan kan je niet anders dan faken, het is immers geen mens en al maak je een pc met neurale netwerken dan heeft die nog steeds geen hormonen en andere fysiologische eigenschappen die de computer gevoel geven. Je kan enkel zeggen dat deze computer het nog erg inefficiŽnt doet, aangezien er ontzettend veel ruimte en energie nodig is voor hetzelfde resultaat als een brein, terwijl een brein klein en fijn is.
Watson doet het idd een beetje op basis van woordverbanden analyseren en daar een query op uitvoeren. Beetje extra syntax toegevoegd ("let's finish chicks digg me") voor het menselijke gevoel.. Het zal nog wel een decennium (of twee) duren voordat het menselijk brein voorbij wordt gestreeft, maar het gaat zeker gebeuren.

Het is overigens Gilles de la Tourette, niet Jules...
Je vergelijkt hier een complete CPU met miljoenen transistoren met een enkele neuron.
Je kunt ook een CPU met een neuraal netwerk niet goed vergelijken.

Een CPU verwerkt instructies hoofdzakelijk achterelkaar, terwijl een neuraal netwerk dat parallel doet.

Vandaar dat wij als mens heel snel bijvoorbeeld een beelden kunnen interpeteren want we kunnen al die neuronen tegelijk inzetten.

Een CPU moet dat hoofd zakelijk per pixel doen, wij mens doen dat via snelle 'filters' en miljoenen neuronen tegelijk.
Paralelisatie is op zich niet persee het antwoord.
Wij hebben in onze hersenen ook heel vee lalgoritmes ingebouwd om zaken als zicht en gehoor in goede banen te leiden. Zonder deze structuren zouden we niks hebben aan onze parallele processors. En het mooie is dat door de miljoenen jaren evolutie die algoritmes best wel efficient zijn.
Ons brein verwerkt data toch echt op een veel efficiŽntere manier. Om computerprogramma's te schrijven die op een zelfde manier 'begrijpen' als wij dat doen zal er een totaal andere manier moeten worden gezocht.
Errm.. Hoevel miljarden en miljarden cellen zijn daar voor nodig? ;)

Zů efficient is het dus niet ;)
Toegegeven, er wordt een hoop gedaan op de energie van een boterham ;)
Het brein doet ook wel een pak meer dan alleen maar vragen antwoorden en cognitief denken. Het is verantwoordelijk voor image-processing en andere sensing mogelijkheden, real time en parallel, wat nog altijd ongeŽvenaard is door computers. De ogen zijn van de grootste verbruikers van het menselijk brein. Als men ze sluit ziet men de hersenactiviteit enorm dalen.
Dan heeft men nog het controller gedeelte, dat ervoor zorgt dat we actief kunnen bezig zijn. En dan pas komt intelligentie. De efficientie van ons brein is nog lang niet geŽvenaard, zelfs al zouden de mensenlijke tegenstrevers verliezen. Maar toch een mooie sprong voorwaarts.
Brute Force is ook een manier van A.I. Het enige verschil is dat het maar 1 optie kent...
Een menselijk brein denkt 'parallel' meerdere opties uit (onbewust)

Als je een computer maar genoeg mogelijkheden geeft om 'over na te denken' word hij vanzelf 'intelligenter'.

Maar we weten niet precies hoe je brein precies parallel denkt, dus kunnen we die efficiŽntie nog niet geheel nabootsen...
Wat je bedoelt klopt idd, maar je verwoording"dit is een manier van AI nabootsen" is fout: Dit is nu eenmaal AI: intelligentie nabootsen door kennis exhaustief te gebruiken adhv heuristieken die het geheel efficiŽnter maken.

Juist is "Dit is een brute force manier van intelligentie na bootsen", dat is nu eenmaal AI.
Dat is geen AI, want de I staat voor intelligence. 50 miljard schaakzetten per seconde doorrekenen noem ik geen intelligentie, maar gewoon brute rekenkracht gestuurd door een relatief eenvoudig stukje software.
Waarschijnlijk is de code iets slimmer dan dat. Je mag er vanuit gaan dat ze bij IBM zowel naar de software als naar de hardware kijken.

[Reactie gewijzigd door Zcuu op 15 januari 2011 05:58]

Ik bagetalisseer het ook maar. Natuurlijk zal het wat slimmer in elkaar zitten, maar het blijft gewoon domme kracht. Een mens, die maar een paar zetten vooruit denkt, kan de computer met een paar miljoen keer meer rekenkracht nog steeds verslaan.

Het is intelligentie als je met het doorrekenen van zetten ook echt intelligent omgaat, net zoals de menselijke schaakmeesters.
IBM gaat echt geen miljoenen, misschien wel miljarden, steken in onderzoek naar A.I. om zichzelf daarbij in de maling te nemen en gewoon ff 50 miljard schaakzetten doorrekenen. Ik neem aan dat dit ook gewoon wetenschappers zijn die met A.I. technieken tot een zo goed mogelijk resultaat willen komen.
AI is niet bepaald een brute force manier om intelligentie na te bootsen.
Het systeem zal toch een manier moeten hebben om die 200 miljoen pagina's op een slimme manier te doorzoeken, of denk jij dan ook dat hij bij iedere query weer bij index == 1 begint?

Bovendien is dit niet zoiets als de sleutel van een encryptie kraken, maar gaat het om bijzonder complexe interpretaties van onze taal als invoer gebruiken, de semantische samenhang van de verschillende zinsdelen snappen, het generaliseren tot een voor de machine begrijpbare (formele) uitdrukking, en vervolgens alle algoritmes toepassen die er voor zorgen dat hij binnen no-time zijn hele kennisbank kan doorzoeken naar dat ene relevante feitje.

Dit gaat om een dynamische omgeving waarbij weliswaar de omgeving niet verandert terwijl het apparaat aan het doorrekenen is, net zoals bijvoorbeeld bij autorijden, maar waar er toch een behoorlijk grote tijdsdruk ligt om op tijd het antwoord tevoorschijn te toveren, wat je met brute-force nooit een keer op tijd zou lukken.

[Reactie gewijzigd door Struikrover op 15 januari 2011 13:43]

Dat is nou weer een van de weinige dingen waar men dus wel weer enigszins zeker van is; de mens gebruikt de hersenen nog lang niet op volle capaciteit, de discussie daarin is volgens mij nu dat het niet mogelijk zou zijn... En onze hersenen zijn sowieso niet efficiŽnt want er zat dingen zijn die wij als mensen ONMOGELIJK tegelijkertijd kunnen, iets waar een computer weer veel minder moeite mee heeft/kan hebben. Een praktisch voorbeeld: de verwachting is dat we binnen 20 jaar zelfsturende auto's hebben die beter kunnen autorijden dan dat we zelf kunnen. Een computer met de juiste toebehoren kan bijvoorbeeld wel continue 360 graden zicht hebben, zal efficiŽnter met het gaspedaal omgaan, altijd de meest efficiŽnte route rijden, etc etc
dat een computer sneller reageert betekend niet dat hij daardoor intelligenter is.
Nee, maar wel beter in een specifieke taak :)
kijk bijvoorbeeld naar irobot, ik weet dat is natuurlijk fictie. maar wat daar gebeurt is dat een computer kans gaat berekenen en daardoor niet altijd het beste doet.
Definitie van beste alsjeblieft? Misschien is mijn beste wel wat anders dan jouw beste en nog wat anders dan wat een computer als beste zou berekenen...
Dat beweer ik toch ook niet? En dat ligt er maar ook aan hoe je die intelligentie bekijkt, als een computer bepaalde taken vele malen sneller dan een mens kan, dan is de computer op dat vlak toch intelligenter dan een mens?
"Dat is nou weer een van de weinige dingen waar men dus wel weer enigszins zeker van is; de mens gebruikt de hersenen nog lang niet op volle capaciteit,"

Gaat zeker over dat we maar 5% van onze hersennen gebruiken?
Dat blijkt een fabeltje te zijn.
We gebruiken nooit meer dan zoveel procent TEGELIJK.
Maar dat komt omdat informatie als het ware door onze hersenen golft en van het ene stukje naar het volgende geleidt.

We gebruiken dus redelijk het maximale.
Nu zijn er mensen die bijzondere dingen kunnen zoals de wortel van 22373 in een seconde uitrekenen, maar die gebruiken niet echt meer hersenen.
Blijkbaar heeft intelligentie niet persee met capaciteit te maken.
De efficientie van de algoritmen die ontstaan door de verbindingen spelen een belangrijke rol, mischien wel belangrijkere dan puur de capaciteit.
Klopt, het zijn vooral die algoritmes die het menselijk brein zo efficiŽnt maken.
Daarbij heb je nog eens dat jezelf die algoritmes kunt verbeteren / aanpassen. Denk maar aan het truukje om met je linkerhand in wijzerzin een cirkel te maken op je buik en met je rechterhand in tegenwijzerzin op je hoofd. Eerst lukt het je niet maar als je even concentreert en je brein wijsmaakt dat je handen niet synchroon moeten bewegen lukt het plots wel.
De wortel van 22373 uit je hoofd doen is niet zo bijzonder... je weet de wortel van 2, 1.414etc is (hoop ik)... en dus weet je al dat het meer dan 141,4 is. Dit is gewoon te leren en hoe vaker je dit soort dingen uit je hoofd doet hoe eenvoudiger het wordt. Het gaat er gewoon om dat je de 'tabellen' in je hoofd hebt zitten.
Wat zegt dit over de impact van de onvermijdelijke ontwikkeling dat over een jaar of tien dit de specs van je smartphone zijn.
als we deze exponantiŽle curve blijven volgen misschien wel al sneller dan 10 jaar
Technologie gaat hard, maar laten we niet overdrijven.
Watson is een bundeling van 10 IBM Power 750-servers, die in totaal over 15TB ram en 2880 processors beschikken
Het equivalant daarvan zie ik in 10 jaar nog niet in smart phones verschijnen.
Ach, als we het geheugen afronden op 16TB, en het huidige geheugen van smartphones even op 1 GB stellen, dan scheelt het een factor 16.000, oftewel 2^14. Met een verdubbeling elk jaar dus 14 jaar; met een verdubbeling elke 18 maanden 21 jaar.

Dus inderdaad nog niet over 10 jaar, maar 1 TB in je telefoon is over 10 jaar niet uit te sluiten...
maar bij een high end pc (als die er nog zijn) zou ik niet raar staan te kijken.
Ik denk dat deze logica niet opgaat.

Laten we 10 jaar terug gaan in de tijd. We hadden het toen over het verbreken van de magische 1.0 Ghz-grens. De processoren volgden elkaar op met kleine stapjes. Toen kregen we de 2.0 Ghz en niet veel later de 3.0 Ghz. Men riep toen dat "het niet lang meer zou duren voordat we 4 Ghz zouden hebben", -"mits het warmteprobleem zou worden opgelost"-.

We zijn nu jaren verder en niemand heeft uit de fabriek een 4.0 Ghz in zijn pc zitten. Dat hoeft ook helemaal niet. We zijn overgegaan op hyperthreading en multi-core, ťn een batterij aan technieken die op een lagere kloksnelheid meer prestatie weet te leveren.

Een jaar of 5 geleden kwamen de dual core's op de markt. Ook toen riepen mensen dat we telkens meer cores zouden gaan krijgen. Van dual gingen we naar quad, er kwam tripple en we kennen inmiddels ook hex en oct. Voeg er HT aan toe en je ziet 8, 12 of 16 cores. En nu ziet men toch wel in dat oneindig toe blijven voegen van cores nauwelijks winst oplevert bij reguliere applicaties. In een server leuk, vanwege het extreem hoge aantal processen. Bij normale gebruikers of smartphones, nee.

Zo zie ik ik zo'n zijstraatonwikkeling bij geheugen ook nog wel gebeuren. De geschiedenis leert ons dat meer van hetzelfde op een gegeven moment zijn limiet bereikt, maar dan de deur openzet naar een alternatief pad. Ik betwijfel ten zeerste of we over 10 jaar Łberhaupt een TB aan geheugen in desktoppc's gaan krijgen. 4 GB is anno 2011 voldoende voor alle applicaties. Want daar gaat het immers om. Zelf gebruik ik 12 GB voor virtuele machines, complete pc's in een pc. Maar dat is al geen standaardgebruik meer.

De geheugenstijging zal nog wel door blijven gaan, maar ook daar komt een zinnig limiet aan. Een tekstverwerker heeft nu eenmaal een bepaalde taak, en kan niet extreem groeien door slechts functionaliteiten. Hetzelfde geldt voor een browser. De geheugenaanvragen worden steeds hoger, maar hoever denk je dat dit gaat?

Waar jij een -verdubbeling- elkaar jaar vandaan haalt is me een raadsel. Met een vermeerdering ga ik akkoord.
Bedenk ook: tien jaar geleden had een computer met Windows XP 256 MB, of 512 MB als je geluk had. Nu, tien jaar later, is 2,5 GB niet ongewoon, maar 5 GB is al dat men zegt "goh, dat is ruim". Laten we nog een factor tien toepassen in de komende 10 jaar: 50 GB. Dat is bij lange na nog geen TB. Dat is immers 1000 GB.

[Reactie gewijzigd door Eagle Creek op 15 januari 2011 00:45]

Waar jij een -verdubbeling- elkaar jaar vandaan haalt is me een raadsel. Met een vermeerdering ga ik akkoord.
Het is een verdubbeling om het anderhalf jaar (http://en.wikipedia.org/wiki/Moore's_law). In 2026 zit je dus op 1024 keer meer dan vandaag, oftewel een 12 TB high-end (afgaande van jouw huidig RAM-geheugen ;) ).

[Reactie gewijzigd door Dooievriend op 15 januari 2011 02:01]

dat klopt maar dergelijke dingen kunnen ook in de cloud werken ipv op je telefoon. en dan hoeft je alleen maar de server waar alles op draait te verbeteren.
google heeft met conversation mode al aangetoond dat dit prima werkt als je de info stuurt naar een server op afstand. het mag misschien niet zo snel zijn maar die 3 seconden die het extra duurt maakt die onrealistische telefoon overbodig.

ik vrees echter wel dat als dit soort technologie op clouds gaat draaien en toegankelijk wordt gemaakt aan het grote publiek dat de servers van nu niet voldoende zijn om alles te verwerken.
zie het idee als de toekomst van google. waarschijnlijk krijg je dan in die 3 sec wachttijd wel iets van reclame te horen 8)7
Je vergeet een ding: als de software vooruitgaat (wat ik wel mag hopen in 10 jaar) heb je waarscheinlijk minder rekenkracht nodig voor hetzelfde resultaat.
Dat wij dingen anders verwerken dan een computer.

Hier laten ze gewoon een "Breinsimulator", en ja dat kost meer energie omdat hij het niet efficiŽnt kan doen.
Andersom werkt het ook, vraag je aan een rekenmachine wat 3232x67567 is geeft ie meteen een antwoord, een mens doet daar langer over.

Zie ook dit:
http://www.youtube.com/watch?v=XtGf0HaW7x4
Strikt genomen is dit ook exact wat ze hier hebben herhaald, alleen een anders geformuleerde som. Alleen als het in het geheugen staat , is de PC sneller. Een intuitief antwoord zal het nooit kunnen geven.
Een intuitief antwoord zal het nooit kunnen geven.
Geef het genoeg tijd, en dan kan het antwoorden geven die je niet kan onderscheiden van een intuÔtief antwoord ;)
dat slaat op niets: een zoekactie, bv het beantwoorden van een vraag, is iets helemaal anders dan een bewerking zoals een som:
de oplossing van die som zit niet in het geheugen maar wordt gewoon berekend, en dat berekenen kan een computer nu eenmaal erg snel, en ongeveer elke som (binnen het bereik van de CPU-specs natuurlijk zodat er geen overflow is) kan worden berekend. Een zoekactie om een vraag te beantwoorden is iets helemaal anders: als het antwoord van die ene specifieke vraag niet in het geheugen zit kan de vraag niet beantwoord worden.

Die zoekacties nemen echter ook helemaal niet zoveel tijd en rekenkracht in: waar de rekekracht in AI wordt voor gebruikt is het ontleden van natuurlijke taal naar iets dat de computer begrijpt, om zo de betekenis van de vraag te begrijpen. adhv die betekenis wordt dan erg snel naar een antwoord gezocht.

[Reactie gewijzigd door kiang op 14 januari 2011 16:54]

Dat maakt de vraag: wat is intuitie? En dan heb ik het niet over het (vrouwelijke) vermogen om binnen een split second de verkeerde beslissing te nemen.

Achter intuitie zit altijd een lading ervaring en kennis. Als je je zou verdiepen in de werking van Watson: veel parallelle processen die antwoorden genereren, welke worden afgewogen in waarschijnlijkheid, zie je dat het behoorlijk lijkt op hetgeen wij onder intuitie verstaan.
Verwacht van Watson geen absoluut antwoord: hij komt terug met het meest waarschijnlijke antwoord boven een bepaalde drempel. Of hij weet het niet zeker. Menselijk he? Sterker nog, hij "snapt" woordgrapjes en spitsvondigheden, aangezien deze ook deel uitmaken van het repertoire van Jeopardy.

Met deze kennis, staat je nog achter de stelling:
Een intuitief antwoord zal het nooit kunnen geven.
Ik zie het nog niet zo snel gaan met die AI.

Het verschil tussen menselijke intuÔtie en de intuÔtie van Watson is dat wij steeds weer andere mogelijkheden afwegen afhankelijk van de situatie. Bovendien is het per persoon anders welke mogelijkheden afgewogen worden, ook in dezelfde situatie.

Watson weegt gewoon altijd alles af, maakt niet uit wat de situatie is. En een 2e Watson weegt alles precies hetzelfde af.
Als Watson door 25 man gedurende 4 jaar zo ingenieus is ontworpen, en de meesten het erover eens zijn dat Watson slechts een simulatie is, zou ons brein dan geen ontwerper hebben gehad?

[Reactie gewijzigd door bverstee op 14 januari 2011 16:41]

Als onze ontwerper ons brein zo ingenieus heeft ontworpen, zou onze ontwerper dan geen ontwerper hebben gehad?

Aloude 'watchmaker analogy' (danwel paradox). Het modelleren / berekenen van natuurlijke processen is gewoon complex omdat de twee technieken volledig anders zijn. Zand laten vallen vanuit je hand is bijvoorbeeld eenvoudig - dit simuleren met een programma kost veel meer moeite, en hoe meer variabelen je meeneemt (wind, luchtweerstand, wrijving), hoe complexer en zwaarder dit wordt.

Zelfde met hersenen en allerlei andere natuurlijke processen. Da's gewoon lastig om digitaal te simuleren.

[Reactie gewijzigd door YopY op 14 januari 2011 16:45]

Als er een ontwerper was die ons brein zo ingenieus kon ontwerpen, zou die dan ook geen ontwerper gehad hebben? :+
Ontwerper: biljarden jaren stom toeval en 'ongelukjes' die plaatsvonden in een omgeving als de aarde die kon fungeren als breeding-ground. De kans dat het gebeurt; ontzettend klein. Geef het echter lang genoeg de tijd en onvermijdelijk gebeurt het een keer. En toch kan je er met je verstand niet bij :P
Vergeet niet dat er natuurlijke selectie plaatsvindt op de toevalligheden. Verkeerde toevalligheden werden eruit geselecteerd, goede werden doorgegeven. Niet puur toeval dus. :)
Dat is net als "intelligent design". Het probleem wordt niet opgelost, maar verschoven naar een "god". Als "god" ons brein ontworpen heeft, wie heeft dan die "god" ontworpen? Ergens in de geschiedenis moet iets uit niets ontstaan zijn en de kans dat dat vanzelf ging is groter dan de kans dat een "god" daar iets mee te maken had.
Ik acht de kans dat iets uit werkelijk niets ontstaan nul.
Er moet op zn minst de mogelijkheid bestaan dat er iets komt en die mogelijkheid is op zich ook iets...
Off topic maar bekijk de BBC documentaire What Happened Before the Big Bang eens.
Je trekt God binnen de aardse, menselijke denk principes. De idee over God is juist dat hij boven deze werkelijkheid staat. Een verklaring is dat God altijd al bestaat. Wetenschappelijk is dit onzin, maar ik vind het waarschijnlijker omdat 'iets bestaat uit niets' niet uit gaat van iets hogers. Dat biedt dus helemaal geen verklaring en uitgaan van iets bovennatuurlijks verklaart dat de verklaring niet op aarde is. Dat is in ieder geval iets.

Verder interessante ontwikkeling. Hopelijk wordt t ook toepasbaar in het dagelijkse leven.
Als Watson door 25 man gedurende 4 jaar zo ingenieus is ontworpen, en de meesten het erover eens zijn dat Watson slechts een simulatie is, zou ons brein dan geen ontwerper hebben gehad?
dan geeft die ontwerper grove fouten gemaakt. De sukkel.
Welke "designer" maakt 2 stembanden die aangestuurd worden door zenuwen die TOTAAL verschillend door het lichaam lopen?
De ene stemband vanuit de hersenen rechtstreeks, de andere via een omweg via de borstholte...
Amateur...

Om het maar niet te hebben over de afvoer gaten in onze schedelholtes...

[Reactie gewijzigd door LooneyTunes op 14 januari 2011 18:01]

Ja ok, maar hij was dan ook maar in z'n eentje en had maar een week de tijd. Cut the man some slack, ok?
_/-\o_

En dan nog wel een week in een eeuwigheid! ^^
Hij heeft wel meer patches uit kunnen brengen dan welke andere ontwerper dan ook :).
Ja ok, maar hij was dan ook maar in z'n eentje en had maar een week de tijd. Cut the man some slack, ok?
Voor een "al machtige" jezelf een week geven... Gebrek aan planning ook nog. Eeuwigheden niets doen, dan opeens overhaast ff een universum creŽren in een week en dan moe zijn op dag 7... Nee, ook dat zijn allemaal tekens van een overhaaste klus en broddelwerk...
Welke "designer" maakt 2 stembanden die aangestuurd worden door zenuwen die TOTAAL verschillend door het lichaam lopen?
Een slimme designer? Totaal redundant pad?

iets waar menig IT'er nog wat van kan leren?
Ehm, ik denk niet dat jij nog erg mooi zal zingen met 1 stemband.
Omdat jij of men iets niet begrijpt of het ergens mee eens bent is nog geen bewijs dat het geen goed 'ontwerp' is. Wij proberen hier het brein te reverse-engeren want we hebben de bron code niet. Het DNA ontrafelen is blijkbaar niet genoeg om ook ons brein te ontrafelen. Maar welk algoritme heeft de 'ontwerper' bedacht die zo ingenieus is als ons denken. En zou miljoenen jaren ons per toeval weer een ander brein geven? Of hebben bedrijven zoals IBM nog miljoenen jaren nodig om het menselijk brein na te bootsen met tig super computers die nog niet kunnen draaien op water en droog brood en compact in een levend organisme waar hij met heel weinig info (i.e. Baby) kan groeien tot dezelfde wijsheid en begrip als een volwassenen? Als het lukt onthoud dan dat mensen het hebben gemaakt zonder enige toeval.
"Erg knap.. maar wat zegt het over het menselijke brein dat je zoveel computerkracht nodig hebt om dit te doen?"

Dat de twee technologieen niet helemaal compatible zijn.
Computers zijn nou eenmaal slecht in dingen waar wij goed in zijn en andersom.
En we werken ook op andere princiepes.
En net zoals het inefficient is om een bepaalde architectuur te emuleren op een volledig andere architectuur, is het lastig voor computers om hersenen na te doen.
Heel gaaf dat dit al kan. Ik vraag me af wat voor intelligentie de Watson heeft als je het zou vergelijken met echte levende wezens. Dus kan deze machine zich meten met een hond bijvoorbeeld. De vraag is ook wanneer zullen deze machines zelf bewust worden... :)
De meeste supercomputers welke proberen de Turing test met succes te doorlopen gebruiken het internet als de database en analyseren de vraag. Met een heuristische scan kun je de resultaten van search engines analyseren en de 'antwoorden' welke het vaakst terug komen gebruiken als je eind antwoord.

Zeker bij een quiz waar er slechts 1 correct antwoord is (Wie schreef 'Sweet Caroline'), is dit type intelligentie als snel toereikend. De snelheid van het systeem bepaald dan in de grootste maten of wij dat zien als intelligentie.

Echter de Turing test heeft naast een aantal kennis vragen of een deel filosofische vragen zoals 'welke kleur vind je het mooist/" en daar vallen de meeste systemen door de mand omdat er geen goed of fout antwoord is, maar het systeem moet aangeven waarom dat antwoord is gegeven..
Zeker bij een quiz waar er slechts 1 correct antwoord is (Wie schreef 'Sweet Caroline'), is dit type intelligentie als snel toereikend. De snelheid van het systeem bepaald dan in de grootste maten of wij dat zien als intelligentie.
Een 'groot' probleem daarin is ook de vraagstelling ;) Want als jij vraagt "wie schreef Sweet Caroline", dan zal zelfs de beste supercomputer je (nog) niet begrijpen zonder meer input. Want: is 'Sweet Caroline' een boek, liedje, gedicht, film, etc? Zijn er misschien meerdere uitvoeringen of compleet verschillende versies van andere schrijvers waarvan de werken dus dezelfde titel dragen? Behalve dus een goed antwoord formuleren moet de computer ook weder vragen kunnen stellen om tot een goed antwoord te komen. Het moeilijke daarin is weer dat de computer dan niet simpel om meer input mag vragen, maar gerichte vragen moet gaan stellen. Kortom, het antwoord is eigenlijk niet zozeer het probleem...

Ook het antwoord op wat jij noemt 'welke kleur is het mooist' zal nog lang een issue blijven, want er bestaat idd geen goed of fout antwoord op... of eigenlijk in die zin helemaal geen antwoord. Je vraagt op zo'n moment naar de mening van een computer en dat is weer een paar stappen verder dan alleen het brein simuleren, daarbij komen emoties e.d. in het spel.

[Reactie gewijzigd door MicGlou op 14 januari 2011 18:06]

Hoe dan ook, het juiste atwoord is 42...
Een 'groot' probleem daarin is ook de vraagstelling ;) Want als jij vraagt "wie schreef Sweet Caroline", dan zal zelfs de beste supercomputer je (nog) niet begrijpen zonder meer input. Want: is 'Sweet Caroline' een boek, liedje, gedicht, film, etc? Zijn er misschien meerdere uitvoeringen of compleet verschillende versies van andere schrijvers waarvan de werken dus dezelfde titel dragen? Behalve dus een goed antwoord formuleren moet de computer ook weder vragen kunnen stellen om tot een goed antwoord te komen.
Nee hoor.

Films vallen af. Die "schrijf" je normaal namelijk niet. Van de rest kijk je naar de populariteit. Als ťťn werk verreweg het meest bekend (meer zoekresultaten, meer verkochte kopieŽn, etc) is dan kan je er veilig vanuit gaan dat dat de versie is waar de vraagsteller het over heeft. Als je nu wil zeggen "ja, maar dan weet je het niet zeker!", dan kan een mens de vraag evenmin beantwoorden, want die weet ook niet 100% zeker of we het niet over een of andere obscure vertaling van een Italiaans pocket romance boekje hebben.

Weet je wat pas moeilijk is? Time flies like an arrow. Wat wil dit zeggen? Mensen (die deze uitspraak kennen) lezen dit als: de tijd vliegt voorbij. Maar het kan ook betekenen dat tijdvliegen (een heel speciaal soort vlieg) van een pijl houden. Of dat je vliegen zou moeten timen zoals je een pijl timed. Of dat je vliegen zou moeten timen zoals een pijl dat doet. Of dat wanneer je het tijdschrift Time in de lucht gooit het vliegt als een pijl?

Ik vraag me dan ook af of Watson iets van die uitspraak zou begrijpen, ik gok van niet als deze niet in de database zit.

[Reactie gewijzigd door W3ird_N3rd op 15 januari 2011 00:09]

Een film wordt altijd eerst geschreven voor dat deze geschoten wordt, er kan dus prima bedoelt worden wie het script voor een bepaalde film geschreven heeft, ook genoeg films die op een boek gebaseerd zijn. De wedervraag zou dan dus kunnen zijn: boek of film? etc.

Wat jij omschrijft is dus wat men NIET wilt, dat het meest gevonden antwoord dan maar het beste is... nee, alleen het JUISTE antwoord en dat is lang niet altijd het antwoord met de meeste hits, zeker niet als de input heel summier is

Als ik die computer de vraag zal stellen: 'bekende Nederlands oud-voetballer jaren 60/70 met de voornaam Johan'. Dan zal volgens jouw beredenering logischerwijs het antwoord 'Johan Cruijff' zijn want dat is veruit de bekendste en meest besproken Johan uit die periode. Maar laat ik nou eigenlijk net op zoek zijn Johan Derksen... Dan zit de computer ernaast. De computer zal dan dus door moet hebben dat er meer informatie nodig is om het juiste antwoord te geven en moet gericht vragen stellen zoals: 'Speelde deze Johan bij Ajax of bij MVV' of zoiets dergelijks om een specifiek antwoord te kunnen krijgen.

Wat jij eigenlijk beschrijft is daarin een perfect voorbeeld, 'time flies like an arrow' kan idd meerdere interpretaties hebben. Het is dan de taak van de supercomputer van de toekomst om dus wedervragen te kunnen stellen of er een spreekwoordelijke of letterlijke betekenis etc etc. en dus niet zomaar het antwoord met de meeste hits als juist bestempeld.
Een film wordt altijd eerst geschreven voor dat deze geschoten wordt, er kan dus prima bedoelt worden wie het script voor een bepaalde film geschreven heeft, ook genoeg films die op een boek gebaseerd zijn. De wedervraag zou dan dus kunnen zijn: boek of film? etc.
Het is ongebruikelijk om een vraag over een film op die manier te stellen.

Als ik jou vraag: "Wie schreef The Lord Of The Rings?" dan lijkt het me logischer dat je me de naam van de schrijver van het boek geeft en niet de naam van degene die het script voor de film heeft geschreven. Van een (al dan niet artificieel) intelligent persoon/iets verwachten we dat in ieder geval.
Wat jij omschrijft is dus wat men NIET wilt, dat het meest gevonden antwoord dan maar het beste is... nee, alleen het JUISTE antwoord en dat is lang niet altijd het antwoord met de meeste hits, zeker niet als de input heel summier is
Er is geen alternatief.
Als ik die computer de vraag zal stellen: 'bekende Nederlands oud-voetballer jaren 60/70 met de voornaam Johan'. Dan zal volgens jouw beredenering logischerwijs het antwoord 'Johan Cruijff' zijn want dat is veruit de bekendste en meest besproken Johan uit die periode. Maar laat ik nou eigenlijk net op zoek zijn Johan Derksen... Dan zit de computer ernaast.
En dat is helemaal niet erg. Mensen maken de fout te denken dat AI maar in staat moet zijn om gedachten te lezen. Maar dan hoef je ook geen vraag meer te stellen.

Als je die vraag aan een mens zou stellen (natural intelligence) dan krijg je ook 'Johan Cruijff' terug in verreweg de meeste gevallen. Zijn al die mensen dan naturally stupid? ;)
De computer zal dan dus door moet hebben dat er meer informatie nodig is om het juiste antwoord te geven en moet gericht vragen stellen zoals: 'Speelde deze Johan bij Ajax of bij MVV' of zoiets dergelijks om een specifiek antwoord te kunnen krijgen.
Hier ga je alleen de fout in. Je mag bij Jeopardy geen wedervragen stellen. Dat is weer een heel andere tak van sport. Het doel hier was om een machine te maken die zoveel mogelijk het juiste antwoord kan geven Ťn de beslissing kan maken om niet te antwoorden als het niet zeker van zijn zaak is.

Wedervragen stellen kan een AI best, maar dat was hier niet het doel. Wedervragen stellen zou het waarschijnlijk zelfs makkelijker maken om vaker en met grotere zekerheid het juiste antwoord te geven.
Wat jij eigenlijk beschrijft is daarin een perfect voorbeeld, 'time flies like an arrow' kan idd meerdere interpretaties hebben. Het is dan de taak van de supercomputer van de toekomst om dus wedervragen te kunnen stellen of er een spreekwoordelijke of letterlijke betekenis etc etc. en dus niet zomaar het antwoord met de meeste hits als juist bestempeld.
Nee. In geval van de vraag naar een feitje is het vrij simpel een kwestie van het antwoord met de meeste hits selecteren omdat dat het meest waarschijnlijk hetgeen is wat de vraagsteller wil weten. Als wedervragen zijn toegestaan kunnen die natuurlijk worden gebruikt als de zekerheid te laag is of als er meerdere antwoorden mogelijk zijn. Net als een mens zal de AI echter zoveel mogelijk in staat moeten zijn om zelf uit te vissen wat de vraagsteller bedoelde zonder continue als een klein kind wedervragen te stellen tot het helemaal zeker is.

In geval van "Time flies like an arrow" zal het de truuk worden om de computer zover te krijgen dat hij gaat vragen "What do you mean with that?" om vervolgens het antwoord daarop ook echt te begrijpen. Je kan van een mens, in geval die mens niet weet hoe een vliegend Time magazine eruit ziet en of tijdvliegen bestaan ook niet verwachten dat die weet wat je wil zeggen met die uitspraak. Een alternatief is dat je de AI zover krijgt om bijvoorbeeld heel Wikipedia te lezen waarna de uitspraak "Time flies like an arrow" en de betekenis daarvan bekend moeten zijn.

[Reactie gewijzigd door W3ird_N3rd op 15 januari 2011 13:39]

Weten we zelf welke kleur dan het mooiste is, want als je naar het kleurenspectrum kijkt zijn er oneindig veel kleuren? Dus zelfs "blauw" omvat zeer veel frequenties. Zelf nemen we dus al genoegen met een benadering. Dan ga je kijken naar een equivalent numeriek probleem dat opgelost moet worden en daar geef je al de toleranties aan van het antwoord dat je wil, want anders krijg je geen eenduidig antwoord, maar blijft de comp. heel lang itereren..
De vraag is ook wanneer zullen deze machines zelf bewust worden... :)
Ligt maar net aan waar je de grens van zelfbewustzijn legt. Een machine dat voldoet aan de Turing-test zou zelfbewust lijken - zelf denkend, zelf antwoorden bedenkend, etc. Maar dat hoeft hij niet te zijn, zolang zijn gedrag niet voorbij de grenzen van zijn programmatuur gaat of kan gaan.
Intelligentie vergelijken is zowiezo moeilijk.
Om het nog simpel te houden (en bij "onderwijs" te blijven)
Wie is intelligenter? Iemand die de snaartheorie helemaal begrijpt, maar verder helemaal niks begrijpt (talen, biologie, scheikunde, economie etc.), of iemand die op al die gebieden een gemiddelde kennis heeft?

Deze watson is net zo goed een specialistisch systeem : hij kan goed jeapordy spelen, dat zie ik een hond nog niet doen.
Maar laat Watson een een foto van een bak met voer zien (uploaden), en watson zal er niks mee kunnen.
Vraag watson om achter een konijn aan te rennen (even aangenomen dat watson zou kunnen rennen :+ ), en deze te vangen waarbij ook nog eens allerlei obstakels herkend en ontweken moeten worden, terwijl het konijn zijn uiterste best doet te ontkomen...en het konijn zou waarschijnlijk op zijn gemak kunnen wegslenteren.
Ik denk vrijwel gelijk aan nul. Een computer kan geen problemen oplossen die niet in zijn software geprogrammeerd zijn. Dit kunnen mensen wel. Honden kunnen dat tot op bepaalde hoogte wel. Zo kan een hond leren hoe hij jou kan manipuleren of domineren.

Watson kan complexe taal analyseren en beantwoorden. Dat is gewoon een logaritme, en heeft niets met intelligentie te maken.
Een logaritme? Een algoritme bedoel je denk ik?

Taal "begrijpen" is echter een zeer complexe aangelegenheid, en ik ben best wel onder de indruk van de precisie en snelheid die bereikt is voor Watson. Wat wel zo is, is dat het format van de input wel behoorlijk standaard is. Dat maakt het een stuk eenvoudiger. Watson zal je niet kunnen helpen als je hem vraagt een om een samenvatting van een verhaal van 10 minuten dat hij net gehoord heeft. Dat is nu juist iets wat mensen wel kunnen.
Watson zal je niet kunnen helpen als je hem vraagt een om een samenvatting van een verhaal van 10 minuten dat hij net gehoord heeft.
Hij haalt zijn informatie uit ingescande boeken, dus die zinsopbouw kan hij zeker wel begrijpen.
Begrijpen is mijns inziens iets anders. Als ik hem de regels van bijvoorbeeld het damspel uitleg, is Watson in staat alle zinnen te interpreteren. Hij kan echter nog steeds niet dammen.
"Een computer kan geen problemen oplossen die niet in zijn software geprogrammeerd zijn."

Dit is niet waar.
Alleen zul je je manier van het aanpakken van het probleem moeten veranderen.
Om een voorbeeld te noemen, je kan een programma maken dat random programma's gaat genereren en dan een evolutie afvalrace er tegenaangooit om te kijken of het ene programma beter werkt dan het andere. Dat werkt ook voor problemen waar het programma nog niet bekend mee is. Of eigenlijk, het programma heeft geen enkele weet van het probleem, alleen of de code die het gemaakt heeft tot betere of slechtere resultaten leidt bij het oplossen.

Je kan ook erg leuke dingen doen met 'ants', programma's die een soort van mieren nadoen om bijvoorbeeld het meest efficiente pad te berekenen. Een soort van groeialgoritme is het eigenlijk.
Het mooie is dat het bepaalde soorten problemen kan oplossen (die ook erg lastig in wiskunde zijn uit te rekenen) ondanks dat het toch elke keer een andere situatie is.

Je kan dus een systeem maken dat problemen kan oplossen die niet in de software zijn gedefinieerd.
En waarom niet, wij kunnen het immers toch ook, en er is niet echt iets magisch aan hoe wij werken.
Deze machine heeft helemaal geen inteligentie. Hij kan alleen heel goed vragen analyseren en heel snel matchen met een database.

Hij kan ook geen beslissingen nemen die buiten deze informatie vallen. Een hond neemt nog altijd beslissingen gebaseerd op meerdere factoren, een daarvan is eigen belang.

Een simpel knaagdier simuleren zou al een redelijke prestatie zijn met zo'n PC.
Het is maar net hoe je intelligentie omschrijft.
Een insect heeft intelligentie, gaat om met de buitenwereld, en die kan je simuleren op een computer.
je zou toch denken dat een computer makkelijk veel beter 'nutteloze' feitjes kan onthouden dan een mens. (nog steeds heel indrukwekkend)

[Reactie gewijzigd door hendrickbert op 14 januari 2011 16:31]

Onthouden kan hij veel beter, maar taal interpreteren en daaraan het juiste nutteloze feitje koppelen: dat is een heel bijzonder trucje voor een PC terwijl onze hersenen dat heel goed kunnen.
het gaat meer om de vertaal slag die de watson maakt van de menselijk taal naar vinden van het juiste antwoord in zijn database. als je gewoon een vraag in google in typet dan krijg je ook ontzettend veel antwoorden terug maar welke is nou de juiste voor die specifieke vraag.
Het grootste probleem is natuurlijk om in eerste instantie de vraag nog maar te begrijpen :)
Dit zou je zeggen ja, maar als je ziet wat de respons tijd moet zijn. Dan is een menselijk brein in het algemeen nog vele malen sneller. Maar eerlijk gezegd is het half oneerlijk want alles bij elkaar is de pc overpowered vergeleken met een mens. Het enige verschil is dat de programming te buggy en slecht is om het nog op een gelijk schaalbaar niveau toe te passen.
De truc is ook niet het opzoeken van de feitjes; de truc is het interpreteren van de vraag, die in menselijke taal gesteld wordt. Eigenlijk het "begrijpen" van menselijke taal dus, wat nogal een lastig karweitje is om in exacte processen te beschrijven.
juist terwijl die vragen zijn waarop het slechts een antwoord mogelijk is, terwijl deze interactie een van de makkelijkste is om de simuleren. het zal nog lang duren voor het echt een volwaardige vraag kan begrijpen en beantwoorden.
Aangesloten op een google search engine.
Nee, het heeft een eigen database. En zelfs al zou het aangesoten zijn op de Google Search engine (wat enkel langer zou duren) zou het nog de tekst moeten kunnen begrijpen, en zeker van het antwoord moeten zijn, immers is alles op het internet niet per definitie waar.
Ja, maar feitjes zijn over het algemeen wel vaak correct op het internet en hebben gewoon simpelweg maar 1 goed antwoord.
Niet afgeronde of wazige onderzoeken daar speculeren mensen van alles over op het internet. Dingen als "Hoe val je het snelste af" daar denkt iedereen weer anders over. Vragen als "Wie speelde de hoofdrol in blabla" daar is maar 1 antwoord op.

Ik vraag mij dan af hoe komen zij aan die database. Neem aan dat ze niet 4 jaar google hebben doorgelezen.

Maar wel een erg indrukwekkend apparaat zeg :o
Vooral dat praten. Dat klonk best verstaanbaar.
In het artikel staat dat er 200 miljoen pagina's van boeken en encyclopedie zijn ingescand.
En dan? "Ik weet het antwoord! Het is ťťn van de 150.000 hits, ik begin bij de eerste en dat is toevallig een reactie op een forum. Hier komt 'ie:...". Ik denk niet dat je wat aan google hebt, aangezien dat veelal erg 'menselijk geformuleerde' en zeer ongestructureerde informatie is waar deze computer helemaal niets mee kan. Hoewel deze computer erg 'slim' lijkt in het interpreteren van data, zal hij bij lange na nog niet het niveau hebben om de grootste informatieve chaos gemaakt door de mens, zijnde het internet, te doorgronden. :)

[Reactie gewijzigd door bwerg op 14 januari 2011 23:45]

Hmm.. met mijn lekenkennis zou ik toch denken aan een enorme bak met feitjes, een zoekmachine en een veredelde Googl "ik doe een gok" knop. Het zal vast een stuk ingewikkelder zijn ;)
die de waargenomen menselijke spraak verwerkt en informatie opzoekt. Watson moet hierdoor vragen kunnen 'begrijpen' en antwoorden.
Simpel gezegt, de host kan vragen:
Wie ben jij? Cheiron toch?
Ben jij Cheiron?
Je naam is cheiron?
Cheiron neem ik aan?
Cheiron?

De eerste uitdaging is dus al de computer de vraag te laten 'begrijpen', dit zijn nog simpele vragen, maar in de quiz zijn het vaak 'statements' waarin de vraag zit. Ook zitten er woord-grapjes in, die hij ook goed moet begrijpen.
leuk om te zien dat de "computer" elke keer dezelfde categorie kiest en dan steeds van boven naar beneden. Niks willekeurig dus.
En dat ie vrijwel alle vragen met een ontbrekend woord (where they say blank) niet weet. Hier zal dus nog wel wat te verbeteren zijn.
En dat ie vrijwel alle vragen met een ontbrekend woord (where they say blank) niet weet.
Ik denk niet dat hij het antwoord niet weet (kan opzoeken) maar dat hij de vraag niet begrijpt.

Het is lastiger om te analyseren wat de vraag is, dan ontdekken dat de vraag zelf het raadsel is.

Daarbij hij ziet de vraag niet, hij moet ze uit de context van de gesproken vraag halen.
Een categorie kiezen heeft te maken met kennis (laten we aannemen "onbeperkt" bij Watson, dus beperkt de keuze niet) en voorkeur. Voorkeur wordt gevormd door persoonlijkheid, en dat heeft Watson niet ingebouwd gekregen. Hadden ze eventueel nog een RNG in kunnen bouwen, maar dat heeft toch geen toegevoegde waarde.
De keuze voor dezelfde categorie is natuurlijk ook de meest logische keuze. Hij wist het antwoord in deze categorie, dus kan Watson aannemen dat hij daar beter in is dan de anderen. Dezelfde categorie kiezen geeft hem dus een mogelijk voorsprong.
Kan hij dan niet beter direct naar de moeilijke vraag springen? Dan heeft hij minder kans dat de anderen die wel weten, en verdient hij meer, toch?

* ATS is niet zo goed op de hoogte van de spelregels

Edit: ik heb net het filmpje bekeken waar heen gelinked wordt door limbokiller hier (aanrader!), en het blijkt dat hij de eerdere correcte antwoorden ook gebruikt om zijn hypotheses over wat het juiste type antwoord zou moeten zijn bij te stellen.

[Reactie gewijzigd door ATS op 14 januari 2011 18:10]

Fantastisch toch :)
Prachtig, al heeft het verslaan van mensen met Jeopardy een minder elegant gevoel dan een potje schaak. Het kan nooit lang meer duren voordat er overtuigende AI's bestaan.
Het is gewoon een heel ander probleem. Schaken vind ik niet zo heel elegant. Er is maar een beperkt aantal mogelijke zetten, maar het aantal combinaties loopt nogal snel uit de hand. Het is complex, ja, maar het vrij eenvoudig om te zetten in een wiskundig probleem. Het analyseren van (gesproken) taal is een andere tak van sport. De betekenis van een zin is best wel complex om te coderen.
Dat weet ik ook wel, maar het aloude tactiekspel van schaak heeft iets eleganters dan het "vulgaire" alledaagse gezinsspelletje Jeopardy. Het is een onderbuikgevoel, niet een gecalculeerde afweging op fisieke en technische moeilijkheden die de AI moet overwinnen.
Ik snap niet dat ze zo veel servers gaan gebruiken als ze al een supercluster hebben die dit systeem er op ze slofen uit loopt.
Maar dan moesten ze wel even de wedstrijd verhuizen naar japan :P
Knap dat de computer ons nu ook kan verslaan als de antwoorden heel veel mogelijkheden hebben.
Het is voor een mens enorm moeilijk om een potje botter kaas en eieren te winnen van de computer dus dit is een grote stap.
Nu nog eentje die wint bij Lingo.
Dat lijkt me triviaal. Een gewone huis-tuin-en-keuken PC kan volgens mij een mens verslaan met Lingo.
Tijdens m'n studie, in 1992 of zo, schreef ik een lingo-spelend programma. Voorzien van alle 5 letterwoorden in het groene boekje. Hij was onverslaanbaar, op iets van 8 of 10 woorden na die niet met zekerheid waren vast te stellen.

Op dit item kan niet meer gereageerd worden.



Populair: Desktops Samsung Smartphones Sony Microsoft Apple Games Politiek en recht Consoles Smartwatches

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013