Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties

AlphaGo wist ook de derde wedstrijd tegen go-wereldkampioen Lee Sedol te winnen. Dat betekent dat Google DeepMind met zijn kunstmatige-intelligentieprogramma het merendeel van de go-potjes heeft gewonnen en de miljoen dollar aan prijzengeld in de wacht heeft gesleept.

De wedstrijd waarin de Zuid-Koreaanse go-wereldkampioen Lee het voor de derde keer opnam tegen Googles kunstmatige-intelligentieprogramma duurde uiteindelijk meer dan vier uur. "Het spijt me dat ik niet aan mensen hun verwachtingen heb kunnen voldoen," stelt Lee. Hij vindt dat hem de druk in de derde ronde te veel werd. AlphaGo bleef daarentegen goed presteren, ondanks dat zich situaties voordeden die niet eerder te zien waren in ronde 1 en 2. De miljoen dollar aan prijzengeld gaat naar verschillende goede doelen.

Ondanks het feit dat AlphaGo nu het merendeel van de go-rondes heeft gewonnen van de menselijke wereldkampioen, worden de overige twee rondes nog wel gespeeld; er is geen mercy rule. Hoewel Lee verslagen is door het deeplearningsysteem van Google DeepMind, zou de Zuid-Koreaan nog wel kunnen aantonen dat het programma in principe wel te verslaan is door een mens. Op zondag 13 en maandag 14 maart worden de laatste twee rondes gespeeld.

AlphaGo

"Elke dag moet ik mijn verhaal herschrijven, Lee had nooit verwacht dat hij als mens verslagen kon worden", zegt Leo Dorst van de Faculteit der Natuurwetenschappen, Wiskunde en Informatica van de UvA. Dorst zei dit tijdens een bijeenkomst rond de wedstrijd tussen AlphaGo en Lee Sedol, op donderdag 10 maart. Voor de tweede keer verloor Lee die donderdag van Googles deeplearningsysteem.

De wedstrijd tussen mens en machine baart veel opzien bij kenners van het op het eerste gezicht zo simpele spel dat binnen de kunstmatige intelligentie voor lange tijd als bijna niet te winnen te boek stond. "Dat is precies wat go is: simpel maar spannend. Altijd nieuw, simpel en gecompliceerd. Daarom extra leuk voor nerds", zegt Dorst tegen de collegezaal vol met voornamelijk studenten van de bèta-faculteit.

Om aan te geven wat AlphaGo presteert, vertelt Dorst hoe het bij mensen zit. "Een getalenteerd kind kan in zo'n 15 jaar tot 3 dan komen." Dan is een bepaalde rang en geeft aan hoe goed je bent. Professioneel 9 dan is het hoogst haalbare. "Het verschil tussen Fan Hui, die van AlphaGo verloor in oktober, en Lee Sedol is tien jaar lang, acht uur per dag. Lee is 33 jaar en prof sinds zijn twaalfde", zegt Dorst. "Hij is ook nog eens creatief, want hij bedenkt nieuwe openingszetten. Daarom dacht men ook dat AlphaGo er moeite mee zou hebben. Lee Sedol is veel sterker dan Fan Hui. Iedereen dacht dat de makers van AlphaGo hiermee hun eigen succes zouden ondermijnen. Dat is nu in een wat ander perspectief geplaatst."

Toch is de mens op een bepaalde manier ook in het nadeel tijdens de wedstrijd: Lee weet dat er een miljoen dollar op het spel staat en hij weet dat hij tegen een programma speelt. Ook zitten er normaal drie of vier speelvrije dagen tussen de wedstrijden. In dit geval is er slechts één dag rust. Omdat AlphaGo ook nog eens gebruikmaakt van een speelstijl die mensen normaal niet zouden toepassen, kan Lee zich minder goed voorbereiden op de volgende wedstrijd. In het eerste spel speelde Lee een wat onorthodoxe opening. Dit leek hij te doen om AlphaGo te testen. Ook maakte hij gebruik van overplay, iets wat je volgens de kenners zou doen tegen zwakke spelers.

In het tweede spel speelde Lee een zogenaamde waiting game. Als hij dat tegen mensen doet, verliezen die. "Er werd wel voorspeld dat je 10.000 gpu's nodig zou hebben om Lee's level te halen. Iedereen die dacht dat AlphaGo zou winnen werd voor gek verklaard, maar dat liep vooralsnog anders. De go-community was eerst gechoqueerd, maar na de tweede winst van AlphaGo sloeg dat om. Mensen denken nu dat AlphaGo go zal verrijken."

Dorst gaat nog even terug naar de winst van AlphaGo op Fan Hui. Fan is Europa's beste go-speler met 2 dan professioneel. Hij begon met go in 1988. Tijdens het onderzoek dat in januari gepubliceerd werd, verloor AlphaGo twee wedstrijden van Fan en won er acht. Van te voren was afgesproken dat bepaalde spelcondities niet meegeteld zouden worden. Fan deed het beter in de korte oefenpartijen, maar deze telden dus niet mee.

Er is een gerede angst voor online go, namelijk cheaters. Dit is al een groot probleem bij online schaken. Maar dat probleem heeft volgens Dorst niet te maken met het feit dat computers sterker zijn dan mensen, maar met de mens zelf.

De kunstmatige intelligentie

Go is als spel heel ingewikkeld door het enorme aantal mogelijke stellingen. "Er zijn hele studies van het spel en go-wedstrijden uit het verre verleden die nog actief bestudeerd worden", zegt Dorst. "Bij schaken is het duidelijk: je moet de koning pakken. Bij go is dat niet zo duidelijk. Het doel is minder grijpbaar. Zonder begeleiding is go voor beginners dan ook een lastig spel. Zo is overmeesteren van andere stenen niet het hoofddoel, terwijl kinderen vooral denken dat het daar wel om gaat."

"Bij go zijn feitelijk de groepen stenen en de tussenliggende gebieden de 'stukken' in het spel. Een sterke speler weet welke groep sterk of zwak is en wat de eindscore mogelijk zal worden. Bij professionals is het verschil in eindscore over het algemeen klein, iets van twee punten en dat terwijl je zo'n 180 punten per speler kunt binnenhalen op een bord met 19 bij 19 lijnen", zegt Dorst. "Bij professionals duurt een spel vaak iets van 250 zetten. Er is wel eens iemand geweest die heeft berekend dat het maximaal aantal zetten 2x10⁴⁶ kan zijn, maar dat overleeft een mens niet." Een normale wedstrijd tussen profs duurt meestal zo'n vijf uur, al wordt ook wel eens twintig uur geklokt bij een Japanse titelwedstrijd.

Go is hoe dan ook een spel van de grote getallen. Het is daarom praktisch onmogelijk voor een computer om zoals bij schaken alle mogelijke zetten vanuit een bepaalde positie van te voren te berekenen. De AlphaGo-machine maakt gebruik van verschillende machine learning-elementen. Max Welling, hoogleraar machine learning van de UvA, legt in vogelvlucht aan de hand van de in januari uitgekomen paper uit hoe AlphaGo werkt.

"Ondanks dat AlphaGo sinds de vorige keer dat de computer tegen een kampioen speelde, waarschijnlijk significant veranderd is, zal in de basis niet veel gewijzigd zijn", zegt Welling. "Voor go-spelers was het duidelijk: AlphaGo zou niet winnen. Maar de huidige status is anders."

AlphaGo maakt gebruik van vier machine learning-ingrediënten. Supervised deep learning, reinforcement learning en Monte Carlo Tree Search. Ook maakt de machine gebruik van deep convolutional networks voor het scannen van het spelbord en het herkennen van beeld.

Het leren voorspellen van data van eerdere wedstrijden, heet supervised learning. In dat geval is er een bestaande dataset waaruit voorspellingen gemaakt worden. Wordt er een verkeerde voorspelling gemaakt, dan moet het algoritme een klein beetje aangepast worden, tot de uitkomst klopt.

Het tweede proces heet reinforcement learning. Daarbij voert het neurale netwerk zelf een actie uit, zoals het plaatsen van een steen op een specifieke positie op het bord. Dan gaat het uitzoeken of het zou winnen of verliezen met die zet. Wordt er inderdaad gewonnen, dan kan de regel verbeterd worden. "Maar, dat soort acties kunnen nogal noisy zijn", zegt Welling.

Daarnaast analyseert AlphaGo spellen die mensen gedaan hebben. Hoe zou een mens reageren? Waar zou een mens een steen neerzetten? Dan is er nog een netwerk dat zelf nieuwe wedstrijden genereert. Dat zijn miljoenen games. Die dataset laat weer een ander netwerk leren en trainen. Dat laatste netwerk is niet bezig met de waarde van de steen, het kijkt naar de waarde van de positie. Daarmee traint AlphaGo zichzelf uit zowel menselijke als eigen zetten.

"Uiteindelijk komt Monte Carlo Tree Search om de hoek", zegt Welling. "Elke zet heeft een waarde. Bij schaken kun je elke mogelijke zet proberen binnen een bepaalde tijd. Dan wordt de best mogelijke zet gekozen. Bij go zijn er te veel mogelijke zetten."

Toch speelt AlphaGo soms hele spellen uit, zoals al eerder opgemerkt. Dit doet AlphaGo op 'goedkope' wijze. Als AlphaGo wint of verliest, wordt weer teruggezet bij het punt waar het begon en wordt dat steeds herhaald. De informatie die dat oplevert wordt weer teruggevoerd in de Monte Carlo-opdracht.

In vergelijking met de schaakcomputer DeepBlue maakt AlphaGo 1000 keer minder gebruik van bordevaluaties dan DeepBlue. In plaats daarvan maakt het veel meer gebruik van machine learning.

Het volledige college, inclusief slides, is te zien via de UvA-webcolleges.

et IT Go! bij de Universiteit van Amsterdam ter ere van AlphaGo tegen Lee Sedol (resized)et IT Go! bij de Universiteit van Amsterdam ter ere van AlphaGo tegen Lee Sedol (resized)et IT Go! bij de Universiteit van Amsterdam ter ere van AlphaGo tegen Lee Sedol (resized)et IT Go! bij de Universiteit van Amsterdam ter ere van AlphaGo tegen Lee Sedol (resized)et IT Go! bij de Universiteit van Amsterdam ter ere van AlphaGo tegen Lee Sedol (resized)et IT Go! bij de Universiteit van Amsterdam ter ere van AlphaGo tegen Lee Sedol (resized)et IT Go! bij de Universiteit van Amsterdam ter ere van AlphaGo tegen Lee Sedol (resized)et IT Go! bij de Universiteit van Amsterdam ter ere van AlphaGo tegen Lee Sedol (resized)et IT Go! bij de Universiteit van Amsterdam ter ere van AlphaGo tegen Lee Sedol (resized)

Moderatie-faq Wijzig weergave

Reacties (47)

Ik heb de 3e match vanaf het begin tot eind gezien, en Lee Sedol leek op z'n zachtst gezegd erg nerveus toen hij begon. Als je het mij vraagt, leek het er op dat hij zich al verslagen voelde voordat de match begon.

Toch vond ik dat hij erg goed speelde. Hoe hij de onderkant wilde doorbreken was erg gutsy en het was hem bijna gelukt. Ik vond de persconferentie ook erg ontroerend. Hoe hij aangaf hoe emotioneel hij was en dat hij nooit het gevoel had dat hij in controle was.

Zijn statement "Today was a loss for Lee Sedol, not for humanity." (los vertaald) was wel erg humble. AlphaGo/DeepMind kan alleen maar sterker worden (En te zien hoe het nu gaat tegenover 5 maanden geleden, snel sterker worden). Het zal mij niet verbazen dat Lee Sedol of een ander Go genie er in slaagt een officieel potje weg te snoepen van de huidige AlphaGo, maar over een jaar of 2? Ik denk dat het dan grenst op het onmogelijke.

Een sublieme Match 3 die ik erg zenuwslopend vond (Dat moet voor Lee een veelvoud erger zijn), maar zeker de moeite waard om om 4:30 op te staan voor mij persoonlijk.

Ik hoop dat Lee zichzelf niet teveel blaam treft. Het is een computer, een machine. De tijd dat we sneller waren dan auto's is al een lange tijd achter ons, maar we rennen toch nogsteeds marathons? :)
En het grap is juist dat emotie het halve game is. AlphaGo mist dat deel van het spel volledig waardoor het eigenlijk geen echte potje GO is.
De stap die ze gemaakt hebben van simpele Tree learning aan de hand van gegevens naar het zelf uitzoeken hoe het "AI" een opdracht het beste kan uitvoeren zonder de gegevens te programmeren door een mens is fenomenaal maar eigenlijk is er nog lang geen sprake van AI. Het eerste bouwblok is gelegd om echt te beginnen.

Met AI draait het allemaal om zelfstandig keuzes maken zoals wij mensen dat met emotie doen. Op dit moment is AlphaGo niks anders als gereedschap omdat het nog steeds een simpele doel geprogrammeerd krijgt zonder dat het hoeft na te denken over hoe het die doel bereikt.
Je ziet de gevolgen met Lee Sedol hoe hij het idee heeft het hele potje niet in controle te zijn. Het is gewoon systematisch zorgen dat je de meeste punten vergaart niks meer niks minder.

De vraag is dan is dit het meest efficiŽnte en snelste manier om Lee te verslaan? Nope het is het meest zekere overwinning dat net zolang doorgaat totdat je tegenstander niet meer kan omdat je zeker bent dat de "AI" nooit een ongewoon of zelf ontwikkelde zet zal doen die als doel heeft je tegenstander te beÔnvloeden. Om het kort te zeggen er zal weinig verrassing zijn.
De kans dat ooit iemand nog een potje gaat winnen van AlphaGo is vrijwel 0% omdat het nu min of meer neerkomt op uithoudingsvermogen wat de computer natuurlijk altijd gaat winnen.
Is het methode van overwinning een AI waardige? Niet echt.
Ik kan echter haast niet wachten tot de volgende generatie AlphaGo om te zien of we een verschil in overwinning methode kunnen zien.
Volgens mij snap jij niet precies wat AI inhoudt. Intelligentie is wat anders dan emotie. Emotie is eerder een zwakte dan dat het helpt de beste beslissingen te nemen.Het zorgt ervoor dat de prioriteiten niet meer kloppen of dat de doelen uit het oog worden verloren.

Het doel was om een out-of-5 te winnen. Dan is 3-0 de meest efficiŽnte manier mogelijk.De individuele potjes zo snel mogelijk of met een zo groot mogelijk verschil winnen is totaal niet relevant. Dat is iets waar mensen misschien waarde aan geven, maar daarbij verliezen ze het hoofddoel uit het zicht: winnen. Bij geautomatiseerde systemen lijkt het me vooral belangrijk dat de uitkomst zo voorspelbaar mogelijk is. AI is waardevol als het minder fouten maakt dan mensen, niet als het net zoveel fouten gaat proberen te simuleren.

Je zag het ook bij de voorspellingen vooraf waarbij veel dachten dat AlphaGo kansloos zou zijn. Een voorspelling op basis van emotie die dan ook snel veranderde na het eerste potje.

Wat ik overigens het leukst vond was juist dat AlphaGo een aantal onorthodoxe moves had bedacht waar de pro-spelers hun twijfels bij hadden. Wat dat betreft zou je kunnen zeggen dat het kunstmatige systeem creatiever was dan de mens die juist voorspelbaarder reageerde volgens bepaalde aangeleerde patronen.
Emotie is juist de sleutel tot het ontwikkelen van AI. Een doel stellen is makkelijk en het beste methode om dat doel te bereiken is ook simpel te berekenen. De vraag is of dat methode wel gewenst is en wat zijn de verdere gevolgen ervan om dat doel te bereiken. Je kan vaak een probleem op duizenden manieren aanpakken maar welke sluit het beste compromis?
Dit is al een groot probleem bij mensen en grond voor enorme ethische gesprekken laat staan een computer die geen emotie en dus waarde kan hechten aan uitkomsten die indirect gekoppeld staan aan het doel.

Stellen dat emotie eerder een zwakte is dan het bepalende factor is in elke beslissing die jij neemt is niet begrijpen hoe zelfstandig intelligentie werkt.
Volgens mij snap jij het dan simpelweg niet helemaal, want het hele probleem was juist dat er teveel mogelijkheden zijn om even de beste 'simpel te berekenen'. Vandaar dat ze gebruik maken van een zelflerend systeem.

Het probleem van emoties is dat ze variŽren van persoon tot persoon, van situatie tot situatie en hebben vaak ook nog eens betrekking op die persoon. Het is een nuttige primitieve reactie van organismen om de kans op overleving te vergroten. Bijvoorbeeld wanneer je angstig wordt bij gevaar en besluit te vluchten. Wanneer problemen complexer worden zorgen ze echter voor problemen. Een instinctieve reactie weegt dan niet op tegen zoveel mogelijk inzichten verschaffen en op basis daarvan keuzes maken. Want misschien was er niet eens gevaar en liep ik meer risico door te vluchten. Denk ook aan paniek op de beurzen of rare wetten die erdoorheen komen vanwege angst na een aanslag. Emotie is een hele slechte raadgever.

In dit geval ook te zien: de eerste pot was hij nieuwsgierig en maakte daardoor een paar fouten.Daar won de emotie dus van het verstand. Later leek het meer moedeloosheid te zijn, juist omdat hij het systeem niet emotioneel kon beÔnvloeden. Normaal gesproken heb je kans dat je tegenstander onbewust instinctief op een bepaalde manier reageert wanneer je bijvoorbeeld ineens heel agressief speelt.

Ethische zaken moet je verder juist vooraf definiŽren in de rule set en niet achteraf. Denk aan het wetboek en een rechter die de strafmaat moet bepalen. Dat staat verder ook geheel los van emotie. Emotionele reacties kunnen juist tegen de ethische waarden ingaan.
Het zelf lerende systeem was bedoeld om juist aan het tijd conditie te voldoen in het game. Uiteindelijk kan je een computer alle berekening laten maken maar als het maanden nodig heeft met onze huidige tech om een zet te doen dan speel je het spel niet. Ipv zoals bij deep blue is daarom een hele andere richting in gegaan om het menselijke brein na te bootsen.

Volgens mij blijf je teveel hangen in dat macho gedachte dat een man geen emotie mag laten zien en dat het gezien wordt als een zwakte in het samenleving. Wat je echter niet begrijpt is het feit dat je alleen al achter een computer dit pagina leest en gaat reageren geeft al aan dat je geleid wordt door emotie. Heeft dit hele argument eigenlijk enig toevoeging aan het overleven en instincten van jouw persoon? Nee het is eerder waarschijnlijk dat je in een slechte zit houding achter je computer zit en niet aan het jagen bent voor je volgende maaltijd. Dit doe jij omdat je het prettig vindt of je ei kwijt wil en bent er gerust van dat je loon gestort wordt om eten te kopen en dus volledig gestuurd bent door je emoties.

Maar om het te vertalen naar een computer AI. Stel je geeft het als doel maak een bestrijding middel om gewassen te beschermen.
-Computer gaat een tijd bezig en komt met een chemisch middel dat elk soort ongedierte op aarde molt omdat dat het beste manier is om er zeker van te zijn.
Wij mensen schudden ons hoofd nee dat is geen optie dus we voegen een extra conditie toe. Je mag niet alle ongedierte op aarde mollen.
-Computer gaat een tijd bezig en komt met een chemisch middel dat een coating aanbrengt op de gewassen zodat de ongedierte het niet kunnen aantasten.
De gewassen kunnen dan niet meer gekweekt worden omdat de bevruchting door bepaalde insecten niet meer gaat. Dus gaan we het volgende conditie toevoegen. De gewassen moeten op natuurlijk wijze bevrucht kunnen worden
-Computer gaat een tijdje bezig en komt met een gesloten kas waarin het type insect wat nodig is voor bevruchting kan leven samen met de gewassen.
Blijkt het product te duur om te produceren op het juiste volume. Volgende conditie
Etc...

Dat is geen AI als het steeds oplossingen geeft dat wij mensen moeten bijwerken met extra condities omdat de AI zelf geen emotie en dus waarde hecht aan condities en deze niet zelf kan toevoegen aan zijn doelstelling.
Het is pas een AI als het zelf bepaalt welke condities er nodig zijn om een doel te halen en moet dus uiteindelijk ook een doel als niet haalbaar kunnen bestempelen omdat niet aan alle condities voldaan kunnen worden zonder dat de mens daar tussen komt.
Dan pas kunnen we complexe problemen aan een AI geven waarvan we zelf nog niet eens weten wat alle condities zijn die we uiteindelijk willen hebben.
Wat betreft de gewassen heeft de mens het nooit anders gedaan en de fouten ook al een keer gemaakt. En ook mensen moeten dan bijgestuurd worden met nieuwe 'condities' in de vorm van wetten en regels. Wetten en regels kan je zien als input voor het systeem net als dat emotie ook een input is. Niet dť speciale ontbrekende input, maar gewoon ťťn input.
Ik zeg ook niet dat er nooit fouten gemaakt worden met emoties het is immers deel van het leer proces. Echter is het emoties wat ervoor zorgt dat je weet dat een fout is gemaakt of iets goed is gegaan. Als een computer die onderscheid niet kan maken zal het ook nooit een andere beslissing maken om zijn doel te halen en heeft dan ook geen intelligentie om een zelf een alternatief te bedenken en is dus per definitie geen AI.
Als je leren uit de fouten beschrijft als emotie heeft deze AI dat ook. Elke keer hij verliest gaat hij het de volgende keer namelijk anders doen.
Daarom is het ook niet zomaar een algoritme. Als dit het geval was zou het telkens dezelfde fout maken.
leren uit fouten is niet een emotie. Je hebt juist emotie nodig om een fout te herkennen. In het geval van AlphaGo is het conditie zo veel mogelijk punten vergaren en door zijn strategie aan te passen na een nederlaag haalt het meer punten. Het heeft verder geen besef dat het een fout is geweest en zal bijvoorbeeld nooit datzelfde aanpak weer gebruiken om juist zijn tegenstander te foppen.
Het beslissing om meer punten te halen zal ook nooit een verrassing zijn na een nederlaag. Het fout gebruiken in zijn voordeel juist weer wel.
Het blijft een moeilijk onderwerp en er valt veel over te discussiŽren, maar ik vind dat je redenatie niet erg solide is.
Je argument dat je emotie nodig hebt om een fout te herkennen vind ik niet erg realistisch.
Een definitie van een fout is bijvoorbeeld 'een andere uitkomst krijgen dan bedoeld was' en dit is prima zonder emotie te herkennen door middel van meten of cognitie.
Vergeet ook niet dat het hier gaat om kunstmatige intelligentie. In de term ligt al besloten dat het niet over de daadwerkelijke echte eigenschappen van intelligentie hoeft te beschikken, maar dat het een enigszins intelligent gedrag vertoont.
Verder vind ik dat je de huidige AI te veel versimpeld. Ze zijn ondertussen al een stuk verder dan het puur afhandelen van vastgelegde condities zoals vroeger een Eliza of Dr. Sbaitso dat deden.
Een fout is niet per definite een ander uitkomst krijgen het is bepalen met jouw gedachte of het een fout is. Datzelfde fout kan door een ander als geen fout gezien worden en dat is juist waar emotie aan te pas komt om aan de hand van waar jij waarde aan hecht negatief of positief dat je tot een conclusie komt.
In een computer systeem met vast gelegde condities is het uitkomst altijd hetzelfde omdat het conditie waar/onwaar is meer niet.
De mensen van Deepmind spreken ook niet van AI in dit geval maar AGI (Artificial General Intelligence) en proberen zij de werking van het menselijke brein na te bootsen met het opbouw van AlphaGo.
De oude systemen die werken met branch prediction algoritmes zijn de prullenbak in gegooid en zijn ze overnieuw begonnen.
Het eerste stap was om een systeem te maken dat zelf kan leren zonder afhankelijk te zijn van branch prediction en het resultaat ervan zien we in deze matches. Ze gebruiken nog steeds een vorm van branch prediction maar het is ter ondersteuning van het geheel ipv het kern van informatie voorziening.

Leren is echter geen intelligence het is een van de benodigde gereedschappen om intelligence te bereiken. De grap is eigenlijk dat de mensen van Deepmind zelf dus zeggen dat het geen AI of zelfs AGI is wat ze nu hebben. Het is gewoon een showcase van wat er aan komt en de media gaat er helemaal mee aan de haal en noemt het AI. Ze konden niet eens de afkorting AGI gebruiken die Deepmind het zelf geeft en maken er een sensatie hype van wat nergens op slaat.
Wat een warrig verhaal. Volgens mij weet je niet precies wat een emotie is, aangezien je suggereert dat alles wat je doet gedreven wordt door emoties en elke beslissing die je maakt op basis van emoties is. In dat geval zou het woord emotie geheel overbodig zijn. Bovendien is het niet waar, je geeft tenslotte zelf aan dat computers geen emoties hebben, maar toch kunnen ze beslissingen nemen. Dus blijkbaar is het niet nodig. Ergens een waarde aan geven is overigens geen emotie.

Voor de rest is het onzin om te beweren dat het stellen van condities betekent dat er geen intelligentie aan te pas komt. Als ik jou een opdracht geef die aan bepaalde voorwaarden moet voldoen, dan betekent dat niet dat jij geen intelligentie hoeft te gebruiken. Het kan zelfs prima zo zijn dat ik de opdracht aan een intelligenter iemand geef omdat ik het zelf niet kan.

Daarnaast ga je geheel voorbij aan het feit dat je mensen ook dingen moet leren. Jij bent niet geboren met kennis over bestrijdingsmiddelen. Dus bij kunstmatige intelligentie zal je ook voorwaarden moeten stellen, wil je uiteindelijk tot een gewenst resultaat komen. Anders weet het niet eens wat een bestrijdingsmiddel is.

Neemt niet weg dat het opstellen van die voorwaarden minder werk is dan het uitvoeren ervan. In dit geval werd een computer de regels geleerd en presteerde het beter dan ťťn van de beste menselijke spelers die daar twintig jaar over deed.
Bovendien is het niet waar, je geeft tenslotte zelf aan dat computers geen emoties hebben, maar toch kunnen ze beslissingen nemen.
Ben gestopt met lezen na dit zin. Als je niet eens vat heb op het basis verschil tussen software programmeren en AI hoe kan je in vredenaam een argument aangaan over het complexiteit van AI creŽren?
Ik denk dat het hem er eerder in zit dat wij AI met emoties willen omdat wij daar als mens veel waarde aan hechten. AI met emotie heeft dan ook vooral met eigen belang te maken.

De meest logische oplossing is voor mensen niet altijd de beste oplossing. Neem bvb een probleem als overbevolking. Zonder emoties kom je dan tot de,oplossing dat er geboortebeperking moet komen of dat we een paar miljard mensen moeten afslachten. Voor een computer is dat gewoon een logische oplossing. Een computer heeft emotie nodig om te kunnen begrijpen dat mensen niet rationeel denken en je niet een vrouw kan verplichten na 1 baby zich te laten steriliseren. Het is pas als een computer over emotie beschikt dat die niet op elk probleem dat we hem zullen voorleggen de uitroeiing van de mensheid of dergelijke als oplossing voorstelt. :)

Emotie is wat ons doet beslissen dat we geen hond eten maar wel koe bvb. Logisch is het niet maar enkel wij mensen begrijpen waarom een dakloze met honger zijn eigen hond niet opeet.
Maar wat is dat dan eigenlijk: emotie?
(En waarom zou het in vredesnaam een rol moeten spelen in een spelletje Go??)
Dat gevoel van onder druk staan of dat je het idee heb een goede strategie heb gekozen of dat je de controle volledig kwijt bent.
Waarom zou het een rol spelen in Go? lees Sun Tzu en je weet waarom.
Buiten dat zonder emotie zou een mens niet eens het game gaan spelen of welke game dan ook. Zonder drijfveer is het hele concept gaming irrelevant voor de mens.
De computer doet het omdat dat zijn opdracht is wat het als computer moet uitvoeren van de mens.
Heb je het spel gezien? De commentatoren zeiden regelmatig dat AlphaGo net speelde zoals een mens, met af en toe onorthodoxe zetten die Lee uit balans brachten.
Dit is geen AGI (Artificial General Intelligence), maar wie de match bekijkt, kan niet ontkennen dat het echt indrukwekkend gespeeld heeft.
Yup spel gezien maar als die commentatoren zulke experts waren dat ze dat niveau aan Go spelen helemaal correct konden uitleggen aan het publiek dan zaten ze zelf aan die tafel ipv Lee Sedol.
Analyses die ze maken tijdens het game neem ik dan ook met een korreltje zout. Het speelt als een mens? Het heeft 3 keer in een rij gewonnen van een van de beste pro's op aarde. Dat lukt geen enkel mens en twijfel zelfs of AlphaGo een Turing test zou kunnen doorstaan maar dat maakt het inderdaad niet minder indrukwekkend.
Ik zou juist graag van Lee zelf een volledige game analyse will horen.
Michael Redmond is de ťnige westerse 9-dan speler. Dus ja, hij kan inderdaad op dat niveau spelen. Niet dat dat uitmaakt ("als Johan Cruijff zo'n expert was dan speelde hij zelf wel op het veld!!1").
Michael Redmond(de commentator) is qua Go nivo een stuk zwakker dan Lee. Maar hij heeft wel meerdere boeken over Go geschreven en is al jaren commentator bij Go wedstrijden. Om het duidelijk uit te kunnen leggen lijkt hij me juist meer geschikt dan Lee Sedol. Al ben ik benieuwd wat Sedol er nog aan toe te voegen heeft.

Michael Redmond heeft ook 30 jaar ervaring als profesioneel Go speler. En heeft net zoals Sedol een 9e dan. (waarbij de europees kampioen niet verder komt dan 2e dan)

De laatste mens die Lee Sedol 3 keer achter elkaar versloeg was trouwens Park Jungwhan, Januari dit jaar.
@ Jeoh en rty
Jullie hebben helemaal gelijk ik neem dat terug.
Ik zou echter nog wel van Lee zelf willen horen hoe hij vond dat het ging en wat hij zelf als vreemde gedrag bestempeld.
AlphaGo speelt go. Ik durf, zonder veel kennis van zaken, te stellen dat in een Go-Turing-test waarbij een speler moet inschatten of hij tegen AlphaGo of tegen een menselijke topspeler speelt AlphaGo een heel goede kans maakt om te slagen.
Als je AlphaGo naar zijn mening over het spel van PSV vraagt zal het minder makkelijk zijn :)
Antropomorfisch een AI evalueren...
Eigenlijk is het niet 1 mens tegen een computer. Het is 1 mens tegen tientallen wetenschappers en onderzoekers.
Niet helemaal waar gezien die wetenschappers het ding gemaakt hebben en de rest bedenkt het systeem zelf.
Die vergelijking gaat een beetje mank omdat geen van die onderzoekers (ook niet samen) een sterkere Go-speler vormen dan AlphaGo. AlphaGo is weliswaar het resultaat van vereende krachten (net zoals Sedol trouwens het resultaat is van generaties lang mensen produceren, al is dat niet echt vergelijkbaar :) ) maar dan meer in AI-onderzoek en minder het spelen van Go. Ik denk dat een heel team mensen dat samen de zet mag bepalen uiteindelijk ook te zwak zal zijn voor AlphaGo -- maar dat is dan niet omdat er meer mensen aan AlphaGo gewerkt hebben dan er spelers zijn.
Idd sneller, sterker, 'slimmer'..

Van dit soort berichten word ik altijd best huiverig :X
Wat mij in dit stadium gaaf lijkt om te zien is hoe twee vergelijkbare systemen het tegen elkaar op zouden nemen. Dat zou nog wel eens een verrassende game play kunnen opleveren.
Ik denk dat de GO community dat ook hoopt, dat er heel nieuwe speelstijlen ontwikkeld worden als dergelijke computers tegen elkaar gaan spelen en zich verder ontwikkelen.
Is er iets bekend over hoeveelheid energie Watt/uur dat AlphaGo gebruikte? Ik ben benieuwd hoeveel menselijke breinen je met die energie kan voorzien.
Het ding gebruikt 1920 CPU's en 280 GPU's, dus de totale hoeveelheid watt zal flink wat zijn -- pardon the pun -- hoewel ik geen exact nummer kan vinden. Een hersenpan verbruikt 20 watt, dus inderdaad, qua energie-efficiŽnte zijn er nog wel wat ordes van grootte te behalen. Maar zo efficiŽnt of efficiŽnter zijn dan de hersenen was het doel van deze exercitie ook niet (en AlphaGo zelf geeft geen inzichten in hoe de hersenen werken).
Wow, gaaf, uitgebreid artikel dit.
Gefeliciteerd programmeurs!
Jullie werk zal ongetwijfeld vele toepassingsgebieden hebben.
.
Een veel sterkte, Sedol :-)
Ik denk bv in robots, die complexe echte-wereld situaties leren herkennen en leren hoe ze er steeds beter mee om kunnen gaan.
Zou je een voorbeeld kunnen noemen waarin een robot met dit soort programmatuur beter zou presteren dan de mens?
Geweldig artikel.
Deze wedstrijd gaat de geschiedenisboeken in als ťťn van de belangrijkste stappen voor AI van dit decennium. Hoewel ik de spelregels ken ging het volledige spel mij ver boven de pet.
Het commentaar van Michael Redmond was ook erg leuk en leerzaam. Ik heb met verbazing zitten kijken deze ochtend.
Hoe je het ook bekijkt, het is een mijlpaal in de geschiedenis. Merkwaardig dat er zo weinig aandacht in de media voor is.
Nu Starcraft Broodwar. Go Deepmind!
Ja, en het lijkt me ook handig om Deepmind in te zetten voor data surveillance om terroristen op te sporen. Go Deepmind!
"humanity's last words"
Welkom SkyNet, yeah! :)
Je weet dat de kansen dat uitgerekend jij John Connor bent en het overleeft, heel erg klein zijn he? ;)
Dus laat dat 'welkom' en 'yeah' er maar af..
Skynet is ook de naam van een erg goede broodwar AI uit 2013 ;)
Wat is de volgende uitdaging voor Go?
AlphaGo tegen een team van professionele Go-spelers?
AlphaGo tegen AlphaGo?
Alsof ik Answer Me 1988 zit te kijken :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Microsoft Xbox One S FIFA 17 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True