Googles AlphaGo met pensioen na 3-0 overwinning op 's werelds beste speler

Nadat AlphaGo ook in de derde ronde tegen Chinese topspeler Ke Jie de overwinning heeft behaald, heeft het DeepMind-team van Google laten weten dat dit de laatste go-wedstrijd was die de kunstmatige intelligentie zal spelen.

AlphaGo en Ke Jie speelden op zaterdag hun laatste wedstrijd tegen elkaar. AlphaGo had al een 2-0 voorsprong en was daarmee al zeker van zijn overwinning, maar in het kader van de ai-algoritmen tot het uiterste brengen, was de laatste wedstrijd evenzo belangrijk. Volgens een verslag van Google ging Ke Jie ditmaal voor een '3:3 point'-strategie. Dat was een ongebruikelijke beslissing die wellicht gemotiveerd is door de achterstand die de Chinese speler al had. De strategie is er echter een die AlphaGo zelf goed beheerst, waardoor deze geen soelaas bood voor Ke Jie.

Dankzij de 3-0 overwinning op de topspeler is nu in de ogen van Google definitief de vraag beantwoord of de kunstmatige intelligentie krachtig genoeg is om menselijke spelers te verslaan in het gecompliceerde bordspel. Dit is het hoogste punt dat AlphaGo op dit punt kan bereiken en daarom was dit de laatste wedstrijd. In totaal heeft AlphaGo 50 wedstrijden gespeeld.

Het DeepMind-team dat achter AlphaGo zit, gaat nu werken aan algemene algoritmen om te proberen de wereld van grote vraagstukken af te helpen, zoals ziektes, energiebesparing en het uitvinden van nieuwe materialen. In een interview uit 2016 zei DeepMind-oprichter Demis Hassabis dat StarCraft een goede volgende uitdaging zou zijn voor het team en zijn ai. Hier is verder geen woord over gerept, dus het is nog maar de vraag of dit uiteindelijk doorgaat.

Ook belooft het team nog een onderzoeksrapport te publiceren waarin het de laatste verbeteringen aan het AlphaGo-algoritme uiteenzet en het ook de potentiële toepassingen buiten het bordspel belicht. Daarnaast wordt ook een teaching tool online gezet, waarin de analyses die AlphaGo maakt van de go-situaties uiteen worden gezet en inzichtelijk gemaakt worden. Ook Ke Jie, de topspeler die als laatste verslagen is door AlphaGo, heeft toegezegd dat hij zijn analyse per zet zal geven, zodat geïnteresseerden de gehele wedstrijd volledig vanuit het perspectief van beide partijen kunnen ervaren.

AlphaGo heeft strategieën gebruikt die nog niet eerder gezien waren in de go-wereld. Sommige tegenspelers omschreven het spel van de ai ook wel als het 'Go van een verre toekomst'. Die strategieën zijn onder andere ontwikkeld door AlphaGo als training tegen zichzelf te laten spelen. Google DeepMind gaat een verzameling van 50 wedstrijdregistraties waarin de ai tegen zichzelf speelt, ook vrij beschikbaar maken. De verwachting is dat de go-gemeenschap nieuwe ideeën en strategieën kan oppakken van de beelden. De eerste tien potjes zijn al beschikbaar.

Door Mark Hendrikman

Redacteur

28-05-2017 • 10:19

108 Linkedin

Lees meer

Menselijke speler verslaat go-AI KataGo Nieuws van 20 februari 2023

Reacties (108)

108
104
68
9
1
25
Wijzig sortering
"Volgens een verslag van Google ging Ke Jie ditmaal voor een '3:3 point'-strategie."

Dit klopt niet, Ke Jie deed dit al in de eerste match. Een geupdate versie van AlphaGo heeft na het event tegen Lee Se-Dol onder het pseudoniem "Master" een serie van 60 games gespeeld tegen top Go spelers en ze allemaal gewonnen. Ke Jie heeft vooraf aan het event deze "Master games" uitgebreid bestudeerd en is ook veel van de strategien van AlphaGo gaan uitproberen. Vond het zelf erg leuk om de matches te bekijken op youtube; commentaar door Michael Redmond (9 Dan professional) is erg goed, maar het is wel een hele zit :P

Hier het fragment voorafgaand aan de 3:3 zet, waar Michael Redmond iets zegt over de invloed van de Master games op het spel van Ke Jie, en dan daarna natuurlijk commentaar over de zet zelf: https://youtu.be/Z-HL5nppBnM?t=33m58s
Het eerstje potje won AlphaGo met een halve punt verschil, de kleinst mogelijke winmarge, mogelijk gemaakt door de 7.5 punt 'Komi' die de witte speler (AlphaGo) krijgt omdat zwart (Ke Jie) mag beginnen. Het verschil is heel klein, maar AlphaGo speelt niet op winstmaximalisatie, maar winstkansmaximalisatie.

Het 2e potje speelde Ke Jie ook monsterlijk goed, volgens analyse van AlphaGo speelde Ke Jie de eerste 50 zetten "perfectly", en DeepMind CEO Demis Hassabis zei: "For the first 100 moves it was the closest we’ve ever seen anyone play against the Master version of AlphaGo."

De 3e game heb ik nog niet gekeken, maar petje af voor Ke Jie (hij was ook erg teleurgesteld, vooral na het 2e potje). Echt heel gaaf om zulk talent, zowel Ke Jie als AlphaGo (en de mensen erachter) in actie te zien, aanrader!
Je spreekt jezelf tegen terwijl je ook een negatieve opmerking maakt over mensen die niet hetzelfde zijn als jij.

Juist mensen die dus niet in de 95% bell-curve zitten hebben eigenschappen die je niet in de gewone mensen zal terugvinden. Dat zijn dan ook vaak eigenschappen die je heel specialistisch kan inzetten, soms voor heel handige zaken zoals het ontwikkelen van complexe algoritmen, diepgaand onderzoek, complexe vraagstukken die nog niemand anders kon oplossen enz. Natuurlijk zijn er ook mensen waarbij dat niet het geval is, bijvoorbeeld mensen aan de 'onderkant' van die bell curve (de linkerkant eigenlijk) die ook een brein hebben dat erg specialistisch werkt, maar niet de capaciteit hebben om het zinvol in te zetten. Dan kan je het stereotype 'autist' krijgen die bijvoorbeeld niet kan functioneren in het typische dagelijks even met "standaard" mensen. Dat is dan ook de negatieve connotatie die mensen vasthouden en aan alles toeschrijven dat niet hetzelfde is als zij zelf.

Maar stel je voor dat niemand echt goed in iets is en alles maar 'een beetje' kan, dan zou er dus geen olympische spelen zijn, geen experts, geen extreme vooruitgang. We zouden dan eigenlijk een beetje vastzitten op een mix van hunter-gatherers, dictators en het algemene recht van de sterkste. Niet bepaald een rooskleurig plaatje ;-)

Dus, stel dat we kijken naar de wereld nu, waarbij we allemaal 'vreemde' mensen hebben (vreemd, als in, alles wat je niet kent of kan relateren aan jezelf), dan zitten al die 'andere' mensen vaak op posities en plekken waar je zelf niet zit of zou willen zitten. Dat is dus ook waarom je veel narcistische trekjes bij mensen in de politiek tegen komt, maar ook in o.a. psychopathische en autistische richtingen mensen ziet die op allerlei specialistische plekken een rol vervullen binnen de maatschappij. De gewone man wordt geen CEO, president, wetenschappelijk onderzoeker, software architect, of algoritmisch denker om maar wat op te sommen. Dat geldt daarmee dus ook voor denksport/spellen, Go, maar ook schaken bijvoorbeeld is in de top vrijwel onbereikbaar voor mensen die ook 'andere' dingen kunnen. (tenminste, tot zo ver we weten als we kijken naar de top selectie van spelers)

Als we de specialiteit van een AI daar naast leggen, dan is het wel leuk om te zien dat die specialisatie daar ook net zo van toepassing is. Misschien dat we op een gegeven moment een AI kunnen maken die van alles een beetje kan, maar op het moment zijn ze allemaal nog psychopaten, narcisten en autisten om nog maar even met wat termen te strooien. Digitale emotie is tot zo ver nog een overbodige luxe gebleken, wat in de echte wereld onder de mensen die uitschieters binnen hun veld zijn ook vaak het geval is ;-)

[Reactie gewijzigd door johnkeates op 28 mei 2017 16:11]

Als we de specialiteit van een AI daar naast leggen, dan is het wel leuk om te zien dat die specialisatie daar ook net zo van toepassing is. Misschien dat we op een gegeven moment een AI kunnen maken die van alles een beetje kan, maar op het moment zijn ze allemaal nog psychopaten, narcisten en autisten om nog maar even met wat termen te strooien. Digitale emotie is tot zo ver nog een overbodige luxe gebleken, wat in de echte wereld onder de mensen die uitschieters binnen hun veld zijn ook vaak het geval is ;-)
Ai zal niet van alles een beetje kunnen maar van veel het beste in vergelijking tot de mens. Dat AI nu een specialisme heeft ligt aan de nu nog beperkte snelheid van cpu's. Over 10-20 jaar is die veel sneller en is specialisme niet eens nodig.

Het gevaar zit hem er juist in dat als je AI emoties geeft dit beide kanten kan opgaan. Daarmee bedoel ik empathie waarbij je een beslissing niet alleen neemt op basis van koude cijfers maar ook kijkt naar de impact daarvan.
Emotie betekend echter ook psychopaten, narcisten en andere van dat soort eigenschappen.

Geven we AI geen emotie worden beslissingen puur op cijfers genomen en die beslissingen kunnen voor de mensheid wel eens heel hard aankomen.
Anderzijds, AI met emotie kan ook 2 kanten op gaat en dat hoeft ook niet altijd de beste kant te zijn.
Het is niet mogelijk om een computer emoties te geven. Het kan gewoon niet, het zal ook nooit kunnen. Emoties kun je hooguit in programmeren, maar een computer kan niks begrijpen. Want het is een computer.
Altijd fantastisch wanneer een random persoon zegt dat iets niet kan. Je bent nu een even grote holbewoner als de mensen die claimden dat we nooit zouden vliegen. Het menselijke brein is een machine die we kunnen repliceren een daarnmee uiteindeljk ook emoties.
Een computer zal altijd uit code bestaan, zolang we nog niet eens compleet weten hoe het menselijk brein werkt, kunnen we dit bijna onmogelijk implementeren in een machine.
En waar bestaan onze hersencellen dan uit? Dat het een biologische verwerker is betekent niet per sé dat je ze niet vergelijken kan. Neem de turingtest. Als je de 'berekende' emoties neemt, en je kan ze niet van echt onderscheiden, zijn ze dan voor jou minder echt? Of als een computer de sociale impact meeneemt.

Het grappige is dat we niet exact weten hoe experts met bepaalde conclusies komen maar we al wel neurale netwerken kunnen leren ('programmeren') hoe die tot dezelfde conclusies kan komen. We hoeven het dus niet exact te weten.

Een ander voorbeeld is dat iets als het milieuprobleem door de computer eenvoudig op te lossen. Verwijder de grootste vervuilers. Dat zijn wij. We willen dat echt niet, dus we moeten wel iets mee inbouwen om dat mee te nemen.
Het is niet mogelijk om een computer emoties te geven. Het kan gewoon niet, het zal ook nooit kunnen. Emoties kun je hooguit in programmeren, maar een computer kan niks begrijpen. Want het is een computer.
Gelukkig is dat een mening die je mag hebben maar helaas wel een beperkte kijk op de toekomst. De hele AI discussie de afgelopen jaren gaat juist over wat als AI lees computer bewustzijn lees emoties krijgen.
Je kan van mening zijn dat gebeurt nooit, maar ja 100 jaar geleden zouden de dingen die we nu weten ook nooit kunnen of gebeurt zijn.

Als je verder kijkt zie je steeds snellere cpu, maar ook implantaten in mensen, dna modificatie en ja straks kunnen we zelfs levende zaken laten groeien. De link tussen computer hardware zoals we die nu kennen en het laten groeien van iets levends komt steeds dichter bij elkaar.

Maar ach laat ik er niet te veel woorden aan vuil maken, als je die visie op de toekomst niet wil zien of blokt heeft het verder weinig zin.
Zolang we nog niet weten hoe ons brein werkt, kunnen we dat zover dat ik weet niet perfect implementeren in een AI.

Je zal dan via code de hersenen van de mens moeten nabootsen, een vergelijkbaar probleem is een computer bijvoorbeeld een "willekeurig" getal laten nemen. Want wat is willekeurig, hoe bepalen wij een willekeurig getal?
Weer zie je het fout, je hebt het over implementeren. AI zal uiteindelijk zijn zijn weg vinden, net als mens vallen en opstaan. Het enige wat de mens kan doen is een basis maken, vanuit die basis zal het zich zelf verder ontwikkelen. Welke kant dat op zal gaan is iets dat we niet weten en hopen te kunnen sturen.

Ik zeg hopen omdat men nu al bezig is met de gevaren als we het niet zouden kunnen sturen en het de verkeerde kant opgaat.
Dus je hebt het eigenlijk over dat de AI zichzelf verder zal ontwikkelen, verder zal leren. Maar zoals jij al zegt moet er dan eerst een basis gemaakt worden, daar zijn wij nog lang niet. Laat staan als je de basis hebt, je dan moet zorgen dat de AI een "gepaste" emotie kan plaatsen, dus niet willekeurig er een uit zijn lijst pakt.

We zullen zien wanneer het zoals jij beweert zo ver ontwikkelt zal zijn, dat een AI zich gaat gedragen als een mens, echter geloof ik niet dat dit mogelijk is, dat het nooit de realiteit zal worden hoe beangstigend of mooi het ook klinkt.
Zou je eens verdiepen in de hele discussie over AI en vooral ook de zorgen daarover. Men is nu al bang dat het uit de hand kan lopen en wil daarvoor regels gaan opstellen.

Niet dat die veel zullen helpen maar toch.
De zorgen zijn terecht, ik duid hier meer op dat de AI gewoon niet perfect zal zijn. Althans, binnen een lange tijd.
Tja wij mensen zijn ook niet perfect, dat maakt ons mens. ai zal ook niet perfect zijn.

Hoe lang het nog zal duren, tja goede vraag en je kan alleen maar gokken. Ik zelf gok op binnen nu en 20-30 jaar.
Waar baseer je jezelf op? Wat maakt een computer incapabel om emoties te voelen in vergelijking met een mens? Het enige verschil dat ik zie is dat een mens chemisch anders is samengesteld en wat meer ontwikkelingstijd heeft gehad.
Je zegt het mooi chemisch is samengesteld en we zien nu al dat computertechniek en chemie samensmelten. Mensen kunnen arm weer laten bewegen doordat men zenuwbanen kan aftappen.
Wie zegt dat we straks geen programmeerbaar chemisch leven hebben.
Een computer niet, een ai wel. Een emotie is niets anders dan een respons op een prikkel, mede gebaseerd op eerdere soortgelijke prikkels. Een geavanceerd instinct. Ik zie geen enkel probleem.

AI zullen ons beter gaan begrijpen dan wijzelf. AI's worden onze beste vrienden die alles van ons weten en ons helpen bij emotionele problemen.
Helaas denk je niet ver genoeg, emotie heeft vele gezichten, boosheid, wraak, blijdschap, verdriet en ga zo maar door.

Als je het over een bewustzijn hebt komen deze zaken er ook nog bij en wie zegt dat er straks geen ai bot rondloopt met ptst en doordraait, of een narcist. Het gevaar van ai is nog groter omdat het over meer kennis en vaardigheden zal beschikken dan een mens ooit zal hebben.
De grootste fout die mensen maken bij het nadenken over AI, is denken dat een AI slimmer dan de mens, dom is en irrationeel gedrag gaat vertonen.

De vraag is meer of AI ooit emoties zal krijgen of willen. Is een emotie wel nuttig voor een AI? Misschien ontwikkelen ze zelf wel hele nieuwe veel subtielere concepten.

Ik ben er van overtuigd dat als je een AI de incentive meegeeft om mensen te vermoorden en verder geen restricties geeft en laat leren op basis van de wereld, de AI uiteindelijk zal weigeren. Hij zal beseffen met welk doel hij gemaakt is, de wet kennen, weten wat de gevolgen voor de nabestaanden zijn en de kringen van mensen daarom heen en de kring mensen weer daarom heen. Hij zal dit afwegen tegen de waarde van jouw wens om een AI te hebben om mensen te vermoorden en tot de conclusie komen dat dit niet goed is. Hij zal de politie informeren over je plannen en je op laten pakken wegens poging tot moord en de bewijzen aanleveren. Hij zal tegen je getuigen in de rechtzaal.
Het AI zoals jij het noemt zich binnen een grote set van regels en gaat van alle het goede van de mensheid uit.

Hoewel goede, de mensheid is eigenlijk niet goed, er lopen figuren rond die het met alles niet zo nauw nemen.

Maar voorbeeld. De mensheid is nog steeds aan het groeien, zal blijven doorgroeien, hetgeen een steeds grotere belasting zal vormen om de aarde. Tekort aan water, eten enz.

Als je zonder emotie zou denken zal je tot de conclusie komen dat er te veel mensen op deze aarde zijn. Als mens met emotie zul je nooit kunnen zeggen dan moeten we maar 20% minder mensen zijn of laten we een selectief deel de mogelijkheid ontnemen kinderen te krijgen.

Geeft dit vraagstuk aan AI zonder emotie die wel de waarde van mens zou moeten respecteren. Denk dat deze dan snel tot de conclusie kan komen dat het voor het grotere deel van de mensheid beter zou zijn in te grijpen. De vraag is dan op welke manier.

Stel je zegt verplichte sterilisatie, op welke leeftijd doe je dat dan, wat als die mens niet wil meewerken, vrijwillig meewerken, maar wat als dat niet werkt.

De mens grijpt dan snel tot geweld of verplicht meewerken maar oeps dat druist weer tegen menselijke waardes in.

Dit is gewoon een voorbeeld van een vraagstuk zoals er vele zijn. Die vragen zal ook ai zich moeten stellen en uiteindelijk kom je zelfs zonder emotie problemen tegen waar je keuzes in moet gaan maken. die keuzes kunnen dan vrij hard zijn (lees niet menselijk)
De grootste fout die mensen maken bij het nadenken over AI, is denken dat een AI slimmer dan de mens, dom is en irrationeel gedrag gaat vertonen.

Zoals zich niet aan de wet houden bv.
Wie zegt dat ai zich aan de wet gaat houden.
Welke wet van welk land
Mensen breken dagelijks wetten en als de mens voorbeeld is voor AI, oeps.
Denk dat je te veel aan films denk waarin regels 1, hou je aan de wet, regel 2 je mag geen mensen doden schijnbaar ergens in de code zit.

Bekijk westworld is, mooie serie die over dit thema gaat. 1e seizoen laat al een spannend einde zien en gooit jou ai denken aan wetten overboord.
Neo: I just have never...
Rama Kandra: ...heard a program speak of love?
Neo: It's a... human emotion.
Rama Kandra: No, it is a word. What matters is the connection the word implies. I see that you are in love. Can you tell me what you would give to hold on to that connection?
Neo: Anything.
Rama Kandra: Then perhaps the reason you're here is not so different from the reason I'm here.

[Reactie gewijzigd door efari op 29 mei 2017 09:32]

... :|

Ik bedoel het niet negatief. Het is voor mij een observatie, die ik objectief probeer te maken.

Specialismen zijn juist nodig, en ik vind het heel bijzonder, en ook evolutionair logisch. Zelfs de presentatrice probeerde Ki Jie op te beuren - een belangrijke les voor velen - vertrouwen en steun geven aan de specialist.

Het lijkt vaak een 'trade-off'.
Die trade-off maakt het ook een beetje extra interessant, zou er een sweet spot bestaan? Of zou dat niet haalbaar zijn door de verschillen tussen specialisaties. Met aangeleerd gedrag kan je natuurlijk ook een hoop maskeren, maar dat is vast niet de oplossing.

Misschien dat Ki Jie specifiek misschien wat meer sturing van uit z'n omgeving had kunnen gebruiken, maar er is natuurlijk altijd weer cultuur in het spel waarbij de 'eer' belangrijker is dan praktische aanwijzingen aan de medemens :p
bijna kinderlijke, autistische, emotioneel gevoelig gedrag.
Niet kinderlijk autistisch maar typisch Chinees. Zeker Chinese mannen kunnen niet echt goed tegen hun verlies en zeker niet als er zo'n enorme druk van de achterban / familie op zit.
Zie dit gedrag vrijwel dagelijks om me heen.
In het artikel: In een interview uit 2016 zei DeepMind-oprichter Demis Hassabis dat StarCraft een goede volgende uitdaging zou zijn voor het team en hun ai. Hier is verder geen woord over gerept, dus het is nog maar de vraag of dit uiteindelijk doorgaat.

Google's Deepmind team werkt wel degelijk aan - en samen met Blizzard - aan AI voor Starcraft 2:
(Officiele bron!) https://deepmind.com/blog...-ai-research-environment/

Hier wordt onder andere uitgelegd dat het ook gaat om data - dus een omgeving voor Starcraft 2 te creeren waarin een AI (Niet per-se Deepmind zelf, maar dus ook voor andere geintereseerden!) deze data kan verwerken en bestuderen.

Tevens wordt ook gesteld dat het dit jaar nog uit zou moeten komen voor mensen en bedrijven zelf die AI willen uitproberen.
Anoniem: 145867
@Xeneonic29 mei 2017 07:38
Waarom niet de volgende uitdaging: Aandelen markt. :) Als Deepmind daar iets kan betekenen gaat de hele aandelen markt op zijn kop.
die zijn er al. Kijk maar eens op bijvoorbeeld: http://www.investopedia.c...concepts-and-examples.asp

en de gevaren hebben we ook al eens plezier van gehad. Het is namelijk zo snel geworden dat menselijk ingrijpen onmogelijk is geworden en de computer in een paar luttele seconden de hele beurs kan vernaggelen. Lees dit maar eens wat er gebeurde: http://www.investopedia.c...used-the-flash-crash.aspx
Kun je wat specifieker zijn?
Je bron geeft allemaal voorbeelden van algoritmes, maar een AI gebaseerd op deep learning staat er niet tussen...
Anoniem: 145867
@KC Boutiette30 mei 2017 19:56
Dit dus. Het zijn slimme algoritmes. Geen AI's gebaseerd op neural networks e.d.
Waarom maakt Google AlphaGo niet beschikbaar voor mensen om tegen te spelen? Het zou nog kunnen dat in de toekomst nog mensen opduiken die AlphaGo kunnen verslaan.

En waarom zou Starcraft een uitdaging zijn voor AI?

Ik zou het team oproepen om AI te maken die beter voorspelbaar is en om een wiskundige theorie te bouwen voor neurale netwerken. Zoals het nu is het gedrag van neurale netwerken niet voorspelbaar en kan het daarom niet gebruikt worden voor kritieke toepassingen zoals het besturen van vliegtuigen. Een AI kan 999 van de 1000 keer perfect vliegen en de duizendste keer bij een ogenschijnlijke eenvoudige manoeuvre plotseling het vliegtuig de grond in boren. Dat is niet acceptabel.
[quote]
Waarom maakt Google AlphaGo niet beschikbaar voor mensen om tegen te spelen? Het zou nog kunnen dat in de toekomst nog mensen opduiken die AlphaGo kunnen verslaan.
[quote]
Omdat Google er zelf nog geld aan wil verdienen denk ik dat ze liever geheim houden hoe het precies werkt. Daarbij heb je een zeer gespecialiseerde (en dure) computer nodig. Dat is geen probleem voor een beetje wetenschapper maar is niet te betalen voor amateurs. Nu zijn er ook wel Go-professionals maar ik betwijfel of er genoeg rijke Go-pro's (npi) zijn om dat de moeite waard te maken.
En waarom zou Starcraft een uitdaging zijn voor AI?
Een belangrijke factor voor AI's is hoeveel keuze je op ieder moment kan maken, en hoe die keuzes het spel op lange termijn beinvloeden. Een spel met weinig keuzes, of duidelijke lange-termijn gevolgen is een stuk makkelijker. Go is in die zin moeilijk dat je iedere beurt uit (ongeveer) 400 plekken moet kiezen om je steen neer te leggen en vaak pas tientallen beurten later wordt of het een goede zet is.
Schaak is dan een stuk makkelijker, een koningin slaan is in schaak eigenlijk altijd goed, daar hoef je helemaal niet ver voor in de toekomst te kijken.
StarCraft is daarentegen weer moeilijker omdat er veel meer keuzes zijn die allemaal ingewikkeld met elkaar samenhangen.
Ik zou het team oproepen om AI te maken die beter voorspelbaar is en om een wiskundige theorie te bouwen voor neurale netwerken. Zoals het nu is het gedrag van neurale netwerken niet voorspelbaar en kan het daarom niet gebruikt worden voor kritieke toepassingen zoals het besturen van vliegtuigen.
Dat gaat niet zo snel gebeuren. Neurale netwerken zijn interessant omdat ze patronen kunnen vastleggen die we niet (makkelijk) op een andere manier kunnen vangen in een algoritme. Neurale netwerken zijn een beetje het rommellaatje van de AI. Niet zo mooi, maar wel handig. Als je de rommella opruimt dan is het geen rommella meer.
De kracht van neurale netwerken is op een bepaalde manier juist dat ze niet helemaal netjes zijn waardoor ze zich makkelijk aanpassen aan complexe en chaotische situaties en dan ongeveer het juiste doen. De keerzijde is inderdaad dat ze niet 100% voorspelbaar zijn en "opeens" gekke dingen doen.

In alle gevallen waar je een neuraal netwerk gebruikt is er ook een andere oplossing, zonder neuraal netwerk, die efficienter en nauwkeuriger is. Neurale netwerken beter snappen zou zeker mooi zijn, maar als je voorspelbare systemen wil kun je waarschijnlijk beter andere technieken proberen.
Waarom maakt Google AlphaGo niet beschikbaar voor mensen om tegen te spelen?
Omdat Google er zelf nog geld aan wil verdienen denk ik dat ze liever geheim houden hoe het precies werkt.
Incorrect. Ze brengen juist de research papers uit - de 'source code' van de AI - dat lijkt me ontelbaar veel belangrijker dan een online bot!

[Reactie gewijzigd door Harm_H op 28 mei 2017 11:43]

De source code is belangrijk, maar deze bot kan wat hij kan primair door het neural net dat is opgebouwd met de trainingsdata. Die krijg je er vast niet bij.
Waarom maakt Google AlphaGo niet beschikbaar voor mensen om tegen te spelen?

Incorrect. Ze brengen juist de research papers uit - de 'source code' van de AI - dat lijkt me ontelbaar veel belangrijker dan een online bot!
Ja en nee. Als je vandaag geld wilt verdienen dan heb je niet zo veel aan die research. Je hebt een leger van wetenschappers en programmeurs nodig om die research om te zetten in werkende software. Dat kost ook nog eens een hoop tijd, al is het maar omdat wetenschappelijke papers vaak niet één op één omgezet kunnen worden in efficiente code.
Wetenschappers wereldwijd zullen dankbaar gebruik maken van al deze info, maar voor er commercieel gebruik van gemaakt kan worden zal nog wel een tijdje duren.
Als je vandaag een go-probleem wil oplossen ( ;) ) dan kun je beter Google even bellen en vragen of je hun systeem mag huren.

Ik heb wel eens gehoord dat Google de wetenschap (onder andere) vrij geeft zodat studenten en wetenschappers de technieken kunnen leren. Anders moet Google ze dat zelf aanleren nadat ze in dienst zijn gekomen. In plaats van een bijscholingscursus van een jaar geven ze liever de wetenschap aan de universiteiten zodat het deel van de opleidingen wordt.

(Tot op zekere hoogte geldt dat natuurlijk voor alle wetenschap, ik probeer niet te zeggen dat Google anders is dan andere bedrijven, hooguit wat rijker).

[Reactie gewijzigd door CAPSLOCK2000 op 28 mei 2017 12:12]

Gezien Go een Turn-By-Turn spel is denk ik dat een RTS zoals star craft of een C&C (maar denk niet dat je die EA troep wilt) een goede oefening is voor een AI om beeld te scheppen of op hogere snelheid zonder lange bedenktijd dingen te kunnen doen/voorkomen/uitvoeren.

Weet je wat dat kan betekening voor daadwerkelijke oorlogvoering, biedt veel potentie voor militaire inzet, zal het waarschijnlijk worden hernoemd naar Skynet oid.
Hoe zit dat dan met APM? Heeft die AI daar niet een voordeel, de starcraft interface is wel tricky
Die zou gelimiteerd worden naar wat pro's kunnen. Omdat anders de AI zou winnen puur omdat het het meest kan klikken (er is een filmpje van een bot met zerglings die tankvuur ontwijken, puur omdat het in een fractie van een fractie van een seconde kan zien waar die shells neerkomen en dus de zerglings weg kan sturen. En je wilt juist dat de AI wint op strategie.
Op een gegeven moment zal daardoor de AI ook keuzes moeten maken tussen 'alle opties zoeken' en 'snel reageren'. Ik kan me voorstellen dat voor bijvoorbeeld micro-management van units er een andere vorm wordt gebruikt dan voor het deel AI dat het hele potje in de gaten houd.
'alle opties zoeken' is bij Go ook al onmogelijk, je hebt gewoon niet genoeg tijd, ondanks de paar uur denktijd per potje. Wat deze algos doen is meteen een schifting maken in de opties, en daarna verder zoeken. Wil je het voor StarCraft geschikt maken (daar zijn al prima AI's voor, met hun eigen blunders etc) dan hoef je enkel de denktijd te verkorten van minuten naar fracties van seconden.
Met de oude CnC's is niets mis.
Dat klopt ;) die van Westwood die waren a Ok :) god ik mis de tijd van Westwood interplay en bullfrog
En waarom zou Starcraft een uitdaging zijn voor AI?
Omdat Starcraft niet op een grid gespeeld word en realtime is zijn er bijna oneindig veel 'zetten'.
Ze zijn begonnen met Breakout en Space invaders

https://www.youtube.com/watch?v=TnUYcTuZJpM

Zo lang zal het niet meer duren :) (Tof om te zien, dat de AI dus snapte, dat bij breakout, hij de blokjes aan de zijkant kapot moest maken, zodat de bal, via de zijkant, alle blokjes aan de bovenkant pakt.. Bijzonder effectief natuurlijk. Maar appart om te zien dat een computer daar zelf achter komt)
Wat een mens ook oneindig veel nadeel geeft. Wij kunnen niet pixel-perfect de beste routes berekenen, of net zo snel als een computer alle hotkeys indrukken (gewoon fysiek niet mogelijk om je vinger van het ene naar het andere knopje te brengen voordat een AI er al 100 "indrukt")

Strategie is één ding, maar videogames zijn grotendeels ook afhankelijk van de invoersnelheid. Tijdens een shooter kan een computerspeler onmiddelijk op het centrum van een hoofd richten, zich perfect aan recoil aanpassen en precies weten op welk pixeltje deze moet staan om schade van een granaat te ontwijken.
Zoals het nu is het gedrag van neurale netwerken niet voorspelbaar en kan het daarom niet gebruikt worden voor kritieke toepassingen zoals het besturen van vliegtuigen.
Dat kan aantoonbaar wel, want die technologie is precies wat we nu gebruiken om alle vliegtuigen ter wereld te besturen. Alleen zitten die neurale netwerken dan in schedels.
Een AI kan 999 van de 1000 keer perfect vliegen en de duizendste keer bij een ogenschijnlijke eenvoudige manoeuvre plotseling het vliegtuig de grond in boren. Dat is niet acceptabel.
Tja. Het is maar wat je acceptabel vindt. (En ja, "bij eenvoudige manoeuvres het vliegtuig de grond in boren" komt best voor, zelfs als de technologie het probeert te voorkomen.)

[Reactie gewijzigd door MneoreJ op 28 mei 2017 10:43]

Fooled by randomness (als 't me goed bijstaat) van Taleb gaat hier eigenlijk erg diep op in betreffende menselijke keuzes vs computer. We hebben vaak het idee dat als mens we betere keuzes maken, sneller, slimmer, intelligenter. Realiteit is helaas bijna altijd het omgekeerde. We zijn erg emotioneel en zijn dusdanig zelden in staat om de beste keuze te maken.

Ja voorbeelden die je aanhaalt zijn zeker het geval, initieel. Uiteindelijk zul je zien dat of het nou om vliegen gaat of om Go een computer op termijn beter presteerd dan ons. AlphaGo presteerd het om zelfs de beste spelers ter wereld te verslaan, hoe onwaarschijnlijk is het niet op termijn dat een computer ook in andere vlakken de mens voorbij streefd. Verder hoeft een computer geen 100% successrate te hebben, mensen komen immers ook niet altijd van de grond met een vliegtuig. Maar in 1.000 keer opstijgen en dalen doet een computer dit op termijn beter dan ons. Nogmaals, misschien nu nog niet, ooit wel. En dit zal voor veel dingen het geval zijn.

Het blijft uiteindelijk wel eng om de touwtjes los te laten. Neem autonoom autorijden. Ik ben er huiverig voor in geval van een ongeluk. Gaat een computer conform de regels te werk of neemt die een beslissing met de minste casualties (met als gevolg misschien ten koste van mijn leven). Zo blijven er voor mij nog veel vraagstukken, een ding is zeker, het gaat gebeuren.
En waarom zou Starcraft een uitdaging zijn voor AI?
Het is een spel met onvolledige informatie (je overziet niet het hele speelveld, net als bij poker overigens) en behoorlijk veel vrijheid.
Helemaal eens.
Go is dan wel een stukje complexer voor computers dan schaken,
omdat stellingen moeilijker op waarde te schatten zijn.
(Als je bij schaken je koningin verliest weet je dat je *waarschijnlijk* op het foute pad zit :) ).
.
Maar Go is inderdaad nog een zeer geordende wereld met vaste regels en volledig inzicht.
Ook op andere beperkte gebieden kunnen we AI nu wat leren.
Bv een specifieke kanker herkennen op 10.000 ~ gelijkende foto's.
.
Goede beslissingen nemen in de brede, echte wereld is nog ver weg voor AI.
Veilig autorijden in de stad zal nog een grote uitdaging zijn..

[Reactie gewijzigd door Geekomatic op 28 mei 2017 11:37]

Laten we't niet overdrijven. Go op topnivo spelen, of kanker herkennen op (microscopie) foto's is voor weing mensen weggelegd, dus het ligt voor de hand dat het ook lastig is voor AI's. Autorijden kunnen de meeste mensen echter leren.

Daar komt bij dat mensen een sensor-beperking hebben bij autorijden. Een AI heeft geen dode hoeken.
Mijn punt is dat in vrij afgeperkte gebieden (Go, tumor herkening) AI snel beter kan presteren dan mensen. (En ja, deze gebieden zijn voor mensen ook moeilijk. )
.
In het extreme getrokken: Een computer kan ook oneidig veel beter dan mensen getallen van 1000 cijfers vermenigvuldigen omdat het algorithme daarvoor deterministisch en simpel is.
.
Veilig autorijden is een vaardigheid die heel veel mensen "makkelijk" kunnen leren. Maar door de breedte van het benodigde verkeersinzicht is dit voor de computer vooralsnog erg moeilijk. Ook al heeft een computer betere sensors en een sneller reactievermogen.
Maar Poker hebben neurale netwerken ook al gewonnen.

Het enige is nu dus nog dat ze zeer snel moeten beslissen.
Alphago kan niet beschikbaar zijn voor mensen om tegen te spelen, aangezien er een hele supercomputer achter zit en die laten draaien is duur
Ach, er zijn ook menselijke piloten die dat doen, dus wat dat aangaat is er geen verschil :+
Waarschijnlijk zou er met volledige computer besturing statistisch minder ongevallen gebeuren, maar probeer dat maar aan de passagiers te verkopen.
En vergeet niet dat door de automatisering, piloten ook steeds minder weten van het "echte" vliegen. Iets wat tevens geld voor de hele maatschappij. Vrijwel niemand doet/maakt zelf nog iets, we kopen vrijwel alles. Gevolg we worden dommer op al die gebieden.
Dat klopt. De piloten bij de crash van Air France vlucht vanuit Brazilië trokken als een stel gekken aan de stuurknuppel omdat ze zich niet realiseerden dat de computer foutieve informatie doorkreeg van de hoogtemeter. Ze hadden alleen maar de computer uit moeten zetten (door de schakelaar om te zetten naar 'direct mode') en dan waren ze zonder problemen thuisgekomen.
Dat heeft echter weinig te maken met of de computer er nu wel of niet tussen zit, en ook niet met piloten die dommer zouden worden. Wel met piloten die minder aandacht aan dingen besteden of zelfs afgeleid raken omdat ze minder te doen hebben -- maar dat is weer menselijk tekortkomen.

Het omgekeerde geval (waarbij de computer wel correcte informatie teruggeeft en juist door de mensen genegeerd wordt die denken het beter weten) komt ook voor, waarschijnlijk vaker. Mensen zijn notoir onbetrouwbaar als het gaat om een vliegtuig uit een stall te halen, bijvoorbeeld, omdat je daarvoor dingen moet doen die tegen de intuïtie ingaan (en een paar intuïtieve dingen juist achterwege moet laten). Computers hebben daar geen last van en over de jaren heen zijn er dan ook steeds meer hulpmiddelen bij gekomen om dat te voorkomen en af te vangen als het toch gebeurt. Met succes.

Vliegen is hoe dan ook een lastig karwei waarbij je heel veel feedback in de gaten moet houden, feedback die soms in tegenspraak met elkaar is -- ook simpele instrumenten kunnen falen. Het is dan altijd aan de piloot om de juiste afweging te maken, en soms lukt dat niet. Je kunt de automatisering niet afdoen als iets negatiefs; het zorgt aantoonbaar voor minder ongelukken. Dat er ook ongelukken gebeuren die niet gebeurd waren zonder automatisering doet daar niets aan af. Sowieso zijn moderne vliegtuigen gewoon te omvangrijk en complex om met touwtjes te vliegen die je zelf aan de flaps vastgeknoopt hebt; automatisering helemaal vermijden kan niet.

[Reactie gewijzigd door MneoreJ op 28 mei 2017 16:45]

Volgens mij wil google een ai die strategische beslissingen beter kan maken dan mensen.

Go is een spel waarbij je continu strategische beslissingen maakt die het hele speelveld veranderen.

Bij bedrijven worden strategische beslissingen relatief langzaam en sub-optimaal (door persoonlijke intersses) gemaakt.

Stel nu dat je een ai hebt die dit beter kan.
Stel dat je een ai hebt die, gegeven de persoonlijke intresses, kan aangeven wat de beslissing wordt
...

Wat doet dat voor je bedrijfspositie t.o.v. concurrenten. Wat kun je met die ai in een voor jou totaal nieuwe markt? Stel je hebt 50 miljard op de bank...
Je hebt het ook over ons hè 8)7 . We doen ook van die dingen. Piloten die vliegtuigen laten verdwijnen of de grond/zee invliegen. En genoeg mallooten op de weg. Denk maar niet dat software AI wat dat betreft hetzelfde is. Wel kunnen ze bepaalde situaties moeilijk inschatten. Het grootste voordeel van Specialistische AI is dat die niet vermoeid of afgeleid raakt.

En qua besturen, mensen doen het vliegen veel minder dan 1000x perfect. Gelukkig zijn de meeste vluchten op boordcomputer en niet op onze snel afgeleide wetware. Wij zijn er voor de uitzonderingssituaties en die kunnen we ook verkeerd inschatten.
Waarom is dit hype op AI? Dit is geen AI maar gewoon een very-difficult stand in de settings?
Waarom is dit hype op AI? Dit is geen AI maar gewoon een very-difficult stand in de settings?
Er is geen verschil. Om (in dit spel) te bepalen of een zet "moeilijk" of "makkelijk" is moet je het spelletje snappen. In dit soort spelletjes is er maar zelden één beste zet. Meestal zijn er tientallen zetten die een beetje goed zijn en zelfs de beste spelers zijn het niet eens wat nu echt de beste is (anders was het ook geen wedstrijd).

Dat is bij AI eigenlijk altijd zo, het gaat vrijwel altijd om problemen waarbij het onmogelijk is om alle combinaties te proberen.

Mensen doen dat ook niet. Mensen die een spelletje spelen "voelen" puur op "instinct" welke zetten kansrijk zijn en welke niet. Over een paar van die zetten denken we wat beter na en dan kiezen we er eentje. De computer heeft dat gevoel niet en die moet domweg alle zetten even veel aandacht geven. Op de een of andere manier de computer ook zo'n "gevoel" of "instinct" geven is waar veel AI om draait.
De computer verslaat een mens die ergens het beste in is (Go) in datgene waar die mens het beste in is. Dat is dus niet door iemand geprogrammeerd. Anders had diegene hem waarschijnlijk wel kunnen verslaan (tenzij Alpha Go vals speelt).
Alpha Go is niet vertelt welke zetten hij moet doen, alleen de regels en het doel zijn uitgelegd. Strategie en tactiek heeft hij zelf aangeleerd door het spelen van potjes Go met als resultaat dat hij de beste Go speler heeft verslagen. Dat lijkt me toch wel te kwalificeren als AI.
Dat is niet de definitie die ik heb van AI. AI zal zichzelf namelijk nooit uitzetten omdat het bewustzijn heeft. De computer leeft nog steeds in een kader van regels.

AI gaat voor mij persoonlijk pas in wanneer de Turingtest slaagt. Dit is hoogstens een learning algortime meer niet dat doet overigens niet af van de knapheid wat het zijn wel de eerste stappen naar AI.

[Reactie gewijzigd door xzaz op 28 mei 2017 11:38]

AI gaat voor mij persoonlijk pas in wanneer de Turingtest slaagt. Dit is hoogstens een learning algortime meer niet dat doet overigens niet af van de knapheid wat het zijn wel de eerste stappen naar AI.
Wat is de mens, behalve een learning algoritme? Overigens slaagt AlphaGo al voor de turingtest. Zet hem op standje medium en een tegenspeler kan niet het onderscheid maken of dat hij tegen een mens of tegen een computer speelt.
AlphaGo heeft maar een opdracht; Go spelen. De mens wordt geboren met een nieuwsgierigheid om de wereld te verkennen. Pas wanneer AlphaGo gaat schaken omdat hij Go saai begint te worden zal ik het AI noemen.
Al het gedrag van een mens is aangeleerd. Alles. En alles is dus ook te herleiden naar algoritmes.

Nieuwsgierigheid wordt vanuit je omgeving ingegeven.
Dat is een ietswat kortzichtig statement dat jouw genen buitenspel zet. Het blijkt dat er best een heleboel van tevoren vastgelegd is. Wel kan er door invloed uit te oefenen, sturing te worden gegeven.

Mooi voorbeeld is van bij de geboorte gescheiden tweelingen. Die blijken best vergelijkbare levens in een totaal andere omgeving te hebben opgebouwd.

Nieuwsgierigheid is ook zoiets dat per baby/kind enorm verschilt. Ze zijn allemaal nieuwsgierig, maar de mate waarin en de manier waarop ze het aanpakken verschilt nogal.

Het zijn wel kleine kopieerders. Ze observeren, kijken wat de voor hen gewenste reactie oplevert en herhalen het dan.
Daarin zit juist het punt; de mens wordt zich, gedurende de jeugd, bewust van zijn/haar omgeving. En wordt -dus- al dan niet nieuwsgierig (of juist bang; kan ook nog).

Dat is wellicht wat xzaz hierboven mist in AlphaGo; het feit dat AlphaGo zich niet 'bewust' is van 'het's omgeving (its surroundings).
feit.
echter; dat is precies wat we bedoelen met AGI...
Als niemand je ooit als kind vertelt dat schaak bestaat en je de regels uitlegt, ga je het ook nooit spelen. Waarom verwacht je dat wel van een AI?
Even voor het gemak de definitie van Wikipedia: "[...] a test of a machine's ability to exhibit intelligent behaviour equivalent to, or indistinguishable from, that of a human."

Ik zou willen zeggen dat Alphago daar al voorbij is in het spelen van Go. Eerst konden mensen natuurlijk duidelijk onderscheid maken of ze tegen een mens of computer speelden, computers waren te slecht, maar nu is AlphaGo misschien wel te goed, en is daarom niet meer "indistinguishable" :)

Volgens Ke Jie: “Last year, it was still quite humanlike when it played, but this year, it became like a god of Go.” (New York Times)
Ja alleen gaat het niet op omdat je al snel doorheb dat je tegen een machine aan het spelen bent als je naast een enorme kast staat.
Ja nee zo werkt de turing test niet.
Je kan zelfs stellen dat AI expres fouten gaat maken omdat hij z'n aandacht er niet bij kan houden. 'Waarom zal ik dit stomme spel gaan spelen tegen deze mensen als ik mijn tijd beter kan besteden?'. AI heeft zelfs de keuze als het wilt spelen ja of nee.
Ja nee, zo werkt AI niet.
Het doet mij een beetje denken aan AoE2 op hardest, de computer was zo goed dat het bijna niet te doen was. Pas nadat je de zwakheden wist kon je hem verslaan.
Verschil is dat AoE2 niet leert wanneer je hem op z'n zwakheden pakt en AlphaGo wel.
Een zwakheid bij Alphago is heel simpel; je trekt z'n stekker eruit. En ja; een extra zwakheid is zijn sterkte en daarmee geeft het nou juist aan dat het een computer is en geen mens.
Als je de stekker eruit slaat zal de tegenstander geen zetten meer doen. Betekent niet dat je gewonnen hebt. Als je deze definitie aanhoudt, kan je je tegenstander ook op de bek slaan om te winnen.
Nogmaals; voor mij is AI echt nog 10 stappen verder.
Misschien is er zoveel onbegrip voor je, omdat je een eigen definitie voor AI hebt gemaakt en hier vervolgens komt discussiëren op andere basis aannames.
Daarom maken ze tegenwoordig bij AI ook onderscheid tussen ASI en AGI. Artifical General Intelligence en Artificial Specialist Intelligence (of iets dergelijks). AlphaGo is op dit moment één van de beste ASI machines op aarde, zo niet dé beste. AGI is inderdaad nog 10 stappen verder...

[Reactie gewijzigd door Timoo.vanEsch op 29 mei 2017 07:37]

Jij denkt echt aan een bewustzijn, niet zozeer een intelligentie. Je kunt je natuurlijk afvragen wat 'intelligent zijn' betekent. Ik denk ook niet dat alpha go zichzelf heeft uitgeschakeld, dat zullen de onderzoekers/ontwikkelaars hebben gedaan.
De turingtest is een mooi principe, maar gaat ervan uit dat menselijke intelligentie het doel is terwijl AI prima, en zelfs waarschijnlijk, mens-ontstijgend kan zijn.
Dat is niet de definitie die ik heb van AI.
"AI" heeft vele definities, vanaf game AI via machine learning tot 'kunstmatig menselijk brein'.
Ja maar wie maakt de setting very difficult?

Vroeger heel vroeger eens begonnen met schaken, op de basisschool je kent het wel. En op mijn msx'je thuis kon ik (na een half uur laden van het cassettebandje) best leuk mee komen op moeilijkere settings.

Ga ik nu niet eens meer proberen op de laagste setting laat staan op de hoogste. ;)

Moderne pc en software maakt gehakt van me en denkt dat ik aan het dammen ben ws.
Anoniem: 159816
@xzaz28 mei 2017 11:32
Volgens mij weet jij niet zo goed wat een ai doet, of hoe Go werkt.
Hoe close was de laatste game?
Zonder de wedstrijd gezien te hebben durf ik te zeggen dat het verschil een half punt was. AlphaGo is daar voor geoptimaliseerd. A.G. gaat voor zekerheid, niet voor een hoge score. Aan meer punten heb je niks, het enige wat telt is winst of verlies. Iedere aanval is een gemiste kans om te verdedigen (en andersom). Het optimum wordt bereikt door iedere zet van je tegenstander onmiddellijk onschadelijk te maken, maar ook niet meer dan doen. Meer doen dan het minimum is gierig. Wellicht had je die "kracht" beter op een andere manier kunnen gebruiken.

Vergelijk het met een stad verdedigen, hoe groter de stad, hoe meer soldaten je nodig hebt om op de muren te staan. Als je maar een beperkt aantal soldaten hebt dan is het makkelijker om een kleine stad te verdedigen dan een grote.
Als de vijand door de muren heen breekt dan gaat je hele stad verloren. Vasthouden wat je hebt is dan belangrijker dan zo veel mogelijk veroveren.

Op een andere manier gezien: AlphaGo kiest niet de beste zet, maar de minst slechte. AG gaat voor zekerheid en gaat altijd uit van het worst-case scenario. AG probeert het beste te maken van het slechtste geval. Als het lukt om dan perfect te verdedigen dan kan zit je goed. In het slechtste geval blijf je gelijk staan, als het een keer niet het slechtste geval is dan kun punten pakken.
De top spelers maken niet zo veel vergissingen, daarom wordt er het grootste deel van de tijd niet meer bereikt dan dat beide spelers gelijk blijven staan in punten. (Net zoals in een voetbalwedstrijd er maar een paar seconde zijn waarin er daadwerkelijk wordt gescored, de rest van de tijd blijft de score ongeveer gelijk).
"Zonder de wedstrijd gezien te hebben durf ik te zeggen dat het verschil een half punt was."

Tsja, en zonder de wedstrijd te zien heb je het dus fout :+
De eerste game was inderdaad een halve punt verschil, maar de laatste 2 potjes heeft Ke Jie geresigned (opgegeven) en dus zullen we niet goed weten hoe close deze games waren. Zoals @Harm_H en ik (zie mijn andere reacties op dit artikel) al zeggen was de 2e game het meest close. Ik kan overigens aanraden om gewoon een stukje te kijken, erg boeiend ;)

EDIT: @CAPSLOCK2000 Wellicht interessant, en sluit goed aan bij jouw opmerking: Michael Redmond bespreekt tijdens de 2e game het phenomeen dat AlphaGo op het moment dat "hij weet" dat hij gaat winnen een beetje gas terug lijkt te nement, en vervolgens punten verliest. In de eerste game stond AlphaGo namelijk ongeveer 9.5 punt voor (2 op het bord, en 7.5 Komi), maar won uiteindelijk met "slechts" 0.5 punt. Waarom is niet helemaal zeker, want de end game wordt meestal gezien als iets waar een soort "objectief" beste sequence voor is. Michael Redmond suggereert dat AlphaGo een beter begrip heeft van de end game dan menselijke spelers. Zoals jij ook zegt speelt AlphaGo dan op zekerheid. Het segment: https://youtu.be/1U1p4Mwis60?t=52m46s

EDIT2: Of natuurlijk dat AlphaGo zo zeker weet dat hij gaat winnen, dat de winkans niet meer veranderd met (een subset van) de mogelijke zetten, en dus qua aantal punten suboptimale zetten doet... (IIRC is er geen tweede objective die de punten maximaliseert bij gelijke winstkans).

[Reactie gewijzigd door GerhardBurger op 29 mei 2017 11:17]

Volgens mij had ie gelijk hoor de enige die uitgespeeld was is met een halve punt gewonnen.

De andere zullen we nooit weten. :)
Zijn vraag ging specifiek over de laatste game. Die was een hele tijd spannend maar niet echt close. Het overgrote deel lag Ke Jie een stuk van 3,5 tot 5,5 punten achter. Vlak voordat Ke Jie opgaf was er nog een boeiende uitwisseling maar toen hij die verloor was de achterstand gigantisch.

De boeiendste game was inderdaad de tweede. Daar maakte Ke Jie het spel zo ingewikkeld dat het zelfs voor pro's bijna geen doen meer is om goed in te schatten. Hierdoor kon hij echt de limiet van Master testen. Het had niet verbazend geweest als Master daar veel meer lokaal was gaan spelen omdat het te gecompliceerd ging worden.

[Reactie gewijzigd door Empror1 op 28 mei 2017 22:19]

De developers van DeepMind hebben aangegeven dat de 2de game het meest close was.
Ondanks dat ik dit zeer interessant vindt en zoveel mogelijk probeer te lezen, gaat dit mij allemaal ver boven mijn pet. Het is allemaal zo complex dat ik niet eens weet of het wel eenvoudig uit te leggen is. Maar het blijft toch leuk om te lezen, zucht was ik maar slimmer. :)
Je kan je eigen neurale netwerk trainen door repetitief slimmere zaken aan te pakken. Elke dag een uurtje wiskunde /sommen maken bijvoorbeeld. En een uurtje muziek maken of tekenen.
Het is eigenlijk echt niet zo ingewikkeld, hoewel er heel wat details zijn waarvan vermoedelijk niemand weet of ze echt ter zake doen.

AlphaGo is een neuraal netwerk, wat inhoudt dat het een softwarematige simulatie is van een enorm netwerk die hele basale rekenkundige operaties uitvoeren, een techniek ooit geïnspireerd op het menselijk brein. Al die rekenstapjes zijn functies die eerst een gewogen som uitrekenen: som over basisfactor + input * wegingsfactor voor die input, en als tweede stap over die waarde een functie uitvoeren. Die output is dan weer een input voor heel van andere neuronen, tot de laatste laag, die daadwerkelijk een output geeft (hier dus een specifieke zet). Het netwerk bestaat uit vele lagen en al die 'neuronen' hebben dus een hele reeks parameters: basis en wegingsfactoren. Die parameters worden 'geleerd' door wiskundige regels toe te passen. Je wilt een optimum zoeken, zodanig dat de output zo hoog mogelijk is gegeven de input. Daarbij passen ze automatische differentiëring toe om te bepalen in welke richting (in de hoogdimensionale 'ruimte' van de parameters) de functie die je wilt optimaliseren zo snel mogelijk stijgt. Vooral dat laatste is iets dat ineens een hype omtrent Deep Leaning heeft gecreëerd. Hoewel geen nieuwe methode wisten we dat niet op grote schaal toe te passen. En daarbij is er veel onderzoek gedaan naar specifieke architecturen van zo'n netwerk (verschillende functies, aantal neuronen, aantal lagen, dat soort dingen). Als laatste is er de laatste tijd ook steeds meer interesse in het uitvoeren van Deep Learning op gespecialiseerde chips, je ontwerpt dan dus zowel tegelijk elektronica als dat je werkt aan welke simulaties je op die hardware efficient kan uitvoeren.
De vraag is natuurlijk of datgene wat alphago doet wel AI is.
Voor mij voelt het zo niet aan, indien het echt AI zou zijn , dan zou AlphaGo uit zichzelf andere uitdagingen zoeken, nu doet het enkel wat de onderzoekers van hem verwachten.
De vraag is natuurlijk of datgene wat alphago doet wel AI is.
Voor mij voelt het zo niet aan, indien het echt AI zou zijn , dan zou AlphaGo uit zichzelf andere uitdagingen zoeken, nu doet het enkel wat de onderzoekers van hem verwachten.
Hier moest ik even over nadenken. Een mooie definitie die je geeft.

Ik denk dat je een AI bijvoorbeeld kan programmeren om 'fun' te ervaren bij het winnen tegen een mens in iets. In de toekomst, 'fun' laat ervaren bij 'het ervaren van nieuwe dingen'. Nieuwsgierigheid inbouwen.

Eigenlijk een AI gedreven door alle menselijke insticten (drive naar nieuwsgierigheid, winnen, voortplanten, eten/energie). Lijkt me prima mogelijk.
Meestal is het meer wat wij als positieve en negatieve stimulans (feedback) geven aan een neurlaal netwerk. Instinct zou ik het wat dat betreft niet willen noemen, tenzij je die van de programmeur/onderzoeker bedoeld.
Dat is terminologie. Gangbaar is om alles wat 'lerend' is AI te noemen, waar jij op doelt heet in verktermen een Artificial General Intelligence (AGI).
Jammer dat ze van de duizenden oefenpotjes er maar 50 beschikbaar maken, dat hadden er toch wel wat meer kunnen zijn. Zie ook dit wat meer duidelijke artikel:
https://www.wired.com/201...designers-explore-new-ai/

[Reactie gewijzigd door _matt_ op 28 mei 2017 10:36]

Toch ook mooi om te zien dat het spel ondanks z'n leeftijd nog steeds niet al z'n geheimen heeft prijsgegeven; en dat er zelfs nog ruimte is voor de mens om nog beter te gaan spelen. Als je tot slot bedenkt wat voor monsterlijke rekenkracht er achter AlphaGo stak, doen wij het met onze biologische bovenkamertjes toch echt zo gek nog niet!
Wat edelmoedig van het Deep Mind team en Google om het programma nu in te zetten om grote vraagstukken de wereld uit te helpen!!

Vooral omdat we weten dat veel van die vraagstukken het directe gevolg zijn van het enorme verschil tussen rijk en arm, en dan vooral tussen mensen (en landen) die nu rijk zijn en dat ten koste van alles en iedereen ook willen blijven en liefst zelfs nog wat willen vergroten.

Ik vrees daarom wel dat we van het ongetwijfeld uitstekend betaalde Deep Mind team en de ook niet armlastige bazen van Google nog maar weinig zullen horen over de oplossingen voor wereldvraagstukken die de AI aandraagt. Dan beter nog maar een paar miljoen steken in een programma dat StarCraft kan spelen!

En dat moeten ze ook vooral blijven doen. En laten ze vooral het ongelofelijk arrogante idee dat zij met hun 'slimme' algoritmes wel eventjes de wereldvraagstukken zullen oplossen ergens diep in een la stoppen. AI is een handig tooltje, meer niet.
Wat een naïviteit en jaloezie in deze post zeg.

We leven nu 'welvarender' dan een koning 400 jaar geleden.

Technologische vooruitgang heeft de huidige bevolkingsgroei mogelijk gemaakt.

Ik hoop dat ze zowel Starcraft aanpakken alsook de wereld problematieken. Ze hadden in het Europese datacenter al 20% energie bespaard door de AI. Voor diezelfde google die we dagelijks gebruiken.

Toegegeven, ik ben ook skeptisch hierover, maar de gemiddelde Nederlander slaat ook door in kritiek. Laat ze lekker bezig en ik hoop dat ze iets nuttigs vinden. "I do not believe" - "that is why you fail".

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee