Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'DeepMind vergelijkt prestaties AlphaStar en pro-speler StarCraft II oneerlijk'

In grafieken over de wedstrijd tussen een menselijke pro-StarCraft II-speler en zijn AlphaStar-ai heeft Google DeepMind de twee partijen ogenschijnlijk niet eerlijk vergeleken. De aantallen acties per minuut van de twee worden vergeleken, maar niet de effectieve acties per minuut.

Dat is de conclusie van een uitgebreide blogpost van Aleksi Pietikäinen. Hij volgt StarCraft II en ontwikkelingen in kunstmatige intelligentie sinds jaren, maar noemt zichzelf nog wel een leek. Hij stelt ten eerste dat er een onderscheid gemaakt moet worden tussen apm, actions per minute, en epm, effective actions per minute; de eerste bestaat uit clicks en toetsaanslagen en de tweede alleen uit clicks en toetsaanslagen die een commando doorgeven dat nog niet gegeven was. Dat wil zeggen, de spam, het wild klikken, is eruit gefilterd. In het heetst van de strijd doen een hoop mensen dat, misschien wel iedereen.

DeepMind zet in grafieken de apm van de pro-speler, MaNa, en die van AlphaStar naast elkaar. Dat deed het zowel tijdens de wedstrijd als in een blogpost. Daarin valt te zien dat de gemiddelde apm van MaNa over de hele match hoger ligt dan die van AlphaStar. Pietikäinen tekent echter aan dat de 'staart' van deze apm-grafiek een onoprecht beeld oplevert; de momenten waarop de menselijke speler zoveel apm invoert, zijn de momenten waarop hij spamt. AlphaStar spamt echter weinig tot niet en zijn staart zou voor een veel groter aandeel uit effectieve commando's bestaan.

Deze effectieve commando's zijn de momenten waarop de twee spelers de confrontatie aangaan op het slagveld en waarop de kunstmatige intelligentie wint met behulp van zijn superhuman micro, de mogelijkheid om commando's bovenmenselijk snel in te voeren en zo een slag te winnen waar een mens dat niet zou kunnen. In de StarCraft II-gemeenschap zijn mensen het dan ook overwegend met elkaar eens dat de ai niet won dankzij zijn strategie. Pietikäinen bestempelt de grafiek op de blogpost als 'gevaarlijk dicht bij liegen door middel van statistieken'.

AlphaStar, de ai van Google-dochter DeepMind, versloeg donderdag de Poolse professionele speler MaNa in vijf van de vijf potjes. De menselijke speler won echter wel een livematch.

De apm van MaNa, AlphaStar en ai-trainer TLO, uit DeepMinds blogpost

Door Mark Hendrikman

Nieuwsposter

28-01-2019 • 11:39

60 Linkedin Google+

Reacties (60)

Wijzig sortering
op de ama van reddit kwam dit ook ter sprake:
Re. 1: I think this is a great point and something that we would like to clarify. We consulted with TLO and Blizzard about APMs, and also added a hard limit to APMs. In particular, we set a maximum of 600 APMs over 5 second periods, 400 over 15 second periods, 320 over 30 second periods, and 300 over 60 second period. If the agent issues more actions in such periods, we drop / ignore the actions. These were values taken from human statistics. It is also important to note that Blizzard counts certain actions multiple times in their APM computation (the numbers above refer to “agent actions” from pysc2, see https://github.com/deepmi...onment.md#apm-calculation). At the same time, our agents do use imitation learning, which means we often see very “spammy” behavior. That is, not all actions are effective actions as agents tend to spam “move” commands for instance to move units around. Someone already pointed this out in the reddit thread -- that AlphaStar effective APMs (or EPMs) were substantially lower. It is great to hear the community’s feedback as we have only consulted with a few people, and will take all the feedback into account.
We are capping APM. Blizzard in game APM applies some multipliers to some actions, that's why you are seeing a higher number. https://github.com/deepmi...onment.md#apm-calculation
ook LTO heeft er iets over te zeggen:
I partially agree that apm spikes might still be problematic. However in the defense of AlphaStar there is a hard cap to how many actions it can take, it can decide how to assign them though. So while it exhibits incredibly fast micro, it might make itself vulnerable by using up all its actions on a specific task like that. In the end I’m sure the team on deepmind will address the way they go about APM if it really turns out to be an issue. Right now it’s probably too early to tell if it’s a problem considering how few matches we saw so far. It’ll require longer term testing from professional SC2 players to find out.

[Reactie gewijzigd door DRaakje op 28 januari 2019 11:47]

Ik heb de AMA nog niet gelezen, dus ik weet niet of dit al ter sprake is gekomen: de precisie van de kliks is ook belangrijk, en dan vooral qua selecteren van units. AlphaStar heeft in een aantal gevechten individuele stalkers zitten naar achter "blinken" vlak voor ze zouden sterven. Dit is een veel-gebruikte truc omdat een unit met 1hp nog altijd even veel schade doet als een unit met vol leven. Als je dus je units kan weg-circuleren zodat de schade gespreid wordt is je leger veel effectiever.

Het probleem is dat je als mens heel moeilijk zo snel en precies die bewegende units kan selecteren en wegklikken. Ik ben absoluut geen super goede speler, maar die "magische" gevechten zou ik even goed kunnen doen als AlphaStar, als het spel 5x trager zou draaien. Zelfs met de limieten op APM. Mensen hebben gewoon tijd nodig om fysiek hun arm te bewegen naar de unit die schade krijgt, er op klikken, de muis naar achter hun leger bewegen, de hotkey drukken met de andere hand en nog eens klikken. Je bent dus constant over en neer aan het gaan met de muis. Zelfs de allerbeste menselijke spelers zie je in grote gevechten meestal klompjes units per keer naar achter blinken. Dat is natuurlijk minder efficiënt dan 1 per 1.

Hetzelfde geldt voor manueel targetten van bepaalde belangrijke units. We hebben nog geen zerg gezien, maar ik vraag me af hoe de AI om gaat met banelings op creep. Die units zijn super klein en erg snel op creep (zeker met upgrades) en ontploffen als ze in contact komen met je leger. Die van op afstand neerschieten is cruciaal. In theorie niet zo moeilijk: wat units selecteren en rechts klikken op een baneling. In de praktijk is dit echt enorm moeilijk om goed te doen. Tot het punt zelfs dat de meeste spelers banelings counteren door splash damage te gebruiken (moet je zo goed niet mikken) en hun units op te splitsen (doen ze minder schade als ze toch bij je leger geraken). Ik vermoed dat AlphaStar in zijn huidige staat relatief eenvoudig banelings kan counteren omdat die gewoon met chirurgische precisie ze 1 voor 1 kan targetten.

Neemt niet weg dat AlphaStar een enorme prestatie is, maar ik vraag me af hoe het zou presteren moest er een menselijke arm gesimuleerd worden. Inertie, maximum snelheid, maximum versnelling, vermoeidheid, misclicks, etc. Ik twijfel er niet aan dat ze het dan nog uiteindelijk zo ver krijgen dat ze altijd de mens verslaan, maar dan zijn we zeker dat het echt puur op strategie is.
Je kunt een heleboel kunstmatige limieten instellen. Dat maakt voor een AI uiteindelijk allemaal weinig uit. De AI leert door tegen zichzelf te spelen, en zolang de regels maar consistent zijn zal een AI daarmee leren om te gaan.

Zoiets als splash damage? Geef alle wapens een inherente onnauwkeurigheid (groter dan de menselijke factor) en de AI zal zelf opmerken dat splash damage effectief is om de onnauwkeurigheid te compenseren.
Agreed, we kunnen nu ook wel nog meer limieten in gaan stellen voor de AI zodat mensen nog net wat langer kunnen blijven winnen, maar ik vind dit eigenlijk een beetje klinken als, “mama hij speelt vals!”

Tsja de wereld is niet eerlijk jongen, en een goede AI gaat je gewoon verslaan op een gegeven moment, zelfs met de limitaties.

Eerlijk gezegd vind ik dat de auteurs hier zelfs heel erg netjes limieten hebben ingesteld
Gebaseerd op echte menselijke statistieken, ben wel benieuwd wat blizzard ervan zegt of die een duidelijk verschil kunnen zien.
Het is niet interessant wie er wint, het enige interessante is hoe en wat voor intelligentie het systeem laat zien. Dat aimbots nauwkeuriger en sneller reageren dan mensen weten we al 25 jaar. De concepten die de ai vormt, de strategische redeneringen, die nieuw zijn, daar gaat het ai devs om. De AI wordt niet restrained zodat de mensen maar blijven winnen, of omdat het eerlijk moet zijn oid, maar om af te dwingen dat het systeem op -intelligentie- moet zien te winnen, en niet op snelheid.
Dat aimbots sneller reageren weten wij al 25 jaar, ja. Maar een belangrijk aspect van dit experiment is dat de AI hetzelfde nu ook ontdekt heeft. De AI had een heleboel strategieën kunnen vinden. Jij kan dan wel vinden dat de AI op één of andere opgespecificeerde manier intellegent had moeten zijn, maar deze AI had als doel om te winnen, en deze AI vond uit dat aimbotting de beste methode daarvoor was.

Vanuit een Blizzard perspectief kun je dat tegengaan - maak wapens inherent onnauwkeurig. Dan forceer je de AI én mensen om een andere strategie te bedenken.
De manier om dat te testen zou wat mij betreft dan ook eerder bij turn based spellen liggen dan bij real time spellen, een computer heeft in real time altijd voordeel. Zijn er eigenlijk al nieuwe tactieken ontdekt dankzij deze AI daar lijkt mij de echte winst van "AI"s te liggen, als een AI iets "bedenkt" wat wij als mens weer kunnen gebruiken om beter te worden :)
Zoals schaken en Go bedoel je? Daar zijn de AI programma's al jaren oppermachtig. Daar gaat geen enkel mens ooit meer van kunnen winnen.
Ik bedoel meer civilization ofzo :)

Maar inderdaad bij schaken zijn AI's al jaren oppermachting en bij go een jaartje ofzo ;)

[Reactie gewijzigd door bosbeetle op 19 februari 2019 09:18]

Precies, dit verweer mag juist zijn, het is over niet al te lange tijd achterhaald. Overigens is verkeerd om AI te betichten van het niet gebruiken van strategie, dat doet ze sowieso niet. Strategie is een typische menselijk iets. Wij gebruiken dat om rationele controle te krijgen om via afgeleide doelstellingen handelingen aan op te hangen.

Zo denkt een AlphaStar niet. Het klinkt gek maar die speelt veelal op gevoel. Dat kun je goed zien bij een schaakmatches tussen Stockfish en Alpha Zero. Stockfish denkt veel meer volgens menselijke richtlijnen en gebruikt ook strategisch doelen. Alpha Zero heeft daar lak aan en doet zetten die tegen onze gezonde principes zondigen. Eigenlijk speelt Alpha Zero puur positioneel. Het denkt niet menselijk en daarom ook niet materialistisch. Het doet voortdurend aan positieverbetering zonder acht te slaan op materiaal of gezonde pionstruktuur, zelf niet tempowinst. Het offert en doet doodleuk daarna passieve zetten om de positie verder te verbeteren. Uit die betere positie rollen dan vanzelf de mogelijkheden tot aanval, doorbraak, promotie of materiaal winst. Dit soort spel lijkt het meest op geniale gevoelsspelers als Michael Tal die ook offerden op gevoel zonder dat er direct een winstweg was.

Ja het klinkt misschien lullig voor de mens maar AI verheft spel weer tot kunst. Liefhebbers bekijk deze twee partijen maar eens
Alpha Zero finds shockingly secret novelty in highly evolved Giuoco Piano vs Stockfish 8 - Game 9
AlphaZero's Attacking Chess

Het zal niet lang duren voor AI ook bij andere spelen gaat overheersen. AI kan nu eenmaal zijn "hersenen" veel gerichter inzetten dan een mens. Het is ook een misvatting dat ze daarvoor eerst even veel neuronen moeten hebben als een mens. De intelligentie van dieren hangt niet af van de hoeveel hersenen, maar de verhouding van de hersenen tot de rest van het lichaam. Ook een klein spinnetje met hersenen als een speldeknop kan complexe jachtstrategieen ontwikkelen. Dit heeft weer te maken met het feit dat niet alleen het aantal neuronen belangrijk is maar ook hoe veelzijdig ze verbindingen kunnen vormen.

Bij complexe spelen zijn de meest superieure spelers niet de degenen met de beste rationele computer, maar met de beste intuitie. AI ontwikkelt een superieure intuitie. Het leert aanvoelen wat de beste zetten zijn. Het is niet feilloos (ook Alpha Zero verliest nog wel eens van Stockfish) maar wel superieur.

[Reactie gewijzigd door Elefant op 28 januari 2019 19:40]

Overigens is verkeerd om AI te betichten van het niet gebruiken van strategie, dat doet ze sowieso niet. Strategie is een typische menselijk iets.
Nee. Veel misverstanden over AI. Volledig uitgeschreven scripts, die gebruiken geen strategie. Ai gaat er nu juist net om dat het systeem ZELF intelligente beslissingen neemt of laat zien die de programmeur er zelf NIET heeft ingestopt. Dat is het enige bestaansrecht en doel van het hele werkveld.
Het is toch net omgekeerd. Een werknemer in een bedrijf volgt ook een script maar voert wel degelijk een strategie uit. Alleen heeft hij die strategie niet zelf bedacht, maar dat is iets anders.

AI bedenkt geen strategie. Op dat niveau functioneert AI gewoonweg niet. Wat AI aanleert zijn goed afgestemde reflexen. Daar zit geen ZELF bij en het woord intelligentie kan je alleen maar in enge zin gebruiken. Intelligentie is hier aangepast reageren in de richting van een doel. Maar in principe doet een script dat ook, omdat een script ook allerlei conditionele acties in zich bergt die voor een aangepaste reactie zorgen.

Het is belangrijke verschil is dat we hier te maken hebben met een zelf lerende machine versus een geprogrammeerde machine. Leren is eigenlijk een vorm van zelfprogrammering. Een AI kan wel flexibeler reageren omdat hij steeds bijleert en zijn reacties verbetert, waar die bij een script altijd het zelfde blijven. Daar staat tegenover dat een script meer voorspelbare reacties geeft. Dat kan belangrijk zijn om bepaalde ongewenste acties uit te sluiten.

De doorbraak van AI zit in twee dingen. Zelflerende machines zijn uiteindelijk veel goedkoper. Zelflerende machines bereiken een hogere kwaliteit bij complexe problemen. Maar het is verkeerd om AI te zien als intelligent vs niet intelligent of zelf beslissend vs niet-zelfbeslissend. Dat is gewoon niet waar.

En AI heeft voorlopig een beperkt toepassingsgebied. Het werkt het best in situaties waar er duidelijke spelregels zijn en er een oplossingsrichting is die op meerdere manieren kan worden vervuld, maar de oplossingsweg en eindoplossing onduidelijk is. Daarom zal de AI perfect leren lopen, want de zwaartekracht en bewegingswetten werken steeds op dezelfde manier en de invloed van andere omstandigheden (gladheid) zijn ook voorspelbaar. Tegenwoordig kunnen ze uitvinden hoe uitgestorven dieren liepen door computersimulaties te laten leren lopen. Zoiets laat zich niet in een alomvattend programma vatten.

Overigens hadden we al eerder optimalisatie methoden gevonden om oplossingen te vinden die werkten zonder dat aangetoond kon worden dat ze de enige of beste waren. Denk bijvoorbeeld maar eens aan de simplex methode bij matrix rekenen. Ik zelf vroeger wel eens een programma geschreven van zelf evoluerende wormen die met elkaar concurreerden wat leidde tot veranderingen in hun DNA code, waardoor ze weer aangepast gedrag gingen vertonen. Geen neuraal netwerk voor nodig. Was geweldig om die wormen willekeurig DNA te geven en dan allerlei verbazingwekkende oplossingen te zien ontwikkelen mede afhankelijk van de omgevingsfactoren. Ik kon er naar blijven kijken.

AI sluit veel meer bij de Natuur aan. In de natuur bestaat alles uit agents die met elkaar interacteren en zo samen tot een resultaat komen. Het mooie van AI is dat je dat resultaat in een bepaalde oplossingsrichting kan sturen. Hoe beter we dat in de vingers krijgen, hoe meer dat gaat exploderen, omdat AI zelflerend is en ons daarmee een hoop werk uit handen neemt. Wat bijvoorbeeld heel interressant (en gevaarlijk) is, is als AI systemen straks weer onderling gaan afstemmen. In feite zijn onze hersenen ook opgebouwd uit systemen die onderling afstemmen maar in verschillende richtingen werken. Bijvoorbeeld een systeem dat emoties opwekt, en een ander systeem dat ze juist weer dempt.

Als dat eenmaal gaat lukken dan kan je zelfs systemen ontwikkelen die een hoofddoelstelling (overleven) kan vertalen in allerlei aan de situatie aangepaste deel doelstellingen door verschillende deelsystemen te activeren. Mensen roepen wel dat dat nog een eeuw weg is, maar dat lijkt me klets want doorbraken hierin kunnen tot een stroomversnelling voeren. Als dat gebeurt is het hek van de dam.

Waar het echte gevaar in zit is dat wij een mondiale digitale omgeving geschapen hebben die wel eens de perfecte biotoop kan zijn voor AI en wij snel de controle daarover kunnen verliezen zelfs als laag intelligente AI zich daarin gaat verspreiden. Het woord virus krijgt dan pas echt betekenis. Zelf muterend AI virus kan wel eens onuitroeibaar worden. We zullen dan AI bloedlichaampjes moeten fokken die het virus aanvalt. (the Matrix). Ik denk dat de Amerikanen al lang AI virussen aan het het ontwikkelen zijn, omdat hun veiligheidsapparaat het principe hanteert: Als iets mogelijk is, willen wij het als eerste hebben. AI cyberwarfare ligt om de hoek.

Daarbij zijn zonder dat we het door hebben een totaalwezen aan het creeren waarin wijzelf nog slechts de gespecialiseerde hersencellen zijn. Tot er iets beters is. Misschien dat het nog primitieve wezen al naar onze vervanging aan het toewerken is. Want in wezen worden wij nu ook door doelstellingsrichtingen geregeerd die ons opgelegd worden, maar niet overwegend meer uit onze individuele wensen voort komen. En we zien dat dit werkt in de richting van de factor arbeid (de mens) steeds meer uit te schakelen. Wij werken daar braaf aan mee, en zijn niet in staat de gehanteerde logica te veranderen.

Jammer dat onze leiders zo een lage intelligentie hebben en een goed overzicht over de ontwikkelingen missen (geld graaien staat teveel voorop).

[Reactie gewijzigd door Elefant op 29 januari 2019 05:55]

Je reduceert AI tot een soort autocalibratie. Zet een motor in een warme ruimte, en laat hem 'intelligent' de koeling aansturen. Dat is geen AI, dat is afregeling.

Ik studeerde cognitieve kunstmatige intelligentie eind jaren negentig - maar als jij gelijk hebt dan is de definitie van 'A.I.' in die 20 jaar behoorlijk uitgehold. De vraag was toen: wat is intelligentie, en hoe kunnen we intelligentie vatten in computerprogramma's.

Het bijstellen van de gewichten van een totaal door de mens ontworpen systeem (in een zelflopende robot met twee door de mens bedachte benen) is naar mijn mening geen kunstmatige intelligentie maar een 'domme' zelfcalibratie. Wat wel intelligent zou zijn, is als de AI plots besluit (in een software sandbox achtige omgeving) om een staart of ander vorm van balancering te ontwikkelen.

Maar een mooie post verder die ik met interesse heb gelezen ;D

Leuk van de wormpjes. Ik schreef de code niet zelf maar gebruikte de evolutiesimulator Framsticks. Stokjes (botten), spieren, sensoren, en neuronen. Allemaal zeer kleine wormpjes. Beestjes leefden, gingen dood, en kregen een fitness score. Hoe die werd berekend kon je zelf instellen: afgelegde afstand was de leukste om te doen. In de wereld kon je het laten regenen met een soort energy balls, waardoor je langer bleef leven. Op een gegeven moment had ik 'lifespan' ook een positieve bijdrage laten leveren aan de fitness score. (beesten met hoge fitness werden al dan niet mutated of crossed over gereproduceerd uit de gene pool). Omdat er ook reuksensoren in de simulator zaten had ik de hoop dat ik, na een paar duizend generaties, misschien beestjes zou kunnen ontwikkelen die zich richting de voedselballen bewogen.

Door energy balls bleef je langer leven. Toen ik de volgende ochtend terugkwam in de hoop bewegend leven op mijn scherm aan te treffen schrok ik: er lag 1 groot kwal-achtig wezen in de sandbox, die de complete wereld van hoek tot hoek bezette, in zijn eentje. Iedere energy-ball die er viel, ving hij (natuurlijk) onmiddelijk op. Hij nam meer energie op dan hij verloor door ouder te worden :D Het was een monsterlijk, wanstaltig, horror-achtig scenario :D www.framsticks.com

Kijk, dat noem ik A.I. Niks reflexen, of reacties verbeteren, of flexibeler reageren, of afgestemde reflexen: maar een compleet originele nieuwe strategie die op geen enkele manier door de maker was voorzien. Een nieuwe, zelf ontwikkelde oplossing. Evolutionaire intelligentie. Kijk dat noem ik dan weer A.I.

Dat een starcraftbot door 50.000 gesimuleerde potjes uiteindelijk het optimum weet te vinden hoe hard hij moet pushen door een funnel gemiddeld genomen zodat hij zo min mogelijk units verliest - goed, dat geloof ik wel. Maar ik noem het pas A.I. als hij de tegenspeler verleidt om door de funnel te moeten pushen en zelf een omweg neemt.
quote: MSalters
Zoiets als splash damage? Geef alle wapens een inherente onnauwkeurigheid (groter dan de menselijke factor) en de AI zal zelf opmerken dat splash damage effectief is om de onnauwkeurigheid te compenseren.
Maar wat is de menselijke factor? Pro's hebben fantastische micro tov gewone ladder-players en die proberen ze constant te perfectionneren, maar die zal altijd variabel zijn tov zichzelf, dus hoe ga je die implementeren?
Voor hetzelfde geld kan je 10 stalkers hotkeyen en ze zelf enorm accuraat laten terugblinken zonder dat je je muis zou moeten verplaatsen om hem te selecteren en achter de rest te zetten. Op de map kan je ook move/attack commands geven, waardoor de muisafstanden nog kleiner zijn. Dit zijn tactics die op pro-level al lang gekend zijn en waarbij gewone spelers amper snappen wat er gebeurt.
Dat is een uitstekende toevoeging aan dit artikel! Dit schept een hele hoop context. Al had DeepMind deze verwarring kunnen voorkomen door wat hier uit deze AMA komt vooraf ook goed duidelijk te maken. Dat had een hoop gescheeld :) Met name dat trappetje van:
  1. 600 APM per 5s
  2. 400 APM per 15s
  3. 320 APM per 30s
  4. 300 APM per 60s
is cruciaal hierin. Dat betekent dat AlphaStar inderdaad zorgvuldig moet kiezen. Wel vraag ik me af of het dan klopt dat als AlphaStar inderdaad 600 APM raakt in 5 seconden, AlphaStar dan inderdaad voor de overige 1 minuut en 55 seconden (twee perioden van 300 APM/60s) echt geen actie meer kan doen? Zie @Finraziel / @Robbaman hieronder.

Hoe dan ook, dit tezamen met het feit dat het wel degelijk APM kan 'spammen' omdat dat zo is aangeleerd door 'imititation learning', maakt dat de vergelijking tussen AlphaStar's APM en de pro-speler's APM wel degelijke een beetje gemaakt kan worden.

[Reactie gewijzigd door Cloud op 28 januari 2019 12:32]

Wel vraag ik me af of het dan klopt dat als AlphaStar inderdaad 600 APM raakt in 5 seconden, AlphaStar dan inderdaad voor de overige 1 minuut en 55 seconden (twee perioden van 300 APM/60s) echt geen actie meer kan doen?
Nee, dat betekent het niet...
Als je in 5 seconden gemiddeld 600 apm haalt dan heb je dus 50 actions gedaan in die 5 seconden. 400 apm over 15 seconden komt uit op totaal 100 acties (400/60*15). In 30 seconden kom je uit op 160 acties en bij 60 seconden op 300 acties.
Dus als de ai die 600 apm aantikt dan mag hij in de volgende 10 seconden nog 50 acties uitvoeren (dus de halve snelheid van wat hij net deed). Hoe langer het geleden is dat hij zoveel acties uitvoerde hoe minder impact het nog heeft.
Crisis inderdaad :F Te weinig koffie gehad denk ik. Thanks voor de verheldering!
Je vraag klopt toch wel, want uit de grafiek valt wel degelijk op te maken dat AlphaStar een aantal keer >1500 APM haalt. Volgens jouw vraag zou AlphaStar er dus voor kunnen kiezen om 2 seconden lang 1500 APM aan te houden en vervolgens 3 seconden idle te blijven. Ik lees nergens dat hiervoor een restrictie bestaat. Er bestaat een cap op het totaal van 5 seconden, maar geen cap op een willekeurige eerstvolgende actie. De AI kan echter doorlopend bepalen of dat wel zo effectief is en zal redeneren dat soms 2 acties 0,04 seconden uit elkaar (=1500 APM) wel noodzakelijk is, maar zal er (lijkt me) nooit voor kiezen om 2 seconden lang achter elkaar 1500 APM uit te rammen.
[...]

Nee, dat betekent het niet...
Als je in 5 seconden gemiddeld 600 apm haalt dan heb je dus 50 actions gedaan in die 5 seconden. 400 apm over 15 seconden komt uit op totaal 100 acties (400/60*15). In 30 seconden kom je uit op 160 acties en bij 60 seconden op 300 acties.
Dus als de ai die 600 apm aantikt dan mag hij in de volgende 10 seconden nog 50 acties uitvoeren (dus de halve snelheid van wat hij net deed). Hoe langer het geleden is dat hij zoveel acties uitvoerde hoe minder impact het nog heeft.
Maakt op zich nog steeds niets uit.
Het punt van oneerlijkheid wordt niet teniet gedaan door het feit dat acties van de AI over langere tijd geblokkeerd worden.

De oneerlijkheid zit hem er juist in dat de AI elke x aantal seconden enorm gecoordineerd en in één beweging zijn complete tactiek over het volledige slagveld kan bijstellen of omgooien.

Als menselijke speler is tegen dat niveau van coordinatie nagenoeg onmogelijk op te spelen tenzij je een overweldigende meerderheid in aantallen of effectieve slagkracht hebt. En juist dat zal nooit gebeuren omdat een AI ook de bouw-cyclus en base-economy angstig beter parallel kan coordineren.

Oftewel; deze wedstrijd is weliswaar een leuke promotie voor Google's Deepmind, maar is vanuit competief oogpunt vreselijk doorgestoken kaart.

[Reactie gewijzigd door R4gnax op 28 januari 2019 20:40]

Die snap ik niet, als hij 5s lang de 600 APM haalt, dan heeft hij toch feitelijk 600/12 = 50 acties uitgevoerd.

Dan mag hij toch de rest van de minuut nog 250 acties uitvoeren om aan 300 APM per 60s te zitten?
goed gezien.
ter verduidelijking kan beter je het lijstje zo opstellen:
  1. 50 Actions per 5s
  2. 100 Actions per 15s
  3. 160 Actions per 30s
  4. 300 Actions per 60s
goed gezien.
ter verduidelijking kan beter je het lijstje zo opstellen:
  1. 50 Actions per 5s
  2. 100 Actions per 15s
  3. 160 Actions per 30s
  4. 300 Actions per 60s
En dus heeft het AI nog steeds een idioot hoog voordeel ten opzichte van een menselijke speler, omdat het nog steeds 300 perfect op doel gegeven micro-acties mag doen over de tijdspanne van een minuut.

Met de beste wil van de wereld; dat gaat een menselijke speler nooit; nooit met zulke precisie kunnen bewerkstelligen terwijl de hersenen ook al continu bezig zijn met strategie en tactiek te bedenken en bij te stellen.

No way, no how.
Om eerlijk te zijn zou ik twee AlphaStar AI's het tegen elkaar willen zien opnemen zonder de limieten. Dan krijgen we pas echt inzicht hoe extreem een dergelijke AI-unit kan zijn.

Wat wij nu aan het doen zijn is in feite USB 3.0 apparaten op 2.0 poorten zetten. Ik bedoel, we willen zien hoe een AI unit het doet tegen een mens, maar we weten eigenlijk dat het antwoord is; De AI unit wint altijd tenzij we hem begrenzen tot een menselijk aantal acties.

Ik begrijp dat we willen zien of de AI met hetzelfde aantal acties beter of slechter is, maar is een AI die meer acties kan doen en dus altijd wint niet al per definitie beter?
We weten al dat computers (of het nu AI is, of een domme rekenmachine) sowieso sneller zijn in het ingeven van commando’s. We willen te weten komen of een AI zonder brute kracht (=restricties aan het aantal APM), ook beter is in het ingeven van kwalitatieve commando’s, waarbij elke keus goed moet worden overwogen.

Stel dat beide (AI en mens) begrenst wordt tot 1 commando per seconde, wie gaat er sterkst uitkomen? Dat is het doel.

Waarom willen we dat weten? Voor toepassingen waarvoor het geen nut heeft om brute kracht te gebruiken, maar wel nut heeft om 1 slimme keuze te maken.

(Ik kan nu eventjes niet op een interessante toepassing komen, welke niet direct een discussie gaat uitlokken van “autonome vliegtuigen/auto’s bah”, maar er zijn er zeker en vast wel, en zeker nog meer in de toekomst)

”measure twice, cut once.” Is nog steeds beter dan “measure once, cut 10 times a second until satisfied”

[Reactie gewijzigd door efari op 28 januari 2019 16:58]

Stel dat beide (AI en mens) begrenst wordt tot 1 commando per seconde, wie gaat er sterkst uitkomen? Dat is het doel.

Waarom willen we dat weten? Voor toepassingen waarvoor het geen nut heeft om brute kracht te gebruiken, maar wel nut heeft om 1 slimme keuze te maken.
Dat experiment hebben we al eerder gedaan. Schaak en Go zijn zelfs nog trager, met soms één zet per twee minuten. Daar is inmiddels al duidelijk dat AI's beter zijn dan de wereldkampioenen - meest recent met AlphaZero, ook van DeepMind.

Het experiment waar het hier om ging was dus juist om te laten zien dat de AI óók goed is in het maken van honderden beslissingen per minuut in complexere omgevingen. De logica hiervan is dat zowel AI als mensen in die omgeving veel meer foutjes maken, zeker vergeleken met schaak. Maar misschien zouden mensen minder en kleinere foutjes maken in dit soort omstandigheden.

Niet dus. Zoals hierboven al aangehaald is het een "klein foutje" om stalkers naar achter te blinken voordat ze op 1HP zitten; AlphaStar doet dat minder.
Niet dus. Zoals hierboven al aangehaald is het een "klein foutje" om stalkers naar achter te blinken voordat ze op 1HP zitten; AlphaStar doet dat minder.
En dat is dus gegeven de menselijke limitaties op input-reactie, compleet bullshit.
Heeft niets te maken met denkvermogen of een AI die 'slim' is, maar is simpelweg het RTS-equivalent van een aim-bot.
Dit klopt volgens mij allemaal niet echt.

Het doel is aantonen dat computers althans in bepaalde spellen heel intelligent kunnen zijn, het liefst intelligenter dan mensen. Micromanagement correleert maar zwak met intelligentie, het gaat daarbij in de eerste plaats om snel en heel precies bewegen met de cursor. Aangezien een computer niet gehinderd wordt door fysieke factoren, kan die oneindig veel beter micromanagen dan een mens met een muis en toetsenbord. Maar dat is dus niet per se een graadmeter van intelligentie.

Waarom Starcraft nu gekozen is, na schaken en Go, is niet omdat er tijdsdruk achter zit, maar omdat het een spel met incomplete informatie is: je weet niet waar de poppetjes van je tegenstander zitten, hoeveel hij er heeft, enz. Dat maakt het zoveel indrukwekkender dat de computer dit kan, vergeleken met schaken en Go. De tijdsdruk vereist inderdaad meer rekenkracht van de computer, maar die is maar nauwelijks relevant, want de ki van Deep Mind draait op een gewone desktop met een enkele videokaart! (Dan heb ik het over het spelen van een potje: niet over de manier waarop hij traint.) Het zou voor Deep Mind geen probleem zijn als hij het spel 10x zo snel zou moeten spelen: dan zouden ze hem gewoon op een computer met 10 videokaarten en processors zetten (al vermoed ik dat ze dan nog lang niet zoveel rekenkracht nodig zouden hebben).
Waarom Starcraft nu gekozen is, na schaken en Go, is niet omdat er tijdsdruk achter zit, maar omdat het een spel met incomplete informatie is: je weet niet waar de poppetjes van je tegenstander zitten, hoeveel hij er heeft, enz. Dat maakt het zoveel indrukwekkender dat de computer dit kan, vergeleken met schaken en Go.
Dat de informatie van het speelveld onbekend is moet voor machine learning in principe weinig uit maken.
In de basis komt het neer op de machine intrainen met een grote dataset om gevoed door vele duizenden denkbare scenarios telkens met x stappen vooruit denken de meest waarschijnlijk optimale zet te kiezen.

Incomplete data over het speelveld betekent daarbij 'gewoon' dat alle mogelijkheden op dat gedeelte van het speelveld nog open liggen en dit genegeerd gaat worden of slim opgevuld gaat worden door uit te gaan van bepaalde andere historische data of gedragingen elders op het speelveld. Door in de wel zichtbare data patronen te herkennen uit andere situaties en daaruit te berekenen wat het meest waarschijnlijke scenario is dat zich under-cover van de fog of war af aan het spelen is.

Dat is een heel knap staaltje kansrekenen en functie-maximalisering, maar geen echte intelligentie.

AI is pas echt intelligent als het om kan gaan met het feit dat de regels van het spel midden tijdens het spelen omgegooid worden. Dat is waar dit soort machine learning trucages echter nog steeds grandioos op hun muil gaan. Want dit zijn typisch het soort wijzigingen wat de trainings-dataset nagenoeg totaal invalideert en waar een machine-learning oplossing zich niet on-the-fly uit kan redeneren zoals een mens dat wel zou kunnen.

[Reactie gewijzigd door R4gnax op 29 januari 2019 20:39]

Daarom zijn dit soort projecten meestal een stuk eerlijker waneer het iets turnbased is (schaken, go).
Een ai die beter is dan mens puur omdat hij veel meer ingevoerd krijgt en sneller en accurater kan reageren, ok, is gewoon een oneerlijk voordeel hebben, heeft niet eens veel met strategie te maken.

Wellicht een idee dat de ai de apm van zijn tegenspeler zoveel mogelijk probeert te matchen. Dan nog heeft hij oneerlijke voordelen, maar het aantal inputs zou in ieder geval gelijk moeten komen te liggen en is strategie veel belangrijker.
Daarom zijn dit soort projecten meestal een stuk eerlijker waneer het iets turnbased is (schaken, go).
Juist niet. Bij turn-based beslissingen heeft machine-learning het voordeel enorm gedetailleerd vooruit te kunnen 'denken' binnen de ingetrainde set data patronen om het meest effectieve pad met maximale 'winst' in te slaan.

Juist bij real-time strategie heeft de mens een voordeel wanneer er op een daadwerkelijke strategie met een bepaald einddoel gespeeld wordt. Dit kan langzaam over tijd verschuiven afhankelijk van de tegenstand, terwijl er op korte tijd en de directie spel-situatie vooral bijsturing en soms op gevoel en eerdere ervaring een radicale omschakeling gebruikt wordt.

Dat is een niveau wat machine learning niet kan bereiken en waar het enkel kan winnen door de mens te overweldigen met een blitz-krieg aan simultaan gecoordineerde acties. Dat heeft op zijn beurt niets te maken met daadwerkelijk denkvermogen, maar enkel met input-resolutie. Daar moet een mens het gewoon keihard tegen een machine afleggen.

[Reactie gewijzigd door R4gnax op 28 januari 2019 21:10]

Precies wat je zegt in je laatste alinea.

In realtime heb je al een handicap simpelweg dat je je muis moet bewegen, je vingers naar toetsten moet bewegen en indrukken. Een AI heeft input latency van praktisch 0, waarschijnlijk zelfs sneller dan de inputlag van je invoerapparaten alleen al (en dan komt je menselijke reactievermogen er nog dus op).

Ik bedoel te zeggen dat je DIT niet hebt met turnbased. Je kan als menselijke speler gerust een paar dagen de tijd nemen om je antwoord te verzinnen (bij wijze van spreken). Als je dan verliest is dat imo eerlijk, het is denkkracht vs denkkracht, en daar is de AI dus beter in, experiment geslaagd zou ik zeggen.

Een AI die het wint van menselijke spelers, puur omdat hij een oneerlijk voordeel heeft (buitenom rekenkracht dus), vind ik niet zo spannend. Als een AI daadwerkelijk betere/accuratere beslissingen kan maken dan mensen, dan vind ik het pas echt interessant.

Zo zou je nog eens van een AI kunnen verliezen en onder de indruk zijn van de strategie die hij toepast, ipv dat het constant worstelen is tegen een meedogenloze machine (blitzkrieg, zoals je het noemde), dat effect kan je ook krijgen als je hem letterlijk laat cheaten (infinite resources bijv). Alhoewel het natuurlijk een gigantische stap is in de richting dat de AI het spel 'snapt'.

Dan heb je nog eens wat aan een AI om tegen te spelen om beter proberen te worden, of voor een echte uitdaging. Anders zit je enkel en alleen je eigen input latency te trainen (wellicht ook niet verkeerd) maar je leert daar geen strategie mee.

Maar goed, grotendeels mening. Heb het "rushen" in rts games nooit leuk gevonden (daar ontkom je niet aan als je competitief gaat spelen). Ik was altijd erg van de anti-rush in multiplayer, wat ervoor zorgt dat je tegenstander alles aan het begin van de game tegen je aan gooit, je dat weet te verslaan en dat ze dan conceden voordat je ze aanraakt. Met dat gehaast sla je, imo, een groot deel van de game over.
Meeste moeilijke AI's in deze games gaan dan ook juist alleen maar rushen (en soms cheaten om dat mogelijk te maken). Zodra je dat overleeft is de uitdaging gelijk weg. Ik zou graag een AI zien die in lategame ook prima weerstand kan bieden, dan ben ik pas echt onder de indruk.
Om eerlijk te zijn zou ik twee AlphaStar AI's het tegen elkaar willen zien opnemen zonder de limieten. Dan krijgen we pas echt inzicht hoe extreem een dergelijke AI-unit kan zijn.
dat is juist hoe de AI's getraind worden en wordt extreem opgevoerd van niets tot superhuman. Daarom ook dat er over agents gesproken wordt en niet over alphastar als een individuele speler, want telkens was er een andere agent actief die zelf een bepaalde speelstijl had (bvb 4gate, proxy, double adept/oracle harass, ...)
Wat wij nu aan het doen zijn is in feite USB 3.0 apparaten op 2.0 poorten zetten. Ik bedoel, we willen zien hoe een AI unit het doet tegen een mens, maar we weten eigenlijk dat het antwoord is; De AI unit wint altijd tenzij we hem begrenzen tot een menselijk aantal acties.
Nee. Een kunstmatige intelligentie is niet per definitie beter.
Dit 'AI' is helemaal niet intelligent. Het is een rekenmachine die puur op basis van probabilistische analyse van een nagenoeg onmetelijke hoeveelheid eerder genomen reeksen aan zetten en speelpatronen elke paar seconden een andere afslag neemt door dat raamwerk aan mogelijkheden wat volgens de statistiek tot 'winstmaximalisatie' leidt.

Er is geen greintje daadwerkelijke intelligentie wat daaraan te pas komt.

Dat kun je bijv. goed zien als aspecten van het spel aangepast worden om het te herbalanceren. Een menselijke speler zal daarna vrij snel opnieuw zijn balans kunnen vinden en binnen een match of 5 zal het niveau weer aardig terug gegroeid zijn. Omdat mensen heel goed zijn in het snel identificeren en isoleren van bepaalde vormen van kern-informatie en de rest, het geneuzel in de marge, buiten beschouwing te laten, hebben wij een enorm goed koers-corrigerend vermogen wanneer het aankomt op nieuwe en onverwachte zaken.

Een 'AI' zoals dit? Een probabilistische rekenmachine? Daarvan zal het enorme gewicht van historisch ingetrainde data bijgestuurd moeten worden. En daar gaan aardig wat meer slagen aan tijd in zitten dan 5 matches.

[Reactie gewijzigd door R4gnax op 28 januari 2019 20:59]

Wat is het verschil tussen de 5 potjes en de live match? Dat snap ik niet.
De eerste matches waren eerder gespeeld om te testen hoe ver ze waren met Alphastar. Hierdoor waren er een aantal zaken anders:
  • Alphastar zag het hele veld zoomed out non stop terwijl de spelers hun camera moeten verplaatsen. De live match had een vorm van beperking hierop maar dit is nog steeds niet dezelfde beperking die de spelers hebben.
  • Deze eerdere games werden gespeeld met de patch van het afgelopen seizoen welke een aantal balancing changes niet heeft. De spelers hebben waarschijnlijk zich al aangepast aan de nieuwere patch.
  • De spelers hadden de indruk vooraf dat ze tegen één AI zouden spelen waardoor ze hun strategieën aan kunnen passen. In plaats daarvan speelden ze ieder potje tegen een andere "agent" die het resultaat was van het machine learning proces. Deze spelen allen de game met totaal andere strategien en taktieken waardoor de speler niet zijn speelstijl aan kan passen op de AI (terwijl de spelers dit wel probeerden).
Tijdens de live match heeft MaNa constant gescout om in de gaten te houden met welke strategie de Agent zou komen. Daar heeft hij direct/sneller op kunnen counteren.

Tijdens de eerdere matches ging hij een beetje uit van "menselijke conventies" en menselijke strategieën...zoals de "angst" ramps op te gaan, of ramps te "wallen". De agents waartegen MaNa speelde weliswaar volgens bekende strategieën, maar dan op een wat onconventionele manier.

Ben geen SC speler, maar vond de video leuk om naar de kijken.
Bij de live match had AlphaStar een extra handicap t.o.v. de eerdere matches waardoor het alleen maar kon zien wat een normale speler ook kan zien op zijn scherm.

[Reactie gewijzigd door MewBie op 28 januari 2019 12:11]

Blizzard heeft een aparte versie van StarCraft 2 gemaakt voor AI-doeleinden.
De AI ervaart het speelveld anders dan een menselijke speler. In plaats van minimap + actieve sector, ziet de AI het gehele speelveld (fog of war is wel van toepassing). Voor de live-match hebben ze een nieuw agent getraind (7 dagen, dus ongeveer van het niveau tegen LTO) die dezelfde spelervaring heeft als een menselijke speler (dus minimap + actieve sector). Ik kan me voorstellen dat het voor de AI veel moeilijker is om zo te spelen, waardoor MaNa meer kans had.
Waarschijnlijk heeft de pro-speler gedurende de eerdere 5 potjes een patroon gevonden in het speelgedrag van de AI en heeft hierop kunnen inspelen.

Anderzijds had de AI misschien ook wel podiumvrees
Dan is het bij AlphaGo toch een stuk objectiever gedaan. De AI komt aan met een zet, en dat is het.

Doet me wel een beetje denken aan https://xkcd.com/1002/
Tja, Go is dan ook turn-based, SC2 niet. Dat is een flink verschil, je hebt niet 'onbeperkt' de tijd om te reageren, je _moet_ NU iets doen als je aangevallen wordt (of niet, de AI bouwt liever probes bij dan dat ie heel aggressief verdedigt).
Eigenlijk zou een APM-limiet niet nodig moeten zijn, maar dit remt de computer nog een beetje. Idem met het aantal scherm-verplaatsingen.

Note over die laatste: Tijdens de matches tegen TLO en de eerste matches tegen MaNa had AlphaStar nog 'zicht' op het volledige scherm. Bij een latere (live) match tegen MaNa niet, en toen ging ie hopeloos op z'n snufferd door een immortal-drop. Vermoedelijk niet geheel gerelateerd, maar het zou best kunnen dat juist die extra rekenkracht die je nodig hebt voor incomplete informatie belangrijk genoeg is.
Ik meen gelezen te hebben dat ze voor die match getest hebben met beperkt zicht en dat het geen invloed op het resultaat zou hebben gehad. (zeggen ze zelf). Schijnbaar werkt hij zo dat ook bij "perfect zicht" altijd de focus op 1 gebied van het speelveld ligt.
Hij heeft wel focus op 1 gebied (en voert daar acties uit), maar verkrijgt nog wel info van de overige gebieden. Iets wat mensen tot op zekere hoogte ook hebben, als ze tenminste op de minimap kijken ;)
Even toevoegend op het feit waarom APM limiten nodig zijn, als er geen limiten mogelijk zijn dan zou elke unit individueel perfect gepositioneerd worden ten opzichte van de tegenstander. Dit filmpje van een bot uit 2011 is een voorbeeld hiervan: https://www.youtube.com/watch?v=DXUOWXidcY0 - 20 marines vs 40 banelings, en ze overleven het allemaal.
Klopt, en inderdaad is een computer moorddadig goed met microën (Starcraft logic, zergling is a noun, micro is a verb :P ) als ie voldoende APM heeft. Sommige bots kun je daarop ook pakken, opeens heeft iemand 12k APM, en staan al z'n units precies goed.

Overigens doet de computer dit nu ook, zie hoe Alphastar met blink stalkers omgaat. Die blinken ook precies naar achteren als ze te ernstig beschadigd zijn. Kost maar 1 actie per stalker (x 20 stalkers) per pak-em-beet 20 seconden dus 60 APM. Dat kan de computer wel hebben.

(note: Winter heeft al laten zien dat je met 100 APM masters kunt halen... )
Als beperkingen van de mens bijv invoer toegevoegd worden geeft dat meteen al aan dat de mens beperkingen heeft.

Denk dat uitstel van executie voor de mens hier op zijn plaats is. AI komt zal leren en zal uiteindelijk is staat zijn de mens op vele gebieden te verslaan.
Tijdens de matches tegen TLO en de eerste matches tegen MaNa had AlphaStar nog 'zicht' op het volledige scherm. Bij een latere (live) match tegen MaNa niet, en toen ging ie hopeloos op z'n snufferd door een immortal-drop. Vermoedelijk niet geheel gerelateerd, maar het zou best kunnen dat juist die extra rekenkracht die je nodig hebt voor incomplete informatie belangrijk genoeg is.
De huidige AI's zijn gevoelig voor de trainingsomstandigheden. Incomplete informatie is mee te leven; moderne pokerbots zijn er zelfs behoorlijk goed in (beter dan mensen). Als AlphaStar onvoldoende getraind is om zonder het hele scherm te werken, dan kan dat inderdaad fataal zijn.
Ze hebben opzich wel een punt.
Pro spelers zijn in het begin van het spel ook veel aan het klikken en op toetsen aan het drukken om bezig te blijven en de snelheid van acties hoger te houden voor later in het spel als ze dan ook meer moeten doen.
Bij movement worden vaak ook meerdere clicks gebruikt om een groep te verplaatsen die hadden soms prima met 1 of twee clicks gedaan kunnen worden.

Ze moeten eigenlijk kijken naar de E APM tijdens micro acties en dan kijken wat de limiet van menselijke spelers is. En de AI daar op aan passen. Ik ben benieuwd wat er dan gebeurd.

Want als de AI 200 slimme nuttige acties per minute kan uitvoeren kan je echt ziekelijke micro acties uit halen. Bv zerglings/marines splitten bij baneling aanvallen of andere aoe effecten. Pro spelers kunnen dat best goed tov normale maar ik heb wel eens een split AI gezien waarbij er zo goed als niets verloren ging (zergling split vs siege tanks ) Dat de AI gewoon bijna schoten aan het ontwijken was: https://www.youtube.com/watch?v=IKVFZ28ybQs

Maar respect voor Mana dat hij de uitdaging aangegaan is.

Edit: Hoor net ook dat Alphamind nog meer voordelen heeft:
Additionally, AlphaStar sees the game in a different way than your average player. While it is still restricted in view by the fog of war, it essentially sees the map entirely zoomed out. That means it can process a bit of information about visible enemy units as well as its own base and doesn't have to split its time to focus on different parts of the map the same way a human player would have to.
Dus stel een worker Staat in manas base en alphastar is atm aan het macroen en expanden, dan ziet hij tegelijk ook nog alle scouting informatie en kan daar op acteren. De speler is beperkt tot wat zijn beeldscherm kan laten zien.

Dit is in mijn ogen totaal oneerlijk want de speler kan niet uitzoomen. Ze moeten dat in mijn ogen dus ook beperken tot wat er op het scherm te zien is en hooguit de minimap informatie net als bij de speler zodat je wellicht je blikveld wil veranderen.

[Reactie gewijzigd door Astennu op 28 januari 2019 14:01]

Dat zag je bij een van de matches goed, AlphaStar viel van 3 kanten tegelijk aan met bovenmenselijke coördinatie.
Ik weet nog in de Heart of the Swarm dagen dat een hoop pro Protoss wegkwamen met een APM van 60. Vandaar dat (vroeger tenminste) protoss een beetje gezien werd als het "noobras" met bijnamen zoals noobtoss. Echter hadden die protossen wel een vrijwel gelijk EPM. Only click if needed.

Verder heb ik het op Reddit (en ik dacht ook hier) ook gezegd dat Deepmind zijn limiet moest aanpassen aan EPM om deze reden. Echter moet je niet vergeten dat een computer anders nadenkt dan een mens. Starcraft 2 bestaat uit marcro, micro en strategie en hoewel de micro en marcro van Alphastar vrijwel perfect zijn. Heeft die AI een strategisch inzicht van een bronzenoob. Vandaar dat NaNa op een gegeven moment doorhad hoe je de AI kon cheesen in de laatste ronden. Dus als je harder limiet stelt Alphastars micro kan het zomaar zijn dat hij amper plat aankan.

[Reactie gewijzigd door rickboy333 op 28 januari 2019 14:50]

Strategisch gezien wat protos wel erg lastig vooral VS Zerg met broodlords. Late game was de enige optie om te winnen een goed gelukte archon toilet (vortex van mothership gebruiken om de broodlords van de tegenstander te pakken te krijgen dan je eigen archons er in zodat bij het stoppen van de vortex de aoe damage van de archons alles killed). Kreeg je dat niet voor elkaar was je er geweest.

Op Grandmaster niveau was protoss echt niet makkelijk tegen Terran of Zerg. Wellicht in andere brackets wel.
Dat was nog eerder tijdens Wings of Liberty toen je inderdaad als Zerg Winfestor en GGlords kon gaan tegen zowel toss als terran en dat was gewoon totaal OP. Maar toen had toss iets meer APM nodig omdat ze in Earlygame geen oneclickdefendsshipcore hadden en in de mid game gewoon niet op konden tegen harrasment van zerg. Vandaar dat Toss de Tempest kreeg toen Hots uitkwam en mogelijkheden tot massrecall waardoor deathballing en A-move ook op het allerhoogste niveau gewoon de norm werd.

Pas tijdens Legacy hebben ze dit gefixt door die BS Mothershipcore te verwijderen en vervangen door de Shieldbattery (zoals Toss altijd al had moeten zijn)
Het APM / EPM verhaal kwam ook direct bij mij op toen ik de wedstrijden zag.
Ik begrijp dat ze hebben geprobeerd om het redelijk te limiteren, maar de getoonde micro was werkelijk onmenselijk. Tientallen units die verspreidt over de map waren en individueel werden aangestuurd op een fractie van een seconde nauwkeurig.

Misschien moeten ze ook wat onnauwkeurigheid toevoegen aan de 'muis' van de computer, zodat de computer af en toe een unit een paar pixels verkeerd stuurt net zoals een mens die nooit 100% nauwkeurig klikt.

Een ander punt van onmenselijkheid is de eindeloze concentratie van de computer. Als twee mensen een groot gevecht hebben gehad dan is er na het gevecht een natuurlijk rustmoment waarop ze hun units terugtrekken, hergroeperen en even op adem komen. De computer leek dat niet nodig te hebben en ging medogenloos door en wist daardoor voortdurende kleine puntjes te pakken. Over een heel potje tellen al die kleine puntjes flink door.


Ik had graag wat meer rondes gezien tegen dezelfde agents, om te zien hoe flexibel ze zijn en in welke mate deze agents zijn getrained om één specifiek strategie extreem goed te doen en of ze zich kunnen aanpassen als de tegenstander hun strategie weet te counteren.
Mana paste zich onmiddellijk aan toen hij een zwakheid vond.
Ik heb de meeste potjes gekeken en kwam eigenlijk vooral tot de conclusie dat als MaNa wat beter had gespeeld, of beter gezegd wat beter was ingespeeld vs deze AI's; hij eigenlijk gemakkelijk had kunnen winnen.

Sterker nog ik denk dat als ze gelijk nog een best of 9 hadden gedaan, hij die wel zou hebben gewonnen. Zoals hierboven ook al vermeld moest MaNa vooral wennen aan de subtiele strategie verschillen ten opzichte van wat hij gewend is. Ook de game (4?) met een mass-stalker surround en inhuman micro was mijn inziens gewoon een fout van MaNa. Was gewoon slechte positionering die hem tegen een zerg ook de kop had gekost.

Daar waar echt slimheid vereist is zoals minimalistisch verdedigen en anticiperen op aanvallen viel de AI toch wel een beetje door de mand en was mijn inziens ook te zien dat het een AI betrof.
Hmmz, is het oneerlijk dat de AI geen 'domme' click's doet? Imho ligt dit aan de speler zelf.
Daarnaast is AlphaStar juist op een aantal vlakken gehinderd door APM te reduceren naar een bijna gelijk aantal als de menselijke spelers en is ook het zicht wat AlphaStar had beperkt tot vrij dicht op het veld om er zo voor te zorgen dat AlphaStar geen voordeel zou halen uit de zoomed-out modus.

Al met al zijn misschien de grafieken niet helemaal in het voordeel van de menselijke spelers, feit blijft dat ze hard verslagen zijn en dat AlphaStar niet op het top van zijn kunnen heeft mogen spelen.

Als je al ergens de vergelijking om Mank wil laten gaan is het de 200 jaar die AlphaStar effectief heeft mogen spelen, Mana en TLO hebben niet die uren er in kunnen steken. Om te stellen dat het aan de strategie lag, meh... we weten niet wat AlphaStar 'dacht' dus kunnen alleen gokken naar de strategie, maar wat ik in het filpmje zag was er echt spraken van uitlokken en uitdunnen van unit van de tegenstander.
Een ander punt van aandacht is dat AlphaGo een maphack had en de human niet. De bot kon dus alles al counteren terwijl de human moest scouten voordat hij de juiste army compositie kon bouwen. Dit heeft ook invloed op de epm, die gaan dus niet op aan scouten. Zo zijn er nog wel wat dingetjes die dit qua machine learning allemaal heel gaaf maken, maar feitelijk gewoon een goeie bot opleveren die weinig te maken heeft met real-AI. Op deze fiets is de quake 2 eraser bot ook AI
Zo zijn er nog wel wat dingetjes die dit qua machine learning allemaal heel gaaf maken, maar feitelijk gewoon een goeie bot opleveren die weinig te maken heeft met real-AI. Op deze fiets is de quake 2 eraser bot ook AI
En dat is effectief de TL;DR voor dit hele artikel, inderdaad.
Kom maar op met die karma dan


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True