Unity ontwikkelt 'spel' voor ai-spelers

Unity, het bedrijf achter de Unity-engine, heeft een 'spel-achtige omgeving' voor ai-spelers ontwikkeld, genaamd The Obstacle Tower. Het spel is bedoeld om de capaciteiten van intelligente algoritmes te testen door middel van levels met elk een willekeurige moeilijkheidsgraad.

Unity legt uit dat de omgeving het zicht, de controle en het plannings- en leervermogen van de ai test. Veel vaardigheden die vanzelfsprekend zijn voor mensen, moet een machine nog leren, zegt de ontwikkelaar. Om die reden heeft Unity de omgeving ontwikkeld. Daarnaast moet The Obstacle Tower dienen als benchmark voor ai-softwareprogrammeurs en onderzoekers. De honderd levels worden procedureel gegenereerd en verschillen in moeilijkheidsgraad.

The Obstacle Tower ondersteunt de Unity Machine Learning-Agents-toolkit, een opensource-sdk met tools voor de ontwikkeling van algoritmes. Op basis van de spelomgeving organiseert Unity op 11 februari een wedstrijd voor programmeurs en de door hen ontwikkelde kunstmatige intelligentie. De eerste ai-speler die de honderd levels weet uit te spelen, wint. De prijzenpot bevat honderdduizend dollar, omgerekend zo'n 87.500 euro.

The Obstacle Tower

Door Loïs Franx

Redacteur

30-01-2019 • 14:06

10

Submitter: aliencowfarm

Reacties (10)

10
8
7
4
0
0
Wijzig sortering
Unity heeft op GitHub trouwens ook een toolkit waarmee je ook zelf aan de slag kan met machine learning en AI.
Zal zo eens kijken,, laatst ook even gekeken naar opencv ^^ link posten via me mobiel is even omslagtig maar plaats er python of Java of c++ achter en ge vind em
Waarvan tienduizend dollar cash staat er op de challenge pagina, de rest is voor een conferentie en Google Cloud Platform resources.

Vanaf 11 februari word de challenge gelanceerd. Het lijkt mij stug dat er een agent in 1 dag opgetuigd moet worden.

Verder wel een grappige uitdaging.
Link naar de paper: https://storage.googleapi...09583&elqaid=2003&elqat=2
For the past few years the Arcade Learning Environment,
and the game Montezuma’s Revenge in particular has been
used as a benchmark to both measure and guide progress in
Deep Reinforcement Learning. We hope that the Obstacle
Tower environment, with the focus on unsolved problems
in vision, control, planning, and generalization, can serve
the community in a similar way for the coming years.
Waar ik laatst al een discussie over had met AI is dat er nogal een gat zit tussen implementaties die uit gaan van applicatie onderliggende data (als in, de AI krijgt informatie over x, y, z posities door en doet aan ray tracing of soortgelijke technieken door daadwerkelijk onderliggende models te meten)
en AI die interpreteerd op basis van wat een gebruiker zou zien, horen en als input devices zou gebruiken (al emuleer je key presses bijvoorbeeld).

Daarbij vroeg ik me af of 1 van de 2 de boventoon voert in AI ontwikkeling tegenwoordig. Voor mijn gevoel, met de informatie die ik nu heb en de patronen die ik nu zie; is het veel beter om te proberen AI te schrijven op basis van zaken die voor gewone gebruikers voor handen is. Zodat een AI in theorie overal op te gebruiken is, zodra een bepaalde handeling, logica en flow is aangeleerd en niet alleen op de API van die specefieke game, game engine of applicatie abstractie (vaste geheugen posities voor bepaalde informatie waar je die AI sub routine dan vrije lees toegang tot geeft).
Bij deze challenge heeft de Agent alleen toegang tot visuele data (168x168 RGB vanaf third person perspectief), en qua metadata alleen het aantal sleutels + tijd over.

Het laatste dus, erg interessant!

Bron:
Observation Space
The observation space of the environment consists of two types of information. The first type of observation is a rendered pixel image of the environment from a third person perspective. This image is rendered in 168×168 RGB, and can be downscaled to the conventional 84×84 resolution image typically used in Deep RL pixel to-control scenarios such as the Deep Q-Network (Mnih et al. 2015).The second type of observation is a vector of auxiliary variables which describe relevant, non-visual information about the state of the environment. The elements which make up this auxiliary vector are: number of keys agent is in possession of, as well as the time left in the episode.


Edit: Typo

[Reactie gewijzigd door DeathTrail op 22 juli 2024 23:56]

Ik ben ook benieuwd welke van de twee input sourcen het wordt. Ik hoop de laatste, dit wordt al veelvuldig gebruikt bij de visual Doom AI Competition

https://www.youtube.com/watch?v=3VU6d_5ze8k

All round of Track 1 (Limited deathmatch on a known map) of Visual Doom AI Competition @ CIG 2017, where AI agents can play using only raw visual input as the source of information.

Andere kant van het verhaal is, als het resultaat van de wedstrijd op visuale informatie is gericht ipv onderliggende data, dan zou voor elke ai in de game ook visuals gerenderd moeten worden...

[Reactie gewijzigd door Mic2000 op 22 juli 2024 23:56]

Ziet er qua spel geinig uit wat ik van de plaatjes kan zien. Zou dit best zelf willen spelen.
Van github

Player Control

It is also possible to launch the environment in "Player Mode," and directly control the agent using a keyboard. This can be done by double-clicking on the binary file.

Op dit item kan niet meer gereageerd worden.