Meta brengt AI-model uit dat metaversepersonages realistischer moet maken

Meta heeft een nieuw AI-model uitgebracht dat bedoeld is om op natuurlijkere wijze bewegingen van het menselijk lichaam na te bootsen. Het Motivo-model is bedoeld om in de toekomst metaverseavatars authentieker te doen overkomen.

Meta zegt dat het het nieuwe model direct uitbrengt en openbaar beschikbaar maakt. Het bedrijf heeft een whitepaper gepubliceerd en een demo uitgebracht. Motivo is een unsupervised model dat menselijk gedrag en bewegingen kan nabootsen door zelf patronen uit ongelabelde datasets te herkennen, maar tegelijkertijd zero shot learning kan blijven doen. Meestal gaan die twee principes niet samen.

Meta zegt dat het model 'een brede reikwijdte aan taken van het menselijk lichaam' kan leren. Dat betekent in de praktijk dat het mogelijk is dat een model een bepaald doel volgt en najaagt of bijvoorbeeld een houding kan aannemen zonder daarop specifiek te hoeven worden gewezen.

Volgens Meta haalt het model in veel gevallen betere resultaten in taakgerichte opdrachten dan veel andere unsupervised modellen die menselijk gedrag nabootsen. Ook past het model zich snel aan aan andere omgevingen, zoals wanneer er ineens wind of andere zwaartekracht in een omgeving wordt geïntroduceerd, zelfs als het model niet daarop getraind is.

Het model is bedoeld om 'agents' te kunnen trainen in metaverseomgevingen, zegt Meta. Dat zou moeten leiden tot levensechtere npc's in zulke omgevingen, bijvoorbeeld met betere animaties.

Meta Motivo

Door Tijs Hofmans

Nieuwscoördinator

13-12-2024 • 11:51

8

Reacties (8)

Sorteer op:

Weergave:

Mijn brein raakte toch even in storing bij het lezen van "Metaverseavatars" en "Metaversepersonages"

[Reactie gewijzigd door Japio85 op 13 december 2024 12:08]

De gegevens die ze verzamelen via body tracking van de Quest zullen misschien ook wel wat geholpen hebben neem ik aan :).
dat bedoeld is om op natuurlijkere wijze bewegingen van het menselijk lichaam na te bootsen.
Daar heb je helemaal geen AI voor nodig en bsetaat al decennia. Het heet motion capture, en een bedrijf als Meta kan écht wel een aantal mocap acteurs betalen...
Motion capture kopieert de bewegingen van een mens (of dier) naar een virtueel model. Het verzint niets zelf. Als je het verhaal goed begrepen hebt, dan weet je dat dat niets te maken heeft met AI.
Het model is bedoeld om 'agents' te kunnen trainen in metaverseomgevingen, zegt Meta. Dat zou moeten leiden tot levensechtere npc's in zulke omgevingen, bijvoorbeeld met betere animaties.
Motion capture is een foto. Het model van Meta is een schilderij.
Ik vind dit best wel cool! motion capture is natuurlijk gewoon een soort video wat je afspeelt, waar de bewegingen die je eerder hebt opgenomen via een 3d model worden afgespeeld. Dit ai model (je kan de demo trouwens gewoon proberen, is leuk tijdverdrijf voor een paar minuten) reageert in real-time op inputs die je geeft zoals bv trekken aan een lichaamsdeel, een object dat je gooit of de wind. En boost natuurlijk uitziende reacties hierop. een directe applicatie is natuurlijk games, of zoals meta hier zegt hun metaverse, maar ik denk dat het realistisch nabootsen (in real-time) van bewegingen ook op andere vlakken toegepast kan worden.
Dit is nice, ik doe veel met 3D ontwikkeling en idd personages zijn enorm veel werk. En een motion capture setup is te duur. Meestal koop ik personages die door anderen zijn gemaakt die er in gespecialiseerd zijn. Maar het liefst vermijd ik ze helemaal, zoals je veel ontwerpers ziet doen.

Hopelijk maakt dit het wat toegankelijker, maar ik zie nog niet echt waar ik dit daadwerkelijk kan gebruiken.

[Reactie gewijzigd door Llopigat op 13 december 2024 16:34]

Op dit item kan niet meer gereageerd worden.