Nvidia toont tijdens Computex zijn Avatar Cloud Engine for Games-techniek met generatieve AI. Spelers moeten hiermee realistische gesprekken kunnen voeren met npc's. De techniek kan lokaal en in de cloud draaien, meldt het bedrijf.
Nvidia's ACE for Games stelt gebruikers in staat om via hun microfoon te praten met npc's in games. De techniek gebruikt een generatief AI-taalmodel dat antwoorden kan genereren. Nvidia biedt daarvoor zijn NeMo-framework, waarmee ontwikkelaars zelf taalmodellen kunnen maken, aanpassen en gebruiken in hun games. Ontwikkelaars kunnen de taalmodellen aanpassen met lore en achtergrondverhalen van personages en ongepaste antwoorden voorkomen met NeMo Guardrails.
ACE for Games omvat daarnaast Nvidia Riva, de text-to-speech- en speech-to-text-techniek van het bedrijf. Daarmee worden de vragen die spelers stellen omgezet naar tekst. Die tekst wordt ingevoerd in het taalmodel om een antwoord te genereren, waarna Riva opnieuw wordt ingezet om dat antwoord om te zetten in een verbaal antwoord.
Een Nvidia Omniverse Audio2Face-model kan op zijn beurt realistische gezichtsuitdrukkingen en -animaties genereren. Dat moet er onder meer voor zorgen dat de mondbewegingen overeenkomen met de antwoorden die de npc geeft. Die AI-techniek bestond al en wordt onder meer ingezet voor gezichtsanimaties in de komende game Stalker 2: Heart of Chernobyl, hoewel dat zonder generatieve AI is.
Het bedrijf toonde tijdens Computex een demo van ACE for Games, die het bedrijf in samenwerking met AI-bedrijf Convai maakte en is gerenderd in Unreal Engine 5. In de demo praat een speler met een npc genaamd Jin, die een noedelwinkel heeft. De speler stelt vragen via zijn microfoon en Jin geeft gepaste antwoorden. Uiteindelijk geeft Jin de speler een quest, waarin een machtige criminele baas gestopt moet worden.
Volgens Nvidia kunnen de neurale netwerken van ACE for Games geoptimaliseerd worden voor verschillende systemen, waarmee ontwikkelaars afwegingen kunnen maken op het gebied van omvang, prestaties en kwaliteit. De modellen kunnen in de cloud of lokaal op pc's gedraaid worden. De modellen zijn volgens Nvidia geoptimaliseerd voor zo min mogelijk latency.