Nvidia heeft op techbeurs CES aangekondigd dat het zijn ACE-platform voor autonome game-npc’s uitbreidt. Waar de technologie zich eerst richtte op spraakinteractie, kunnen gamepersonages nu ook hun omgeving waarnemen en tactische beslissingen nemen.
Nvidia's ACE is een platform dat een reeks AI-technologieën combineert om npc’s in games realistischer en interactiever te maken. Het stelde ontwikkelaars eerder al in staat om npc’s te creëren die in real time vragen beantwoorden. Met de nieuwste versie kunnen die ook tactische beslissingen nemen en dynamisch reageren op hun omgeving.
Het platform gebruikt kleine taalmodellen die binnen milliseconden beslissingen kunnen nemen. Deze modellen zijn geoptimaliseerd voor de nieuwe RTX 50-serie-gpu’s, waardoor volgens Nvidia meerdere AI-modellen tegelijk kunnen draaien zonder impact op de spelkwaliteit.
De technologie wordt al toegepast in verschillende games. PUBG introduceert bijvoorbeeld een coöperatieve AI-partner die in real time tactieken aanpast. In het levenssimulatiespel InZOI passen personages hun gedrag aan op basis van hun dagelijkse activiteiten.
Nvidia introduceert ook een verbeterde versie van Audio2Face met een diffusion-based architectuur. Deze update zorgt voor nauwkeurigere lipsynchronisatie en natuurlijkere emotionele expressies bij AI-personages. Ontwikkelaars krijgen binnenkort early access tot de nieuwe ACE-modellen.