Nvidia toont een 'Chat with RTX'-techdemo. Gebruikers met een RTX-gpu kunnen daarmee later deze maand lokaal een AI-chatbot maken. Ze kunnen bijvoorbeeld hun eigen documenten invoeren in de software, waarna de chatbot vragen over die data kan beantwoorden.
Chat with RTX wordt gebaseerd op een groot taalmodel van Nvidia, dat gebruikers lokaal kunnen draaien. Ze kunnen het taalmodel 'verbinden' met hun eigen data, zoals lokaal opgeslagen tekstdocumenten, pdf's en XML-bestanden. Gebruikers kunnen ook de URL's van YouTube-video's en -afspeellijsten invoeren, waarna de software transcripten van die video's downloadt om die te gebruiken in de chatbot. De bot kan die data analyseren en daar vervolgens vragen over beantwoorden.
De demo maakt gebruik van de Retrieval-Augmented Generation-techniek voor generatieve AI en de opensource-Tensor-LLM-software. Chat with RTX gebruikt de Tensor-cores van RTX-gpu's. De software kan dan ook lokaal draaien op 'Windows-pc's met RTX'. Of de demo beschikbaar komt voor alle RTX-gpu's of alleen voor de RTX 40-serie, is niet bekend. Tweakers heeft daarover vragen uitstaan bij Nvidia.
Nvidia zegt dat de Chat with RTX-demo later deze maand beschikbaar zal zijn. Wanneer precies is niet duidelijk. Gebruikers kunnen zich inschrijven op de website van Nvidia, zodat ze een notificatie krijgen als de demo beschikbaar is.