Gebruikers krijgen RTX Voice-app werkend op non-RTX-gpu's van Nvidia

Gebruikers melden dat ze de pas uitgebrachte RTX Voice-app werkend hebben gekregen op non-RTX-videokaarten van Nvidia. De applicatie zou gebruikmaken van tensorcores en daardoor niet op dergelijke gpu's werken.

RTX Voice is een applicatie die met kunstmatige intelligentie in real time achtergrondgeluid kan filteren uit microfoons en speakers. Hiervoor zou de applicatie gebruikmaken van speciale tensorcores, die onder andere worden gebruikt in recente RTX-videokaarten van Nvidia. Het bedrijf bracht de applicatie eerder deze maand uit als bètaversie, omdat veel mensen momenteel vanuit huis werken. De software zou echter alleen bedoeld zijn voor recente RTX-gpu's, zo schrijft de fabrikant in een blogpost.

Forumbezoekers van Guru3D kregen de applicatie toch volledig werkend op andere Nvidia-gpu's. Ontdekker David Lake deed dit door een temp-bestand aan te passen tijdens het installatieproces. Hiermee kreeg de forumbezoeker de applicatie werkend op zijn Titan V, die ook over tensorcores beschikt. Al snel meldden gebruikers echter dat deze methode ook werkt op oudere gpu's, zonder dergelijke cores. De software zou hierdoor bijvoorbeeld draaien op Pascal-gpu's. Ook videokaarten in de GTX 1600-serie zouden werken. Maxwell-gpu's bieden volgens David Lake 'gemengde resultaten'. Er gingen eerder geruchten rond dat een GTX 580 uit 2010 zou werken, maar dit is later ontkracht.

Het is onduidelijk hoe het precies werkt, maar TechPowerUp schrijft dat de software misschien gebruikmaakt van een op cuda gebaseerde codepath. Hiervoor zijn tensorcores niet nodig. Instructies voor het installeren van de software op non-RTX-gpu's staan op Guru3D.

Nvidia RTX Voice

De RTX Voice-applicatie

Door Daan van Monsjou

Nieuwsredacteur

22-04-2020 • 10:41

34

Reacties (31)

31
27
16
4
0
8
Wijzig sortering
Hmm. Denk niet dat de programma "Geen AI" gebruikt.

De Libraries voor het gebruik van Tensor cores (en CUDA) hebben Fallback functies die af gaan de moment iets moet worden uitgevoerd wat de GPU geen dedicated hardware voor heeft. Als er geen Tensor cores zijn worden de CUDA cores aangeroepen, als de GPU niet de meest recente CUDA ondersteunt worden oudere calls gebruikt enzovoort.

Dus dat het alsnog werkt is niet echt een verassing. Denk meer dat de vraag is hoe veel de app de cuda-cores belast.

Uiteindelijk vind ik dit een beetje onzinnig. achtergrond geluid onderdrukking is niet echt nieuw en AI ervoor gebruiken lijkt overdreven. Is meer een stunt van NVidia om hun Tensor cores te verkopen.
Dat geluidsonderdrukking van achtergrond geluiden niet nieuw is moge duidelijk zijn, maar deze implementatie blijkt volgens diverse tests toch het niveau hiervan flink te verbeteren... het voegt dus blijkbaar zeker wel wat toe. Het gebeurd hiermee wss een stuk efficienter door dedicated hardware ipv dat de software hier de cpu voor gebruikt.

Of het echt nodig is om de Tensor cores specifiek hiervoor te gebruiken... durf ik niet te zeggen, ook niet hoeveel impact het op de prestaties heeft als men dit dus kan doen zonder gebruik van de cores... maar die cijfers zullen binnenkort vast bekend worden.
Dat is niet zo gek. TensorRT (het framework van Nvidia om de tensor cores te gebruiken) vereist minimaal CUDA versie 3.0. Ongeveer een GTX 650 en hoger dus. De Tensor cores zijn gespecialiseerd voor matrix berekeningen, maar in principe kan iedere GPU deze berekeningen uitvoeren.
Dat klopt, echter de tensor cores zijn ongeveer een factor 10 sneller als ze effectief ingezet worden dan de CUDA cores. Dus een kaart waar je de tensor cores kunt gebruiken kan sneller een TensorRT applicatie verwerken dan een kaart waar de CUDA cores dit moeten doen. En bijkomend voordeel is dat je de CUDA cores voor andere zaken kunt gebruiken.
Heeft men bewezen dat het installeert of dat het werkt?
Graag een vergelijkende test.
Het zou niet de eerste keer zijn dat iets "werkt" maar dat de speciale functie eigenlijk gewoon uit staat.
Hier kan je zien hoe goed de RTX Voice werkt: https://youtu.be/rd7c7FVofOE?t=317
Nvidia die een feature reserveert voor haar dure RTX line-up, terwijl het ook zou werken op andere kaarten, maar waar Nvidia minder geld aan verdient?

Wow, wat totáál onverwacht van Nvidia!
Net als rtx geeft het waarschijnlijk een grote performance hit als je geen tensor cores hebt. Vind ik zelf een vrij valide reden om het niet aan te bieden
Alleen werkt het dus volgens gebruikers wel gewoon op bijv een GTX1080. Geen RTX.
Ja, maar net als met RTX kost het je cuda cores veel meer power. RTX voice kost al een paar procent performanceloss als je tensor cores hebt, als je cuda cores het afhandelen, dan heb je kans dat je games aanzienlijk slechter lopen
Is dus niet het geval. Ik had al eerder op iemand anders geantwoord, het komt er op neer dat CUDA cores niet veel langzamer zijn dan Tensor cores. Tensor cores zijn enkel voor matrix berekeningen en daar zijn ze sneller in dan CUDA cores, maar in games worden ook extreem veel van dergelijke berekeningen uitgevoerd en dat is het hele idee van een videokaart.

RTX voice gebruikt waarschijnlijk een neuraal netwerk en dat werkt prima op een kaart zonder Tensor cores. In deze benchmark: https://lambdalabs.com/bl...n-v-vs-1080-ti-benchmark/ zie je dat een 2080 en 1080 Ti allebei zeer goed presteren. De 2080 is aanzienklijk sneller op het moment dat de Tensor cores gebruikt kunnen worden, maar in sommige gevallen zelfs trager. Beide kaarten zijn snel zat om een dergelijke workload af te kunnen handelen, het is dus vrijwel zeker een marketing truc van NVIDIA en niet een limitatie van hardware.

Het is overigens niet zo dat de 1080 Ti dan de enige kaart is die dit zou kunnen. Videokaarten worden al jaren gebruikt voor neurale netwerken, dus ik verwacht dat RTX Voice ook prima zou moeten werken op een 9xx kaart. Compute/CUDA bestaat namelijk al jaren.
Belangrijke footnote is wel dat deze benchmarks zijn gedaan voordat Tensor Flow dingen zoals automatic mixed precision etc. heeft toegevoegd om het makkelijker te maken voor gebruikers om te optimaliseren voor Tensor Cores, en de bestaande modellen zijn uiteraard niet geoptimaliseerd hiervoor. Als je kijkt naar dit onderzoeksverslag: http://www.netlib.org/utk...PERS/haidar_fp16_sc18.pdf zie je dat je als je code optimaliseert voor de Tensor Cores 2x throughput kan verwachten in FP32 en 4x in FP16 waar de cores voor gemaakt zijn.
Waar @418O2 het over heeft is dat als je een kaart zonder Tensor cores gebruikt, dit waarschijnlijk invloed heeft op je fps in-game. Dus dat staat los van het onderzoek wat je gelinkt hebt.
Dat zou kunnen, maar dat is alsnog zeer onwaarschijnlijk. GPUs houden van heel veel werk. Als namelijk een stuk werk moet wachten op bijvoorbeeld iets uit het geheugen halen, dan switchen de cores naar een ander stuk werk. Het hele idee is dus om de GPU zoveel mogelijk werk te geven.
Een 'simpel' audio verwerkingsproces zal dus niet snel roet in het eten gooien. Daarnaast verwacht ik zelfs dat NVIDIA niet alleen Tensor cores gebruikt op de RTX kaarten maar zowel CUDA als Tensor cores. DLSS gebruikte in het begin overigens ook geen Tensor cores. Nu met versie 2.0 wel, maar benchmarks geven tot nu toe aan dat er geen verbeteringen zijn kwa performance.
Los van het feit dat het een 'simpel' audio verwerkingsproces is, zal er alsnog gebruik gemaakt worden van de shader processors die je liever wil gebruiken voor het draaien van de game. Hetzelfde principe als gebruik maken van NVENC om te streamen zonder dat je game teveel performance verliest. Nvidia wil natuurlijk zoveel mogelijk manieren vinden om zoveel mogelijk van hun hardware ook echt te benutten.
Overigens, de DLSS op de shader cores waar je het over hebt draaide wellicht op de shader cores maar moesten daarom hun resultaat over veel meer frames verwerken dan de versie die nu draait op Tensor Cores. Dit is waarom er veel meer ghosting was op die versie dan 2.0. Laat overigens niet weg dat het alsnog een nuttige versie kan zijn voor kaarten zonder Tensor Cores.
Het werkt prima op m'n GTX 1650 in m'n laptop, maar hij wordt me een partij heet....
Dat is mijn punt
In het eerdere bericht werd gezegd dat het sneller uitgebracht was ivm de pandemie. Dus kan mij voorstellen dat er vooraf rekening gehouden is met fallback mechanisme dat backwards compatible is bij een GPU zonder offloading. Maar dat dit nog te experimenteel is om standaard in te zetten bij de installer wat blijkt uit berichten uit de community dat het soms werkt afhankelijk van de kaart.
Tja zelfs als het werkt wil dat niet zeggen dat het even goed werkt. Ook weten we niets over gpu gebruik en de effecten op de verdere prestaties.
Kortom zonder meer informatie is dit niets waard.
Heb een rtx kaar maar de voice app eraf gegooid, bracht niks op en bij het alt tappen tussen apps audio lag.. no ty xD
Het werkt op mijn laptop met 1050ti MaxQ. Geheugen ca. 730 MB en GPU wordt gebruikt voor ca. 10-20%. Geinig speelgoed, onder de indruk van wat het kan.
Maar hebben ze nog goeie game performance als ze dit gebruiken? Ik kan ook quake 2 rtx traaien op m'n 1660Ti maar het draait als dikke stront door een trechter.
Hij zegt nergens dat hij anders verwacht had, hij impliceert het zelfs niet eens. En om die hele reden is hij dus benieuwd en stelt hij terecht deze vraag.

Edit; Waar ik overigens ook wel benieuwd naar ben.

[Reactie gewijzigd door Xm0ur3r op 25 juli 2024 08:26]

Dat zegt meer over de 1660Ti zijn compute power krachtigere kaarten zoals de 1080 Ti en de 5700 XT doen dat veel beter.
Er waren ook al andere Minecraft RayTracing mods die geen RTX gebruikte en die presteerde goed genoeg op non RTX kaarten.

Op dit item kan niet meer gereageerd worden.