Nvidia kondigt Turing-architectuur voor gpu's aan

Nvidia heeft op Siggraph de Turing-architectuur voor gpu's aangekondigd. Daarnaast heeft het bedrijf enkele grafische kaarten aangekondigd, maar die zijn niet bedoeld voor de consumentenmarkt.

Nvidia legt in zijn presentatie op Siggraph de nadruk op ray tracing, de techniek waarbij bijvoorbeeld een grote hoeveelheid lichtstralen vanuit de positie van de camera in verschillende richtingen worden 'uitgeschoten'. Hoe deze lichtstralen vervolgens weerkaatsen, wordt berekend aan de hand van de kleur en eigenschappen van het materiaal. Turing-gpu's zullen daarvoor gespecialiseerde RT-cores aan boord hebben om ray tracing met minimale vertraging mogelijk te maken.

Samen met een nieuwe generatie Tensor-cores, die geoptimaliseerd zijn voor neurale netwerken, moet een Turing-gpu zorgen voor zes keer snellere rendering van een fysieke wereld dan de voorgaande Pascal-generatie.

De nieuwe Turing-gpu's kunnen gebruik maken van gddr6-geheugen op maximaal 14Gbit/s. Dat is wat Samsung, SK Hynix en Micron allemaal bieden, hoewel Samsung inmiddels ook sneller geheugen aanbiedt. Gezien het aantal transistors van de net aangekondigde gpu's is het procedé vermoedelijk hetzelfde als bij de dit voorjaar uitgekomen Quadro GV100, 12nm-FinFet van TSMC.

Nvidia kondigde vier verschillende modellen aan, de Quadro RTX 8000, 6000, 5000 en RTX Server. De RTX8000 heeft 4608 cuda-cores en 576 Tensor-cores op een die size van 754 vierkante millimeter. De gpu's zijn voor de professionele markt en de RTX 8000 gaat tienduizend dollar kosten. De nieuwe gpu's komen dit najaar uit.

Naar verwachting presenteert Nvidia volgende week op gamebeurs GamesCom in Keulen de consumentenversies van de Turing-gpu's. Die zullen de huidige GTX10xx-serie gaan opvolgen. Het is onbekend wanneer die precies zullen uitkomen.

GPU Vram Ray Tracing Cuda-cores Tensor-cores
Quadro RTX 8000 48GB 10GigaRays/sec 4608 576
Quadro RTX 6000 24GB 10GigaRays/sec 4608 576
Quadro RTX 5000 16GB 6GigaRays/sec 3072 384

Nvidia Turing

Door Arnoud Wokke

Redacteur Tweakers

14-08-2018 • 06:46

107

Reacties (107)

107
104
45
5
1
41
Wijzig sortering
Ze hebben zo goed als officieel ook de RTX 2080 aangekondigd :)

https://twitter.com/NVIDIAGeForce/status/1029164596903337984
Interessant, iedereen zei natuurlijk de GTX1180 maar nu beginnen ze met een heel nieuwe voornaam, de RTX! Ik dacht eerst dat je een typefout maakte maar je bron laat wel degelijk RTX zien.
Yep, en 2080 ook.. zie 0:45 en 0:54 ;)
En natuurlijk het feit dat hij op de 20e ge-announced wordt :P
OOOH ik zie nu ineens een connectie
20e van de 8e maand RTX2080 _/-\o_
Maar dan snappen de amerikanen de connectie niet want die moeten per se altijd maand/dag/jaar noteren als het om een datum gaat :+
Goed plan, lever die kaart in de 20e maand aan de USA😀
Dan hebben wij meer :P
of aangekondigd op de 20e van de 8e maand en dan leveren in 2080 :x
Waarom zou dat een typfout zijn als de nadruk op Raytracing lag?
Als het echt 6x sneller een wereld kan renderen ben ik benieuwd wat voor impact dit gaat hebben op consumenten gaming kaarten. Al zal dat natuurlijk echt geen 6x sneller gaan worden dan een gtx1080. :+

Al met al ben ik wel benieuwd naar de prestaties en uiteraard kosten.
Aangezien huidige games geen raytracing gebruiken, gaat dit nul effect hebben op de game prestaties van de nieuwe consumentenkaarten :)

Ben vooral benieuwd of ze al die RTX hardware ook op de consumentenkaarten gaan implementeren (en dus verwachten dat in de nabije toekomst er games met RTX rendering gaan verschijnen), of dat ze die plaats gaan gebruiken voor andere, meer gaming-relevante hardware (extra CUDA's, meer geheugen, etc).
Huidige games neen inderdaad, maar dat heeft uiteraard een reden.
Game developers staan te popelen op hardware matige ray tracing ondersteuning, het is niet dat het (efficient) niet kunnen, de hardware was nochtans er nog niet klaar voor.

Metro Exodus zal de 1e ray tracing game zijn die de feature van Nvidia gaat ondersteunen
https://www.youtube.com/watch?v=2NsdM1VS5u8

(Voor deze demo/proof of concept hadden ze enkele Titan V's in SLI nodig...)

Ray tracing zou wel een hele grote stap voorwaarts zijn in graphics, het stukje "realisme" komt zo meer dichterbij, zeker ook bij gezichten en facial expressions, zullen de gedetaileerde belichting er echter uit gaan zien (gevoelsmatig weet je nu altijd dat er iets niet klopt, enkel kan je vaak niet je vinger er op leggen wat precies).

[Reactie gewijzigd door Turismo op 28 juli 2024 01:37]

Misschien snap ik gewoon niet goed waar ik naar moet kijken maar dat filmpje is toch helemaal niet zo mooi? Zo "immersive" is het helemaal niet...
Anoniem: 298195 @Nerro14 augustus 2018 10:48
Ray tracing is het nieuwe tessalation, veel hype maar maar beperkte implementatie.

Grappig maar ik ga er echt niet speciaal een videokaart voor aanschaffen.
Precies dit, de komende vijf jaar is dit nog zeker compleet en vooral een gimmick. Je hebt er geen bal aan. Tesselation zie je tegenwoordig wel gebruikt worden en het voegt ook wel wat toe. Er komt zo ook wel een moment voor ray tracing. Maar dat duurt zeker nog 2-3 generaties.
De audio in die demo is verschrikeklijk en om ray tracing goed weer te geen zouden ze beter af zijn met wat minder wolken in de skybox en minder diffuse lichtbron. Dit ziet er ongeveer even goed uit als Cryengine 3
Juist die soft shadows en die diffuse lichtbronnen zijn nou juist zo moeilijk te doen.
Je ziet het alleen niet in deze demo omdata het compleet bewolkt is.

Soft shadows zijn niet heel moeilijk, je moet alleen maar kijken wat de belichting is aan de rand (umbra) en in het midden (penumbra) en daartussen extrapoleren. Wat echt moeilijk is is de weerkaatsing van licht door gekleurde objecten in de omgeving ook meenemen en zelfs dat deed cryengine al. 8 jaar geleden.......
https://www.youtube.com/watch?v=NzhqtTts-UE

om RT aan de man te brengen zullen ze wel iets harder hun best moeten doen dan wat oogt als 2010 tech demo kwaliteit graphics in een tech demo in 2018.

PS: check de prachtige glitch in de shadowing van de ventilator (links in beeld) op https://youtu.be/2NsdM1VS5u8?t=86
Helemaal 2005. Ook roept dit bij mij twijfels op of dit nu wel echt RT is. Dat soort glitches zou RT niet moeten hebben.

[Reactie gewijzigd door Origin64 op 28 juli 2024 01:37]

Waar gebruiken ze hier dan ray tracing? Dit ziet er gewoon best slecht uit eigenlijk. Niet wat je zou verwachten van een game uit 2018.
Ik zie 3 plekken:

Het stroompje water reflecteerd/refract: correcte reflecties van de omgeving ipv een RTT cubemap en correcte buiging van licht door verschil in dichtheid tussen lucht en water.

De schaduwen van de bomen die op de gordijnen van het huisje doorschijnen, dus schaduwen die door meerdere semi-transparante meshes heen gaan.

De global illumination in het huisje, dus de muren krijgen iets kleur mee van het eerste object wat het zonlicht reflecteert. Je ziet het vooral op het plafond in de 2e kamer van het huisje.

Het is voor mij vooral zichtbaar omdat de resolutie van die features flink schaalt met hoe ver ze uit het midden van het zichtsveld zijn, in het midden zijn ze scherp maar aan de randen word het een rare blokkerige bende.

Maar ik geef je groot gelijk, het ziet er eigenlijk niet echt uit vergeleken met wat "gefaked" kan worden met screen-space global illumination en andere post-effecten. Enige interessante is dat schaduwen dus door semi-transparante objecten werkt, maar om nou te zeggen dat dit efficient gebruik maakt van de gigantische extra rekenkracht die hiervoor nodig is?
Het is super statisch. Een demo met meer bewegende delen, wapens die licht geven als ze schieten, flares, vijanden (er zitten aliens in metro die onzichtbaar/doorzichtig kunnen worden) zuo het een stuk beter uit de verf laten komen. Ik denk dat de game nog niet ver genoeg is ontwikkeld om dat te doen. Het hele punt van ray tracing is dat dat soort effecten geen grote performance impact zouden moeten hebben, omdat je al dat werk toch voor elke light ray doet.
Don't blame the messenger ;) ik vind het er ook niet baanbrekend uitzien, maar het wordt wel gepushed als realtime ray tracing.

Vind de komende Anthem (die geen ray tracing ondersteund) of Tomb raider of elk ander goed geimplementeerde Unreal engine game er mooier/realistischer uitzien.

Ik wilde enkel hiermee zeggen dat de game industry hier al jaren op zit te wachten, het is min of meer de holy grail naar de volgende stap in realtime graphics rendering op home computers.

Gezien het nu al uren tot dagen duurt om te renderen in films/animaties, het een behoorlijke prestatie zou zijn als dit op een thuis computertje in real time kan.

Interessant topic over hoe de makers van Anthem over ray tracing denken:
https://www.reddit.com/r/...ure_new_ray_tracing_tech/

[Reactie gewijzigd door Turismo op 28 juli 2024 01:37]

AdoredTV suggereerde een paar dagen terug dat de consumentenkaarten opgesplitst gaan worden in met en zonder raytracing.
Da's mooi; ik zie liever gewoon 60 - 144 fps op hoge resolutie dan ray tracing op dit moment, en een stabiele framerate krijgen is al moeilijk genoeg.
Ray tracing heeft niet per se slechtere performance ivt vertex rendering, dat is nogal afhankelijk van de implementatie. Bij ray tracing hoef je bijv. veel minder post processing te doen, de hele shader kun je overslaan, reflecties en refracties, hoef je niet extra berekeningen voor te doen. We gaan ooit het punt bereiken waarop ray tracing goedkoper eenzelfde kwaliteit behaalt dan dat vector graphics met al hun kunstgrepen kunnen. Omdat het dichter ligt bij hoe de natuur werkt.
(ook al zijn fotonen niet echt deeltjes :P)

Op het moment zit er nog een factor 10-100 tussen, daarom is het goed dat er nu geinvesteerd wordt. exponentiele groei enzo.

[Reactie gewijzigd door Origin64 op 28 juli 2024 01:37]

Ik denk dat als we niet elke keer de resolutie verhogen en het aantal driehoekjes in 3d modellen niet elke keer verhogen we er al lang zouden zijn. Ik vermoed dat je Half-Life 1 op 640x480 nu al prima kan ray/path tracen. Zou er ook een stuk mooier uitzien :).

Maar op 4k moet je elk frame meer dan 8 miljoen pixel van data voorzien. Voor elke pixel heb je tientallen tot honderden rays nodig die tientallen keren moeten bouncen voordat ze een lichtbron raken. Lastig om voor elkaar te krijgen binnen 1/60e van een seconden.

Met de nieuwe DirectX API wordt daarom ook maar een klein deel van de effecten via Ray Tracing uitgevoerd. Zodat je een hoop shortcuts kunt nemen. Maar het is wel eindelijk real-time ray tracing in games. Ik ben benieuwd :).
Op zich heb je met 1 ray per pixel al wat, zeker op zo'n hoge resolutie waarbij je weinig last hebt van aliasing.

Bepaalde effecten zijn met vertexen zo inefficient. bijv. voor een spiegel of reflectie in een scope moet je een hele extra viewpoint renderen. En als je iets als volumetric smoke wil, moet je shader heel hard aan het werk. In CSGO kan je framerate van 300 naar 30 gaan, als je op de goede plek vlakbij een smoke grenade gaat staan. Die dingen kosten met raytracing bijna niets extra, want je doet al het werk al. Als die dingen in die nieuwe api met RT kunnen worden gedaan, kan er misschien zelfs performance winst zijn?
Aan 1 ray heb je heel erg weinig vrees ik. Als een ray een object raakt wat niet perfect reflecterend is (dus eigenlijk alle materialen) zul je meerdere rays vanaf daar moeten afschieten in (semi-) willekeurige richtingen om een realistisch beeld te krijgen van belichting daar. Anders krijg je heel erg veel variatie in kleur per pixel wat weer leid tot heel erg veel noise.

Ray tracing is in de basis veel minder efficient dan rasterisatie. Alleen krijg je met raytracing heel erg veel technieken bijna gratis en is de implementatie een stuk makkelijker. Met raytracing (of eigenlijk path tracing) bounce je een ray vanuit je camera langs materialen net zo lang tot je een lichtbron raakt en bereken je daarna de energie die getransporteerd wordt om zo tot de kleur van je pixel op het scherm te komen. Hierdoor moet je ontzettend veel geometrie in ogenschouw nemen en ben je soms hopeloos op zoek. Voor elk material dat niet perfect reflecterend is moet je zelfs meerdere rays afschieten omdat de ray hier meerdere kanten op kan gaan.

Als je dit vergelijkt met rasterisatie: je projecteert alleen maar de geometry die zichtbaar is vanuit de camera op het scherm. Met deferred rendering bereken je daarna alleen maar voor de pixels die echt zichtbaar zijn op je scherm de energie om zo tot de kleur te komen. Voor schaduw effecten doe je dit nogmaals vanuit het perspectief van de lamp, maar weer gebruik je alleen maar informatie die uiteindelijk echt op het scherm gaat komen (dmv geometrie of de schaduw van de geometrie). Voor reflecties neem je weer alleen in ogenschouw wat er indirect op het scherm gaat komen.

Het wordt pas echt naar bij dingen zoals spiegels waarmee je een andere spiegel kan zien. En als je echt de grens met realisme opzoekt.

Dus ik hoop echt dat ray tracing nu echt komt. Maar ik zie het meer als een techniek om veel meer natuurgetrouwe belichting te hebben dan als een eventuele performance optimalisatie :).
Om een heel realistisch beeld te krijgen heb je veel rays nodig, ja, maar niet perfect reflectieve objecten hoeven niet per se heel veel rays af te schieten. Het hoeft alleen richting lichtbronnen. Als je super realistische belichting wilt hebben, moet je alles als lichtbron beschouwen, wat licht weerkaatst. Dan stuur je rays alle kanten op in een halve bol vanaf je diffuus reflecterend object.
Maar je kunt ook zeggen, alles dat minder licht producteert dan een bepaald cutoff point negeren we. Dan houden we een aantal objecten over, in die richting stuur je rays (je weet niet precies waar de objecten zijn, maar in de acceleration structure kun je wel ongeveer zien waar dingen zijn, of je houdt ergens apart de coordinaten van lichtbronnen bij) en je middelt het resultaat. Dit hoef je ook niet echt voor elke ray te doen die een bepaald object raakt, je kunt kijken welke groep rays vanuit welke pixels een object snijden, een aantal punten pakken, daarvoor de hele berekening doen, en voor de andere punten daartussen extrapoleren. Voor platte vlakken werkt dat volgens mij redelijk.
Dan zijn je schaduwen misschien niet heel scherp oid, maar het scheelt een hoop werk. En daarop kun je nog verbeteren door een tweede ronde te doen waarbij je extra punten neemt voor de hele berekening, tussen punten waar de belichting snel verandert. Een second pass. Nog steeds minder werk dan voor elk punt de belichting uitrekenen.

Ik verzin dit een beetje ter plekke dus neem het niet te serieus :P
Het punt is: Volgens mij is er best wat leuks te verzinnen zo een beetje tussen rasterisation en RT in. Het realisme van het een en de optimalisatie van het ander. Er is een trade off te maken.

[Reactie gewijzigd door Origin64 op 28 juli 2024 01:37]

> En als je echt de grens met realisme opzoekt.

Dan zou je vanaf elke lichtbron ("echt" ray tracing zou ik zeggen) alle mogelijke "stralen" moeten bereken, ook degene die niet direct een object in de scene kan raken maar via een object buiten de scene gereflecteerd wordt richting de scene (en zoals je aangeeft, als een spiegel een ray reflecteerd naar een andere spiegel ben je wel ff zoet met tracen van 1 ray, de straal zal zowiezo ook "uit elkaar vallen, uiteindelijk is licht niet een (perfect) straal")

[Reactie gewijzigd door Amorac op 28 juli 2024 01:37]

Al doe je dit normaal vanaf de camera, omdat dit efficiënter is met hetzelfde effect, daarom hebben licht bronnen voor raytracing altijd een afmeting en vorm.
Klopt, maar wil je 100% realism is dat wel de enige manier. Onhaalbaar voorlopig maar als dat het doel is.

Overigens als ik het goed begreep is het raytracen wat nVidia beperkt tot een x aantal "rays" de rest wordt "gegokt".
Het maakt niet direct uit of je de rays vanaf de camera of vanaf de lichtbron doet, de rays zijn hetzelfde.
Nee, want bij vanaf de lichtbron bereken je ook rays die nooit bij het doel aankomen uit. Daar kom je pas achter als de straal een eindpunt bereikt.
Het maakt niet uit omdat die rays het eindresultaat niet beïnvloeden. Uit eindelijk gaat het alleen om de rays die een verbinding maken tussen camera en licht bron.
RTX voor kaarten met en GTX voor kaarten zonder?
Dat lijkt me heel goed mogelijk. RT staat hier waarschijnlijk dan ook voor Ray Tracing.

[Reactie gewijzigd door MrFax op 28 juli 2024 01:37]

Het komt al 30 jaar steeds dichterbij, ;)
Had het al gezien, maar blijft toch wel waanzinnig goed :)
Ja, dit profiteert tenminste van het effect van weerkaatsing op gladde opllervlakken. Objecten met simpele vormen en een glad oppervlak gaan er denk ik het meeste op vooruit.
Mocht dit in consumenten (gaming) kaarten worden gebouwd, is dit dan een tactiek van Nvidia om gamemakers aan te sporen tot het gebruik hiervan?
Met als gevolg dat er weer games uitkomen die alleen knap draaien in full details etc net zoals bij Nvidia hairworks om AMD te kakken te zetten? :/
hairworks was echt enorme geldverspilling, alle nvidia kaarten zouden goedkoper kunnen zijn als ze geen geld verspilden aan dat soort marketing gimmicks.
Hmm maken hairworks echt zo weinig uit voor hoe mooi haar eruitziet? Is het sowieso alleen voor haar?
Het was alleen voor haar. Het maakt wel wat uit, maar who the hell cares.
Klinkt inderdaad niet super belangrijk.
Zou geen invloed hebben op de prijs van de kaarten.
Zou alleen invloed hebben op de winst per kaart.
Dat ligt eraan of nvidia liever meer marktaandeel heeft of meer winst. Hoe dan ook was hairworks imo een flop.
Is vast voor raytracing. Voor animatiestudios die wel een sprong van 6x kunnen gebruiken. Als je hoort hoe lang het renderen van 1 frame voor een film met veel special effects duurt. Dan praat je niet over minuten.
Die gebruiken render farms, waar de Tesla of Quadro kaarten eerder geschikt voor zijn; ik zou dan liever gespecialiseerde ray-tracing GPU's willen zien, ipv een combinatie van ray tracing, cuda, tensor, etc cores op 1 kaart.
Bij een presentatie wordt natuurlijk vooral gesproken over de theoretisch maximalen. Dat is waar de GPU in principe toe in staat is en dat is toch ook exact wat je bij een presentatie wilt weten? De praktijk kan later getest worden wanneer de videokaarten met de chips daadwerkelijk verkrijgbaar zijn. :)
Ben benieuwd wat dit betekent voor de consumentenkaarten. Voor de professionele gebruiker is de winst wel duidelijk (natuurlijk eventjes afwachten op de benchmarks).
De kaarten zijn met name ook bedoeld ook bedoeld voor de film industrie. Voor VFX en bijvoorbeeld colour grading.
Beetje jammer dat de prijzen dan weer missen:
The Quadro RTX 5000, 6000 and 8000 will go on sale for $2,300, $6,300 and $10,000, respectively, with the top of the line 8000 packing 48GB of RAM
Dit is geen pathtracing..a la brigade. Deze kaart is dus gericht op 3D-animatie. Vooralsnog mooie ontwikkeling.
Je kan hier prima path tracing mee doen hoor.
Enige wat “ray tracing” betekent is dat de kaart speciale hardware heeft voor het vinden van een intersectie tussen een ray en een stapel (driehoek) primitieven.
Wat je doet bij een intersectie is aan de programmeur, dus path tracing is ook gewoon mogelijk.
Of het snel genoeg is voor real-tine path tracing is natuurlijk een andere vraag alhoewel Nvidias AI denoising filters grote verbeteringen maken in de laatste paar jaar.
Inderdaad! Maar je kan ook op bijv. gtx kaarten pathtracen. Real-time pathtracing is een ander, interessanter verhaal. Lijkt mij ook mogelijk om deze nieuwe serie van Nvidia echt voor pathtracen te optimaliseren.
Niet alleen, RTX zit ook in DX12 (of dit moet nog uitkomen maar het is in ieder geval al aangekondigd), het is dus ook voor realtime raytracing, wel heb je gelijk dat het voorlopig alleen nog maar voor animatie zal worden gebruikt aangezien er nog geen games zijn met ondersteuning voor RTX en buiten linus geeft niemand 10k uit aan een kaart voor gaming

[Reactie gewijzigd door TimTurbo2 op 28 juli 2024 01:37]

12.5 bestaat helemaal niet, alleen 12.0 bestaat, met feature levels 11_0, 11_1, 12_0, 12_1
Er bestaat/komt wel degelijk een nieuwe DirectX 12, met nieuwe API commands for RayTracing. In Maart 2018 is dit aangekondigd:
https://www.anandtech.com...ounces-directx-raytracing
Nieuwe versie, of nieuw feature level? kon nergens een nieuw versienummer vinden, wel "uitbreiding van de API"
Ik kan er ook niks over vinden, ik dacht dat gelezen te hebben maar ik heb het me waarschijnlijk verkeert herinnerd, ik heb me reactie aangepast
Wat ik met met "Turing phone" ook al afvroeg: is het gebruik van de naam afgestemd met eventuele nog levende familieleden van Alan?
Was het gebruik van de naam afgestemd met de nog levende familieleden van Nikolai? Of van Fermi, Kepler, Maxwell of Pascal?
Geen idee, ik hoop het wel :Y en ik ben ook daar benieuwd naar!

Fermi en Turing zijn overigens in hetzelfde jaar overleden lees ik (1954), de anderen al eerder.
Alan Turing geniaal vent
Porsche en Unreal Engine hebben een video gemaakt die de nieuwe mogelijkheden van real-time ray tracing tonen: https://thenextweb.com/cr...atures-for-unreal-engine/
Voor als je denkt van "Ray-what??". Hier een Real-Time Ray Tracing Explained filmpje
https://www.youtube.com/watch?v=lFnWy0Odsh8

Op dit item kan niet meer gereageerd worden.