Door Willem de Moor

Redacteur

Turing: de architectuur achter RTX

Raytracing en neurale netwerken in gpu's

14-09-2018 • 15:00

101

Multipage-opmaak

Twee jaar wachten

Ruim twee jaar geleden alweer, in mei 2016, introduceerde Nvidia zijn eerste Pascal-videokaarten voor consumenten, met de GTX 1080 en de GTX 1070 die het spits afbeten. De serie werd in de loop van enkele maanden aangevuld met onder meer de GTX 1050 en de 1060 en in maart 2017 de GTX 1080 Ti. De laatste uitbreiding in de Pascal-serie waren de instappers GT 1030 en een 3GB-variant van de GTX 1050. In grote lijnen ligt de Pascal-introductie echter dik twee jaar achter ons en dus is het hoog tijd voor een nieuwe architectuur en natuurlijk nieuwe kaarten.

Die nieuwe architectuur is er gekomen met de Turing-generatie kaarten. De eerste kaarten werden voor Nvidia's zakelijke Quadro-serie aangekondigd, maar ook voor de consumenten- dan wel gamingmarkt zijn drie kaarten aangekondigd: de RTX 2070, 2080 en 2080 Ti. Die aanduidingen zijn om twee redenen opmerkelijk. Ten eerste stapt Nvidia daarmee af van zijn gebruikelijke GTX-naamgeving en ten tweede introduceert het bedrijf al bij de eerste lichting een Ti-kaart.

De nieuwe RTX-naamgeving lijkt vooral te verwijzen naar een van de nieuwe mogelijkheden van de Turing-kaarten: real-time ray-tracing. Met ray-tracing wordt het pad van licht en de reflecties ervan berekend, en als dat in real-time gebeurt, levert dat realistische gamebeelden op. Voor we naar prestaties van kaarten kijken, duiken we eerst in de architectuur van Turing: wat mag je van de nieuwe features van de kaarten verwachten?

Nvidia Turing-die

Turing: een nieuwe architectuur

Terminologie

sm: streaming multiprocessor
fp32: floating point-core, ook wel cuda-core genoemd
int32: integer-core
tpc: texture/processing cluster
rop: raster operation processor

Voor we in de Turing-architectuur duiken, bekijken we eerst de grootste verschillen met Pascal en de Quadro-kaarten. Pascal werd twee jaar geleden geïntroduceerd. De GTX 1080 Ti met de GP102 telde 28 sm's met ieder 128 fp32-cores, voor een totaal van 3584 cuda-cores. Samen met 4MB L2-cache telt de GP102-gpu ongeveer 12 miljard transistors die op 16nm geproduceerd werden. De Turing-gpu in de RTX 2080 Ti telt 4352 cuda-cores, ondergebracht in 64 sm's en gecombineerd met 6MB L2-cache. Dat is goed voor maar liefst 18,6 miljard transistors, die op 12nm worden gemaakt. De tdp's zijn ongeveer gelijk met 250W, hoewel de iets hoger geklokte Founders Edition van de 2080 Ti een tdp van 260W heeft, terwijl de FE van de 1080 Ti dezelfde tdp van 250W heeft als de gewone versie. De 1080 Ti FE heeft dan ook dezelfde kloksnelheden als de gewone versie, terwijl de 2080 Ti FE een hogere boost clock heeft dan de gewone 2080 Ti. We zetten de belangrijkste eigenschappen van de chips op een rij in onderstaande tabel.

Turing vs Pascal RTX 2080 Ti GTX 1080 Ti Quadro RTX 600 Quadro 6000
Architectuur Turing Pascal Turing Pascal
Chip TU102 GT102 TU100 GT100
Transistors 18,6 miljard 12 miljard 18,6 miljard 12 miljard
Procede 12nm 16nm 12nm 16nm
Die-afmeting 754mm 471mm 754mm 471mm
Tpc 34 28 36 30
Sm's 68 28 72 30
Cuda/sm 64 128 64 128
Cuda-cores 4352 3584 4608 3840
Tensor-cores 544 0 576 0
Rt-cores 64 0 72 0
Rop's 88 88 96 96
Texture units 272 224 288 240
Geheugen 11GB gddr6 11GB gddr5x 24GB gddr6 24GB gddr5x
Geheugenbus 352bit 352bit 384bit 384bit
Geheugenbandbreedte 616GB/s 484GB/s 672GB/s 432GB/s
L2-cache 5632kB 2816kB 6144kB 3072kB
Register/gpu 17408kB (256kB/sm) 7168kB (256kB/sm) 18432kB (256kB/sm) 7680kB (256kB/sm)
Baseclock (FE) 1350MHz (1350MHz) 1480MHz (1480MHz) 1455MHz 1506MHz
Boostclock (FE) 1545MHz (1635MHz) 1582MHz (1582MHz) 1770MHz 1645MHz
Tdp (FE) 250W (260W) 250W (250W) 260W 250W

Nvidia heeft zijn streaming multiprocessors voor de Turing-architectuur behoorlijk aangepakt. Dat begint met de samenstelling van deze bouwstenen van de gpu: de streaming multiprocessors die in tpc's worden georganiseerd. Normaal zagen we in het verleden streamprocessors met wat cache en een x-aantal floating point-engines. De sm's van Turing, waarvan een volledige chip er 72 bevat, zijn veel complexer opgebouwd.

In Pascal bevatten tpc's één sm, maar Turing heeft twee sm's per tpc. De sm's zijn onderverdeeld in vier blokken met elk 16 int32- en 16 fp32-cores. Dat betekent dat een Turing-sm in totaal 64 fp32-cores heeft, waar Pascal 128 fp32-cores heeft. Bij Pascal houdt het dan echter op wat rekencores betreft, maar Turing heeft naast de 64 fp32-cores nog eens 64 int32-cores en 8 tensor-cores en een enkele raytracing-core. Daarmee heeft de Turing-sm dus drie nieuwe elementen in de streamprocessor, die we stuk voor stuk nalopen.

Turing-overzicht

We beginnen echter bij de bekende onderdelen: de fp32-units en de caches, geheugen en omliggende hardware. De processor of cpu prepareert een scène met onder meer draw calls, waarna de gpu aan de gang moet om alle onderdelen invulling te geven. Daarvoor moet eerst de scheduler en dispatch de opdrachten verwerken en naar de verwerkingseenheden sturen. Daarvoor heeft elk blok in een Turing-sm een warp scheduler en dispatch-unit beschikbaar die 32 opdrachten per kloktik kan versturen. Elk blok heeft een eigen L0-instructiecache en register van 64kB.

Cache Turing vs Pascal

De vier logische blokken van een Turing-sm delen L1-cache. Die cache- en geheugenverdeling van Turing is echter behoorlijk aangepakt, het gereserveerde, gedeelde geheugen is namelijk verdwenen. In Pascal beschikten ontwikkelaars over een enkele load/store-unit per sm, met 24kB L1-instructiecache en 24kB L1-datacache en een flinke hap van 96kB geheugen dat naar wens ingezet kon worden. In Turing is dat gedeelde geheugen bij de L1-cache ondergebracht en zijn de load/store-units gesplitst, zodat gelijktijdig de integer- en floating point-cores aangestuurd kunnen worden.

Beide executiepijplijnen beschikken over een blok van 96kB gecombineerd L1-cache en gedeeld geheugen. Die blokken van 96kB kunnen onderverdeeld worden in 64kB L1-cache en 32kB geheugen, of andersom, al naar gelang traditionele dan wel compute-workloads gedraaid worden. Daarmee is de bandbreedte naar het L1-cache verdubbeld, omdat er geen aparte bandbreedte meer nodig is voor het gedeelde geheugen en bovendien is de capaciteit aan L1-cache maximaal 2,7 maal zo groot, van 24kB naar 64kB. Ook het L2-cache is verdubbeld van 3MB naar 6MB in Turing, voor de complete gpu.

Integer- tensor- en rt-cores

De Turing-smDe grootste verandering in de Turing-architectuur zien we in de extra cores die de streamprocessors hebben gekregen. Naast de traditionele fp32-cores heeft elke sm in Turing ook zestien integer-cores. De gedachte hierachter is dat steeds meer werklast voor videokaarten niet langer puur floating point-berekeningen vergen, maar ook integer-berekeningen. Volgens een analyse van Nvidia zouden gemiddeld voor elke 100 floating point-instructies 36 integer-instructies van een gpu gevraagd worden. Nu kunnen en worden die momenteel gewoon door de fp-units uitgevoerd, maar op een int-unit kost dat én minder transistors én het maakt de fp-unit vrij voor floating point-operaties.

De scheduler van Turing kan twee blokken tegelijk aansturen, zodat integer- en floating point-operaties tegelijk, zij aan zij, kunnen worden uitgevoerd. Dat levert volgens Nvidia een flinke winst op in shading-prestaties. Maar ook twee andere willekeurige blokken kunnen gelijktijdig werken, zoals de nieuwe tensor- of rt-cores.

Een tweede nieuwe rekencore in Turing naast de integer- en fp32-cores is de tensor-core. Deze cores moeten, net als ze in deep learning-hardware doen, voor verbeterde prestaties in matrixberekeningen zorgen. In Pascal kunnen ook matrixberekeningen worden uitgevoerd, maar in de fp32-cores gaat dat minder efficiënt dan in tensor-cores. Die zijn namelijk speciaal ontworpen om matrixvermenigvuldigingen uit te voeren, wat bij neurale netwerken, een hoeksteen van deep learning, machine intelligence en artificial intelligence, van belang is. Waar die neurale netwerken voor gebruikt worden bekijken we straks.

De laatste nieuwe core in Turing is de raytracing-core, waar Nvidia zoveel aandacht aan besteedde tijdens Gamescon in Keulen. Hoewel raytracing al een jaar of veertig wordt gedaan, is het extreem rekenintensief en complex. Door speciale cores in de Turing-sm's in te bouwen die niets anders kunnen dan raytracing kunnen enerzijds meer stralen geraytraced worden en blijven de traditionele bouwblokken vrij voor andere zaken, zoals shading.

Raytracing: de heilige graal?

Een kleine opfriscursus over raytracing is voor Turing misschien wel op zijn plaats, want wat maakt die techniek zo bijzonder en gewild? Alle videokaarten tot dusver renderen een scéne door alle objecten daarin te vertalen naar een raster, dat als pixels op een scherm getoond kan worden. De juiste vormen worden zo omgezet van de polygonen naar pixels. Om alle pixels de juiste kleur, verlichting en structuur te geven, worden ze door de shading-engine aangekleed.

Ray tracing

Raytracing werkt door nog steeds een 3d-scene op te bouwen uit objecten of polygonen, maar in plaats van een rasterisatie en shading op de zichtbare objecten los te laten, wordt het uiterlijk van elk zichtbaar oppervlak berekend met licht. Elke weerkaatsing van een lichtbron op een object levert kleur- en textuurinformatie op voor de kijker. Stel een lichtstraal van een lamp voor, die op een houten tafel met daarop een porseleinen kopje schijnt. Het hout reflecteert een deel van het licht en absorbeert een deel, wat de kleur en helderheid van het hout definieert. Bij het kopje gebeurt hetzelfde, maar omdat het ander materiaal is, reflecteert het meer licht en is het dus lichter en witter. Maar ook het hout reflecteert licht op het kopje en vice versa. En misschien is er een muur, die ook licht direct naar de camera of kijker reflecteert. Bovendien reflecteert een deel van het licht van de lamp via de muur naar het kopje en de tafel, en vice versa. Zo kun je wel even doorgaan en al snel besef je dat ray tracing een nogal rekenintensieve aangelegenheid is.

Nu is dat deels te ondervangen door niet alle lichtstralen van een lamp of andere lichtbron door te rekenen, maar alleen de stralen te berekenen die het oog dan wel de camera bereiken. De makkelijkste manier om dat te doen is de lichtstralen niet van een lichtbron 'af te vuren', maar vanaf het oog dan wel de camera. Alle lichtstralen die niet zichtbaar zijn, hoeven zo niet berekend te worden, wat een flinke besparing in de rekenlast oplevert.

bounding volume hierarchy-algoritme

De rt-cores van Nvidia's Turing doen precies dat, en om het rekenen nog wat sneller en eenvoudiger te maken, moet het aantal mogelijke triangles waarop een willekeurige lichtstraal daadwerkelijk botst zo snel mogelijk gereduceerd worden. Het is immers nogal een karwei om van elk straaltje licht dat wordt uitgezonden te berekenen of hij een willekeurig oppervlak raakt. Daarom wordt de scene in steeds kleinere blokken opgedeeld waarbinnen de lichtstraal zijn doel heeft, om uiteindelijk bij de triangle uit te komen. De rt-core regelt de berekening van dit bounding volume hierarchy-algoritme en de identificatie van daadwerkelijke objecten waarop een lichtstraal valt, waarna een shader het mag overnemen en bedenken hoe dat oppervlak er uit moet zien. Ter vergelijking: in Pascal en de gpu's daarvoor moest al dit werk in de floating point-unit uitgevoerd worden, die daar niet voor gemaakt is en dus ook niet bijster snel erin is.

Ray tracing in Pascal en TuringRay tracing in Pascal en Turing

In Turing kunnen de rt-cores per seconde zo'n tien miljard stralen doorrekenen, waar dat bij Pascal op een fractie van zo'n tien procent bleef hangen. Dan nog is het raytracen van Turing-kaarten niet de heilige graal die het lijkt, want ondanks tien miljard rays per seconde kan een scène nog steeds niet volledig geraytraced worden in realtime. In plaats daarvan wordt raytracing ingezet om bepaalde effecten, zoals schaduwen, reflecties en lichtschijnsel realistisch weer te geven. Het is dus meer een soort ShadowWorks of volumetric lighting-techniek.

Deep learning en ai

Normaal zouden we tensor-cores en de daarmee geassocieerde termen als deep learning, neural nets en ai, in accellerator-kaarten voor de zakelijke markt verwachten. Nu is de Turing-architectuur natuurlijk ook terug te vinden in Nvidia's Quadro RTX-kaarten die iets voor de Geforce RTX-kaarten werden aangekondigd.

Voor neurale netwerken worden hoofdzakelijk matrixvermenigvuldigingen doorberekend en een tensor-core is daar stukken beter in dan een floating point-unit in de Pascal-en eerdere sm's. Waar vroeger een matrix rij voor rij vermenigvuldigd werd, kan nu in een keer een hele matrix worden vermenigvuldigd. Die extra snelheid kan in consumentenkaarten worden ingezet om real-time de beeldkwaliteit op te schroeven.

Matrixberekeningen in Pascal en Turings tensor-cores

Nvidia heeft daartoe een neural graphics framework ontwikkeld, waarmee neurale netwerken getraind worden om beeld te verbeteren. Dat trainen gebeurt 'in de cloud' op supercomputers van Nvidia, waarna de getrainde modellen door de videokaartdriver kunnen worden gebruikt om de tensor-cores te laten rekenen. Game-ontwikkelaars kunnen dus Nvidia's supercomputers gebruiken om de neurale netwerken te trainen, waarna de 'oplossingen' voor beeldverbetering met behulp van neurale netwerken op het lokale systeem, via drivers of game-engines, realtime op frames kunnen worden toegepast. Uiteraard is daar een api voor in het leven geroepen die game-ontwikkelaars optioneel kunnen benutten.

Maar wat levert zo'n door een neuraal netwerk verbeterd plaatje op? Een van de mogelijkheden die Nvidia noemt is superresolutie, waarbij een frame meer detail weer kan geven dan wanneer het beeld wordt opgeschaald met ouderwetse technieken als nearest neighbor of bicubic resampling. Ook de-noising van beelden of het voorspellen van afbeeldingen die gerenderd moeten worden behoort tot te mogelijkheden. Volgens Nvidia zouden de tensor-cores voor 'eindeloze' mogelijkheden zorgen, van verbeterde ai van tegenstanders via de verwerking van stemcommando's tot de realistische animatie van gezichtsuitdrukkingen.

Dlss vs taa

Een beeldverbeteringstechniek die al ontwikkeld is voor de tensor-cores is dlss, wat een afkorting voor deep learning super sampling is. Daarmee zouden de bekende kartelrandjes van objecten in een game netjes afgewerkt kunnen worden, met een beeldkwaliteit die minstens zo goed of beter dan technieken als taa is.Die technieken kunnen gecombineerd worden, waardoor Turing-kaarten tot twee keer betere anti-aliasing in staat zou zijn dan Pascal-kaarten. Dlss is vrij eenvoudig te implementeren, blijkens de grote hoeveelheid games die de techniek nu of in de toekomst gaat ondersteunen, waaronder PUBG, Shadow of the Tomb Raider en Hitman 2.

Alles bij elkaar

We hebben gezien hoe de Turing-architectuur in elkaar zit, met maar liefst drie nieuwe bouwstenen in een streaming multiprocessor. Naast de floating point-cores hebben we nu integer-cores, tensor-cores en raytracing-cores. Om al die cores aan het werk te houden, zijn de warp scheduler en de dispatcher in staat steeds twee van die blokken in te zetten en de cache-structuur is flink uitgebreid om voldoende data aan te leveren zodat de blokken zich niet vervelen.

Snelheidswinst gddr6 met compressie vs gdd5x

Nu moet ook de cache nog gevuld worden en daar speelt het videogeheugen een belangrijke rol. Nvidia maakt voor zijn Turing-kaarten gebruik van gddr6-geheugen, dat een stuk sneller is dan het gddr5-geheugen van Pascal. Laatstgenoemde geheugen werkt op 11Gbit/s, terwijl het gddr6 van Turing op 14Gbit/s zijn werk doet. Dat, samen met verbeterde compressie van alle data die over de databus gaat, levert volgens Nvida ongeveer 50 procent meer effectieve geheugenbandbreedte voor Turing op vergeleken met Pascal. Bovendien zou het geheugen ongeveer 20 procent zuiniger zijn dan het gddr5x van Pascal, onder meer dankzij verbeterde clock gating, waardoor ongebruikt geheugen minder energie gebruikt. Dat leidt mede tot de tdp van 250W voor de RTX 2080 Ti, ondanks dat Turing vergeleken met Pascal 50 procent meer transistors heeft.

Een frame renderen met Turing

Als een frame gerenderd moet worden, kunnen de fp-units aan shading werken, terwijl tegelijkertijd rt-cores lichteffecten berekenen. Iets verderop in de renderpijplijn blijven de fp32-shadercores bezig, maar nemen ook de integer-cores werk van de fp-cores over. En ten slotte kunnen de tensor-cores het plaatje nog extra mooi maken met hun versie van anti-aliasing of dlss. Zo ziet volgens Nvidia zo'n beetje een framerender eruit, mits de game natuurlijk al die nieuwe technieken ondersteunt. En om aan te geven hoe veel sneller Turing dat zou doen dan Pascal, heeft Nvidia een berekening gemaakt waarin het probeert de appels met peren-vergelijking met een formule recht te trekken. Dat zou een verbetering van bijna tachtig procent opleveren, maar die berekening nemen we met een korreltje zout, al was het maar omdat er geen game is die al die technieken ondersteunt zodat we het kunnen toetsen.

Er is nog een handigheidje om de prestaties in Turing op te schroeven. Nvidia heeft zich gerealiseerd dat het weinig zin heeft om pixels in hoge kwaliteit te renderen die je toch amper ziet, dus concentreert Turing zich op de pixels die je wel ziet, een techniek die het rate adaptive shading noemt. Zo worden met motion adaptive shading snel bewegende pixels in lagere resolutie gerenderd, bijvoorbeeld de weg die onder je auto doorsnelt in racegames. Er zijn ook varianten met content adaptive shading, foveated rendering die we al van vr-toepassingen kennen en lens optimized-rendering.

Task shading in Turing

Daarmee samenhangend is de beslissing welke objecten met welk detail gerenderd moeten worden van de cpu afgepakt. Tot dusver bepaalde de cpu de level of detail of lod in een scene, werden objecten wel of niet geschrapt en werden de draw calls naar de gpu gestuurd. Bij Turing hoeft de cpu alleen draw calls van alle objecten te sturen en de gpu bepaalt, middels een task shader en mesh shader, het level of detail van elk object en welke objecten weggelaten kunnen worden.

De eerste generatie Turing

Zoals inmiddels bekend zullen de eerste Turing-kaarten voor consumenten uit drie modellen bestaan, waarvoor Nvidia zelf Founders Editions maakt, en aib's goedkopere modellen produceren. De grootste chip, die geen volledige Turing-gpu is, zit in de Geforce RTX 2080 Ti. Die heeft 68 van de 72 mogelijke stream multiprocessors actief in zijn TU102, goed voor 4352 streamprocessors, 544 tensor-cores en 68 rt-cores. De FE-uitvoering gaat 1199 dollar kosten, terwijl kaarten van derden 999 dollar moeten gaan kosten.

Variant RTX 2080 Ti RTX 2080 RTX 2070
Chip TU102 TU104 TU106
SP's 4352 2944 2304
SM's 68 46 36
Tensor-cores 544 368 288
RT-cores 68 46 36
NVLink (bandbreedte) 2x (100Gbps) 1x (50Gbps) nvt
Baseclock 1350MHz 1515MHz 1410MHz
Boostclock (FE) 1545MHz (1635MHz) 1710MHz (1800MHz) 1620MHz
Geheugen 11GB gddr6 14GT/s 8GB gddr6 14GT/s 8GB gddr6 14GT/s
Tdp (FE) 250W (260W) 215W (225W) 175W
Prijs (FE) 1259 euro 849 euro 639 euro

Specificaties van Founders Editions (FE) staan, waar van toepassing en indien afwijkend, tussen haakjes.

De Geforce RTX 2080 heeft de TU104 aan boord met 46 sm's ingeschakeld, goed voor 2944 streamprocessors, 368 tensor-cores en 46 rt-cores. De kleinste gpu zit in de RTX 2070 en dat is de TU106, met slechts 36 sm's actief, en dus 2304 shaderprocessors, 288 tensor-cores en 36 rt-cores. De FE's van die kaarten gaan respectievelijk 799 en 599 dollar kosten, terwijl aib-versies voor 699 en 499 dollar te koop moeten zijn.

RTX 2080 en 2080 TiRTX 2080 en 2080 Ti

In de grootste Turing-chip heeft Nvidia maar liefst 18,6 miljard 12nm-transistors op een oppervlakte van 754 vierkante millimeter gepropt. Die gpu wordt gecombineerd met 11GB gddr6-geheugen op 14GT/s en de gpu zelf tikt op 1350MHz met boost naar 1545MHz. De Founders Edition doet daar nog 90MHz bovenop en tikt op maximaal 1635MHz. Het geheel zou een tdp van 250W moeten hebben. De 2080 en 2070 hebben een iets hogere kloksnelheid van respectievelijk 1515MHz en 1410MHz, met boosts naar 1710MHz en 1620MHz. De kaarten worden beide gecombineerd met 8GB gddr6-geheugen op 14GT/s en hebben een tdp van 215W en 175W.

Wat uitgangen betreft ondersteunen de Turing-kaarten hdmi-poorten van versie 2.0b, goed voor 4k60Hz. De displayport-uitgangen zijn 1.4a-'ready' en ondersteunen 8k op 60Hz. Verder heeft Nvidia aan vr-headsets gedacht en VirtualLink-uitgangen toegevoegd. Dit zijn usb c-poorten die in staat zijn een displayport-signaal uit te sturen en 27W aan energie over de usb-poort te leveren. Zo zou een headset dus met een enkel kabeltje aangesloten kunnen worden.

Turing NVLink-bandbreedte

Wil je dat soort hoge resoluties met twee kaarten realiseren, dan heb je en NVLink-bridge, de opvolger van sli, nodig. Voor de RTX 2070 is die niet beschikbaar, terwijl de 2080-varianten over een enkele link beschikken, goed voor 50Gbit/s bidirectionele bandbreedte. De 2080 Ti heeft zelfs twee NVlink-lanes, voor 100Gbit/s bidirectionele bandbreedte. Om de link te gebruiken is een hardware-bruggetje nodig, die je 79 dollar kost.

Overklokken

We moeten nog even stilstaan bij overklokken, want uiteraard wil Nvidia ook dat makkelijker maken. Waar je dat voorheen met tooltjes als Afterburner zelf mocht doen door kloks te verhogen, de stabiliteit te testen en te tweaken tot je een stabiele overklok had, heeft Nvidia daar nu Nvidia Scanner voor bedacht. Daarmee kun je automatisch overklokken en wordt de stabiliteit van de overklok over een brede belasting getest, wat tot stabielere overkloks moet leiden. Het overklokken wordt daarbij geholpen door de vrm's dynamisch, op basis van de belasting, te activeren, wat tot een stabielere en schonere stroomvoorziening moet leiden.

Turing overklokkenTuring overklokken

Om dat geweld een beetje koel te houden heeft Nvidia op zijn eigen kaarten niet een, maar twee fans gemonteerd, waardoor ze beter moeten koelen en ook nog eens stiller moeten zijn dan de voorgaande kaarten met een enkele koeler.

Tot slot

Nvidia heeft een flink aantal nieuwe onderdelen in de Turing-architectuur ondergebracht, en dat levert volgens het bedrijf flinke winsten op, die sterk afhankelijk zijn van de workloads die de gpu te verwerken krijgt. Games die van raytracing gebruik kunnen maken om een deel van de verlichting en schaduwen in een scène te verzorgen, of games die de tensor-cores inzetten om beelden te anti-aliasen houden meer rekenkracht in de floating point-units vrij dan games die dat niet kunnen. Daarmee hengelt Nvidia handig developers binnen, want om optimaal van dit soort technieken gebruik te maken moet je nauw samen werken met Nvidia en moet je van het RTX-ecosysteem gebruik maken.

Er zijn momenteel nog weinig games die van alle functies gebruik kunnen maken: een handjevol games zullen binnen nu en een half jaar raytracing ondersteunen, waaronder Battlefield V, Shadow of the Tomb Raider en Metro First Light. Het aantal games dat dlss gaat ondersteunen is wat groter, omdat Nvidia hapklare brokken voor de berekeningen in de tensor-cores levert.

Om alle features van de Turing-architectuur optimaal te benutten is het RTX-ecosysteem in het leven geroepen, een beetje vergelijkbaar met Gameworks. Het is nog onduidelijk of raytracing alleen binnen dat RTX-ecosysteem werkt: ray tracing is als DXR immers onderdeel van DirectX 12. Wel zou RTX-ray tracing via de DXR-api aangesproken kunnen worden, maar RTX behelst dus meer dan enkel ray tracing: onder meer dlss valt ook onder de RTX-paraplu.

Van de prestatiewinst die aparte integer-cores in de sm's moeten opleveren, en natuurlijk het snellere gddr6-geheugen, kunnen in principe wel alle games profiteren. Volgens Nvidia moet dat aanzienlijk hogere framerates opleveren vergeleken met de Pascal-kaarten. Wat de daadwerkelijke winsten gaan zijn in courante games zullen benchmarks moeten uitwijzen. Voorlopig ziet het er op papier goed uit.

Lees meer

Reacties (101)

101
98
48
7
0
31
Wijzig sortering
Ik moet het allemaal nog zien. Het is zeker mooie hardware maar RTX is gewoon te zwaar. Dev's kunnen er nu mee gaan spelen dus het is goed dat de hardware er nu is. Maar met een 2080 Ti naar 1080P moeten om dan nog geen 60FPS te halen zodra er veel RT gedaan moet worden vind ik niet bruikbaar (dit komt van leaks zoals Anandtech die er demo's van gezien hebben wellicht worden de prestaties nog wel wat beter maar 4K met RTX en goede frame rates kun je dan vergeten als we nu op 1080P 60FPS niet halen)

DLSS met de tensor cores vind ik wel interessant. TAA en SSAA gebruikt bijna niemand omdat het te zwaar is. Vooral in oudere games als je FPS meer dan hoog genoeg is maar de rest van de tijd gebruikt men FXAA of MSAA of een andere lichte vorm die op de shaders draait. DLSS is dan wel interessant door middel van de Tensor cores. Echter moet je het in mijn ogen dan wel vergelijken met FXAA bij andere kaarten en hoe is de FPS dan. Want niemand gaat TAA gebruiken als je FPS van 70 naar 35 gaat dan gebruik je gewoon FXAA op je oude kaart.
Dus ik ben benieuwd in de vergelijking
Pascal/Vega met FXAA vs 2080 met FXAA en FXAA vs DLSS.

Als voordeel heb je dan mooiere AA met mogelijk relatief weinig performance impact.

Maar overal vrees ik toch dat de nieuwe kaarten niet een al te beste prijs prestatie verhouding hebben tov de Pascal kaarten in reguliere games. Voor mensen waar geld geen issue is is het duidelijk koop een RTX 2080 Ti. Voor andere mensen blijft het denk ik interessant om ook de oudere kaarten te overwegen.

Want 1080, 1080 Ti zijn nu voor nette prijzen te krijgen. Vega 56/64 kaarten ook als je bij de oosterburen gaat shoppen. Qua prijs prestatie verhouding doen die het ook niet slecht verbruiken wel meer. In mijn ogen zijn de bovenstaande opties qua prijs en prestaties interessanter dan een RTX 2080 of 2070 gezien de MSRP (die je in het begin gewoon gaat betalen als niet meer). En ik verwacht nog steeds dat ze niet zo veel sneller gaan zijn dan de bovenstaande kaarten. Dus laat de reviews maar komen om mij het tegendeel te bewijzen :). Ik geloof mr leather jacket niet op zijn mooie ogen.

[Reactie gewijzigd door Astennu op 23 juli 2024 15:55]

Betreft je RTX 2080 Ti 1080p60 verhaal: Naast de bekendere titels waarbij RTX werd getoond was er ook Gajin. Zij maken de oorlogshooter Enlisted en maken daarbij ook gebruik van RTX. Zij wisten met hun eigen Dagor Engine 5 een resolutie van 4K op 90 FPS te halen, met RTX aan. - https://www.youtube.com/watch?v=AvXra6yqEZs

Noot: De verschillen in belichting in deze video zijn er omdat de getoonde scene geen pre-computed lighting gebruikt. Er zijn dan dus ook geen light probes aanwezig of lightmaps gebakken. De getoonde scene is dus vooral belicht met raytracing.
Dit is wel even wat anders van BF V qua GFX maar wel interessant.
Mogelijk passen ze de effecten beter toe en op een minder intensieve manier dat het wel wat toevoegt maar niet een al te grote performance hit geeft?

De vraag is wel even wat doet die game qua FPS zonder RTX. Want een game als BF 5 draai je niet zo maar op 4K 60FPS en zo zijn er meer games waar je echt hele serieuze hardware nodig hebt om die 60FPS te halen een 1080 Ti is vaak niet genoeg.

Maar in ieder geval interessant wat ze voor elkaar gekregen hebben.

Ik vraag me wel af of dit echt RTX is of wel RT via Vulcan wat misschien dan weer gebruikt maakt van de RTX cores in de nieuwe kaarten. Want als het RT via Vulcan betreft zouden AMD kaarten via Radeon Open Ray's het ook moeten kunnen. En dan is het wel interessant om te zien wat voor een performance impact het heeft op die kaarten.

[Reactie gewijzigd door Astennu op 23 juli 2024 15:55]

De BFV RTX demo is redelijk gechargeerd en bewust overdreven neergezet om het effect aan te duiden. Raytracing is immers op zijn best wanneer het ''niet opvalt''.

Betreft hoe ze het hebben gedaan: https://www.youtube.com/watch?v=PPKZgKC6DKo

Zij gebruiken in dit geval Raytraced Global Illumination. RTX is immers een collectie aan effecten die hardwarematig versneld kunnen worden: Reflecties, schaduwen, belichting. Atomic Heart maakt van de eerste 2 gebruik, Enlisted alleen van de laatste.

Ik zou je niet kunnen zeggen hoe de game het doet zonder RTX. Echter is de game niet rond RTX gebouwd en is wel te vinden dat de impact op de hardware maar 5% moet wezen. Ik besef echter wel dat Enlisted een uitzondering is, helemaal omdat ze Vulkan gebruiken.

Ik vermoed wel dat het RTX op Vulkan is en niet ''gewoon'' RT op Vulkan. RTX is immers aangekondigd voor Vulkan en het zou knap stom staan om alle PR die er nu is het domweg verkeerd te vermelden. ;)
In dat geval hop ik dat ze ook RT via Vulcan gaan doen en niet alleen RTX. Dan hebben andere kaarten er ook nog iets aan. De doelgroep van gebruikers die straks een nVidia RTX kaart zullen hebben is maar klein aangezien het om kaarten gaat vanaf 650 dollar/euro. Dat is niet goedkoop te noemen.
In dat geval hop ik dat ze ook RT via Vulcan gaan doen en niet alleen RTX
Er wordt afaik gewoon gebruik gemaakt van DXR, een nieuw onderdeel van direct x.
Ja RTX is SDK boven op de DXR API set.
Maar het is met productie planning DXR is meer werk dan voorwerk wat nV met RTX SDK doet.
Dus grote teams met groter budged en productie tijd hebben planning mogelijkheid om hun engine team de DXR API toe te passen zodat als AMD en iNtel hun DXR hardware ondersteunende gpu uitrollen door hun games ook ondersteund worden.

Bij RTX zal alleen de nV chips bij feature check herkent worden en de rest in de fallback path.

Gameworks moet het meer hebben van luiere of beperkte productie tijd dev hebben
Dat zit er wel dik aangezien RRays al iets soortgelijks doet met GPUopen en OpenCL. Vulkan is imo steeds meer de go-to API om resultaten te verkrijgen die je anders met DX11 nog flink tegen een bottleneck aan zou zie lopen.

Let wel, RTX is vooral een experimenteerdoos. Experimentele tech zonder userbase kost nu eenmaal centjes. :)
De RTX 2070 van de aib's zou er al zijn voor $499. Staat in de tekst.
Dat is mooi 120 dollar duurder dan de vorige generatie. Dus zeker niet goedkoop te noemen.
Je betaalt nu xx80 prijzen voor een xx70 kaart. Daarnaast maar eens zien wat ze straks in de winkel gaan kosten. Zou ook nog wel eens tegen kunnen vallen als de beschikbaarheid niet zo best is. En aangezien dit de meest "betaalbare" RTX kaart is zou de vraag naar die kaart nog wel eens relatief hoog kunnen zijn waardoor de prijzen boven MSRP komen te liggen. Maar we gaan het zien.
Ik ben het er mee eens dat het nog altijd te duur is. De 2070 zou onder de €500 moeten gaan voor ik hem zou kopen. Maar met de mining hype was de 1070 ook niet meer te verkrijgen onder de €500 denk ik.
Afgelopen jaar niet nee. Maar in het begin wel voor iets meer dan 400. Ook best veel maar al beter dan 500+
mag dan wel 4k zijn, het ziet er uit als cs go qua texture, ksnap wel dat ze hoge fps halen.
Dit is puur een demonstratie level om Raytraced Global Illumination te demonstreren. Het gegeven dat het level er bijzonder slecht uit ziet zonder RGI komt omdat zij voor deze demonstratie geen ''pre-computed lighting'' (Lees: Lightmaps/Light Probes'' hebben gebruikt. Wat je dus overhoud is slechts ''Direct lighting'', waarbij alles evenredig en zonder schaduwen wordt belicht. Vandaar je opmerking neem ik aan. Dit wordt overigens door Gajin ook zelf benoemd.

Overigens ziet Enlisted er ''normaal'' eerder uit als Call of Duty WW2 dan CSGO qua textuur, maar dat terzijde :)
Hoe komt men toch bij het verhaal van 1080p en nog geen 60 fps?
Zie oa deze hands on:
https://www.anandtech.com...80-ti-realtime-raytracing

En gezien hoe zwaar raytracing is verbaast het mij eerlijk gezegd ook niet echt. Ik wil ook niet zeggen dat het geen mooie technologie is. het heeft alleen nog 2-3 generaties aan hardware nodig voordat het snel genoeg is. Je moet ergens beginnen dat is in het verleden ook vaker zo geweest.

[Reactie gewijzigd door Astennu op 23 juli 2024 15:55]

Dat was dus met 1 game zonder fps monitoring als ik zo op het plaatje kijk. Verder had de game ontwikkelaar van Tomb Raider ook nog wat te melden dat er nog aan de game moet worden gesleuteld. Het zag er ook niet mooi uit vergeleken met Battlefield 5. Dat RT zwaar is geloof ik wel maar het lijkt me sterk dat het een 1080p 35fps flop gaat worden in de nieuwe games.

[Reactie gewijzigd door Gekke Jantje op 22 juli 2024 14:12]

Het was niet één game. Er waren er daar meer games met RTX te aanschouwen en er zijn ook meerdere sites die daar mensen hadden lopen die het bekeken hebben en daar later over geschreven hebben.
Leuk dat ze er nog aan moeten sleutelen maar je gaat de prestaties niet 800% verbeteren en dat is wat je nodig hebt als je 60FPS op 4K wil halen tov 35FPS op 1080P.
Daarnaast had ik het over minder dan 60FPS en dat het op zware stukken richting de 40 gaat. Dus regelmatig tussen de 40-60FPS op 1080P met RT aan. Ook hier weer het moet dus ruim 400% sneller worden wil dat op 4K goed draaien. Ik zie dat niet gebeuren met een beetje verder ontwikkelen.

Als ze 1080P 60FPS minimaal halen zonder drops onder de 60 zou ik het persoonlijk al knap vinden. nog steeds niet echt bruikbaar want anno 2018 wil je toch eigenlijk wel 100+ FPS op 1080P of 60+FPS 1440P / 60FPS 4K maar toch.

[Reactie gewijzigd door Astennu op 23 juli 2024 15:55]

Ik snap jou uitgangspunt en ook de reacties die hierop volgen.

Ik denk dat het handig is als je dakjes plaats bij ('Het was niet één game') dit brengt getallen in het spel iets waar simpel ( een ) niet volledig afdekt.

Dit is maar vriendelijke advies en mooie reacties. :)

Vriendelijke groeten.
Aaaah op die manier :)
Ik ben niet zo goed met spelling regels etc. Heb op de middelbare ook het laagst gescoord voor NL :P alle andere vakken gingen mij beter af ^^
Ben hier met je eens, de nieuwe kaarten halen niet eens op 1080 60fps, wat heeft t voor nut om zn dure kaart aan te schaffen. We hebben all die jaren ook zonder RTX kunnen doen waarom nu zn dure kaart aanschaffen.

On this moment heb ik zojuist een evga 1080 ti kaart aangeschaft!
Conclusie is dus afwachten als niet eens een game was. Gezien het plaatje, wat overigens niet goed te zien was, dacht ik zelf aan de game Tomb Raider. Dan waren de eerdere 4k beelden veel mooier. In Battlefield 5 zag ik het tenminste duidelijk en veel mooier.
BF V en Tomb raider waren beide gewoon games die ze daar lieten zien dus ik weet niet waar jij vandaan haalt dat het geen game was.
.oisyn Moderator Devschuur® @Astennu14 september 2018 16:09
Interpretatiekwestie. Jij zei "het was niet een game". @Gekke Jantje Hij bedoelde "het was niet één game" (maar meerdere dus)
Verkeerd begrepen. Hoe wist men eigenlijk dat bijvoorbeeld Battlefield 5 met minder dan 60 fps draaide, ook daar zag ik geen resolutie bij staan en een fps teller. Dit maakt het alleen maar verwarrender en kan ik dat soort beweringen niet echt serieus nemen.
For Battlefield V, the situation was similar with a 1080p 144Hz monitor, playing on the Rotterdam map over LAN. There were framedrops during fast-paced scenes and in general it didn’t seem like it could keep up with the game. Again, there was no FPS info available but the RTX 2080 Ti was almost surely not cranking out constant 60fps. Here, the real-time ray tracing was quite noticeable, with vivid dynamic reflections in puddles, windows, and river. Even at 1080p, those features added to the overall image quality, though the ultimate performance cost was unclear. Framerates aren't a good tradeoff for image quality in fast-paced FPS', though for the record, I’ve always been terrible at shooters (except maybe Halo 2).
Die lui testen nog al eens wat videokaarten. Zelf kan ik het ook altijd goed merken als een game onder de 60FPS terecht komt en richting de 40 duikt daar heb ik geen FPS meter voor nodig. Zelfs met Freesync aan merk je gewoon verschil in smoothness tov 60+.
Klopt. G-sync net zo. Onder de 55fps voel je al de vertraging. De marketing voor de techniek werkte ook goed helaas.
Het voelt zeker soepeler aan tov geen sync maar je merkt natuurlijk nog steeds wel dat het geen 60FPS meer is. Tegenwoordig zet ik liever wat IQ settings omlaag zodat ik boven de 90FPS blijf dan dat ik alles aan heb staan en boven de 60 blijf. 90 is nog weer soepeler.
Ik heb zelf een 144Hz scherm en een game als overwatch speelt echt eerlijk als je rond de 120-144Hz blijft extreem smooth.
Ik speel zelf ook overwatch en meestal rond de 250-300 fps. Had een keer me gpu gedowngrade en toen haalde ik rond de 150 fps, wat echt als lag voelde tegenover 300 fps. Ik speel dan wel op 240 hz misschien scheelt dat. Nu weer 250-300 fps gelukkig, echt de sweetspot voor mij.
Merk je ook verschil tussen 300 of capped 240Hz?
Ik heb zelf nooit 144+ Hz kunnen testen want mijn scherm gaat niet verder. Maar in het begin had ik het idee dat ik zelf niet veel verschil meer merkte tussen 120Hz en 144Hz maar dat kan ook per persoon verschillen.
Ik merk verschil, als het rustig is dan heb ik bijna altijd 300 fps, in drukke gevechten wilt die dan wel is droppen naar ~230 fps, en dat is zeker voelbaar.
Van 60 naar 120Hz is echt duidelijk. Van 120Hz naar 144Hz een beetje. Daarboven is naar mijn mening volslagen onzin om goed te merken. Zeker in de 240fps naar 300fps.
Bij 240 naar 300 heb je nu vooral het probleem dat je geen sync meer hebt aangezien je weer ver boven je refresh rate van je pannel zit.

Het verschilt per persoon of je het verschil tussen 144 en 240 ziet. Ik ken mensen die het verschil tussen 60hz en 144hz maar amper ervaarde die hadden zo iets van vind het niet veel soepeler terwijl het voor mij over duidelijk was.
Dat hoort ook gewoon voor de meeste duidelijk te zijn. Zeker al met normaal gebruik.

Maar boven de 144Hz is het voor mij te veel marketing. Heb een 240Hz geprobeerd van een kennis maar kan echt niet het verschil merken. Op 144Hz loopt alles al super smooth
De final drivers waarmee de kaarten gaan uitgebracht worden voor de reviews zijn nog niet af dus mi kan je nog niets zeggen over de prestaties met Ray Tracing aan. Ik denk dat dit weinig problemen gaat opleveren. Zie ook dit artikel:
Met drivers ga je geen 300% performance boost halen in dit stadium. Dus geloof maar wat je zelf wil geloven maar ik geloof niets van die nVidia slides en ga af op wat reviewers laten zien en kennis en ervaring van de afgelopen jaren.
BF5 demo was wel een stutter festijn helaas, hoop dat ze dat nog verbeteren. Maar als het op 1080P nog geeneens 60FPS te behalen valt ben ik benieuwd wie er Ray Tracing gaat gebruiken.
Resolutie en fps zag ik nergens staan, ook niet dat het stotterde. Wel een heerlijk strak beeld dus G-sync of v-sync stond waarschijnlijk wel aan.
Vergeet niet dat Ray Tracing al jaren bestaat maar het nu pas voor de consumenten uitkomt. Animatie producenten zoals Pixar gebruiken in hun films ook Ray Tracing.
Dat weet ik heel goed. In films gebruiken ze het al heel lang. Maar die worden niet realtime gerendered.
Maar goed RTX bestaat alleen uit een paar RT effecten het is nog lang geen volledige ray tracing.
Welke Vega 56/64 kaarten zijn goed? In de Pricewatch zie ik er bijna geen. Vooral Vega 64 niet.
Ik heb zelf vooral ervaring met referenced kaarten. Maar de sapphire schijnt in ieder geval erg goed te zijn. Die koeler zit beter in elkaar dan bij de meeste andere merken.
Er zijn wel wat shootouts op Google te vinden waar ze de verschillende Vega kaarten getest hebben.

Als je een Vega kaart wil kan je volgens mij beter in Duitsland shoppen bij Bv casekings.

Ik zou ook even in het Vega ervaringen topic kijken op het forum wan daar komen regelmatig wat deals voorbij die mensen vinden.
Bedoel je deze?

pricewatch: Sapphire NITRO+ Radeon RX Vega64 8G HBM2

Hoe zijn de Linux drivers voor Vega64?
Yep maar dan zou ik voor deze gaan:
https://www.caseking.de/s...192-mb-hbm2-gcsp-186.html
De 64 is daar iets van 110 duurder. Als je zelf niet wil overclocken is dat de moeite. als je zelf wel gaat overclocken is het prestatie verschil maar iets van 3-9% afhankelijk van het spel. (Vega 56 vs 64 op gelijke clocks)
Nice! Nee, ik ga niet zelf overclocken, tenzij dat eenvoudig werkt (zoals met Intel eXtreme Tuning). Heb nu 4770k + GeForce 960 en een Corsair H80 waterkoeling met Windows in m'n spel PC en zou graag willen switchen naar AMD (Ryzen7 als CPU, en een GPU, plus een waterkoeling). En dan Linux. Steam is tegenwoordig behoorlijk goed. Helaas heb ik een 27" BenQ met Gsync. Dan heb ik ook nog DDR4 geheugen nodig. En die factoren maakt het switchen allemaal een stukje duurder waardoor ik toch liever wacht (dit voldoet ook nog). Maar desondanks ga ik uiteindelijk wel deze switch maken.

[Reactie gewijzigd door Jerie op 23 juli 2024 15:55]

In dat geval heeft een V64 wel meer waarde want die heeft al hogere memory en clock speeds.
Maar je kan dat relatief makkelijk zelf doen via wattman of door een V64 bios in de 56 kaart te stoppen.
Eens, ik zie RTX ook niet echt van de grond komen. Dit is je reinste verspilling van die-space. De hele vooruitgang binnen GPUs is nu juist de versimpeling geweest van SMs en daardoor hoger kunnen klokken en dus met minder shaders, meer werk verzetten. Precies dat gegeven is wat Pascal significant sneller maakt dan GCN. Dat Nvidia dat nu deels loslaat levert voor AMD dan ook kansen op.

RT cores gaan daar lijnrecht tegenin. Je hebt nu dus een significant deel van je potentiele rauwe performance-winst weggegeven aan gespecialiseerde cores die maar in een beperkt aantal workloads voordeel opleveren. En dan niet eens een prestatievoordeel, maar een zeer beperkt, nauwelijks geimplementeerd visueel voordeel. Een voordeel dus dat volledig abstract is, versus een voordeel dat meetbaar zou zijn als men al die ruimte aan meer shaders, rops en dergelijke had besteed.

Ik sla deze gen lekker over, en daarvoor hoef ik alleen maar naar deze verspilling plus het prijskaartje te kijken. Pascal blijft relevant, want de perf/dollar gaat met Turing nauwelijks of geheel niet vooruit. En dat betekent effectief dat we nu meer dan 3 jaar stilstaan als het om GPU performance gaat.

Triest.

En als klap op de vuurpijl, als je heel nuchter naar RTRT (realtime ray tracing) kijkt, dan is het helemaal niet zo'n schokkende verandering ten opzichte van wat we al hebben qua dynamische belichting en schaduwen. En de bestaande technieken zijn alleen maar iets meer 'werk' voor een developer, maar leveren dan wel een veel efficienter geheel op. Het is dus helemaal niet gezegd dat RTRT 'beter' is. Ray tracing is ook niet nieuw, we doen het al jaren maar dan wel vóórdat we het in een game stoppen, en niet in real time. Dat heeft hele goede redenen...

Dit alles werd mij eigenlijk meteen duidelijk toen ik de keynote zag, met een vent die a'la Steve Jobs komt vertellen dat de wereld gaat veranderen en 'TEN GIGA RAYS' roept alsof we dat allemaal al decennia hadden willen hebben. Het was hilarisch om te zien (volgens mij moest Jensen ook een beetje om zichzelf lachen tijdens die keynote)... en tegelijkertijd heel triest, dat Nvidia zo'n move straffeloos kan maken. Wat dat betreft is NU het moment om als consument keihard op de rem te trappen.

[Reactie gewijzigd door Vayra op 23 juli 2024 15:55]

Ik ben het helemaal met je eens.
Het is inderdaad een kans voor AMD met Navi als ze daar ouderwets brute force Performance kunnen leveren door met veel shaders rops ect op de proppen te komen.

Nu vraag ik mij alleen af of dat gaat gebeuren want Navi is mogelijk nog steeds gcn based en Fiji en Vega zaten al op de limiet. De 2080 evenaren of net verslaan lukt dan misschien nog wel maar de 2080 Ti is denk ik te ver gegrepen als we het nog steeds over 4096 shaders en 64 rops hebben. Maar goed tijd zal het leren.

De consument gaat nVidia denk ik niet af straffen die kopen of Pascal of ze betalen graag extra om het nieuwste van het nieuwste te hebben met de optie voor RTX wat eigenlijk nog niet heel nuttig is. Het enige wat ik nuttig vind is DLSS de praktijk moet het nog gaan uitwijzen maar dat lijkt mij nog wel iets wat meerwaarde kan bieden en relatief makkelijk toe te voegen is aan bestaande games. Zo niet is het ook in aardig wat gevallen verspilde die space. Maar we gaan het zien.
Kan wel zijn wat je zegt maar Nvidia kan volop experimenteren met RT omdat AMD geen concurrent meer is. Als het niet wijdverbreid ondersteund wordt door game developers is er nog geen man overboord want dan is Nvidia nog altijd sneller dan AMD.
Klopt, maar tegelijkertijd biedt dit AMD kansen. Als zij niet op RT inzetten met speciale hardware in de chip, blijft er meer ruimte over voor raw performance en kan AMD een achterstand inhalen.
Betreft realtime raytracing is die 6 tot 10 Gigarays van Nvidia die opgeeft onderhevig aan extra uitleg wat zij hiermee bedoelen.

Voorbeeld 1:
De maker van Claybook heeft in een aantal tweets aangegeven wat hij gebruikt voor raytracing.
https://twitter.com/i/web/status/1032283494670577664

''Claybook ray-traces at 4.88 Gigarays/s on AMD Vega 64. Primary RT pass. Shadow rays are slightly slower. 1 GB volumetric scene. 4K runs at 60 fps. Runs even faster on my Titan X. And with temporal upsampling even mid tier cards render 4K at almost native quality.''

https://twitter.com/i/web/status/1032897644123901952

''The actual number should be 9.76 Gigarays/s. I totally forgot that the same primary RT async compute pass does AO rays as well. For each pixel we cast random AO ray and temporal accumulate them. But my AO rays have limited distance and we use lower res geometry for them.''

Voorbeeld 2:
Een demoscener haalt middels Pathtracing op een 1080Ti hogere waardes dan de RTXen:
https://twitter.com/i/web/status/1032281439482662912

''Reminder that while everyone is losing their brains over "10 GRays/s", my 4k intro from @revision_party also casts at almost that exact rate on a GTX 1080 Ti (1280 × 720 × 4 × 128 × 24 ≈ 11.3 GRays/s)''

Daarnaast nog een voorlopige test van de huidige kaarten die een raytracing scene renderen middels DXR (Welke zelf nog in beta is): http://boostclock.com/sho...k-layer-perf-preview.html

Een 1080Ti haalt hier 71 MRays/S - Wat dus al afwijkt van de demoscene link, en die wijkt al weer af van de data die Nvidia heeft gegeven.

Kortom:
Van Nvidia zou ik graag willen weten welke tussenstappen zij uitvoeren op de RT cores (wat zij dus meenemen, welke passes) om tot de 6 Gigarays/10 Gigarays te komen. Zoals de voorbeelden laten zien kunnen dergelijke waardes ook behaald worden middels pathtracing of met enkele limitaties, dus ik zou graag weten welke rendering passes de RTXen doen om tot deze waardes te komen.

Digital Foundry kijk op Raytracing:
https://www.youtube.com/watch?v=mLIgfT04wsY

Meer info over RTX met gameplay videos van yours truly:
https://www.neogaf.com/th...evel-in-graphics.1465000/

Persoonlijk:
Zelf vind ik de RTXen zeker een sprong in het diepe wagen - tot op zekere hoogtes. De RT Cores zullen vooral gebruikt worden voor zaken waar Raytracing van nature goed in is en welke relatief makkelijk versneld kunnen worden - Accurate schaduwen, reflecties, en dus meer. Het is echter ook belangrijk om te weten wat DXR op non-RT kaarten zal doen.

[Reactie gewijzigd door Redneckerz op 22 juli 2024 23:48]

Mooie post. En dat is helaas het gevaar bij hetgeen Nvidia zo goed kan (marketing). "Rays per seconde" zegt helemaal niets. In het geval van Claybook kan hij, omdat hij niet op poly's bouwt, het vrij rap doen. RTX zal voor hem echter niet bijzonder effectief zijn.
Gezien de natuur van zijn game vermoed ik dat ook. Visueel doet zijn game mij denken aan Lightmark en diens Toy Story demo - https://dee.cz/lightsmark/ welke ironisch genoeg beweert propere licht simulaties te doen. En dat was dan 2008.

Dank voor je compliment trouwens. :)
Ah, dat was waar het me aan liet denken! Kwam er al niet op.

Maar we hebben door de jaren heen al vaak prachtige demo's gezien die ook gewoon goed liepen, zo ook omtrent RT. Vaak is de render techniek echter dusdanig anders dat zoiets niet in de gemiddelde game past.

Ik vind het persoonlijk nog iets te vroeg voor RT. Het is wellicht goed dat Nvidia een stap zet om een hardware implementatie een "standaard" feature te maken, maar er zijn nog zo veel andere dingen die nog beter kunnen en mogen. Deels grafisch: texture kwaliteit is nog vaak magertjes, LOD blijft lastig voor de meeste engines en breek me de bek niet open over het gebrek aan MSAA (DLSS is wat mij betreft de oplossing niet; een NN moeten downloaden voor AA? neen). Deels ook qua onderliggende dingen: lip-sync met natuurlijk uitziende models? De enige die dat tegenwoordig nog echt goed doet is Naughty Dog denk ik. 99% van alle games doet dat slechter dan Valve het 14 jaar geleden deed.

DX12 wordt ook nog niet fatsoenlijk gebruikt; met name de iets geavanceerdere delen van de API waar toch echt wel leuke dingen mee te doen zijn (CR? ROVs? Zelfs TR wordt nauwelijks gebruikt..). Hetzelfde geldt voor Vulkan; juist dat soort features wordt amper gebruikt omdat eerst Nvidia achter liep en vervolgens AMD. Met Vega en Turing lijken we nu min of meer parity te krijgen (afgezien RT), maar dan heb je het nou niet bepaald over een groot deel van de markt.

[Reactie gewijzigd door Werelds op 23 juli 2024 15:55]

Hahah, grappig dat het een goede gok bleek te wezen :)

Klopt. Raytracing is en blijft natuurlijk een setpiece technologie. En eerlijk waar, ik had RTX eigenlijk ook nog niet verwacht. Ik verwachtte dit eerder in 2020 of iets dergelijks.

Ik vind het inderdaad ook te vroeg voor RT, maar aan de andere kant is het ook ''goed'' dat het er nu al is. Men kan hier nu naar hartelust mee experimenteren als een extraatje en aan nieuwe gameplay ideetjes bedenken die alleen maar met RT kunnen. Het Hall of Mirrors effect in een puzzel game, bijvoorbeeld. Raytracing kan nieuwe soorten gameplay mogelijk maken. Ik zie het als een vroegtijdig extraatje on de industrie alvast ''gewend'' te raken.

Je ziet nu een tendens. DX12/Vulkan beginnen mondjesmaat meer invloed te hebben. Waar voorheen een game een DX11 en een DX12 variant had, waarbij de laatste niet tot nauwelijks werd gebruikt, zie je nu steeds meer projecten opduikelen die ''puur'' DX12 of Vulkan zijn. En dat betekent dan automatisch dat DX11 meer een ''legacy'' API wordt voor o.a consoles en oudere hardware.

Het gaat zeer traag, maar wie weet, wellicht is RTX en DXR net de catalyst die het balletje doen rollen (Eerder de nieuwe consoles doen dat haha). :)

PS: Om het Hall of Mirrors effect in actie te zien: de game Atomic Heart kreeg vandaag een uitgebreide RTX demo: https://www.youtube.com/watch?v=1IIiQZw_p_E

[Reactie gewijzigd door Redneckerz op 23 juli 2024 15:55]

Wat denk ik ook wel scheelt is dat de 1080 Ti misschien wel hogere waardes haalt maar dan gebruik je alle cores voor RT. In het geval van de RTX kan je dat door de dedicated RT cores laten doen en de rest het overige render werk laten doen. Of deels bij laten springen om nog meer van de RT effecten te renderen (als dat te gelijktijdig mogelijk is kan mij voorstellen dat dat misschien niet gaat omdat ze anders aangestuurd moeten worden)

Ik ben ook erg benieuwd hoe Vega het tov Pascal gaat doen. En tov Polaris en Hawaii want Vega heeft wel wat meer compute mogelijkheden dan eerdere AMD chips's en is ook voor deeplearning ontworpen.

Het is wel grappig om te zien dat de RX580 echt heel veel sneller is al de twee vorige architecturen. Wat ik wel raar vind is dat de Nano trager is als de 390X. Lijkt haast of de ROPS's/Render backends een bottelnek vormen aangezien de clocks van de Nano lager zijn dan die van de 390X maar de Nano heeft wel veel meer shaders. Wat Polaris dan zo veel sneller maakt is mij nog een raadsel.

[Reactie gewijzigd door Astennu op 23 juli 2024 15:55]

Naar welk voorbeeld refereer je voor je ''1080ti Alle cores'' verhaal? In het geval van de demoscene voorbeeld moet er immers naast path tracing nog een boel andere dingen gedaan worden (Vandaar dan ook de ''lage'' resolutie van 720p)

Ik wil echter gewoon weten waar Nvidia zijn Gigaray data vandaan haalt, en hoe zij dat doen. Want als immers een tweetal non-RT kaarten al de 6 gigarays/s voorbijstreven middels raytracing danwel pathtracing, dan wil ik wel iets meer weten natuurlijk :)
Wat @Astennu ook al aangaf, die non rtx halen die 6Gr maar doen dit door middel van volle belasting van hun gpu. Wat ik begrijp van nV is dat buiten je standaard gpu werk hij ook nog is 10Gr kan renderen /dedicated voor raytracing met andere woorden de non rtx kaarten hebben dan 100% pf/int32 belasting waarbij de rtx kaarten tot 10Gr 0% belasting heeft totdat je 11Gr nodig hebt. Zonder rt cores haalt deze architectuur misschien wel 8 of 12 Gr. Maar onduidelijk is het zeer zeker nog :)
Ik ben benieuwd of je die RT bewerkingen ook in int16 of init8 kan doen. Want Vega kan bv 2x zo snel Init16 en sommige zaken nog sneller als een bepaald soort 8 bit bewerking gedaan wordt.
Ik hoop en verwacht dat Vega daar wel wat sneller is als Polaris/Fiji.
Maar geen idee hoe die het tov de Pascal kaarten gaat doen.
Ik weet niet of in de genoemde scenedemo de gehele scene wordt gepathtraced (Lijkt mij van wel). Maar daarnaast er ook nog post-processing plaats moet vinden. Het doet dus zoveel gigarays, en dat zal dan via de CUDA cores gaan, maar wat is er nog meer nodig? Lijkt mij dat je er daarmee niet mee bent en dat er ook nog wat low level code aanwezig zal zijn.

Betreft die RT cores: Dat is het em juist. Nvidia geeft slechts een reeks nummers op maar vertelt niet hoe zij daar aan komen, of dit puur op de RT cores is gedaan, of CUDA nodig is geweest, enzovoorts.
RT cores doen specifieke tussenstap het zoeken naar ray trace hit ook nog recurcief tov geometrie .Bij hit worden de matiriaal en andere dingen bij betrokken en vanuit daar kan ook weer trace gecreerd worden.

Het gemeenschappelijke is juist de geometrie die nodig om trace hit event door te sturen naar de fase waar texture en licht effecten verwerkt worden waar vanuit ook weer traces gestart kan worden.

Omdat vertex en texture data voor RT en rateration nodig is
Wordt veel data al gedeeld.
Daarmee gezien cuda RT in dezelfde SM block zitten kan dat goed gemixed worden.

Meeste data wordt anders gebruikt maar is dus lokaal in SM aanwezig. En je hebt de L2 cache ook nog
En dit is dus waarom ik dacht dat de nieuwe RT kaarten veel te overhyped zijn. Het lijkt me dat de nieuwe dingen vooral goed zijn voor niche dingen die standaard uit zullen staan(NV RayTracing heeft een grote effect op performance, ook bij nieuwe kaarten). Zoals al was gemeten is bijv. de RT2080 op huidige games die niet gebruik maken van de extra cores maar ongeveer 30% sneller dan de GTX 1080. Dat zou dus betekenen dat voor het eerst in de de geschiedenis van Nvidia de nieuwe kaarten een slechtere performance-per-dollar hebben dan de huidige generatie op release. Tot de RT kaarten aan toe hadden de nieuwe generaties altijd een betere performance-per-dollar dan de generatie ervoor.

Toch wel jammer dat de nieuwe kaarten zo ontiegelijk overpriced zijn, maar misschien is dit dus alleen omdat ze heel graag van -de miljoenen 10 Series chips die ze nog in de vooraadkast hebben- af willen.

[Reactie gewijzigd door MrFax op 23 juli 2024 15:55]

Ik vind het geen ''overhype'', wel een kleine blik vooruit in de toekomst. Inderdaad, voor de huidige games blijft het beperkt tot een extra doos met effecten. Echter bootsten deze effecten de realiteit veel natuurgetrouwer na tov een cubemap of screen space reflecties welke geen rekening houden met objecten die niet op het scherm te zien zijn. Zoals het in BFV is uitgevoerd heeft het toch wat bijzonders, je eigen karakter in zijn eigen ietwat vage reflectie in een winkelraam.

Laat ik het zo zeggen: NV's marketing hierover is overhype, maar de effecten zelf geven een mooi kijkje in de toekomst. En het gegeven dat zoiets ''nu'' kan op huidige hardware is zonder meer indrukwekkend te noemen.
Ja dat is waar, maar de 10 Series productie is gestopt en ze moeten nu nog van de chips af die ze nog hebben liggen, ik denk zodra die supply leeg gaat dat de Turing kaarten ook wat goedkoper worden, omdat anders AMD opeens koning wordt van het midden-segment, en dat wil Nvidia niet. Ik verwacht dat de performance-per-dollar over ongeveer een jaartje wel hoger zal zijn dan de 10 Series nu zijn.

Maar voor nu moeten we zeggen dat de 10 Series kaarten door deze prijzen wel erg relevant blijven, waar op zich niets mis mee is.

[Reactie gewijzigd door MrFax op 23 juli 2024 15:55]

Oh, is het gestopt???? Heb je daar een bron van? Zal goed kunnen hoor, daar niet van :)

Ik zie het ook wel gebeuren dat er geen RTX 2060 komt maar ''gewoon'' een GTX 2060. Misschien ook wel een RTX loze 2070. Who knows!!!
Oh het kan zijn dat ze ze nog produceren, maar dat lijkt me sterk omdat Nvidia veel te veels chips nog had liggen. Ze kunnen heel goed de productie van Pascal al stilgelegd hebben maar er niks over gezegd hebben. https://seekingalpha.com/...ars-gpu-inventory-problem
Nou ja, je begon er mee dat de productie is gestopt alsof dit een vaststaand feit was terwijl je in je huidige reactie laat blijken dat het vooral een aanname was/is van jou kant af ;) Daarnaast is dat een punt van interesse die ik niet met je deel, begreep daarom ook de relevantie hiervan niet toen je hier over begon. :)
Nja alle. Aangezien er geen RT cores zijn moeten de normale shaders dit doen naast het normale render werk dus in totaal zakt je FPS dan in tov dedicated hardware die dit werk op zich neemt zodat die shaders beschikbaar blijven voor het "normale" render werk. Net als dat de Tensors cores straks die DLSS gaan doen en je dus geen FXAA op je normale shaders hoeft te doen.

Maar ik ben het met je eens die gigarays/s zeggen weinig. Als je naar AMD's Radeon Ray's opensource raytracing SDK kijkt zie je ook verschillende getallen in verschillende situaties:
https://gpuopen.com/gaming-product/radeon-rays/

Helaas staan hier nog geen getallen voor een Vega based kaart genoemd. Ik ben wel benieuwd wat die gaat neerzetten.
Die Radeon Rays heb ik in een oudere post nog wel opgenomen, vond het voor dit verhaal dit keer niet nodig, maar ja, ook Radeon Rays komt met getallen waarvan je kan zeggen: Tja, wat zegt NV nu eigenlijk? RR doet het notabene op OpenCL, dus waarom dan DXR?

Ik denk dat bestaande RT RT implementaties zoals bovenstaande vooral uit gaan van de vele cores die een GPU rijk is en als zodanig hun code paralleliseren. Dat levert ook indrukwekkende cijfers op, maar zoals gezegd, de GPU zal ook nog andere dingen voor zijn rekening moeten nemen (Zeker bij Claybook welke toch wel meer overhead heeft dan de scene demo)
Dat kan nogal mee vallen hangt af wat publisher oplegt. Zoals zware focus op overde top GFX dat game zwaar gpu afhangelijk maakt en render pipeline goed bezet met ook nog triple buffering.
Uiteraard hoeven dev niet de GFX te maximaliseren waardoor er ook idle time is render task wat minder na ijlt ipv twee maar 1 frame. En in die tijd is er ruimte voor compute task.
En kan aanzienlijk deel van shader cores als compute voor raytracing ingezet worden.

Zware GFX zal 1080ti en Vega inkakken bij DXR features.
Maar games die niet zo wild gaan met GFX is er ruimte voor die tussen stap te doen met de wat er dan beschikbaar is.

Het verschil met RTX is dat het compute render ai rt meer parrallel kan doen

Houd ook in dat ruim 6 miljard transistors van 18miljard dus idle erbij hangen bij games die niks met RT TC doen. Een conventionele 2080ti zou 1,5 keer zoveel cuda cores kunnen hebben.
Klopt het dat deze kaart nauwelijks is doorgegroeid in de floating point operations? Als ik
HIER kijk dan is voor de Ti
de SP GFLOPS 11750, maar de DP GFLOPS slechts 367.

Ter vergelijking: bij de voorganger Volta lag dit op: 12288 vs 6144.

Ofwel: een generatie verder en geen vooruitgang in SP FLOPS, en een behoorlijke achteruitgang in DP FLOPS. Dan lijkt het erop dat deze serie echt alleen gericht is op raytracing en Neural Networking/Deep Learning toepassingen, maar niet bijster interessant is voor andere high performance computing toepassingen.

Of mis ik iets?

-- Add: bedankt voor de reacties :)

[Reactie gewijzigd door Zwartoog op 23 juli 2024 15:55]

Volta is toch niet de voorganger?
Eigenlijk wel je hebt: Kepler > Maxwell > Pascal > Volta > Turing. nVidia heeft van Volta alleen nooit een Game kaart uitgebracht.

nVidia werkte voorheen zo:
Gx100 = Compute
Gx102/104/106 ect zijn de gaming architecturen
In het geval van volta is alleen de GV100 uit gekomen Bij pascal hebben we wel een GP100, GP102, GP104 en GP106 gehad.

Het was toen gewoon niet interessant voor nVidia om een Volta gebaseerde gaming chip te maken pascal verkocht nog prima en ze hadden de prestatie kroon nog steeds met de 1080 Ti. Daarnaast was er ook nog geen nieuwer productie proces dus waarom zouden ze?

En nu komen ze dus eigenlijk met de opvolger van Volta voor de gamers op de proppen.

[Reactie gewijzigd door Astennu op 23 juli 2024 15:55]

GV100 is een andere klasse chip. Dat is de opvolger van GP100. TU102 is groot met z'n 754mm^2, maar niet zo groot als GV100 met 815mm^2.

Turing en Volta staan eerder naast elkaar, dan de één na de ander. Turing heeft wel dingen die Volta ook heeft, maar TU102 is een geheel andere klasse chip dan GV100. Dit is de opvolger van GP102 (1080 Ti) en GM200 (980 Ti). Titan V is een buitenbeentje, die bestaat alleen omdat Nvidia de hype machine in leven wilde houden ;)
Volta is meer de Datacenter chip zoals GK110,GM100 en GP100 dat ook waren. (meer FP64 performance en in het geval van Volta deeplearning performance met tensor cores en FP16).
TU is daar een beetje een doorontwikkeling van met een gamers sausje er overheen > FP64 units er uit RT cores er in en nog een paar tweaks om de Volta architectuur een beetje op te poetsen voor 2018.

[Reactie gewijzigd door Astennu op 23 juli 2024 15:55]

Dit klopt. De shaders zijn waarschijnlijk vergelijkbaar met Volta ik denk een doorontwikkeling. Maar GV100 heeft meer shaders vandaar dat het aantal GFlops bij de GV100 kaarten hoger ligt dan bij de TU102 kaarten.
Dan de DP operaties. Je ziet dit wel vaker gebeuren. nVidia en AMD voegen beide specifieke DP units toe aan hun shader blokken. Bij sommige architecturen / chip design's zijn die verhoudingen wat anders. Bij de kaarten gericht op Compute liggen die aantallen hoger. Zie bij nVidia Gp100 en GV100. Bij GP102 en TU102 liggen die aantallen veel lager. De 10x architecturen zijn ook meer gericht op gaming waar FP64 tot nu toe niet echt nuttig is. Waar de Gx100 chips gericht zijn op compute.

Ik denk dat Volta voorlopig de compute architectuur blijft voor Tesla kaarten datacenter en deeplearning. En TU meer voor rendering en gaming.
Volta en Turing lijken in veel dingen wel weer op elkaar

[Reactie gewijzigd door Astennu op 23 juli 2024 15:55]

Voor de DP prestaties is de trend al wat langer dat deze bij consumentenkaarten wat minder wordt om zo de zakelijke kaarten die hier beter presteren wat meer te promoten. Ze gaan er van uit dat DP prestaties voornamelijk in de zakelijke markt belangrijk zijn.
Consumentenkaarten hebben vaak 1:32 DP performance, terwijl pro-kaarten 1:2 hebben. DP is niet interessant voor je GPU in games.
64 vs 32 dp vs sp is een 1:2 verhouding.
Lijkt mij dat paartje sp als DP unit kunnen fungeren.
Lijkt mij dat SP 11750 de hardware heeft om DP 5875 maar ivm gericht zijn op consumenten markt en pro lijn niet in de weg te zitten begrenst is op heel veel minder.
Ik mis technische details bij voorbeeld die nieuwe motion shader die snelbewegende secties van beelden op lagere detail worden gerenderd. Hoe werkt dat dan? Hoe wordt bepaald welk deel van het beeld dan veranderd wordt? Wordt hier een speciaal algorithme voor gebruikt? Moet een game hier specifiek ondersteuning voor hebben? Lijkt me wel een techniek die je alleen als laatste redmiddel wil gebruiken om FPS verder op te krikken.

En hoe werkt die LOD techniek dan intern? Moet een game hiervoor ook support bieden of gaat dit globaal werken?

Vind dit allemaal toch wel belangrijk te melden...
prijzen blijven te hoog. hoop dat het minder gaat verkopen en ze iets aan die belachelijke prijzen wat gaan doen
Wat ik niet zag terugkomen in het artikel, maar wat wel essentieel is aan dit verhaal is dat het hele ray tracen helemaal niet goed genoeg is voor real time gebruik en dat ze die tensor core werkelijk nodig hebben om de ruis weg te filteren.
Beetje hoog advertentie gehalte. Je kunt weinig met deze informatie totdat de kaart daadwerkelijk getest is en er een degelijk oordeel over te vellen valt. Tot die tijd is het allemaal marketingpraat.
Interessant voor de liefhebbers maar ik als leek hoor het donderen ik Keulen alhoewel men het begrijpbaar probeert uit te leggen.Men moet toch al echt specifiek gaan om alles sneller te krijgen. Ten tijde van de 286 pc was een Pentium computer een enorme vooruitgang. Nu met mijn laptop van 6 jaar oud hoef ik geen nieuwe want de snelheidswinsten zijn minimaal. Idem voor tablet of gsm.
Gezien aanzienlijke diespace waar extra space aan specialistische features verdeeld is is performance voor standaard games niet zo veel beter. De meerwaarde is dus games die juist deze feature pakketten ook gaan benutten.

NV heeft de verhouding en die size zodanig gekozen dat er kwa cuda cores toch meer performance is.
maar als gamer merk je juist de aanzienlijke verbetering die dieshrink mee brengt dat vervald dus deze keer. Tenzij alle features door games benut worden.

Waarbij online fast pace juist lage instellingen met focus op stabile hoge FPS belangrijker is.
Waarbij de slow pace exploring sandbox games de extra features beter tot hun recht komen.
Ze hebben het goed voor elkaar dat een kaart van 2 jaar oud nog flink lang mee gaat!
kan je de RTX heerlijk overslaan tot het echt goed doorontwikkeld is in pakweg 2020 op 7nm.

[Reactie gewijzigd door A87 op 23 juli 2024 15:55]

Ik vraag me af of en hoe het zou werken als je de huidig gepresenteerde RT techniek (inclusief DX API) los trekt van nvidia. Vevolgens nadenkt over hoe dit kan werken op andere kaarten en op een lagere kwaliteitssetting. Wellicht kan het niet goed verwoorden door gebrek aan precieze technische kennis. Maar ik dacht dus dit:

Als de RT effecten in Battlefield 5 bijvoorbeeld 100% zijn in kwaliteitswaardering, vraag ik me af hoe het er uit ziet door dit bv 'gedithered' te doen en per frame te alternaten. Zoals ze dat bij de PS4pro met checkerboard rendering doen. Je zou dan een 1920*1080 frame (frame 1) voor slecht 50 procent met RTX renderen. (Om de pixel renderen zegmaar). Dit zou theoretisch gezien dan de helft aan rays kosten. (CMIIW). Stel dat je optimaliseert en bepaald dat de hoeken en randen van frame 1 nog meer pixels overslaan; want focal point. Dan kom je misschien op 35% van frame 1 aan pixels wordt ge'RT'ed. --- Vervolgens wordt frame 2 gerenderd en worden de uitgeschakelde rays van frame 1 wel gebruikt en de rest niet. Maar de optimalisatie van de hoeken en randen van frame 1 blijft in effect. Dan zou het theoretisch gezien 2 keer zo snel kunnen.
Het effect kan zijn dat er dan optische perforatie of noise in het gereflecteerde/belichte/'beschaduwde' ontstaat. En om dit te verminderen opt ik dan om dit a la TAA aan te pakken of iets vergelijkbaars. Of de gerenderde rays op een oppervlakte van bv een spiegel te blenden of op te rekken om de noise te verminderen.

/brainfart.
De meeste dev die nu RTX ondersteunen zijn dus keihard gebonden aan nV gameworks waar RTX ondervalt. Op paar na die wat meer huiswerk doen en Direct via dXR de effecten doen.
Futurermark zal uiteraard zo onafhankelijk mogelijk hun RT tech bench demo doen dus dat wordt sowieso DXR direct op die API of zelfs Vulkan GPUOpen
Waar je raytracing op alles kan testen ongeacht of het slideshow wordt.
Het is los van nV de DXR DX12 extentie.
Het is dat nV daar bovenop RTX libary heeft zitten als onderdeel van gameworks en dat houd in dat een game producer moet kiezen of gameworks voor DXR features wat voor hun vliegende start geeft maar nV only is. Of de eigen engine team zelf RT boven op DXR API implementeren.

Als je al in gameworkskamp zit is de stap naar RTX nog kleiner. Dat zou nog mid productie change van nV tools kunnen met wat change in planning om die feature te implementeren.
Een grote publisher met eigen engine team met kennis om dit voor volgende producties te implementeren kan kiezen om nV libary te mijden en onafhankelijk DXR te gebruiken met eigen implementatie.

Bench software futuremark zal uiteraard eerder voor eigen implementatie gaan.

Het is dus aan engine teams om zelf bovenop DXR API hun engine uit te breiden en vooral niet gaam voor die instinker van gameworks gedrog dat inspeeld op budged en deadline beperkte producties die met gameworks vliegende start willen hebben of bezuinigen op inhouse expertise en nV dat laat doen.

Op dit item kan niet meer gereageerd worden.