Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Willem de Moor

Redacteur componenten

Turing: de architectuur achter RTX

Raytracing en neurale netwerken in gpu's

Tot slot

Nvidia heeft een flink aantal nieuwe onderdelen in de Turing-architectuur ondergebracht, en dat levert volgens het bedrijf flinke winsten op, die sterk afhankelijk zijn van de workloads die de gpu te verwerken krijgt. Games die van raytracing gebruik kunnen maken om een deel van de verlichting en schaduwen in een scène te verzorgen, of games die de tensor-cores inzetten om beelden te anti-aliasen houden meer rekenkracht in de floating point-units vrij dan games die dat niet kunnen. Daarmee hengelt Nvidia handig developers binnen, want om optimaal van dit soort technieken gebruik te maken moet je nauw samen werken met Nvidia en moet je van het RTX-ecosysteem gebruik maken.

Er zijn momenteel nog weinig games die van alle functies gebruik kunnen maken: een handjevol games zullen binnen nu en een half jaar raytracing ondersteunen, waaronder Battlefield V, Shadow of the Tomb Raider en Metro First Light. Het aantal games dat dlss gaat ondersteunen is wat groter, omdat Nvidia hapklare brokken voor de berekeningen in de tensor-cores levert.

Om alle features van de Turing-architectuur optimaal te benutten is het RTX-ecosysteem in het leven geroepen, een beetje vergelijkbaar met Gameworks. Het is nog onduidelijk of raytracing alleen binnen dat RTX-ecosysteem werkt: ray tracing is als DXR immers onderdeel van DirectX 12. Wel zou RTX-ray tracing via de DXR-api aangesproken kunnen worden, maar RTX behelst dus meer dan enkel ray tracing: onder meer dlss valt ook onder de RTX-paraplu.

Van de prestatiewinst die aparte integer-cores in de sm's moeten opleveren, en natuurlijk het snellere gddr6-geheugen, kunnen in principe wel alle games profiteren. Volgens Nvidia moet dat aanzienlijk hogere framerates opleveren vergeleken met de Pascal-kaarten. Wat de daadwerkelijke winsten gaan zijn in courante games zullen benchmarks moeten uitwijzen. Voorlopig ziet het er op papier goed uit.

Lees meer

Reacties (101)

Wijzig sortering
Ik moet het allemaal nog zien. Het is zeker mooie hardware maar RTX is gewoon te zwaar. Dev's kunnen er nu mee gaan spelen dus het is goed dat de hardware er nu is. Maar met een 2080 Ti naar 1080P moeten om dan nog geen 60FPS te halen zodra er veel RT gedaan moet worden vind ik niet bruikbaar (dit komt van leaks zoals Anandtech die er demo's van gezien hebben wellicht worden de prestaties nog wel wat beter maar 4K met RTX en goede frame rates kun je dan vergeten als we nu op 1080P 60FPS niet halen)

DLSS met de tensor cores vind ik wel interessant. TAA en SSAA gebruikt bijna niemand omdat het te zwaar is. Vooral in oudere games als je FPS meer dan hoog genoeg is maar de rest van de tijd gebruikt men FXAA of MSAA of een andere lichte vorm die op de shaders draait. DLSS is dan wel interessant door middel van de Tensor cores. Echter moet je het in mijn ogen dan wel vergelijken met FXAA bij andere kaarten en hoe is de FPS dan. Want niemand gaat TAA gebruiken als je FPS van 70 naar 35 gaat dan gebruik je gewoon FXAA op je oude kaart.
Dus ik ben benieuwd in de vergelijking
Pascal/Vega met FXAA vs 2080 met FXAA en FXAA vs DLSS.

Als voordeel heb je dan mooiere AA met mogelijk relatief weinig performance impact.

Maar overal vrees ik toch dat de nieuwe kaarten niet een al te beste prijs prestatie verhouding hebben tov de Pascal kaarten in reguliere games. Voor mensen waar geld geen issue is is het duidelijk koop een RTX 2080 Ti. Voor andere mensen blijft het denk ik interessant om ook de oudere kaarten te overwegen.

Want 1080, 1080 Ti zijn nu voor nette prijzen te krijgen. Vega 56/64 kaarten ook als je bij de oosterburen gaat shoppen. Qua prijs prestatie verhouding doen die het ook niet slecht verbruiken wel meer. In mijn ogen zijn de bovenstaande opties qua prijs en prestaties interessanter dan een RTX 2080 of 2070 gezien de MSRP (die je in het begin gewoon gaat betalen als niet meer). En ik verwacht nog steeds dat ze niet zo veel sneller gaan zijn dan de bovenstaande kaarten. Dus laat de reviews maar komen om mij het tegendeel te bewijzen :). Ik geloof mr leather jacket niet op zijn mooie ogen.

[Reactie gewijzigd door Astennu op 14 september 2018 15:45]

Betreft je RTX 2080 Ti 1080p60 verhaal: Naast de bekendere titels waarbij RTX werd getoond was er ook Gajin. Zij maken de oorlogshooter Enlisted en maken daarbij ook gebruik van RTX. Zij wisten met hun eigen Dagor Engine 5 een resolutie van 4K op 90 FPS te halen, met RTX aan. - https://www.youtube.com/watch?v=AvXra6yqEZs

Noot: De verschillen in belichting in deze video zijn er omdat de getoonde scene geen pre-computed lighting gebruikt. Er zijn dan dus ook geen light probes aanwezig of lightmaps gebakken. De getoonde scene is dus vooral belicht met raytracing.
Dit is wel even wat anders van BF V qua GFX maar wel interessant.
Mogelijk passen ze de effecten beter toe en op een minder intensieve manier dat het wel wat toevoegt maar niet een al te grote performance hit geeft?

De vraag is wel even wat doet die game qua FPS zonder RTX. Want een game als BF 5 draai je niet zo maar op 4K 60FPS en zo zijn er meer games waar je echt hele serieuze hardware nodig hebt om die 60FPS te halen een 1080 Ti is vaak niet genoeg.

Maar in ieder geval interessant wat ze voor elkaar gekregen hebben.

Ik vraag me wel af of dit echt RTX is of wel RT via Vulcan wat misschien dan weer gebruikt maakt van de RTX cores in de nieuwe kaarten. Want als het RT via Vulcan betreft zouden AMD kaarten via Radeon Open Ray's het ook moeten kunnen. En dan is het wel interessant om te zien wat voor een performance impact het heeft op die kaarten.

[Reactie gewijzigd door Astennu op 14 september 2018 16:48]

De BFV RTX demo is redelijk gechargeerd en bewust overdreven neergezet om het effect aan te duiden. Raytracing is immers op zijn best wanneer het ''niet opvalt''.

Betreft hoe ze het hebben gedaan: https://www.youtube.com/watch?v=PPKZgKC6DKo

Zij gebruiken in dit geval Raytraced Global Illumination. RTX is immers een collectie aan effecten die hardwarematig versneld kunnen worden: Reflecties, schaduwen, belichting. Atomic Heart maakt van de eerste 2 gebruik, Enlisted alleen van de laatste.

Ik zou je niet kunnen zeggen hoe de game het doet zonder RTX. Echter is de game niet rond RTX gebouwd en is wel te vinden dat de impact op de hardware maar 5% moet wezen. Ik besef echter wel dat Enlisted een uitzondering is, helemaal omdat ze Vulkan gebruiken.

Ik vermoed wel dat het RTX op Vulkan is en niet ''gewoon'' RT op Vulkan. RTX is immers aangekondigd voor Vulkan en het zou knap stom staan om alle PR die er nu is het domweg verkeerd te vermelden. ;)
In dat geval hop ik dat ze ook RT via Vulcan gaan doen en niet alleen RTX. Dan hebben andere kaarten er ook nog iets aan. De doelgroep van gebruikers die straks een nVidia RTX kaart zullen hebben is maar klein aangezien het om kaarten gaat vanaf 650 dollar/euro. Dat is niet goedkoop te noemen.
In dat geval hop ik dat ze ook RT via Vulcan gaan doen en niet alleen RTX
Er wordt afaik gewoon gebruik gemaakt van DXR, een nieuw onderdeel van direct x.
Ja RTX is SDK boven op de DXR API set.
Maar het is met productie planning DXR is meer werk dan voorwerk wat nV met RTX SDK doet.
Dus grote teams met groter budged en productie tijd hebben planning mogelijkheid om hun engine team de DXR API toe te passen zodat als AMD en iNtel hun DXR hardware ondersteunende gpu uitrollen door hun games ook ondersteund worden.

Bij RTX zal alleen de nV chips bij feature check herkent worden en de rest in de fallback path.

Gameworks moet het meer hebben van luiere of beperkte productie tijd dev hebben
Dat zit er wel dik aangezien RRays al iets soortgelijks doet met GPUopen en OpenCL. Vulkan is imo steeds meer de go-to API om resultaten te verkrijgen die je anders met DX11 nog flink tegen een bottleneck aan zou zie lopen.

Let wel, RTX is vooral een experimenteerdoos. Experimentele tech zonder userbase kost nu eenmaal centjes. :)
De RTX 2070 van de aib's zou er al zijn voor $499. Staat in de tekst.
Dat is mooi 120 dollar duurder dan de vorige generatie. Dus zeker niet goedkoop te noemen.
Je betaalt nu xx80 prijzen voor een xx70 kaart. Daarnaast maar eens zien wat ze straks in de winkel gaan kosten. Zou ook nog wel eens tegen kunnen vallen als de beschikbaarheid niet zo best is. En aangezien dit de meest "betaalbare" RTX kaart is zou de vraag naar die kaart nog wel eens relatief hoog kunnen zijn waardoor de prijzen boven MSRP komen te liggen. Maar we gaan het zien.
Ik ben het er mee eens dat het nog altijd te duur is. De 2070 zou onder de ¤500 moeten gaan voor ik hem zou kopen. Maar met de mining hype was de 1070 ook niet meer te verkrijgen onder de ¤500 denk ik.
Afgelopen jaar niet nee. Maar in het begin wel voor iets meer dan 400. Ook best veel maar al beter dan 500+
mag dan wel 4k zijn, het ziet er uit als cs go qua texture, ksnap wel dat ze hoge fps halen.
Dit is puur een demonstratie level om Raytraced Global Illumination te demonstreren. Het gegeven dat het level er bijzonder slecht uit ziet zonder RGI komt omdat zij voor deze demonstratie geen ''pre-computed lighting'' (Lees: Lightmaps/Light Probes'' hebben gebruikt. Wat je dus overhoud is slechts ''Direct lighting'', waarbij alles evenredig en zonder schaduwen wordt belicht. Vandaar je opmerking neem ik aan. Dit wordt overigens door Gajin ook zelf benoemd.

Overigens ziet Enlisted er ''normaal'' eerder uit als Call of Duty WW2 dan CSGO qua textuur, maar dat terzijde :)
Hoe komt men toch bij het verhaal van 1080p en nog geen 60 fps?
Zie oa deze hands on:
https://www.anandtech.com...80-ti-realtime-raytracing

En gezien hoe zwaar raytracing is verbaast het mij eerlijk gezegd ook niet echt. Ik wil ook niet zeggen dat het geen mooie technologie is. het heeft alleen nog 2-3 generaties aan hardware nodig voordat het snel genoeg is. Je moet ergens beginnen dat is in het verleden ook vaker zo geweest.

[Reactie gewijzigd door Astennu op 14 september 2018 15:34]

Dat was dus met 1 game zonder fps monitoring als ik zo op het plaatje kijk. Verder had de game ontwikkelaar van Tomb Raider ook nog wat te melden dat er nog aan de game moet worden gesleuteld. Het zag er ook niet mooi uit vergeleken met Battlefield 5. Dat RT zwaar is geloof ik wel maar het lijkt me sterk dat het een 1080p 35fps flop gaat worden in de nieuwe games.

[Reactie gewijzigd door Gekke Jantje op 14 september 2018 16:58]

Het was niet één game. Er waren er daar meer games met RTX te aanschouwen en er zijn ook meerdere sites die daar mensen hadden lopen die het bekeken hebben en daar later over geschreven hebben.
Leuk dat ze er nog aan moeten sleutelen maar je gaat de prestaties niet 800% verbeteren en dat is wat je nodig hebt als je 60FPS op 4K wil halen tov 35FPS op 1080P.
Daarnaast had ik het over minder dan 60FPS en dat het op zware stukken richting de 40 gaat. Dus regelmatig tussen de 40-60FPS op 1080P met RT aan. Ook hier weer het moet dus ruim 400% sneller worden wil dat op 4K goed draaien. Ik zie dat niet gebeuren met een beetje verder ontwikkelen.

Als ze 1080P 60FPS minimaal halen zonder drops onder de 60 zou ik het persoonlijk al knap vinden. nog steeds niet echt bruikbaar want anno 2018 wil je toch eigenlijk wel 100+ FPS op 1080P of 60+FPS 1440P / 60FPS 4K maar toch.

[Reactie gewijzigd door Astennu op 14 september 2018 16:14]

Ik snap jou uitgangspunt en ook de reacties die hierop volgen.

Ik denk dat het handig is als je dakjes plaats bij ('Het was niet één game') dit brengt getallen in het spel iets waar simpel ( een ) niet volledig afdekt.

Dit is maar vriendelijke advies en mooie reacties. :)

Vriendelijke groeten.
Aaaah op die manier :)
Ik ben niet zo goed met spelling regels etc. Heb op de middelbare ook het laagst gescoord voor NL :P alle andere vakken gingen mij beter af ^^
Ben hier met je eens, de nieuwe kaarten halen niet eens op 1080 60fps, wat heeft t voor nut om zn dure kaart aan te schaffen. We hebben all die jaren ook zonder RTX kunnen doen waarom nu zn dure kaart aanschaffen.

On this moment heb ik zojuist een evga 1080 ti kaart aangeschaft!
Conclusie is dus afwachten als niet eens een game was. Gezien het plaatje, wat overigens niet goed te zien was, dacht ik zelf aan de game Tomb Raider. Dan waren de eerdere 4k beelden veel mooier. In Battlefield 5 zag ik het tenminste duidelijk en veel mooier.
BF V en Tomb raider waren beide gewoon games die ze daar lieten zien dus ik weet niet waar jij vandaan haalt dat het geen game was.
Interpretatiekwestie. Jij zei "het was niet een game". @Gekke Jantje Hij bedoelde "het was niet één game" (maar meerdere dus)
Verkeerd begrepen. Hoe wist men eigenlijk dat bijvoorbeeld Battlefield 5 met minder dan 60 fps draaide, ook daar zag ik geen resolutie bij staan en een fps teller. Dit maakt het alleen maar verwarrender en kan ik dat soort beweringen niet echt serieus nemen.
For Battlefield V, the situation was similar with a 1080p 144Hz monitor, playing on the Rotterdam map over LAN. There were framedrops during fast-paced scenes and in general it didn’t seem like it could keep up with the game. Again, there was no FPS info available but the RTX 2080 Ti was almost surely not cranking out constant 60fps. Here, the real-time ray tracing was quite noticeable, with vivid dynamic reflections in puddles, windows, and river. Even at 1080p, those features added to the overall image quality, though the ultimate performance cost was unclear. Framerates aren't a good tradeoff for image quality in fast-paced FPS', though for the record, I’ve always been terrible at shooters (except maybe Halo 2).
Die lui testen nog al eens wat videokaarten. Zelf kan ik het ook altijd goed merken als een game onder de 60FPS terecht komt en richting de 40 duikt daar heb ik geen FPS meter voor nodig. Zelfs met Freesync aan merk je gewoon verschil in smoothness tov 60+.
Klopt. G-sync net zo. Onder de 55fps voel je al de vertraging. De marketing voor de techniek werkte ook goed helaas.
Het voelt zeker soepeler aan tov geen sync maar je merkt natuurlijk nog steeds wel dat het geen 60FPS meer is. Tegenwoordig zet ik liever wat IQ settings omlaag zodat ik boven de 90FPS blijf dan dat ik alles aan heb staan en boven de 60 blijf. 90 is nog weer soepeler.
Ik heb zelf een 144Hz scherm en een game als overwatch speelt echt eerlijk als je rond de 120-144Hz blijft extreem smooth.
Ik speel zelf ook overwatch en meestal rond de 250-300 fps. Had een keer me gpu gedowngrade en toen haalde ik rond de 150 fps, wat echt als lag voelde tegenover 300 fps. Ik speel dan wel op 240 hz misschien scheelt dat. Nu weer 250-300 fps gelukkig, echt de sweetspot voor mij.
Merk je ook verschil tussen 300 of capped 240Hz?
Ik heb zelf nooit 144+ Hz kunnen testen want mijn scherm gaat niet verder. Maar in het begin had ik het idee dat ik zelf niet veel verschil meer merkte tussen 120Hz en 144Hz maar dat kan ook per persoon verschillen.
Ik merk verschil, als het rustig is dan heb ik bijna altijd 300 fps, in drukke gevechten wilt die dan wel is droppen naar ~230 fps, en dat is zeker voelbaar.
Van 60 naar 120Hz is echt duidelijk. Van 120Hz naar 144Hz een beetje. Daarboven is naar mijn mening volslagen onzin om goed te merken. Zeker in de 240fps naar 300fps.
Bij 240 naar 300 heb je nu vooral het probleem dat je geen sync meer hebt aangezien je weer ver boven je refresh rate van je pannel zit.

Het verschilt per persoon of je het verschil tussen 144 en 240 ziet. Ik ken mensen die het verschil tussen 60hz en 144hz maar amper ervaarde die hadden zo iets van vind het niet veel soepeler terwijl het voor mij over duidelijk was.
Dat hoort ook gewoon voor de meeste duidelijk te zijn. Zeker al met normaal gebruik.

Maar boven de 144Hz is het voor mij te veel marketing. Heb een 240Hz geprobeerd van een kennis maar kan echt niet het verschil merken. Op 144Hz loopt alles al super smooth
De final drivers waarmee de kaarten gaan uitgebracht worden voor de reviews zijn nog niet af dus mi kan je nog niets zeggen over de prestaties met Ray Tracing aan. Ik denk dat dit weinig problemen gaat opleveren. Zie ook dit artikel:
Met drivers ga je geen 300% performance boost halen in dit stadium. Dus geloof maar wat je zelf wil geloven maar ik geloof niets van die nVidia slides en ga af op wat reviewers laten zien en kennis en ervaring van de afgelopen jaren.
BF5 demo was wel een stutter festijn helaas, hoop dat ze dat nog verbeteren. Maar als het op 1080P nog geeneens 60FPS te behalen valt ben ik benieuwd wie er Ray Tracing gaat gebruiken.
Resolutie en fps zag ik nergens staan, ook niet dat het stotterde. Wel een heerlijk strak beeld dus G-sync of v-sync stond waarschijnlijk wel aan.
Vergeet niet dat Ray Tracing al jaren bestaat maar het nu pas voor de consumenten uitkomt. Animatie producenten zoals Pixar gebruiken in hun films ook Ray Tracing.
Dat weet ik heel goed. In films gebruiken ze het al heel lang. Maar die worden niet realtime gerendered.
Maar goed RTX bestaat alleen uit een paar RT effecten het is nog lang geen volledige ray tracing.
Welke Vega 56/64 kaarten zijn goed? In de Pricewatch zie ik er bijna geen. Vooral Vega 64 niet.
Ik heb zelf vooral ervaring met referenced kaarten. Maar de sapphire schijnt in ieder geval erg goed te zijn. Die koeler zit beter in elkaar dan bij de meeste andere merken.
Er zijn wel wat shootouts op Google te vinden waar ze de verschillende Vega kaarten getest hebben.

Als je een Vega kaart wil kan je volgens mij beter in Duitsland shoppen bij Bv casekings.

Ik zou ook even in het Vega ervaringen topic kijken op het forum wan daar komen regelmatig wat deals voorbij die mensen vinden.
Bedoel je deze?

pricewatch: Sapphire NITRO+ Radeon RX Vega64 8G HBM2

Hoe zijn de Linux drivers voor Vega64?
Yep maar dan zou ik voor deze gaan:
https://www.caseking.de/s...192-mb-hbm2-gcsp-186.html
De 64 is daar iets van 110 duurder. Als je zelf niet wil overclocken is dat de moeite. als je zelf wel gaat overclocken is het prestatie verschil maar iets van 3-9% afhankelijk van het spel. (Vega 56 vs 64 op gelijke clocks)
Nice! Nee, ik ga niet zelf overclocken, tenzij dat eenvoudig werkt (zoals met Intel eXtreme Tuning). Heb nu 4770k + GeForce 960 en een Corsair H80 waterkoeling met Windows in m'n spel PC en zou graag willen switchen naar AMD (Ryzen7 als CPU, en een GPU, plus een waterkoeling). En dan Linux. Steam is tegenwoordig behoorlijk goed. Helaas heb ik een 27" BenQ met Gsync. Dan heb ik ook nog DDR4 geheugen nodig. En die factoren maakt het switchen allemaal een stukje duurder waardoor ik toch liever wacht (dit voldoet ook nog). Maar desondanks ga ik uiteindelijk wel deze switch maken.

[Reactie gewijzigd door Jerie op 16 september 2018 13:49]

In dat geval heeft een V64 wel meer waarde want die heeft al hogere memory en clock speeds.
Maar je kan dat relatief makkelijk zelf doen via wattman of door een V64 bios in de 56 kaart te stoppen.
Eens, ik zie RTX ook niet echt van de grond komen. Dit is je reinste verspilling van die-space. De hele vooruitgang binnen GPUs is nu juist de versimpeling geweest van SMs en daardoor hoger kunnen klokken en dus met minder shaders, meer werk verzetten. Precies dat gegeven is wat Pascal significant sneller maakt dan GCN. Dat Nvidia dat nu deels loslaat levert voor AMD dan ook kansen op.

RT cores gaan daar lijnrecht tegenin. Je hebt nu dus een significant deel van je potentiele rauwe performance-winst weggegeven aan gespecialiseerde cores die maar in een beperkt aantal workloads voordeel opleveren. En dan niet eens een prestatievoordeel, maar een zeer beperkt, nauwelijks geimplementeerd visueel voordeel. Een voordeel dus dat volledig abstract is, versus een voordeel dat meetbaar zou zijn als men al die ruimte aan meer shaders, rops en dergelijke had besteed.

Ik sla deze gen lekker over, en daarvoor hoef ik alleen maar naar deze verspilling plus het prijskaartje te kijken. Pascal blijft relevant, want de perf/dollar gaat met Turing nauwelijks of geheel niet vooruit. En dat betekent effectief dat we nu meer dan 3 jaar stilstaan als het om GPU performance gaat.

Triest.

En als klap op de vuurpijl, als je heel nuchter naar RTRT (realtime ray tracing) kijkt, dan is het helemaal niet zo'n schokkende verandering ten opzichte van wat we al hebben qua dynamische belichting en schaduwen. En de bestaande technieken zijn alleen maar iets meer 'werk' voor een developer, maar leveren dan wel een veel efficienter geheel op. Het is dus helemaal niet gezegd dat RTRT 'beter' is. Ray tracing is ook niet nieuw, we doen het al jaren maar dan wel vóórdat we het in een game stoppen, en niet in real time. Dat heeft hele goede redenen...

Dit alles werd mij eigenlijk meteen duidelijk toen ik de keynote zag, met een vent die a'la Steve Jobs komt vertellen dat de wereld gaat veranderen en 'TEN GIGA RAYS' roept alsof we dat allemaal al decennia hadden willen hebben. Het was hilarisch om te zien (volgens mij moest Jensen ook een beetje om zichzelf lachen tijdens die keynote)... en tegelijkertijd heel triest, dat Nvidia zo'n move straffeloos kan maken. Wat dat betreft is NU het moment om als consument keihard op de rem te trappen.

[Reactie gewijzigd door Vayra op 16 september 2018 16:57]

Ik ben het helemaal met je eens.
Het is inderdaad een kans voor AMD met Navi als ze daar ouderwets brute force Performance kunnen leveren door met veel shaders rops ect op de proppen te komen.

Nu vraag ik mij alleen af of dat gaat gebeuren want Navi is mogelijk nog steeds gcn based en Fiji en Vega zaten al op de limiet. De 2080 evenaren of net verslaan lukt dan misschien nog wel maar de 2080 Ti is denk ik te ver gegrepen als we het nog steeds over 4096 shaders en 64 rops hebben. Maar goed tijd zal het leren.

De consument gaat nVidia denk ik niet af straffen die kopen of Pascal of ze betalen graag extra om het nieuwste van het nieuwste te hebben met de optie voor RTX wat eigenlijk nog niet heel nuttig is. Het enige wat ik nuttig vind is DLSS de praktijk moet het nog gaan uitwijzen maar dat lijkt mij nog wel iets wat meerwaarde kan bieden en relatief makkelijk toe te voegen is aan bestaande games. Zo niet is het ook in aardig wat gevallen verspilde die space. Maar we gaan het zien.
Kan wel zijn wat je zegt maar Nvidia kan volop experimenteren met RT omdat AMD geen concurrent meer is. Als het niet wijdverbreid ondersteund wordt door game developers is er nog geen man overboord want dan is Nvidia nog altijd sneller dan AMD.
Klopt, maar tegelijkertijd biedt dit AMD kansen. Als zij niet op RT inzetten met speciale hardware in de chip, blijft er meer ruimte over voor raw performance en kan AMD een achterstand inhalen.
Betreft realtime raytracing is die 6 tot 10 Gigarays van Nvidia die opgeeft onderhevig aan extra uitleg wat zij hiermee bedoelen.

Voorbeeld 1:
De maker van Claybook heeft in een aantal tweets aangegeven wat hij gebruikt voor raytracing.
https://twitter.com/i/web/status/1032283494670577664

''Claybook ray-traces at 4.88 Gigarays/s on AMD Vega 64. Primary RT pass. Shadow rays are slightly slower. 1 GB volumetric scene. 4K runs at 60 fps. Runs even faster on my Titan X. And with temporal upsampling even mid tier cards render 4K at almost native quality.''

https://twitter.com/i/web/status/1032897644123901952

''The actual number should be 9.76 Gigarays/s. I totally forgot that the same primary RT async compute pass does AO rays as well. For each pixel we cast random AO ray and temporal accumulate them. But my AO rays have limited distance and we use lower res geometry for them.''

Voorbeeld 2:
Een demoscener haalt middels Pathtracing op een 1080Ti hogere waardes dan de RTXen:
https://twitter.com/i/web/status/1032281439482662912

''Reminder that while everyone is losing their brains over "10 GRays/s", my 4k intro from @revision_party also casts at almost that exact rate on a GTX 1080 Ti (1280 × 720 × 4 × 128 × 24 ≈ 11.3 GRays/s)''

Daarnaast nog een voorlopige test van de huidige kaarten die een raytracing scene renderen middels DXR (Welke zelf nog in beta is): http://boostclock.com/sho...k-layer-perf-preview.html

Een 1080Ti haalt hier 71 MRays/S - Wat dus al afwijkt van de demoscene link, en die wijkt al weer af van de data die Nvidia heeft gegeven.

Kortom:
Van Nvidia zou ik graag willen weten welke tussenstappen zij uitvoeren op de RT cores (wat zij dus meenemen, welke passes) om tot de 6 Gigarays/10 Gigarays te komen. Zoals de voorbeelden laten zien kunnen dergelijke waardes ook behaald worden middels pathtracing of met enkele limitaties, dus ik zou graag weten welke rendering passes de RTXen doen om tot deze waardes te komen.

Digital Foundry kijk op Raytracing:
https://www.youtube.com/watch?v=mLIgfT04wsY

Meer info over RTX met gameplay videos van yours truly:
https://www.neogaf.com/th...evel-in-graphics.1465000/

Persoonlijk:
Zelf vind ik de RTXen zeker een sprong in het diepe wagen - tot op zekere hoogtes. De RT Cores zullen vooral gebruikt worden voor zaken waar Raytracing van nature goed in is en welke relatief makkelijk versneld kunnen worden - Accurate schaduwen, reflecties, en dus meer. Het is echter ook belangrijk om te weten wat DXR op non-RT kaarten zal doen.

[Reactie gewijzigd door Redneckerz op 14 september 2018 15:37]

Mooie post. En dat is helaas het gevaar bij hetgeen Nvidia zo goed kan (marketing). "Rays per seconde" zegt helemaal niets. In het geval van Claybook kan hij, omdat hij niet op poly's bouwt, het vrij rap doen. RTX zal voor hem echter niet bijzonder effectief zijn.
Gezien de natuur van zijn game vermoed ik dat ook. Visueel doet zijn game mij denken aan Lightmark en diens Toy Story demo - https://dee.cz/lightsmark/ welke ironisch genoeg beweert propere licht simulaties te doen. En dat was dan 2008.

Dank voor je compliment trouwens. :)
Ah, dat was waar het me aan liet denken! Kwam er al niet op.

Maar we hebben door de jaren heen al vaak prachtige demo's gezien die ook gewoon goed liepen, zo ook omtrent RT. Vaak is de render techniek echter dusdanig anders dat zoiets niet in de gemiddelde game past.

Ik vind het persoonlijk nog iets te vroeg voor RT. Het is wellicht goed dat Nvidia een stap zet om een hardware implementatie een "standaard" feature te maken, maar er zijn nog zo veel andere dingen die nog beter kunnen en mogen. Deels grafisch: texture kwaliteit is nog vaak magertjes, LOD blijft lastig voor de meeste engines en breek me de bek niet open over het gebrek aan MSAA (DLSS is wat mij betreft de oplossing niet; een NN moeten downloaden voor AA? neen). Deels ook qua onderliggende dingen: lip-sync met natuurlijk uitziende models? De enige die dat tegenwoordig nog echt goed doet is Naughty Dog denk ik. 99% van alle games doet dat slechter dan Valve het 14 jaar geleden deed.

DX12 wordt ook nog niet fatsoenlijk gebruikt; met name de iets geavanceerdere delen van de API waar toch echt wel leuke dingen mee te doen zijn (CR? ROVs? Zelfs TR wordt nauwelijks gebruikt..). Hetzelfde geldt voor Vulkan; juist dat soort features wordt amper gebruikt omdat eerst Nvidia achter liep en vervolgens AMD. Met Vega en Turing lijken we nu min of meer parity te krijgen (afgezien RT), maar dan heb je het nou niet bepaald over een groot deel van de markt.

[Reactie gewijzigd door Werelds op 14 september 2018 16:58]

Hahah, grappig dat het een goede gok bleek te wezen :)

Klopt. Raytracing is en blijft natuurlijk een setpiece technologie. En eerlijk waar, ik had RTX eigenlijk ook nog niet verwacht. Ik verwachtte dit eerder in 2020 of iets dergelijks.

Ik vind het inderdaad ook te vroeg voor RT, maar aan de andere kant is het ook ''goed'' dat het er nu al is. Men kan hier nu naar hartelust mee experimenteren als een extraatje en aan nieuwe gameplay ideetjes bedenken die alleen maar met RT kunnen. Het Hall of Mirrors effect in een puzzel game, bijvoorbeeld. Raytracing kan nieuwe soorten gameplay mogelijk maken. Ik zie het als een vroegtijdig extraatje on de industrie alvast ''gewend'' te raken.

Je ziet nu een tendens. DX12/Vulkan beginnen mondjesmaat meer invloed te hebben. Waar voorheen een game een DX11 en een DX12 variant had, waarbij de laatste niet tot nauwelijks werd gebruikt, zie je nu steeds meer projecten opduikelen die ''puur'' DX12 of Vulkan zijn. En dat betekent dan automatisch dat DX11 meer een ''legacy'' API wordt voor o.a consoles en oudere hardware.

Het gaat zeer traag, maar wie weet, wellicht is RTX en DXR net de catalyst die het balletje doen rollen (Eerder de nieuwe consoles doen dat haha). :)

PS: Om het Hall of Mirrors effect in actie te zien: de game Atomic Heart kreeg vandaag een uitgebreide RTX demo: https://www.youtube.com/watch?v=1IIiQZw_p_E

[Reactie gewijzigd door Redneckerz op 14 september 2018 19:41]

Wat denk ik ook wel scheelt is dat de 1080 Ti misschien wel hogere waardes haalt maar dan gebruik je alle cores voor RT. In het geval van de RTX kan je dat door de dedicated RT cores laten doen en de rest het overige render werk laten doen. Of deels bij laten springen om nog meer van de RT effecten te renderen (als dat te gelijktijdig mogelijk is kan mij voorstellen dat dat misschien niet gaat omdat ze anders aangestuurd moeten worden)

Ik ben ook erg benieuwd hoe Vega het tov Pascal gaat doen. En tov Polaris en Hawaii want Vega heeft wel wat meer compute mogelijkheden dan eerdere AMD chips's en is ook voor deeplearning ontworpen.

Het is wel grappig om te zien dat de RX580 echt heel veel sneller is al de twee vorige architecturen. Wat ik wel raar vind is dat de Nano trager is als de 390X. Lijkt haast of de ROPS's/Render backends een bottelnek vormen aangezien de clocks van de Nano lager zijn dan die van de 390X maar de Nano heeft wel veel meer shaders. Wat Polaris dan zo veel sneller maakt is mij nog een raadsel.

[Reactie gewijzigd door Astennu op 14 september 2018 16:02]

Naar welk voorbeeld refereer je voor je ''1080ti Alle cores'' verhaal? In het geval van de demoscene voorbeeld moet er immers naast path tracing nog een boel andere dingen gedaan worden (Vandaar dan ook de ''lage'' resolutie van 720p)

Ik wil echter gewoon weten waar Nvidia zijn Gigaray data vandaan haalt, en hoe zij dat doen. Want als immers een tweetal non-RT kaarten al de 6 gigarays/s voorbijstreven middels raytracing danwel pathtracing, dan wil ik wel iets meer weten natuurlijk :)
Wat @Astennu ook al aangaf, die non rtx halen die 6Gr maar doen dit door middel van volle belasting van hun gpu. Wat ik begrijp van nV is dat buiten je standaard gpu werk hij ook nog is 10Gr kan renderen /dedicated voor raytracing met andere woorden de non rtx kaarten hebben dan 100% pf/int32 belasting waarbij de rtx kaarten tot 10Gr 0% belasting heeft totdat je 11Gr nodig hebt. Zonder rt cores haalt deze architectuur misschien wel 8 of 12 Gr. Maar onduidelijk is het zeer zeker nog :)
Ik ben benieuwd of je die RT bewerkingen ook in int16 of init8 kan doen. Want Vega kan bv 2x zo snel Init16 en sommige zaken nog sneller als een bepaald soort 8 bit bewerking gedaan wordt.
Ik hoop en verwacht dat Vega daar wel wat sneller is als Polaris/Fiji.
Maar geen idee hoe die het tov de Pascal kaarten gaat doen.
Ik weet niet of in de genoemde scenedemo de gehele scene wordt gepathtraced (Lijkt mij van wel). Maar daarnaast er ook nog post-processing plaats moet vinden. Het doet dus zoveel gigarays, en dat zal dan via de CUDA cores gaan, maar wat is er nog meer nodig? Lijkt mij dat je er daarmee niet mee bent en dat er ook nog wat low level code aanwezig zal zijn.

Betreft die RT cores: Dat is het em juist. Nvidia geeft slechts een reeks nummers op maar vertelt niet hoe zij daar aan komen, of dit puur op de RT cores is gedaan, of CUDA nodig is geweest, enzovoorts.
RT cores doen specifieke tussenstap het zoeken naar ray trace hit ook nog recurcief tov geometrie .Bij hit worden de matiriaal en andere dingen bij betrokken en vanuit daar kan ook weer trace gecreerd worden.

Het gemeenschappelijke is juist de geometrie die nodig om trace hit event door te sturen naar de fase waar texture en licht effecten verwerkt worden waar vanuit ook weer traces gestart kan worden.

Omdat vertex en texture data voor RT en rateration nodig is
Wordt veel data al gedeeld.
Daarmee gezien cuda RT in dezelfde SM block zitten kan dat goed gemixed worden.

Meeste data wordt anders gebruikt maar is dus lokaal in SM aanwezig. En je hebt de L2 cache ook nog
En dit is dus waarom ik dacht dat de nieuwe RT kaarten veel te overhyped zijn. Het lijkt me dat de nieuwe dingen vooral goed zijn voor niche dingen die standaard uit zullen staan(NV RayTracing heeft een grote effect op performance, ook bij nieuwe kaarten). Zoals al was gemeten is bijv. de RT2080 op huidige games die niet gebruik maken van de extra cores maar ongeveer 30% sneller dan de GTX 1080. Dat zou dus betekenen dat voor het eerst in de de geschiedenis van Nvidia de nieuwe kaarten een slechtere performance-per-dollar hebben dan de huidige generatie op release. Tot de RT kaarten aan toe hadden de nieuwe generaties altijd een betere performance-per-dollar dan de generatie ervoor.

Toch wel jammer dat de nieuwe kaarten zo ontiegelijk overpriced zijn, maar misschien is dit dus alleen omdat ze heel graag van -de miljoenen 10 Series chips die ze nog in de vooraadkast hebben- af willen.

[Reactie gewijzigd door NotCYF op 14 september 2018 16:35]

Ik vind het geen ''overhype'', wel een kleine blik vooruit in de toekomst. Inderdaad, voor de huidige games blijft het beperkt tot een extra doos met effecten. Echter bootsten deze effecten de realiteit veel natuurgetrouwer na tov een cubemap of screen space reflecties welke geen rekening houden met objecten die niet op het scherm te zien zijn. Zoals het in BFV is uitgevoerd heeft het toch wat bijzonders, je eigen karakter in zijn eigen ietwat vage reflectie in een winkelraam.

Laat ik het zo zeggen: NV's marketing hierover is overhype, maar de effecten zelf geven een mooi kijkje in de toekomst. En het gegeven dat zoiets ''nu'' kan op huidige hardware is zonder meer indrukwekkend te noemen.
Ja dat is waar, maar de 10 Series productie is gestopt en ze moeten nu nog van de chips af die ze nog hebben liggen, ik denk zodra die supply leeg gaat dat de Turing kaarten ook wat goedkoper worden, omdat anders AMD opeens koning wordt van het midden-segment, en dat wil Nvidia niet. Ik verwacht dat de performance-per-dollar over ongeveer een jaartje wel hoger zal zijn dan de 10 Series nu zijn.

Maar voor nu moeten we zeggen dat de 10 Series kaarten door deze prijzen wel erg relevant blijven, waar op zich niets mis mee is.

[Reactie gewijzigd door NotCYF op 14 september 2018 19:35]

Oh, is het gestopt???? Heb je daar een bron van? Zal goed kunnen hoor, daar niet van :)

Ik zie het ook wel gebeuren dat er geen RTX 2060 komt maar ''gewoon'' een GTX 2060. Misschien ook wel een RTX loze 2070. Who knows!!!
Oh het kan zijn dat ze ze nog produceren, maar dat lijkt me sterk omdat Nvidia veel te veels chips nog had liggen. Ze kunnen heel goed de productie van Pascal al stilgelegd hebben maar er niks over gezegd hebben. https://seekingalpha.com/...ars-gpu-inventory-problem
Nou ja, je begon er mee dat de productie is gestopt alsof dit een vaststaand feit was terwijl je in je huidige reactie laat blijken dat het vooral een aanname was/is van jou kant af ;) Daarnaast is dat een punt van interesse die ik niet met je deel, begreep daarom ook de relevantie hiervan niet toen je hier over begon. :)
Nja alle. Aangezien er geen RT cores zijn moeten de normale shaders dit doen naast het normale render werk dus in totaal zakt je FPS dan in tov dedicated hardware die dit werk op zich neemt zodat die shaders beschikbaar blijven voor het "normale" render werk. Net als dat de Tensors cores straks die DLSS gaan doen en je dus geen FXAA op je normale shaders hoeft te doen.

Maar ik ben het met je eens die gigarays/s zeggen weinig. Als je naar AMD's Radeon Ray's opensource raytracing SDK kijkt zie je ook verschillende getallen in verschillende situaties:
https://gpuopen.com/gaming-product/radeon-rays/

Helaas staan hier nog geen getallen voor een Vega based kaart genoemd. Ik ben wel benieuwd wat die gaat neerzetten.
Die Radeon Rays heb ik in een oudere post nog wel opgenomen, vond het voor dit verhaal dit keer niet nodig, maar ja, ook Radeon Rays komt met getallen waarvan je kan zeggen: Tja, wat zegt NV nu eigenlijk? RR doet het notabene op OpenCL, dus waarom dan DXR?

Ik denk dat bestaande RT RT implementaties zoals bovenstaande vooral uit gaan van de vele cores die een GPU rijk is en als zodanig hun code paralleliseren. Dat levert ook indrukwekkende cijfers op, maar zoals gezegd, de GPU zal ook nog andere dingen voor zijn rekening moeten nemen (Zeker bij Claybook welke toch wel meer overhead heeft dan de scene demo)
Dat kan nogal mee vallen hangt af wat publisher oplegt. Zoals zware focus op overde top GFX dat game zwaar gpu afhangelijk maakt en render pipeline goed bezet met ook nog triple buffering.
Uiteraard hoeven dev niet de GFX te maximaliseren waardoor er ook idle time is render task wat minder na ijlt ipv twee maar 1 frame. En in die tijd is er ruimte voor compute task.
En kan aanzienlijk deel van shader cores als compute voor raytracing ingezet worden.

Zware GFX zal 1080ti en Vega inkakken bij DXR features.
Maar games die niet zo wild gaan met GFX is er ruimte voor die tussen stap te doen met de wat er dan beschikbaar is.

Het verschil met RTX is dat het compute render ai rt meer parrallel kan doen

Houd ook in dat ruim 6 miljard transistors van 18miljard dus idle erbij hangen bij games die niks met RT TC doen. Een conventionele 2080ti zou 1,5 keer zoveel cuda cores kunnen hebben.
Klopt het dat deze kaart nauwelijks is doorgegroeid in de floating point operations? Als ik
HIER kijk dan is voor de Ti
de SP GFLOPS 11750, maar de DP GFLOPS slechts 367.

Ter vergelijking: bij de voorganger Volta lag dit op: 12288 vs 6144.

Ofwel: een generatie verder en geen vooruitgang in SP FLOPS, en een behoorlijke achteruitgang in DP FLOPS. Dan lijkt het erop dat deze serie echt alleen gericht is op raytracing en Neural Networking/Deep Learning toepassingen, maar niet bijster interessant is voor andere high performance computing toepassingen.

Of mis ik iets?

-- Add: bedankt voor de reacties :)

[Reactie gewijzigd door Zwartoog op 14 september 2018 23:20]

Volta is toch niet de voorganger?
Eigenlijk wel je hebt: Kepler > Maxwell > Pascal > Volta > Turing. nVidia heeft van Volta alleen nooit een Game kaart uitgebracht.

nVidia werkte voorheen zo:
Gx100 = Compute
Gx102/104/106 ect zijn de gaming architecturen
In het geval van volta is alleen de GV100 uit gekomen Bij pascal hebben we wel een GP100, GP102, GP104 en GP106 gehad.

Het was toen gewoon niet interessant voor nVidia om een Volta gebaseerde gaming chip te maken pascal verkocht nog prima en ze hadden de prestatie kroon nog steeds met de 1080 Ti. Daarnaast was er ook nog geen nieuwer productie proces dus waarom zouden ze?

En nu komen ze dus eigenlijk met de opvolger van Volta voor de gamers op de proppen.

[Reactie gewijzigd door Astennu op 14 september 2018 17:17]

GV100 is een andere klasse chip. Dat is de opvolger van GP100. TU102 is groot met z'n 754mm^2, maar niet zo groot als GV100 met 815mm^2.

Turing en Volta staan eerder naast elkaar, dan de één na de ander. Turing heeft wel dingen die Volta ook heeft, maar TU102 is een geheel andere klasse chip dan GV100. Dit is de opvolger van GP102 (1080 Ti) en GM200 (980 Ti). Titan V is een buitenbeentje, die bestaat alleen omdat Nvidia de hype machine in leven wilde houden ;)
Volta is meer de Datacenter chip zoals GK110,GM100 en GP100 dat ook waren. (meer FP64 performance en in het geval van Volta deeplearning performance met tensor cores en FP16).
TU is daar een beetje een doorontwikkeling van met een gamers sausje er overheen > FP64 units er uit RT cores er in en nog een paar tweaks om de Volta architectuur een beetje op te poetsen voor 2018.

[Reactie gewijzigd door Astennu op 14 september 2018 17:20]

Dit klopt. De shaders zijn waarschijnlijk vergelijkbaar met Volta ik denk een doorontwikkeling. Maar GV100 heeft meer shaders vandaar dat het aantal GFlops bij de GV100 kaarten hoger ligt dan bij de TU102 kaarten.
Dan de DP operaties. Je ziet dit wel vaker gebeuren. nVidia en AMD voegen beide specifieke DP units toe aan hun shader blokken. Bij sommige architecturen / chip design's zijn die verhoudingen wat anders. Bij de kaarten gericht op Compute liggen die aantallen hoger. Zie bij nVidia Gp100 en GV100. Bij GP102 en TU102 liggen die aantallen veel lager. De 10x architecturen zijn ook meer gericht op gaming waar FP64 tot nu toe niet echt nuttig is. Waar de Gx100 chips gericht zijn op compute.

Ik denk dat Volta voorlopig de compute architectuur blijft voor Tesla kaarten datacenter en deeplearning. En TU meer voor rendering en gaming.
Volta en Turing lijken in veel dingen wel weer op elkaar

[Reactie gewijzigd door Astennu op 14 september 2018 19:56]

Voor de DP prestaties is de trend al wat langer dat deze bij consumentenkaarten wat minder wordt om zo de zakelijke kaarten die hier beter presteren wat meer te promoten. Ze gaan er van uit dat DP prestaties voornamelijk in de zakelijke markt belangrijk zijn.
Consumentenkaarten hebben vaak 1:32 DP performance, terwijl pro-kaarten 1:2 hebben. DP is niet interessant voor je GPU in games.
64 vs 32 dp vs sp is een 1:2 verhouding.
Lijkt mij dat paartje sp als DP unit kunnen fungeren.
Lijkt mij dat SP 11750 de hardware heeft om DP 5875 maar ivm gericht zijn op consumenten markt en pro lijn niet in de weg te zitten begrenst is op heel veel minder.
Ik mis technische details bij voorbeeld die nieuwe motion shader die snelbewegende secties van beelden op lagere detail worden gerenderd. Hoe werkt dat dan? Hoe wordt bepaald welk deel van het beeld dan veranderd wordt? Wordt hier een speciaal algorithme voor gebruikt? Moet een game hier specifiek ondersteuning voor hebben? Lijkt me wel een techniek die je alleen als laatste redmiddel wil gebruiken om FPS verder op te krikken.

En hoe werkt die LOD techniek dan intern? Moet een game hiervoor ook support bieden of gaat dit globaal werken?

Vind dit allemaal toch wel belangrijk te melden...
prijzen blijven te hoog. hoop dat het minder gaat verkopen en ze iets aan die belachelijke prijzen wat gaan doen
Wat ik niet zag terugkomen in het artikel, maar wat wel essentieel is aan dit verhaal is dat het hele ray tracen helemaal niet goed genoeg is voor real time gebruik en dat ze die tensor core werkelijk nodig hebben om de ruis weg te filteren.
Beetje hoog advertentie gehalte. Je kunt weinig met deze informatie totdat de kaart daadwerkelijk getest is en er een degelijk oordeel over te vellen valt. Tot die tijd is het allemaal marketingpraat.
Interessant voor de liefhebbers maar ik als leek hoor het donderen ik Keulen alhoewel men het begrijpbaar probeert uit te leggen.Men moet toch al echt specifiek gaan om alles sneller te krijgen. Ten tijde van de 286 pc was een Pentium computer een enorme vooruitgang. Nu met mijn laptop van 6 jaar oud hoef ik geen nieuwe want de snelheidswinsten zijn minimaal. Idem voor tablet of gsm.
Gezien aanzienlijke diespace waar extra space aan specialistische features verdeeld is is performance voor standaard games niet zo veel beter. De meerwaarde is dus games die juist deze feature pakketten ook gaan benutten.

NV heeft de verhouding en die size zodanig gekozen dat er kwa cuda cores toch meer performance is.
maar als gamer merk je juist de aanzienlijke verbetering die dieshrink mee brengt dat vervald dus deze keer. Tenzij alle features door games benut worden.

Waarbij online fast pace juist lage instellingen met focus op stabile hoge FPS belangrijker is.
Waarbij de slow pace exploring sandbox games de extra features beter tot hun recht komen.
Ze hebben het goed voor elkaar dat een kaart van 2 jaar oud nog flink lang mee gaat!
kan je de RTX heerlijk overslaan tot het echt goed doorontwikkeld is in pakweg 2020 op 7nm.

[Reactie gewijzigd door A87 op 14 september 2018 17:09]

Ik vraag me af of en hoe het zou werken als je de huidig gepresenteerde RT techniek (inclusief DX API) los trekt van nvidia. Vevolgens nadenkt over hoe dit kan werken op andere kaarten en op een lagere kwaliteitssetting. Wellicht kan het niet goed verwoorden door gebrek aan precieze technische kennis. Maar ik dacht dus dit:

Als de RT effecten in Battlefield 5 bijvoorbeeld 100% zijn in kwaliteitswaardering, vraag ik me af hoe het er uit ziet door dit bv 'gedithered' te doen en per frame te alternaten. Zoals ze dat bij de PS4pro met checkerboard rendering doen. Je zou dan een 1920*1080 frame (frame 1) voor slecht 50 procent met RTX renderen. (Om de pixel renderen zegmaar). Dit zou theoretisch gezien dan de helft aan rays kosten. (CMIIW). Stel dat je optimaliseert en bepaald dat de hoeken en randen van frame 1 nog meer pixels overslaan; want focal point. Dan kom je misschien op 35% van frame 1 aan pixels wordt ge'RT'ed. --- Vervolgens wordt frame 2 gerenderd en worden de uitgeschakelde rays van frame 1 wel gebruikt en de rest niet. Maar de optimalisatie van de hoeken en randen van frame 1 blijft in effect. Dan zou het theoretisch gezien 2 keer zo snel kunnen.
Het effect kan zijn dat er dan optische perforatie of noise in het gereflecteerde/belichte/'beschaduwde' ontstaat. En om dit te verminderen opt ik dan om dit a la TAA aan te pakken of iets vergelijkbaars. Of de gerenderde rays op een oppervlakte van bv een spiegel te blenden of op te rekken om de noise te verminderen.

/brainfart.
De meeste dev die nu RTX ondersteunen zijn dus keihard gebonden aan nV gameworks waar RTX ondervalt. Op paar na die wat meer huiswerk doen en Direct via dXR de effecten doen.
Futurermark zal uiteraard zo onafhankelijk mogelijk hun RT tech bench demo doen dus dat wordt sowieso DXR direct op die API of zelfs Vulkan GPUOpen
Waar je raytracing op alles kan testen ongeacht of het slideshow wordt.
Het is los van nV de DXR DX12 extentie.
Het is dat nV daar bovenop RTX libary heeft zitten als onderdeel van gameworks en dat houd in dat een game producer moet kiezen of gameworks voor DXR features wat voor hun vliegende start geeft maar nV only is. Of de eigen engine team zelf RT boven op DXR API implementeren.

Als je al in gameworkskamp zit is de stap naar RTX nog kleiner. Dat zou nog mid productie change van nV tools kunnen met wat change in planning om die feature te implementeren.
Een grote publisher met eigen engine team met kennis om dit voor volgende producties te implementeren kan kiezen om nV libary te mijden en onafhankelijk DXR te gebruiken met eigen implementatie.

Bench software futuremark zal uiteraard eerder voor eigen implementatie gaan.

Het is dus aan engine teams om zelf bovenop DXR API hun engine uit te breiden en vooral niet gaam voor die instinker van gameworks gedrog dat inspeeld op budged en deadline beperkte producties die met gameworks vliegende start willen hebben of bezuinigen op inhouse expertise en nV dat laat doen.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True