Maar ik heb dan ook niet over Raytracing op de CPU

Het gaat hier om raytracing:
- Oftewel middels een RT Core van Nvidia Turing (Wat dan via Nvidia RTX gaat werken)
- Oftewel middels CUDA/GCN cores via de DXR API. Dit gaat middels een Fallback laag (Ook wel DXR Fallback genoemd) -
https://github.com/Micros...s/D3D12RaytracingFallback. Dit is weliswaar nog in een prototype fase, maar stelt bestaande hardware in staat om toch te raytracen - Hetzij dan via CUDA/GCN cores. Beter dan helemaal niks dus, maar de performance penalty zal wel navenant hoger liggen dan een dedicated RT core
Betreft je verhaal over ''gericht raytracen'' - Futuremark werkt op dit moment aan een DXR benchmark die dit zal aantonen. Tuurlijk, het ''nut'' van selectieve RT effecten zal in het begin weinig opleveren (Leuk, die reflecties in Exodus die alleen maar op relatief hoge res werken op een RTX 2080!) maar op het gebied van technologische vooruitgang, is het wel een sterke verbetering. Nu kan je reflecties krijgen die ''alle'' omgevingdata meeneemt, ipv een shader-gebaseerde ''emulatie''. De fysieke accuratie zal domweg een stuk beter wezen, en het is ook een aspect van Raytracing wat een ''haalbare'' kaart is, wellicht zelfs op DXR Fallback (Zodat je Titan X ook niet volledig nutteloos is voor dat doel

) Dus een ''voordeel'' is er zeker te vinden, maar alleen als je goede ogen hebt

Voor 99% van de gamers zal het vrij weinig opleveren.
Dat gezegd hebbende, is het natuurlijk nog wel een proefballon om raytracing ''gemeengoed'' te laten raken binnen games. Daarbij focussen op de wat ''simpelere'' aspecten van raytracing die voor zijn principes doodmakkelijk te doen zijn (Accurate reflecties) maar een rasterizatie''hack'' vereisen zoals cubemaps of SSR is dan een leuke optie om mee te experimenteren, zeker als er dan hardware beschikbaar is die dat ''native'' kan versnellen of via een DXR Fallback kan worden geemuleerd op de huidige generatie kaarten. Het is kortom meer een experimenteerdoos van effecten dan dat je het gelijk grootscheeps in games zal gaan zien.
Met ''midrange'' denk ik zeker aan de huidige Vega cores. Deze zijn immers al een tijdje op de markt en kunnen daarom ook goedkoper verkocht worden. Ik denk dan inderdaad aan een die-shrink, maar ook een price cut behoort tot de mogelijkheden. Zoiets zie ik wel opboksen tegen een GTX 2060 (Welke, mocht het gerucht waar zijn, dan aardig in de buurt zit van een Vega 56). En die heeft waarschijnlijk niet dergelijke RT/Tensor hardware aan boord. AMD zou hier dan op kunnen inspelen door zijn Vega lijn (ook de oudere kaarten!) een pricecut te geven. Dat is dan mooi voor gamers, want die kunnen dan voor minder geld 1080p/1440p gaming mogelijk maken.
Ik begrijp niet geheel wat je bedoelt over het gedeelte betreft ''concurrentie''. Je kan aan de andere kant namelijk ook stellen dat AMD zeer efficient is met zijn integratie van Vega graphics op hun APU's waardoor zelfs budget gamen op 1080p een haalbare kaart wordt (Nou ja, geen echte kaart natuurlijk lol). Zoals gezegd, dat zijn de verschillende stukjes vijver waarin men vist.
Betreft je laatste stukje dat je ''raytracing op grafisch gebied niks heeft te bieden'' ben ik het mee oneens. Tuurlijk, de Metro demo liet weinig verschil zien, maar dat is nu het hele hebben met wat men nu probeert. Voor de meerderheid is het ''verschil'' nog niet geheel waarneembaar. Maar op bepaalde aspecten (Zoals reflecties) is het wel te merken. Hetzij dat dit met een flinke penalty komt (als je het via DXR Fallback doet) of dat je er RTX hardware voor nodig hebt om die effecten te ''denoisen''. Het zit hem dus vooral in de ''details'' en dat is bij games vooralsnog niet heel erg belangrijk. Vandaar dat het dus optioneel raakt. Zoals gezegd, een experimenteerdoos.