Door Willem de Moor

Redacteur

Raytracing op GTX-kaarten

Kan het zonder speciale cores?

24-04-2019 • 06:00

126

Singlepage-opmaak

Conclusie

Raytracing voor een groter publiek toegankelijk maken klinkt als een goed plan, maar de bruikbaarheid is beperkt. Dat komt deels doordat Nvidia DXR via zijn 425.31-driver alleen voor kaarten vanaf de GTX 1060 6GB ontsluit en deels doordat het raytracen op de gewone streamprocessors een behoorlijke wissel op de prestaties trekt. Dat neemt niet weg dat in de paar games waarin raytracing momenteel wordt ondersteund, toch nog aardige prestaties overblijven als je raytracing op GTX-kaarten inschakelt. Dat geldt niet voor alle games noch voor alle Pascal-kaarten.

Zware games als Metro worden al snel een diashow op minder krachtige kaarten. Een game als Battlefield V blijft echter, in ieder geval op 1080p, nog aardig speelbaar als je raytracing inschakelt. Of je dat op de minst krachtige ondersteunde kaart, de GTX 1060, moet doen, kun je je afvragen, want de framerate duikt net onder de 30fps met raytracing op High. Desondanks trekt het inschakelen van raytracing een buitensporige wissel op de prestaties van de GTX-kaarten. Bij de RTX-kaarten, met RT-cores, was de extra belasting al flink en zakken de framerates met ruwweg een derde in, maar bij de GTX-kaarten worden de framerates minstens gehalveerd. Bij de GTX-kaarten van de Turing-generatie zou dat, dankzij de verbeterde architectuur, beter moeten zijn, maar ook daar zien we enorm prestatieverlies door raytracing.

Games als Battlefield maken maar voorzichtig gebruik van raytracing, want als we naar Nvidia's techdemo's kijken, zien we een heel ander beeld. De RTX-kaarten scoren veel beter in de synthetische benchmarks, waar de nadruk sterk op raytracing ligt. Dat zou in de toekomst slecht nieuws kunnen zijn voor de GTX-kaarten, die nu nog aardig meekomen in games met raytracingondersteuning.

Vooralsnog wordt de soep niet zo heet gegeten als ze wordt opgediend. Zeker de krachtigere GTX-kaarten kunnen nog aardig meekomen in games als Battlefield. Zo wordt het leven van je Pascal-kaart weer iets verlengd en kun je toch proeven van raytraced games. Dat kan alleen maar goed zijn voor de toekomst, want een grotere doelgroep voor games met raytracing is een prima reden voor developers om dat in nieuwe games te ondersteunen.

Lees meer

Demo Raytracing op GTX-kaarten
Demo Raytracing op GTX-kaarten Video van 24 april 2019
Nvidia brengt GeForce GTX 1660 Ti uit
Nvidia brengt GeForce GTX 1660 Ti uit Nieuws van 22 februari 2019

Reacties (126)

126
126
65
10
1
54
Wijzig sortering
Raytracing is een beetje zoals het PhysX van vroeger. Het advies is om rustig te wachten totdat de techniek door de proprietary fase heen is, waarna het als standaard techniek op zowel Nvidia als AMD kaarten beschikbaar komt. Tot die tijd is het een leuke gimmick.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 17:31]

Het is vrijwel op elke GTX Kaart. die het enigzins aankan en modern is.

De PS5 krijgt met een Navi GPU van AMD Raytracing volgens dit interview

Vervolgens is daar door een redacteur van Seasond Gaming weer op gereageerd dat de nieuwe Xbox weer beter wordt. Dit is natuurlijk twijfelachtig aangezien dit niet van Microsft direct is.

Raytracing is er.
Er is voor de volgende gen console adoptatie, AMD die het ook gaat doen, DX 12 die het heeft en Nvidia die het voor de meeste gaming kaarten aanbied van de afgelopen 2 jaar.

Het is alleen net zoals 4K is met gaming; wil je het soepel draaien op 60fps dan moet je diep in de buidel tasten. En dan spreken we nog niet eens over 4K en raytracing..

[Reactie gewijzigd door Generation Kill op 22 juli 2024 17:31]

Raytracing er altijd geweest. Het enige dat nieuw is, is dat men het nu gaat marketen alsof het prima loopt op een consumenten-GPU.

Het tegendeel is waar.

Onze 'realtime raytracing' is van een zeer lage kwaliteit en in die zin is het dus een leuk nieuw grafisch effectje, meer niet (en dus zeker vergelijkbaar met PhysX, sterker nog, ik durf te zeggen dat goede physics engines veel meer doen voor gaming dan RT). Reflecties zijn een goed voorbeeld. Veel mensen zullen totaal niet kunnen aangeven of de reflecties in het water in de techdemo bij dit artikel RTX OFF of ON zijn. In een paar shots zie je letterlijk identieke reflecties.

Rasterized is dermate ver uitontwikkeld dat raytracing wel héél goed moet zijn toegepast om een goed zichtbare winst op te leveren. En, daar komt bij dat het dat ook nog moet doen zonder al te veel aan prestaties in te leveren. En dat lukt ook op Turing maar matig. Alleen met lage kwaliteit en veel tweaks is het redelijk te doen. En dan heb je het altijd nog maar over een zéér beperkte toepassing; in Metro bijvoorbeeld slechts een enkele lichtbron en met een zeer beperkt aantal 'bounces'.

Kortom, raytracing is er helemaal niet, maar de marketingmachine draait op volle toeren om ons van het tegendeel te overtuigen. De techniek is nog zwaar onder de maat voor een noemenswaardige winst en ervaring. Om nog maar te zwijgen over de levensgrote fysieke problemen als die size versus yields en het feit dat elke node kleiner toch weer wat duurder zal zijn. We kijken nu al tegen een gigantische Turing die aan voor die paar armzalige rays mét een performance hit van jewelste.

Deze techdemo... leuk hoor, dat het zwaard overdreven glimt en dat stalen bepantsering eruit ziet als een glasplaat (realisme? ahum), alleen jammer dat het gezicht daar achter weer van plastic lijkt te zijn. Even vergeten om daar een ray te casten en waarom reflecteert het zwaard niet op de omgeving? Zo 'echt' is het... En de crux is hierbij dat ray-tracing juist voor die extra immersie zorgt als het ook écht realistisch omgaat met licht. En niet in beperkte mate zoals we tot nu toe hebben gezien. Ook in deze techdemo ontstijgt de RT niet het niveau van 'gimmick' en 'leuk effectje' dat eigenlijk veel te veel opvalt en verre van realistisch is.

AMD 'gaat het ook doen'. In welke mate? In hoeveel games? En in hoeverre kun je echt spreken van grote grafische verschillen tov een lekker lopende rasterized oplossing?

Het wordt een interessante tijd. Maar houd wel echt heel goed in je achterhoofd dat er maar één reden is dat Nvidia en AMD raytracing nu gaan pushen: de aandeelhouder wil centen zien en aangezien we op 1080p met een midrange kaart wel klaar zijn, is er een nieuwe groeimarkt nodig. Die techniek? Die komt later wel. Gaan wij echt zestien keer betalen voor een oplossing die nog lang niet klaar is? Ik iig niet. Sit back, relax, en gooi wat extra popcorn in je magnetron.

[Reactie gewijzigd door Vayra op 22 juli 2024 17:31]

Daar staat wel tegenover dat in Exodus het wel een navenant verschil in beeldkwaliteit oplevert. Van Battlefield kan je zeker zeggen dat het een gimmick is (algemeen sentiment), bij Exodus heeft het wel een significante visuele impact.

Ergens vind ik daarom die game raytracing dan ook beter presenteren dan de meeste demo's die vooral reflecties demonstreren.
Daar staat wel tegenover dat in Exodus het wel een navenant verschil in beeldkwaliteit oplevert
In Raytracing ziet dit spel er een stuk leuker uit in veel situaties, echter vraag ik me sterk af of het spel met Raytracing uit niet als ondergeschoven kindje is behandeld.

Naar mijn mening hadden ze ook zonder raytracing veel mooiere belichtingen kunnen maken dan ze nu laten zien... dit is echter alleen een gevoel van mij
RT uit laat juist goed de limitaties zien van huidige belichting, welke o.a met lightmaps, gebakken illuminatie en deferred rendering werken. Het verschil is echter dat lightmaps niet dynamisch zijn en dus in die zin niet reageren op veranderende belichting. Ik snap je gevoel dus wel, maar deze strookt niet met de technische realiteit die hierin aanwezig is. :)
Wat er in mijn ogen moet gebeuren is en echte boost in performance. We hebben het over 4k en 8k maar dit levert weinig meer detail op en kost wel een shitload meer aan rekenkracht. Een mooi voorbeeld wat ik altijd aandraag is: een blu-ray film op 1080p ziet er op een normale tv fotorealistische en scherp uit.en toch is het "maar"1080p. Waarom hebben we dan 4k nodig in gaming? Er is naar mijn mening alleen al op 1080p nog een gigantische stap te maken om games realistisch te krijgen. Daar heb je echt geen 4 of 8k voor nodig. Maar hogere kwaliteit textures en betere belichting en reflecties. Maar we zijn er nog lang niet. Games zien er mooi uit.... Maar de prijs die je betaald is zeker niet mis... Ik weet niet wat er aan rekenkracht nodig is om een game echt fotorealistisch te maken... Ik denk dat animatie bedrijven als weta digital die zowat alle animaties maakt voor alle grote films dit opzich wel kunnen zeggen. Die maken immers animaties in films die bijna niet meer van het echt te onderscheiden zijn... helaas is zo'n enkele render een behoorlijke opgave volgensmij... laat staan dit 60x per seconde. Ik zou wel eens willen weten hoeveel 2080ti's er nodig zijn om een foto realistische game te kunnen renderen in 1080p op 60fps. Als je dit weet dan kun je ongeveer een inschatting maken hoe lang het nog duurt voordat we dit in onze pc gaan hebben.

[Reactie gewijzigd door sygys op 22 juli 2024 17:31]

"You vote with your money."

Ik ben zelf voor de RTX-kaart gegaan zodat ik mijn stem inbreng in de interesse in ray-tracing.
Ja, het komt er wel, maar hoeveel wordt er in hoeveel tijd ontwikkeld? Mijn interesse is er en ik hoop dat de gaming-industrie een serieuzere interesse in ray-tracing bij meer mensen opmerken zodat ze zelf meer centen tegen de ontwikkeling hiervan aangooien waardoor deze zich ook sneller en beter ontwikkelt.

Niet zodat de volgende Call of Duty 't ook integreert maar zodat 't breder toegankelijk is voor iedereen en het helpt de wetenschap ook wanneer wij dingen die wij in de realiteit zien zelf kunnen meesteren.

Dit biedt ons weer kansen om oplossingen voor allerlei problemen te bedenken.
Performance met ray-tracing is denk ik een zeer belangrijke hiervoor.
Dit is wel heel negatief verwoord. Een grote tekortkoming die al jaren lang in games zit is dat spiegels, met name relevant in racegames, gewoon niet of heel slecht worden 'bevolkt'. Rayracing bied daar een oplossing voor.

Verder is het helemaal niet nieuw dat een nieuw grafische techniek veel performance kost en nog niet het onderste uit de kan haalt. Meest recente ontwikkeling die ik me kan herrineren was ambient occlusion. Dat kostte in Saints Row de helft van mijn fps. Niet vreemd dat je in die tijd topics tegenkwam met titels als 'Ambient Occlusion: The stupidest graphical technique of all time'. Nu 5 jaar later is ambient occlusion voor het gros van de videokaarten geen enkel probleem meer. Ondertussen voegt het wel significant iets toe aan hoe je game eruit ziet. (Voor wie het niet weet, het zijn schaduwrandjes bij grenzen van bijvoorbeeld de muur en de vloer).

Waarom je yields en die size erbij sleept is mij ook een raadsel. We betalen de hoofdprijs omdat Nvidia kan vragen wat Nvidia wil vragen. Daar heeft Nvidia geen rayracing voor nodig. Met de kosten heeft het weinig te maken. Meest recent heeft Nvidia aangegeven 43,6% operationele marge te draaien. Het jaar ervoor was dit 43,1 procent. Nvidia is dus relatief zelfs nog wat meer gaan verdienen sinds de lancering van RTX.

Wil je iemand de schuld geven van de hoge prijzen, kijk dan even naar AMD die in 2007 Ati Radeon hebben overgenomen. Die moeten zorgen dat ze met een interessant alternatief komen. Als het mee zit komt Intel volgend jaar met een high-end videokaart kaart en kunnen die druk zetten op de markt.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 17:31]

Raytracing is niet nieuw nee. Ik kreeg het al tijdens mijn studie. Ook toen was al bekend dat de functies om een ray te berekenen zwaar zijn en het real time renderen van een kamer op basis van ray-tracing nog tijden op zich zou laten wachten.

Wat wel nieuw is het feit dat we nu voor een beperkte set aan rays dit wel realtime lijken te gaan kunnen. Je kan het wel een gimmick vinden, maar alles begint klein en het realtime berekenen gebeurt nu echt. Is het een must-have? Nee, net zo min als AA dat jaren terug niet was.

Btw. off het er realistisch uitziet heeft weinig te maken met het raytracen maar vooral met het definiëren van de oppervlaktes, hoeveel licht absorbeert het, welke vorm heeft het?

Ik betwijfel ook of raytracing de enige groeimarkt is. Meer detail, brute rekenkracht en natuurlijk VR blijft de komende jaren nog altijd belangrijk.
RTX fase is al geweest.
Deze raytracing op de gtx series is doordat microsoft het al in DX12 heeft geimplementeerd.
Dit is ook waarom oudere win10 versies het niet ondersteunen.

AMD kan dit al gewoon implementeren zonder enige problemen, maar kiezen er specifiek voor dit vooralsnog niet te doen.

Het enige proprietary is DLSS, maar dat staat buiten raytracing.

[Reactie gewijzigd door ErikRedbeard op 22 juli 2024 17:31]

Deze raytracing op de gtx series is doordat microsoft het al in DX12 heeft geimplementeerd.
Dat is niet helemaal waar.

Zoals met elk grafisch effect het geval is, is ook real time raytracing enkel mogelijk als het door een API mogelijk gemaakt wordt. Er zijn verschillende aan gaming gerelateerde API's die real time raytracing mogelijk maken, bijvoorbeeld: DX12 (DXR), CUDA (OptiX), Vulkan, enzovoorts.

Voor (de meeste) games die real time raytracing implementeren geldt dat het überhaupt vooral mogelijk is omdat het in DirectX geïntegreerd is. Dat is immers de API die zij gebruiken voor hun renderer.

Dat real time raytracing eerst niet en toen wel op Turing kaarten werkt is puur een door nvidia ingestelde artificiële limitatie in hun Geforce driver. Dat het in DX geïntegreerd is heeft daar weinig mee te maken. Nvidia's RTX is een aan Gameworks gelieerd platform, het ondersteunt real time raytracing via DirectX, CUDA, Vulkan.
AMD kan dit al gewoon implementeren zonder enige problemen, maar kiezen er specifiek voor dit vooralsnog niet te doen.
Implementeren zonder problemen mogelijk wel. Als ik even voor AMD mag invullen doen ze dat niet omdat de performance sanctie op standaard hardware te groot is.

Dat nVidia dit nu desondanks wel voor standaard hardware heeft geïmplementeerd heeft vast de maken met het gegeven dat het Raytracing in games nog niet erg momentum genereert, en dus meer draconische maatregelen nodig zijn.

Zoals ik de standaard techniek van The Zep Man uitleg is dat we op het punt komen dat hardwarematig universele cores zonder verder performanceverlies waar nodig kunnen raytracen. Waar nodig, want dat raytracing zal vooralsnog nog beperkt blijven tot hoge aandachtsobjecten (glimmende zwaarden) of spiegelende plassen water.
GCN shaders zijn anders dan Cuda en het is dus onbekend welke de betere is voor raytracing zonder xtra hardware gaat doen. De game engine die hun eigen raytracing doet kan je Vega vs GTX vs RTX beter vergelijken.
Want als Vega dichter uitvalt tegen RTX en met afstand tot GTX zou kunnen dat GTX raytracing minder geoptimaliseed is en RTX maximaal. Tenzij GCN beter Raytracing ondersteund.

Het is dus beleid om features te scheiden of elke shader breed general purpouse te maken dat het ook goed Raytracing ondersteund. Want als je scheid moet je balans kiezen .
GCN vs CUDA:
vector + scalar vs scalar + didicated integer unit
waves 64 threads vs warps 32 threads.
16kb (CU) vs 64kb (SMP) shared memory/L1.
HBM2 vs DDR6

Denk dat HBM2 vs DDR6 zal vooral uitmaken met schrijven van rendertargets, en inlezen van grote texture blokken...

Voor scene complexity maakt vooral de hieveelheid L1 cache uit, want je moet door de BVH tree heen en ook nog batches van triangles intersecten.

Nadeel van AMD CU is dat het maar 16kb aan L1 cache heeft, waardoor je minder data kunt prefetchen en geen dedicated integer unit heeft. integers heb je nodig om door de bvh te gaan. Dit wordt dus gecompenseerd met meer CUs vs SMPs (minder geheugen, meer ruimte en minder kosten).

Goed dit heeft uiteindelijk temaken met implementatie en balancing van de algoritme die raytracing uitvoert. Ene gaat beter op NVIDIA andere gaat beter op AMD.

Als ik geld zou moeten inzetten, zal ik op dit moment voor NVIDIA gaan. Want turing heeft ook een nieuwe feature in de thread execution zitten die minder last heeft van branching die een dependancy heeft op data.

Om toe te voegen, L1 constraints zijn op public api level. intern implementatie/vendor kan volledig hardware gebruiken wat vaker meer resources heeft.


AMD wint puur met theoretical OPS door meer threads te kunnen uitvoeren, alleen als data dependancy ter spraken komt (wat bijna altijd het geval is), gaat AMD verliezen.

[Reactie gewijzigd door Vlad86 op 22 juli 2024 17:31]

Wat Vlad86 ook suggereert is er momenteel nog wat winst te behalen voor AMD op het vlak van raytracing. Dat is begrijpelijk daar nVidia hiermee een start heeft gemaakt.

De situatie waar ik het over heb is dat zowel AMD voldoende volwassen hybride renderengines hebben dat voor beiden zowel mapped rendering als raytracing zonder belangwekkend performance verlies kunnen plaatsvinden. Hybride engines lijken mij een belangrijke voorwaarde, zodat de capaciteit van de GPU optimaal gebruikt blijft. Met de huidige dedicated raytrace cores bij de RTX modellen van nVidia is dit nog niet het geval
Anoniem: 1044053 @The Zep Man24 april 2019 07:41
De tijd dat je er een aparte PhysX kaart voor kon kopen :+
En inmiddels word het 9/10 keer op de CPU gedaan.
De tijd dat je er een aparte PhysX kaart voor kon kopen :+
Dat zou misschien niet eens zo'n gek idee zijn,

Stel dat je die 1060 (of gewoon een gemodde 1050 of cheaper) uitsluitend voor raytracing zou kunnen inzetten; dus raytracing op die kaart en het feitelijke renderen op een andere (misschien zelfs amd of intel)

Ik dacht vorig jaar al eens te hebben gelezen dat MS SLI / Crosfire tussen meerdere kaarten en/of merken mogelijk wilde maken. dan zou DIT het moment zijn
Toch vind ik dit een hele goede optie voor RTX mits dat dit technisch mogelijk is. iedereen heeft poorten te over op hun moederbord die ze nog nooit hebben gebruikt dus waarom maken ze er geen addon kaart van. Hopelijk leest AMD mee!
Correct en niet alleen de prorietary fase maar ok de adoptie in de nieuwe generatie consoles die dikwijls als baseline dienen voor ontwikkeling van games en engines. Zodoende als deze ook over raytracing beschikken zal de techniek veel sneller zijn weg naar mainstream vinden.
Wachten todat het in consoles zit, dan zal een 1600+ echt niet meer genoeg zijn..
Het is de vraag of die prop.fase ooit wordt bereikt met de huidige techniek. Waarom moeilijk doen als het nu makkelijk kan met de snelle scanline rendering en environment mapping voor reflecties.
Er is ook een mod voor Minecraft met raytracing.
Dat ziet er heel heel erg mooi uit.
https://m.youtube.com/watch?v=ekG2q_eYCAM
Kreeg gelijk zin in om het te spelen.

Vind het nog wel lastig om een video kaart te kiezen. Ga een nieuwe computer samen stellen. En weet nog niet welke kaart ik ga nemen. Ligt er ook aan hoe duur ik mijn huidige pc kan verkopen. Maar ik hoop dat het bedrag zo rond de 300 euro zit.
Voor minecraft kun je gewoon één van de vele shaderpacks downloaden. Daar heb je geen RTX kaart voor nodig. Draait ook prima op een vorige generatie kaart.
Maar dat is dan weer geen pathtracing en als dusdanig zal de manier waarop licht en schaduw worden berekend dus minder realistisch wezen.

Het hele idee achter RT/PT in games is dat het natuurlijk overkomt. Nu is Minecraft geen realistische game als het om artstijl aangaat, maar het feit dat een nieuw belichtingsmodel een dramatisch visueel verschil voortbrengt, is nogal wat, en niet iets wat je met een shaderpack gelijk zal doen.
Hier kunnen deze RTX promotie bullshit filmpjes nog van leren:

https://www.youtube.com/watch?v=KQGXcMpAx4E

En als je dat RTX filmpje eens houdt tegen non Raytracing shader packs:

https://www.youtube.com/watch?v=edz2-ghiN1c

Dan is dat RTX reclame filmpje ineens erg underwelming.

En dit alles draait prima op niet RTX kaarten.

[Reactie gewijzigd door Seth_Chaos op 22 juli 2024 17:31]

Ook al is RT getagged in de video, ik heb niet het idee dat het dit ook het werkelijk gebruikt, het tweede filmpje nog zoveel minder. Minecraft is door zijn natuur wel een stuk beter geschikt voor een totaaloplossing op RT gebied, ipv telkens maar 1 effect.

Waar jij naar verwijst zijn shaderpacks. GPÚ's zijn door de jaren heen zeer goed geworden in het faken van effecten middels rasterizatie. Zo goed zelfs, dat je een zeer goed lijkende kopie kan krijgen door domweg shaders te gebruiken. En dat is voldoende voor velen.

RT en pathtracing gaan een stapje verder en proberen om ipv het effect te faken middels rasterizatie, belichting en schaduw zo ''natuurlijk'' mogelijk weer te geven. Dit doen zij middels rays. Aangezien een GPU zoals gezegd voor rasterizatie is gemaakt en niet het afvuren van rays, kost dit exponentieel veel GPU kracht zonder RT cores.

Waarom dan voor zoiets gaan terwijl een shaderpack zo voor het oprapen ligt? Simpel: Zon Minecraft shaderpack is een goed gelijkende ''kopie'', maar het verliest op details van RT. Dan heb ik het over subtiele schaduwen en belichting die door meerdere oppervlakken wordt geraakt. Dit zijn dingen die je vooral met RT kan doen, en ook veel makkelijker dan met een (compute) shader, die hiervoor al nodeloos complex moet wezen en daarbij de subtiliteit verliest als het meerdere bounces moet ''faken''.

Dat Nvidia RTX promoot is dan niet vreemd. Het is een bedrijf, dus ze moeten toch het publiek warm maken voor iets ''nieuws''. In het geval van RT is dat dan ook het geval. Wel is het zo dat wat we nu hebben afwijkt van cinematische raytracing welke niet in realtime wordt gerendered. Dit zie je vooral terug bij films en de kwaliteit alsmede de variaties zijn dan ook veel uitgebreider aldaar.
En waar ik op doel is dat vrijwel geen hond voor die subtiele verschillen 800 euro meerprijs over heeft. Helemaal als je het verschil niet ziet tenzij je beide naast elkaar draait. Het minecraft filmpje met raytracing draaiende op een RTX wordt bewust tegenover un-modded minecraft gezet, met de vermelding kijk eens wat een verschil en meerwaarde het levert. Als ze dat zelfde filmpje naast een filmpje van één van de beste shaderpacks zet, en weg laat welke raytraced is en welke niet, heeft 99% van de kijkers geen flauw benul welke raytraced is, en welke niet. En dan zal het merendeel voor de beste shaderpack kiezen omdat dat veel betere performance bied.
En waar ik op doel is dat vrijwel geen hond voor die subtiele verschillen 800 euro meerprijs over heeft.
Een RTX 2060 is geen 800 euro.

Die verschillen maken wel het verschil, trouwens. Dat het jouw interesse niet heeft betekent niet dat zoiets indrukwekkend is. En als jij blij wordt van een shader based alternatief die het benadert, dan is dat toch je goed recht?
Helemaal als je het verschil niet ziet tenzij je beide naast elkaar draait. Het minecraft filmpje met raytracing draaiende op een RTX wordt bewust tegenover un-modded minecraft gezet, met de vermelding kijk eens wat een verschil en meerwaarde het levert.
RT kan sommige dingen die je niet met een shader na kan bootsen. Dit wordt in het DF filmpje ook aangegeven.

En, nogmaals, Minecraft leent zich nu eenmaal goed voor RT door diens blokkerige natuur. Anderzijds laat Metro Exodus op een beperktere schaal goed zien welke invloed RT kan hebben.
Nee, maar het verschil is natuurlijk, dat het devs erg aan kan spreken. Om onze gekke man Jensen maar weer even te quoten "It just works". En dat was eigenlijk ook altijd al zo met iray (path tracing render engine op GPUs) en dergelijke, niet 30 pagina's aan render settings maar maar 1, het aantal rays of de tijd die het frame mocht duren.
Heb nog wel een ander filmpje:
https://www.youtube.com/watch?v=5jD0mELZPD8
Vind deze nog mooier en dit krijg je niet volgens mij niet via een shaderpack.

[Reactie gewijzigd door Calamor op 22 juli 2024 17:31]

Die raytracing wordt toegevoegd via een shaderpack van Sonic Ether. De raytracing is gewoon een toevoeging op de al bestaande shaderpacks. Je kunt dezelfde shaderpack dus proberen zonder en met raytracing. Beide hebben reflecties, schaduwen, sunrays, enz. En beide kun je draaien met of zonder RTX. Je hebt hier dus geen RTX kaart voor nodig. Als je met beide speelt merk je echter dat met raytracing veel zwaarder is voor je pc en dus ook een veel lagere FPS oplevert. En dus ook betekend dat je veel minder eye candy kunt toepassen dan zonder raytracing. Denk daarbij aan HD texture packs en een veel horgere resolutie. En grotere modpacks met veel meer opties.

Een texture pack met een veel hogere resolutie en bumbmapping levert veel meer meerwaarde op in het spel in combinatie met een non raytracing shaderpack, dan default textures te moeten gebruiken omdat je highend pc met RTX kaart niet raytracing met een HD texturepack trekt op een hoge resolutie.

En dat is voor nu de Achilles hiel van raytracing. Ja het is mooier met raytracing. Maar je krijgt een betere visuele ervaring door het niet te gebruiken en in plaats daarvan de resolutie en de grafische instellingen verder op te krikken. Want ook die RTX kaarten zijn niet krachtig genoeg om het allemaal tegelijk aan te kunnen.
Je kan ook gewoon een nieuwe GPU in je oude pc gooien, vaak lukt dit wel prima, geeft dit toch niet de gewenste effect doordat de CPU het niet kan bijhouden dan kun je alsnog de rest erbij kopen.
Heb een SuperMicro SuperO C9Z390-CG moederbord gewonnen bij Hardware.info. Ben daar echt heel blij mee. Voor onze trouwdag krijg ik een 9600K als cadeau, dan moet ik nog alleen maar ram, gpu, ssd m.2 en nieuwe voeding te kopen. Heb nog een oude kast liggen die ik nog hergebruiken er voor. Mijn oude computer met i7 3de gen gaat dan in de verkoop. Die computer is een SFF formaat. En daar kan je nu nog alleen een 1050 TI in kwijt. Misschien met de nieuwe 1650 (TI) als die low profile wordt gemaakt zou ik dan nog kunnen upgraden. Maar of je dan er op vooruit gaat.
Anoniem: 1128097 @Calamor24 april 2019 09:11
Wordt niet die persoon die een 1080 Ti koopt voor minecraft ;)
Het is erg lang geleden dat ik Minecraft heb gespeeld. Maar toen ik het filmpje zag kreeg ik er wel gelijk zin in. Maar speel meer Subnautica nu. En daar merk ik wel dat met een 1050 TI (heb een SFF kast) en andere spellen op Full hd spelen soms niet zo soepel loopt.

[Reactie gewijzigd door Calamor op 22 juli 2024 17:31]

Anoniem: 1128097 @Calamor24 april 2019 11:49
Subnautica is dan ook een stuk.... minder blokkerig.
Dat hebben we ook gedaan, de minimale framerates zijn raytraced, gemiddelden zijn niet-geraytraced. Door beperking in grafiektool kunen we niet de procentuele verschillen tussen min en gemiddelde tonen.
Leuk om te zien dat ook de redactie zelf wel eens in de war raakt tussen een algemene reactie en reactie op een andere reactie :+
ik wijt het aan mobile: ik dacht toch echt dat ik op 'reageer' had geklikt....
Dat de 1660 beter scoort dan een 1080ti terwijl die geen Tensor,- of RT cores heeft is toch uiterst opmerkelijk, maar er word in het artikel niks over gezegd. Klopt dat wel?

Als dat geen foutje is, dan trek ik die hele benchmark sterk in twijfel...
1660 is Turing architectuur en die is gewoon beter in RT dan de vorige architectuur waar de 1080ti op gebaseerd is

check bijvoorbeeld ook
https://www.youtube.com/watch?v=vvfsM7GKIAE&t=907s

Daar zie je bijvoorbeeld dat de 1080TI in Battlefield op stukken waar geen raytracing is veel sneller is, maar op stukken met reflecties wordt dat verschil met een 1660 wel erg klein

Dat zorgt er ook voor dat de 1080TI onspeelbaar is, ook al haalt hij soms over de 100FPS, hij dropt ook naar 20/30

[Reactie gewijzigd door Sinester op 22 juli 2024 17:31]

Helaas lees ik hier niks terug over de enorme fps verschillen per scène in gaming met de GTX kaarten. Digital foundry heeft een interessante analyse die laat zien dat de gemiddelde zo hoog zijn omdat de scènes die minder zwaar zijn in raytracing hogere fps hebben dan hun rtx rivalen met rtx geactiveerd (1080ti vs 2070 bijvoorbeeld). Maar de zwaardere scènes zomaar tot 20 fps kunnen droppen. Dat maakt het praktisch gezien onbruikbaar.
Laat ik voorop stellen dat ik geen gamer ben, en dus mogelijk met verkeerde ogen naar de demovideo kijk. Maar, zo bijzonder vind ik het niet. Het enige waar je echt verschil ziet is bij reflecterende oppervlakken zoals water en metaal. Ja, het is mooier, maar of het echt verschil maakt in game-ervaring?

Maar nogmaals, ik heb ongetrainde ogen, en kijk misschien anders naar de beelden.
Jullie gaan me vast vertellen hoe wereldschokkend belangrijk deze techniek is voor de toekomst van gaming ;)
Neuh. Eigenlijk is dit een Hairworx gevalletje, hoewel dit mogelijk nog énige tactische toevoeging kan hebben (misschien dat je iemand in een reflectie ziet...). Het ziet er mooier uit, en er is zeker een groep mensen die alleen voor het 'mooi' gamed, maar mensen die het om de lol gaat zullen niet koste wat kost €1200-ish neerleggen voor een GPU, en voor mensen die max €300-ish voor een GPU kunnen budgeteren, of op een APU gamen, is dit helemaal niet relevant. En dat zijn toch mensen die de meeste lol er aan hebben.

Ik heb zelf een RTX2080 maar ik speel eigenlijk niks wat echt iets aan de RT cores heeft. Het was voor mij een manier om goedkoop tensorcores te krijgen + een redelijke hoeveelheid vrij snel vram. De games die ik speel (Warcraft, Homeworld, algemene strategie/RPG games/etc...) zijn eigenlijk helemaal niet GPU-heavy. M'n GIS workflows eigenlijk meer, en daar is het een goede kaart voor, maar tsja: het is geen quadro.

In een tijd dat ik best... competatief speelde, zette ik de graphics juist zo laag mogelijk, soms nog verder dan officiëel mogelijk in de UI, via bijvoorbeeld console commands. Zodat dingen als gras/clutter/noisy texturen/schade/etc. JUIST niet verschenen, en het spel altijd koste wat kost snel bleef. De reden? Simpeler spelen/efficiënter.

Laatste keer dat ik dat deed (World of Warcraft BFA release) had ik een power-lvl-op-releasenacht wedstrijdje. Ik heb dat gewonnen juist door graphics laag te zetten, omdat o.a. quest items niet in het gras verdwijnen dan. Ik had een lvl-path al getest op Beta, en hoewel ik een theoretisch optimale route had, mocht geen steentje/graspol/boomblad-voor-camera dat verstoren. Daarom graphics 0, /console set foilage 0, etc...

Vanuit een theoretisch concept is RTX... een redelijk ding. Voor volledige raytraced beelden (zoals in de films, alleen daar is het obv niet real-time rendered) zullen we echter niet alleen véééééél meer rays moeten gebruiken, maar ook alle drie de scenario's tegelijk moeten toepassen (het is nu: "kies een", wil je schaduwen? Geen reflecties, etc...). En dat brengt RTX inderdaad een beetje in het rijk van "babystapjes". Voor gamers, maar ook voor render studio's. Leuk om te hebben, maar niet het einde als het er niet op zit.

[Reactie gewijzigd door Umbrah op 22 juli 2024 17:31]

Dit ben ik helemaal niet met je eens, dit is verre van een Hairworx gevalletje. Omdat de meeste grafische kaarten het Real time Raytracing nog niet goed ondersteunen kunnen ontwikkelaars moeilijk compleet overstappen naar deze techniek. Ook zitten er nog veel beperkingen aan het aantal rays en de huidige games als BF V gebruiken boundry boxes om te voorkomen dat de rays te vaak heen en weer gaan en er voor zorgen dat de berekeningen te zwaar worden.

Men is al erg lang bezig om de belichtingen zo realistisch mogelijk te maken en hier hebben ze verschillende technieken voor. Deze technieken zijn samen behoorlijk goed, maar wanneer raytracing gemeengoed is zal dit echt veel meer verschil maken dan je nu denkt, ook voor de ontwikkelaars.

Wat zijn volgens jou volledig raytaced beelden? Veeeeeel meer rays? Uiteindelijk maakt het dit wel realistische maar is helemaal niet nodig en de oplossing met boundry boxes van BF V is helemaal nog niet zo verkeerd. Zodra grafische kaarten sneller worden kunnen ze makkelijk meer rays berekenen. Je moet op een gegeven een afweging maken tussen performance en details. Je geeft zelf al aan dat competitieve spelers vaak de graphics zo laag mogelijk doen, dus tegenwoordig is dat niets anders en zijn we gewoon gebonden aan de hardware.

Render studio's hoeven over het algemeen ook geen real time raytracing te gebruiken, dus die kunnen prima gebruik maken van de software die ze nu hebben. Het is natuurlijk mooi om de beelden realtime weer te kunnen geven, maar die zullen nooit zo goed zijn dan de gerenderde versies.

Raytracing is niets nieuws, maar real time raytracing in games is wel een van de grootste ontwikkelingen wat mij betreft op game gebied. Dit zal nu nog niet zo veel verschil maken, maar over 5 jaar wel en dan kennen we niet anders.
Uit nieuwsgierigheid, waar heb jij die tensor cores voor nodig?

Edit: Had toch liever gehad dat ze een variant maakten waar ze meer CU's erin propten zonder RT en Tensor cores. RT cores zijn leuk maar vooralsnog heeft zelfs de 2080Ti te weinig van die cores in de kaart zitten om goed te kunnen raytracen, misschien dat bij de volgende die shrink er meer in kunnen.

[Reactie gewijzigd door Tim2010 op 22 juli 2024 17:31]

Grootschalige geo-machinelearning. Zoals ik in mijn bericht al aangaf, werk ik vrij actief met GIS. Ik gebruik de tensor cores om dmv. Tensor flow modellen te leren om op basis van grote hoeveelheden hoge-resolutie luchtfotografie/lidar (focus op AHN3 data, die gratis te krijgen is via het nationaal georegister) bepaalde objecten te herkennen, en dit herhaalbaar uit te voeren. M'n doel is om tot betere voorspellingen te komen wbt. bepaalde acties die mogelijk ooit voor het bedrijf waar ik werk nuttig kunnen zijn.
Herken me in jouw situatie, speel af en toe wat van de C&C serie en gebruik de Radeon 7. Echt een compute beest en 16 GB extreem snel geheugen. Was deze kaart geen optie voor jouw specifieke workload? Het is (bijna) hetzelfde als een Radeon instinct.
https://www.amd.com/en/graphics/servers-radeon-instinct-mi

[Reactie gewijzigd door procyon op 22 juli 2024 17:31]

No worries -- de drijvende kracht achter de RTX2080 is een Threadripper :) -- de rede dat AMD qua GPU niet overwogen was, is helaas een vrij simpele waar ik zelf van walg... (en ik doe er aan mee want ik heb er voor Freesync ook omarmt werd namelijk een GSync scherm naast gezet). Een van m'n tools is 100% afhankelijk van CUDA... Bah. Jammer, want de Tensorflow tests op de laatste Radeons zijn inderdaad absurd goed.
Ja ik las over het GIS stukje heen, had mn koffie nog niet op :P

[Reactie gewijzigd door Tim2010 op 22 juli 2024 17:31]

Als addon kaart waren die rtx cores ideaal geweest qua uitvoering. Vaak hebben mensen extra poortjes op het mobo over en dan kan je zo toch nog een tijdje vooruit met je huidige hardware, met een teentje in het rtx-water.
Even op WoW terugkomend: https://www.reddit.com/r/...ed_flythrough_of_boralus/
Zo zie je duidelijk hoe goed de recente art assets van WoW eigenlijk zijn hoe mooi dit uit kan zien met raytracing. Lijkt bijna op een shot uit de film :)
Idem ervaring hier. Ik keek het filmpje en moest het even zoeken waar nu het verschil zat. Dit soort detail valt amper nog op.

Wat mij wel erg opviel. Ergens in de demo, het tweede shot met de kinderen op straat geloof ik, hebben deze ook zonder raytracing een reflectie in het water. Het gebouwtje er achter dan weer niet.

Bij de scene met het bootje van boven hebben de lampen geen reflectie, bij de scene met het bootje laag perspectief hebben de lampen op de achtergrond ineens wel reflectie in het water.

Ik denk dat raytracing voornamelijk een makkelijke uitweg is voor programmeurs, een uniforme manier om met licht en weerkaatsing om te gaan. Want blijkbaar valt het allemaal ook met de hand te programmeren.

[Reactie gewijzigd door BenVenNL op 22 juli 2024 17:31]

We zijn ondertussen gewoon veel te ver gekomen met kwaliteit ‘faken’, maar waarom zou je allemaal trucjes willen blijven uithalen als het ook beter kan. Voor echt realisme moet deze stap een keer komen.

-

Uiteindelijk hoef je niet de belichting in te bakken: je dan een dynamische dag en nacht cyclus maken mét alle juiste belichting óveral op élk moment.

Schaduwen kunnen een stuk beter: minder strakke uitlijn, echte fade naar waar meer licht is.
En alles reflecteert: nu worden (als ik het goed begrepen heb) models praktisch gekopieerd naar een andere plek en nogmaals gerenderd. Reflecties ín reflecties zijn nu haalbaar (spiegelpaleis),
Realistische vervormingen en ga zo maar door.
We zijn ondertussen gewoon veel te ver gekomen met kwaliteit ‘faken’, maar waarom zou je allemaal trucjes willen blijven uithalen als het ook beter kan. Voor echt realisme moet deze stap een keer komen.
Hangt er net af wat belangrijker is, veel games hebben als doel helemaal niet om realistisch te zijn (zowel speelstyle als grafisch).

Daarnaast zou het indien het resultaat identiek is (is nu niet zo) echt helemaal niks uit maken of dat met een trucje is of niet. Geef mij dan maar de oplossing die het minste fps kost. Ook RTX is een trucje trouwens, dus sowieso een wat vreemde uitspraak om te doen of er voor RTX trucjes gebruikt worden, dat gebeurd nog steeds, alleen een iets slimmer trucje :)

[Reactie gewijzigd door watercoolertje op 22 juli 2024 17:31]

Uiteindelijk, ja... Mits realisme het doel is... Maar Nvidia laat momenteel vooral zien dat we nog veel te ver af zitten van de technische capaciteit om dit echt op grote schaal in te zetten.

Wat betreft de tests, bij de game scores moet ik zeggen dat ik het verschil tussen rtx en gtx eigenlijk veel te klein vind om de enorme investering in die tensor cores te verantwoorden. Als dat silicon en warmte budget aan algemene stream cores besteed was had de performance zonder raytracing nog een klap beter geweest en ik vraag me af of het met raytracing uiteindelijk veel minder geweest was.

Met de demo's is het een ander verhaal, maar we zijn nu bijna een jaar verder en in games zien we dat nog niet terug... Het is de vraag of we dat ooit wel gaan zien en wanneer. Vooralsnog blijft RTX er voor mij zinloos uitzien en onnodig duur.
De kinderen hebben een reflectie, maar het vuurwerk niet.

Wat je wel heel goed ziet bij de scenes met het bootje, is dat met RTX off, de lichbronnen die je niet ziet, ook geen reflecties geven. En de reflecties op de onderkant van de brug.

Dat is ook een beetje het dingetje met RTX. Het geeft reflecties weer van lichtbronnen en objecten welke niet in beeld zijn.
Je hebt zowel screenspace reflections (wat waarschijnlijk de reflecties van de kinderen is) als reflection probes (zoals bij het zwaard waarbij je reflecties offscreen ziet). Beide kunnen gebruikt worden voor reflecties maar ook beide zijn alles behalve perfect.

Screenspace reflection gebruikt informatie uit het frame zelf. Je kunt dus nooit offscreen dingen reflecteren en het is ook niet perfect en heeft soms issues.

Reflection probes kan dan weer wel offscreen dingen reflecteren, maar die hebben weer hun eigen problemen zoals het verschil tussen de positie van de probe en de camera. Soms krijg je ook reflecties van dingen die je niet zou moeten kunnen zien dan, hangt er maar weer vanaf hoeveel werk je er in stopt. Meestal zijn die probes ook statisch, want dat kun je van te voren mooi bakken en dat scheelt behoorlijk in performance, maar dan zie je dus ook geen dynamische reflecties. Denk aan bewegende objecten, en dat is snel vervelend als je dingen kunt verplaatsen of kapot maken.

Een andere opzet maar die zie je hier volgens mij niet is meerdere camera's gebruiken. Dat doe je meestal met spiegels, denk aan race games. Ook hier word dan meestal vals gespeeld want je wilt meestal alleen renderen wat de speler ziet, en als je dingen achter een speler gaat renderen kost je dat dus extra performance dus dan ga je al snel dingen wegfilteren of een lager detail niveau.

Wat jij opmerkt met wanneer dingen wel en niet een reflectie hebben is inherent aan de gebruikte technieken om reflecties mee te faken.

Raytracing is niet makkelijker, maar natuur getrouwer omdat je daadwerkelijk licht stralen projecteerd en laat bouncen. Alle oplossingen voor reflecties komen vooral met het zelfde probleem: performance. Je zult altijd moeten tweaken op verschillende niveaus met wat je wel en niet gaat reflecteren en hoeveel en accuraat.

En naast reflecties zijn er natuurlijk global ilumination en shaduwen die veel natuur getrouwer zijn.
Het is de vraag of die prop.fase ooit wordt bereikt met de huidige techniek. Stel je eens voor wat er allemaal zou kunnen met een kwantum computer. Waarom moeilijk doen als het nu makkelijk kan met de snelle scanline rendering en environment mapping voor reflecties?
Raytracing komt veel dichter bij de werkelijkheid in de buurt en helpt dus voor de beleving van de game. Voor een supermario boeit dat niet, wel voor een need for speed bv.
Hoewel raytracing juist voor dat soort games ook fantastisch kan zijn. Zie alleen al de Minecraft Raytracing mod. Realistiche belichting en reflecties kan de meest basic untextured geometric shape (als een cubus) er mooi uit laten zien.
Anoniem: 298195 @BruT@LysT24 april 2019 11:49
Dat filmpje wat rond gaat van Minecraft met raytracing gebruikt ook custom shaders en textures
Ik vind zelf het verschil toch behoorlijk en het zeker wel wat toevoegen aan de ervaring die een game je kan geven. En voor de toekomst is het zeker zeer belangrijk, het zorgt er voor dat alles er realistischer uit gaat zien. Heb vaak het idee dat men behoorlijk verwend is tegenwoordig en alles wat er in hun ogen amper een verbetering is compleet afkraakt.
Hey het meeste wat je ziet is idd niet echt spannend op dit moment. Maar ik heb een hele gave demo video die echt heel goed laat zien hoe raytracing een game compleet anders laat lijken!

https://youtu.be/5jD0mELZPD8

Als je een keer tijd hebt raad ik je deze aan!
Heeft mij enorm geholpen.
Anoniem: 1128097 @gunghir24 april 2019 09:15
Ergens is het wel super grappig, minecraft met raytracing. Dat is als een lada gebruiker als een F1 wagen.
Het enige waar je echt verschil ziet is bij reflecterende oppervlakken zoals water en metaal. Ja, het is mooier, maar of het echt verschil maakt in game-ervaring?
Ik denk het wel. Hoe realistischer, hoe echter de ervaring. Weer een stukje dichterbij realisme in games, wat toch een feature is die verkocht wordt.

Bijkomend voordeel is dat developers hier niets extra's voor hoeven te doen. Dat is denk ook wel een meerwaarde, waardoor er een directe upgrade in kwaliteit is.

[Reactie gewijzigd door JorzoR op 22 juli 2024 17:31]

Waarom moeilijk doen als het nu makkelijk kan met de snelle scanline rendering en environment mapping voor reflecties.
Het enige waar je echt verschil ziet is bij reflecterende oppervlakken zoals water en metaal. Ja, het is mooier, maar of het echt verschil maakt in game-ervaring?
Zo te zien is dat ongeveer het enige raytracing effect wat de video laat zien (muv verlichting van de onderzijde van de brug dmv licht gereflecteerd door het water). Dat is mogelijk vanwege beperkingen van GTX kaarten. Raytracing op GTX is totaal niet wereldschokkend belangrijk.

Maar raytracing kan meer en doet op RTX kaarten ook meer. Met name indirecte verlichting, wat niet alleen realistischer/mooier is maar ook visueel duidelijker. Ook met RTX zijn er nog vele beperkingen, maar het is potentieel wel veel meer dan 'hairworks'.
Wat ik mis in het artikel: de rtx kaarten hebben tensor cores die zijn ingericht voor machine learning. Hiermee wordt de raytracing belichting nog gedenoised. Wordt dit nu ook gedaan met de gtx kaarten maar dan op de stream cores (shader cores)?
De GTX-kaarten ondersteunen geen dlss, het is niet mogelijk dat in te schakelen. En het is natuurlijk niet eerlijk om RTX-kaarten met raytracing én dlss te vergelijken met GTX-kaarten met alleen raytracing en geen dlss.
Denoising is niet DLSS, dat is deep learning super-sampling, een soort anti-aliasing / upscaling met minder benodigde render performance...

Denoising is wat na het realtime raytracen komt omdat het aantal ray's niet voldoende is om de belichting volledig uit te rekenen. Zie na 12 seconden: https://www.youtube.com/watch?v=omzFuVEAEfA

Mijn vraag dus... gaan de GTX-kaarten nou naast raytracen ook netjes denoisen met de shader-cores?

[Reactie gewijzigd door Mic2000 op 22 juli 2024 17:31]

Anoniem: 298195 @Mic200024 april 2019 11:55
Denoising van raytracing wordt op de RTX kaarten ook gewoon gedaan door shaders en niet door tensor cores. Die feature is (nog) niet beschikbaar voor games.
Vroeger, toen je een 1024x768 plaatje liet ray-tracen op en 286/287 combi. En daar rustig 4 dagen op kon wachten. Sure brings back memories ....
Ja, ook in de Commodore Amiga dagen was het heel leuk om te ray-tracen.
De computer een hele nacht laten aanstaan en dan 's morgens het scherm (met veel verwachtingen) aanzetten om dan een venster te zien met de melding: Out of memory... :| 8)7

De tijden zijn serieus veranderd haha.
Ik render op mijn werk-pc de producten die wij verkopen, daar doe ik nog regelmatig 6 uur tot 24 uur over (ligt een beetje aan de resolutie) (Modo+Vray)

Dus het lange wachten is er nog steeds ;)
Was het niet een betere test geweest om iedere videokaart met en zonder raytracing aan te testen en dan ook de performance impact in % in de grafiek te zetten? Nu vergelijken we videokaarten uit verschillende generaties en dat zegt niet zo veel.
Dat hebben ze ook gedaan (alleen percentage niet). Het is alleen een beetje onduidelijk want de grafiek ondersteunde het blijkbaar niet zoals ze eigenlijk wilden. De hoogste waarde (gemiddelde framerate) is het resultaat met raytracing uit. De minimum fps is niet het minimum maar de gemiddelde fps met raytracing aan. Lekker onduidelijk en ze hadden beter aparte staven kunnen maken voor raytracing aan en uit denk ik...
Is raytracing enkel voor behouden voor de GeForce serie of draait dit ook op Quadro's want hierover vind ik niets terug ?
Volgens het artikel werkt de update alleen voor Pascal-kaarten vanaf de GTX 1060 6GB.
Het enige jammere aan de Raytracing inplementaties van dit moment is het gebrek aan dosering om het er realistischer uit te laten zien. Denk aan de overmatige specular mapping van DX 9 in Doom 3 waardoor alles meteen plastic leek. Nu met raytracing lijkt elk reflecterend materiaal van chroom of spiegel materiaal terwijl het eigenlijk water en metaal is wat je veelal ziet. De reflecties mogen wat mij betreft soms wat troebeler, waziger, verstoord. Over een jaar of wat zijn we daar wel.

[Reactie gewijzigd door nms2003 op 22 juli 2024 17:31]

In de eerste stukjes vind ik de niet RTX sfeervoller. Pas bij die boot die oner de brug doorgaat is het strak. Met het shot daarna weer niet.. veel te kitsch allemaal. Alsof het een stomme film overgeacteerde RTX is. Jammer.

Op dit item kan niet meer gereageerd worden.