RTX-patch voor Shadow of the Tomb Raider is beschikbaar

De patch die Shadow of the Tombraider gebruik laat maken van de RT-cores van Nvidia RTX-videokaarten is uitgebracht. De game krijgt daarmee ondersteuning voor RTX en DLSS. Al bij de aankondiging van de RTX-videokaarten in augustus vorig jaar werd de patch beloofd.

Toen Nvidia zeven maanden geleden zijn RTX-videokaarten aankondigde, was Shadow of the Tomb Raider een van de games waarmee raytracing werd gedemonstreerd. De game zou met een patch voorzien worden van RTX-ondersteuning en met de komst van versie 1.0.280 is het nu zover.

Raytracing wordt in Shadow of the Tomb Raider alleen toegepast bij schaduwen, niet voor andere lichteffecten of reflecties. In het menu van de game is een optie toegevoegd waarmee raytracing voor schaduwen ingeschakeld kan worden. Er is keuze uit kwaliteitsopties Medium, High en Ultra. DLSS kan alleen aan en uitgezet worden en is beschikbaar op de resoluties van 2560x1440 pixels en 3840x2160 pixels. De techniek is een vorm van antialiasing die voor prestatiewinst moet zorgen.

TechPowerUp heeft de patch uitgeprobeerd en toont de verschillen van voor en na de patch. De website concludeert dat de schaduwen er met raytracing wel beter uitzien, maar dat het verschil niet heel groot is omdat de schaduwen in de game ook zonder de techniek er al goed uitzien. Het prestatieverlies is zo'n 30 tot 50 procent. Het gebruik van DLSS levert bij een 4k-resolutie wel weer een prestatiewinst op van zo'n 35 procent volgens de website.

Demonstratie van raytracing in Shadow of the Tomb Raider, getoond tijdens de introductie van de RTX-videokaarten in augustus 2018.

Door Julian Huijbregts

Nieuwsredacteur

19-03-2019 • 21:00

69

Submitter: Paprika

Reacties (69)

69
67
45
4
0
17
Wijzig sortering
Ray-tracing is natuurlijk fantastisch, alleen jammer dat de game zelf maar saai is (en dat zeg ik als iemand die de twee delen ervoor verslonden heeft). Ziet er wel fantastisch uit op mijn RX480, vooral de jungle scènes.

Overigens ga ik ook niet mee in het RTX verhaal, ik wacht wel tot er een ray-tracing standaard komt voordat ik weer ga investeren.

[Reactie gewijzigd door Ramon op 23 juli 2024 02:48]

Overigens ga ik ook niet mee in het RTX verhaal, ik wacht wel tot er een ray-tracing standaard komt voordat ik weer ga investeren.
Microsoft heeft DXR in DirectX 12 gestoken voor real-time ray-tracing. DXR maakt op een RTX kaart gebruik van de RTX features. Als AMD een GPU uitbrengt met DXR support dan kunnen games die nu DXR support hebben ook op de AMD GPU ray-tracen. Battlefield gebruikt DXR iirc.

Het is dus niet dat ray-tracing een gesloten feature is die enkel bij NVidia GPUs werkt, zoals Cuda dat bijvoorbeeld wel is.
Klinkt goed. Dus ik kan op mijn RX480 ook ray-tracing aanzetten bij Shadow of the Tomb Raider? (afgezien van dat de performance waarschijnlijk slecht zal zijn)

[Reactie gewijzigd door Ramon op 23 juli 2024 02:48]

Nee, want AMD heeft nog geen implementatie van DXR. Noch softwarematig, noch hardwarematig. Dat zal vast nog wel een keer komen, maar AMD geeft er nu nog geen prioriteit aan.

Op dit moment is er alleen nog maar een hardwarematige implementatie voor DXR van Nvidia, dat is RTX. Nvidia heeft gisteren aangekondigd met een softwarematige implementatie te komen voor non-RTX GeForce kaarten. AMD blijft vooralsnog achter in dit alles.
AMD werkt aan een eigen implementatie. Ze hadden al een patent ingediend ergens in 2017 hiervoor.
Lijkt mij ook slim. Ze kunnen nu beter met een goede software implementatie komen die redelijk presteerd dan een rush job die hele lage framerates laat zien en die met tijd beter worden.
Alleen de initial review blijven dan vooral op net netvlies hangen. Dus ze kunnen in dat opzicht maar beter de tijd nemen.

Vega heeft aardig wat compute power tov de Pascal kaarten en de 16xx kaarten kan Vega het wellicht nog aardig doen.

AMD heeft doormiddel van OpenRay's al wel wat ervaring met Raytracing. Echter is dat niet echt voor games.
[...]
Het is dus niet dat ray-tracing een gesloten feature is die enkel bij NVidia GPUs werkt, zoals Cuda dat bijvoorbeeld wel is.
+ We kunnen het nu straks zelfs op onze GTX kaarten gebruiken

[Reactie gewijzigd door micla op 23 juli 2024 02:48]

CUDA is an sich ook geen vendor specifiek feature meer. Voor heel veel zaken heeft AMD gewoon een eigen alternatief. Met CUDA wordt tegenwoordig meer NVENC bedoeld, waar dat bij AMD VCE heet.
Eh, nee? CUDA en OpenCL zijn hele andere beesten van NVENC en VCE. Vaak is het nVidia die een gesloten alternatief ontwikkelt voor een techniek, afwisselend omdat er nog geen (definitieve) standaard is, ze sneller willen doorontwikkelen en/of ze denken zo meer winst te kunnen maken (afhankelijk van wie je het vraagt). Enkele voorbeelden daarvan zijn PhysX en Hairworks, G-sync en nu RTX, naast dus CUDA.

[Reactie gewijzigd door graey op 23 juli 2024 02:48]

Kleine correctie: Physx is ooit ontwikkeld door Ageia. Intel heeft dit opgekocht.
Nvidia bedoel je denk ik.
Die standaard is er toch al? De raytracing van RTX is alleen maar NVIDIA haar hardware accelerated oplossing voor DXR.

https://en.m.wikipedia.org/wiki/DirectX_Raytracing

[Reactie gewijzigd door Paprika op 23 juli 2024 02:48]

Ik denk dat hij meer bedoelt....standaard als dat AMD ook gaat implementeren (wat zou mogelijk ook op consoles komt). Dus iedereen gebruikt, momenteel is het alleen Nvidia ;)
Als het een onderdeel van DirectX is kun je wel nagaan dat iedereen dat wel gaat ondersteunen. Toevallig dat enkele dagen terug Crytek een raytacing demo heeft laten zien op een Vega 56.

https://www.youtube.com/watch?v=1nqhkDm2_Tw
Ja, dat klopt.....maar tot die tijd is het nog steeds niet mainstream (en daar ging het over) ;)

Maar hopelijk met volgende generatie zoveel bij AMD en Nvidia (mogelijk Intel) dat het komt :P
Tijd voor benchmarks!
Dank u. En dan vallen me met name de verschillen tussen high en ultra mij op.
Het lijkt erop dat circa 25% aan Raytracing opgaat.

[Reactie gewijzigd door hmartino op 23 juli 2024 02:48]

Dan valt Medium > High meer op, en dat er geen verschil is tussen high en ultra.
Dat verschil in performance tussen met en zonder DLSS is interessant, maar ik zou wel wat meer data willen zien over wat er intern qua DLSS settings wordt gedaan.
DLSS werkt door upscaling en antialiasing met machine learning te doen.
Dus de performance improvement kan komen van bijvoorbeeld het in de achtergrond automatisch uitschakelen van anti aliasing als je DLSS opzet. Maar ja, dan wil ik dat wel gespecifieerd zien dat dat zo is.
Of het komt omdat ze effectief renderen op lagere resolutie en dat via machine learning upscalen. Maar dan wil ik gespecifieerd zien op welke lagere resolutie(s) ze dan intern eigenlijk renderen.

Het verschil in beeldkwaliteit is namelijk echt wel merkbaar. En opmerkelijk genoeg niet puur blurryness van edges. Je zie ook veel verschillen qua kleur. Alles lijkt wel een uitgebleektere kleur te krijgen met DLSS.
Ik heb inderdaad ook vergelijkingen gezien waarbij je beter gewoon een lagere resolutie kon renderen (resolution scaling in game settings) waarmee je dezelfde prestatie verbetering kreeg maar een scherper beeld behield... Vooralsnog leek DLSS op basis daarvan nogal zinloos.
Hardware Unboxed heeft interessante analyses gemaakt van DLSS in BF5 en Metro Exodus.

Conclusie: Hoe het er uit ziet en hoe het presteert is afhankelijk van de game. Je kunt een beter of vergelijkbaar resultaat krijgen door de game te renderen op een lagere resolutie. Eventueel kun je een post-processing sharpening filter toevoegen (met bijvoorbeeld Reshade) om de blurriness te verminderen die door scaling wordt veroorzaakt, iets wat Metro Exodus ook lijkt te doen om de blur die DLSS veroorzaakt te verminderen.

[Reactie gewijzigd door houseparty op 23 juli 2024 02:48]

Daar komen ze dan nu mee af terwijl ik denk dat het merendeel het spel al heeft uitgespeeld. Jammer maar helaas.
Precies wat ik dacht...

Verder wordt er in de presentatie wel erg om een applaus gevraagd hoor.. zeker vanaf 2:35 tot 2:45 min ongeveer...

[Reactie gewijzigd door Audione0 op 23 juli 2024 02:48]

Is het dan zo dat een spel na 1x uitspelen niet meer interessant is?

Puur persoonlijk maar: Ik heb nog niet heel lang geleden GTA 4 weer is opnieuw gespeeld, Subnautica na ongeveer een jaar ook. Nu ben ik bezig om AC Odyssey opnieuw te spelen (niet de new game plus, helemaal vanaf 0). In het verleden heb ik dit ook met Fallout 3 / NV / 4 gedaan.

Ja je weet dan in grote lijnen hoe het verhaal loopt en alles maar, nogmaals persoonlijk, als een game goed is blijft het toch leuk om het nogmaals te spelen.
Ik hou het bij mijn persoonlijke verslaving van Nidhogg 2 en het aankomende spel van de eeuw Star Citizen.

De rest zal me worst wezen tot aan Cyberpunk 2077. Los van dat heb ik ook zeer weinig tijd om de nodige games te spelen.

[Reactie gewijzigd door Cyaankali op 23 juli 2024 02:48]

Sommige games krijgen dat voor elkaar ja, om later nog eens interessant te zijn te spelen.
Maar heel vaak zijn dlc's en updates too little too late.
In sommige gevallen heb ik een slechte ervaring bij de launch van de games dmv allerlei bugs, dat ik hem daarna niet meer aanraak (en dlc's dus sowieso niet). Content moet gewoon in orde zijn bij release, ook feature patches. Nu vind ik het hier nog wel meevallen, want het komt bij mij meer over als een techdemo ("kijk, hier werkt het nu ook") dan dat het superveel zal toe voegen voor de meeste spelers.

Van die openworld exploration games die je noemt zijn al vrij snel opnieuw te spelen, omdat je een tweede keer een andere route kan gaan pakken (en zeker met RPG elementen, andere builds proberen).

Dit soort adventure games vind ik een stuk minder replayability hebben. Wellicht na een paar jaar weer eens afstoffen, maar om hem meerdere keren uit te spelen zoals ik Fallout games doe, nee, niet echt. Season passes werken dan bij mij ook vreselijk slecht, tegen de tijd dat de extra content komt, ben ik al een eind uitgekeken op de game. Als de extra content nou genoeg toevoegt, kan het mij wellicht er terug in krijgen, maar als dit enkel een challenge, wat wapens en wat skins is (zoals het geval is bij deze game), dan nee, laat maar, too little too late. Dit is zo'n beetje het geval bij 90% van de games (imo natuurlijk).
Is ook niet voor niet dat Battlefield het zo slecht doet (EA claimed zelf dat dit komt door de verlate BR-mode).

Dus ik laat de meeste titels dan ook minstens voor een jaar met rust, als er dan extra content is, kan ik dat in 1x checken en is meestal stuk goedkoper, nogal vaak dat het hele pakketje 100eu bij elkaar kost, en om nou te zeggen dat het het waard is.... zeker omdat ik een titel als deze waarschijnlijk niet vaker dan 1x zal spelen
Echter komen er nog steeds dlc van tombraider, volgens mij nog 2 zelfs.
Sinds december is er elke maand een dlc verhaallijn uitgebracht, je moet uiteraard wel season pas aanschaffen.

Maar zo heb ik toch nog steeds plezier van het spel, en ik wil graag alle uitbreidingen kopen met skil points.
Dus ik speel de verhaallijn sinds van weekend nog een keer, aangezien toch de rest al heb uitgespeeld.
Nope..
Ik wacht wel tot de game onder €20 dropt om dan eens te spelen.
Doe ik met de meeste games, zo zijn de kinderziektes er al uit of kan je de game met dlc of nieuwe features krijgen.
Beter te laat dan laat? Dit had er al moeten zijn vóór dat de RTX gereleased waren.

Beter laat dan niet, ik hoop toch echt dat ontwikkelaars snel werk maken van RTX anders gok ik dat t een snelle dood sterft. Ondanks dat ik de techniek prachtig vind.
Beter laat dan niet, ik hoop toch echt dat ontwikkelaars snel werk maken van RTX anders gok ik dat t een snelle dood sterft. Ondanks dat ik de techniek prachtig vind.
Iets als RTX wordt vast standaard. Iedereen kan zien dat het enorm mooie effecten geeft, alleen staat het nog in de kindeschoenen en kost het enorm veel kracht. Er zijn genoeg dingen geweest in het verleden die toen ook net nieuw waren en waarbij geen enkele PC het volledig goed kon draaien. Geef het wat tijd en er komt een moment dat ook een midrange GPU het prima kan doen.
Ja maar daar ligt juist t probleem. Het wordt “vast” een standaard? Net als Hairworks? Net als SLI van 3dfx? Net als de gehele AGP slot? Het probleem is dat niemand weet of dit echt aan gaat slaan. De kaarten zijn bijna een half jaar in omloop, maar nog amper een game die er wat mee kan. Als er niet snel meer games komen met ondersteuning dan gok ik dat t geen lang leven heeft en dat ze volgend jaar helemaal geen RTX variant meer uitbrengen. Maar helaas is t enkel speculatie, maar om nu te zeggen dat de RTX kaarten als warme broodjes over de toonbank gaan (zoals wel bij de 10xx series gebeurd is) is denk ik overmoedig.

De tijd zal t leren (verschrikkelijke gezegde maar wel waar :P )
Ik heb het over een rendertechniek, niet over SLI en al helemaal niet over het AGP slot. Iedere nieuwe rendertechniek die nu standaard is liep in het begin voor geen meter en had meerdere generaties aan GPU's nodig om standaard te worden en zodat ook midrange GPU's het konden draaien. We zitten nu aan de eerste generatie van die GPU, tuurlijk is het nu nog niets, maar ik zie iets als dit wat zo enorm mooi is wel een standaard worden. Nee, het hoeft niet, maar het zou zonde zijn als het niet gaat gebeuren.
Maar waar is Hairworks dan? Dat is toch ook een render techniek? Maar ik snap wel wat je bedoeld hoor. Ik ben alleen bang dat als je een half jaar na release nog niks concreets ermee kunt dat de populariteit niet snel zal stijgen. Kan nog wel meer gefaalde technieken bedenken zoals 3D Vision en PhysX, 2 zaken die het destijds ook helemaal zouden worden. Hairworks idem, waar ze zelfs de film Warcraft mee gepromoot hebben (de haren vd cgi characters maakten gebruik van Hairworks)

Begrijp me niet verkeerd, ik hoop absoluut dat dit zal slagen, want ik persoonlijk vind t een flinke stap voorwaarts (schaduwen en reflecties zijn altijd een beetje meh geweest en vergt altijd veel rekenkracht, althans vroeger op mijn laptops was shadows uit een massive performance verbetering).

Dus laten we hopen dat AMD en Nvidia hier volle bak mee aan de gang gaan en blijven.
Maar waar is Hairworks dan?
Begrijp me niet verkeerd, ik hoop absoluut dat dit zal slagen, want ik persoonlijk vind t een flinke stap voorwaarts (schaduwen en reflecties zijn altijd een beetje meh geweest
Hier om dus. Het alleen beter maken van vrijwel alleen haar vind ik iets heel anders dan een nieuwe techniek voor schaduwen en reflecties. Dit is een enorme stap vooruit waarbij het mij zou verbazen als het niets gaat worden.
Je hebt ook wel gelijk, ik betwist je antwoord dan ook niet. Maar persoonlijk vond ik Hairworks ook prachtig.
Zelfs zonder de RTX cores wordt er al een hoop geraytraced in normale shaders. Relief mapping en steep paralax mapping zijn raymarching algoritmes die de hoogte van een normal map porberen te vinden. Screen space reflections zijn raytrace technieken. En ga zo maar door
Daarom vind ik het zo vreemd dat Nvidia de hoofdprijs ervoor vraagt, voor iets wat in de kinderschoenen staat en vooralsnog nog niet optimaal werkt. Ook niet op een high end product zoals een 2080(ti)
Dat is altijd zo toch? De nieuwste techniek is nou eenmaal duur. Net als het implementeren in software
Er is een gezegde: "some people got it first, other people got it better". Wie het eerste iets wil hebben zal ook als eerste opdraaien voor de ontwikkelingskosten en dus om de verdere ontwikkeling te spijzen ook grotere brokken betalen ... dat wil niet zeggen dat de kwaliteit al gegarandeerd is, de hype wel ;-)
Als ik dit zo lees dan vind ik persoonlijk die (best flinke) prestatiewinst van DLSS eigenlijk een groter / belangrijker voordeel dan de mooiere schaduwen die ray tracing in dit geval oplevert!

Heb de game zelf nog niet gespeeld en vind een RTX kaart (nog) te duur, dus ik vind het zelf niet zo erg dat die patch er nu pas is. Koop de game pas als de GOTY editie er is en een stuk is afgeprijsd en koop pas een RTX kaart als de prijzen daarvan (voor mij) acceptabel zijn (max €500).
Zowel de RTX2060 als de RTX2070 zijn aan te schaffen voor het bedrag dat je noemt (500 euro), maar dat betekent overigens niet dat ik daarmee wil aangeven dat het daardoor een verstandige koop zou zijn.

[Reactie gewijzigd door Paprika op 23 juli 2024 02:48]

Hmja, ik heb het inderdaad niet expliciet genoemd in mijn vorige opmerking, maar ik heb nu een 1080 (non-ti) en wil dus op z'n minst een 2080 of 2180 of whatever de naam dan gaat zijn van een soortgelijke upgrade. Heb een 34" monitor met 3440x1440 dus met een 2060 of 2070 ga ik sowieso prestaties tekort komen voor mijn wensen 🙂
Wat zei Nvidia ook weer, "It just works"? Ondertussen hebben ze 6 maanden nodig gehad om het te implementeren. Met een 30-50% performance hit...
Neemt niet weg dat het werkt ;)
Met een 30-50% performance hit...
Zoals praktisch alle nieuw ontwikkelde grafische features die we nu voor lief nemen dat ooit deden.
ik zie alleen niet veel meer terug van Nvidia PhysX XD
Misschien ligt het aan mij maar ik zie maar weinig verschil in de screenshots op TechPowerUp anders dan een gigantische FPS drop bij RTX ON ...

Ja, het is mooie techniek maar als dit alles is wat er in games op vooruit gaat dan prefereer ik toch meer frames dan iets andere schaduw/belichting. Waarbij anders in deze game niet perse beter is gebasseerd op die screenshots.
Als ik nog steeds 70FPS haal op 1440p vind ik het voor een single player spel prima.

https://www.techpowerup.c...mb_Raider_RTX_DLSS/4.html
Hehe, als je 70fps haalt in Tomb Raider met RTX On heb je een te dure videokaart gekocht voor je monitor.
Rtx2080 is prima voor 1440p 144hz imo
Voor een 144hz monitor is 70fps te weinig.
Daarom zeg ik ook, voor een single player spel.
Tja, wat kan ik er van zeggen. Dit had voor de release van RTX klaar moeten zijn. En anders hadden ze alleen de Titan van RT cores moeten voorzien en de 20 series verder "met rust laten".
Zonde dat DLSS niet gaat met 3840x1600, maar wel met 3440x1440 :( Ik had de performance gain wel gewaardeerd, maar aan de andere kant in Metro Exodus wordt alles zo vaag dat ik het niet gebruikt.
Mooi dat Ray tracing nu ondersteunt wordt

Op dit item kan niet meer gereageerd worden.