Door Reinoud Dik en Jurian Ubachs

Hoe goed werkt DLSS3 in Spider-Man?

Plus: uitgebreide benchmarks op vier systemen

28-11-2022 • 06:00

88

Multipage-opmaak

Spider-Man in volle glorie op de pc

Nieuw is het niet meer, maar een fijne ontwikkeling blijft het: Sony brengt tegenwoordig het grootste deel van zijn exclusieve line-up voor de PlayStation-consoles ook naar de pc. Daar gaat altijd wat tijd overheen, maar pc-gamers met een gezonde portie geduld kunnen uiteindelijk aan de slag met de Uncharteds, Horizons en God of Wars van deze wereld. Onlangs sloot Marvel’s Spider-Man aan in dat rijtje. De originele PlayStation 4-versie is alweer vier jaar oud, maar bij de release van de PlayStation 5 in 2020 verscheen tegelijk met Spider-Man: Miles Morales al een opgepoetste versie van die oude PS4-game. Die versie vormt nu de basis voor de pc-release en niemand minder dan de Nederlandse studio Nixxes nam die overzetting voor zijn rekening.

Natuurlijk hebben we deze pc-versie op onze testsystemen gezet en de nodige tests gedraaid, maar laten we voor de volledigheid even beginnen bij de basis. Voor ons is de technische kant van het spel het interessantst, want wij hebben de game al eens gereviewd. De verdere inhoud van de game, dus alles met betrekking tot de gameplay en het verhaal, is hetzelfde gebleven, maar als je het origineel nooit gespeeld hebt, zegt dat je natuurlijk niets.

Relatie met MJ op de klippen

Marvel’s Spider-Man vertelt eens niet het verhaal van hoe Peter Parker werd gebeten door een spin en veranderde in een superheld die zijn oom verloor en daarna besloot eigenhandig de stad een betere plek te maken. Wanneer deze game begint, is dat allemaal al gebeurd. Spider-Man heeft zelfs de toonaangevendste criminelen al opgeruimd en vast laten zetten in een zwaarbewaakte gevangenis. Dat betekent echter niet dat het Peter voor de wind gaat. Zijn relatie met Mary Jane Watson is op de klippen gelopen, zijn bijbaantje in het lab van Doctor Octavius betaalt niet goed en de rekeningen stapelen zich intussen op. Het volwassen leven is dus geen makkie, zelfs niet voor een superheld.

Die zorgen verdwijnen echter naar de achtergrond als Spider-Man Wilson Fisk te pakken neemt en ook hem laat afvoeren. Fisk bezweert Spider-Man echter dat hij een grote fout maakt en hij blijkt gelijk te hebben. Onder het bewind van de Kingpin als criminele eindbaas, hielden veel andere schurken zich koest en nu Fisk uit beeld is, zien zij hun kans schoon om de macht te pakken. In het ruwweg tien uur durende hoofdverhaal komen dan ook allerlei bekende vijanden van Spider-Man voorbij, zoals Vulture, Electro, Scorpion en Shocker.

Fijn webslingeren en knokken

De gevechten met deze superschurken zorgen natuurlijk voor hoogtepunten in de gameplay, maar dat is niet waarom we Spider-Man vier jaar geleden een toffe game vonden. Daarvoor moeten we meer kijken naar de basis van de game, oftewel: de handelingen die je het vaakst herhaalt. In Spider-Man komt dat neer op veel webslingeren door het vrij begaanbare Manhattan en veel knokken met inwisselbare slechterikken die lid zijn van de criminele organisaties die je tegenkomt. Beide apsecten zijn erg goed gedaan en werken soepel. Wanneer je het ritme van het slingeren door krijgt, is het alleen al leuk om gewoon langs de New Yorkse wolkenkrabbers te zwaaien. Zeker wanneer je maar een paar meter boven de straten scheert, biedt de game een uitstekend gevoel van snelheid.

De gevechten kennen eenzelfde mate van soepelheid. Het systeem leunt op het aan elkaar rijgen van combo’s, terwijl je vijandelijke aanvallen ontwijkt en elementen uit de omgeving gebruikt om vijanden net wat makkelijker te verslaan. Wie de Batman Arkham-games heeft gespeeld, zal redelijk makkelijk uit de voeten kunnen met dit systeem, want er zijn zeker wat gelijkenissen te vinden. Doordat je Spider-Man doorlopend van nieuwe skills en perks kunt voorzien, verandert de manier waarop je vecht ook steeds een beetje, waardoor gevechten tegen voetsoldaten ook na uren spelen nog interessant zijn. Met je web een wapen uit iemands handen trekken en hem er mee knock-out slaan, of een vijand vastplakken aan een muur, gaat gewoon niet snel vervelen en daarin vindt Marvel’s Spider-Man in de gameplay zijn grootste kracht.

Dlc zit erbij

Een laatste element om nog even te vermelden, voordat we dieper op de technische kant van de game ingaan, is de speelduur. Zoals we hierboven hebben genoemd: het verhaal zal ongeveer tien uur beslaan, maar de kans dat je ruim het dubbele of driedubbele uit Marvel’s Spider-Man haalt, is groot. De game schotelt spelers steeds nieuwe uitdagingen en zijmissies voor, die helpen bij het vrijspelen van nieuwe pakken, gadgets en skills en de game zo dus nog wat leuker maken. Mocht zelfs dat niet genoeg zijn, dan is het goed om te weten dat The City That Never Sleeps-dlc al meteen bij deze pc-versie zit, wat drie hoofdstukken en allerlei extra missies en uitdagingen toevoegt aan Marvel’s Spider-Man.

Het porten van een PS5-game

Als basis voor de game hebben Insomniac en Nixxes de PS5-upgrade van Spider-Man Remastered gebruikt. Deze remaster is voor Sony’s nieuwste console voorzien van een reeks nieuwe features, zoals een betere grafische kwaliteit dankzij een hogere resolutie en framerate, maar ook door het gebruik van raytracing. Op de pc-versie zal dit nog een stap verder gaan, en komen we sowieso meer zaken tegen die verwacht kunnen worden bij een pc-game.

Spider-Man kwam vrij laat in de levenscyclus van de PlayStation 4 uit. Volgens Nixxes zorgde die timing ervoor dat het spel al het meeste uit de hardware van die console kon halen. In de basis zorgt dit er dus ook voor dat de minimale systeemvereisten van de Remastered-uitvoering voor de pc ook relatief beperkt kunnen blijven. Omdat de PS5-hardware zoveel krachtiger is dan de PS4, was er met het ontwikkelen van de PS5-upgrade al een weg ingeslagen om het spel op snellere hardware ook daadwerkelijk mooier en gedetailleerder te maken. Deze twee zaken samen dragen bij aan het feit dat Spider-Man Remastered op zeer uiteenlopende pc-hardware te spelen valt, waaronder ook de Steam Deck.

Toch was Spider-Man Remastered goed laten draaien op pc-hardware wel een flinke taak voor de ontwikkelaars. Dat heeft er alles mee te maken dat het spel op de console geoptimaliseerd is voor die specifieke chip, terwijl de pc een bijna oneindig aantal mogelijke combinaties van componenten kent. Ervoor zorgen dat de processor en videokaart op het juiste moment over de benodigde informatie beschikken om aan het werk te kunnen blijven, terwijl de hardware waarop dit gebeurt abstracter wordt aangesproken dan op de console, is met het porten van een game altijd een uitdaging. Dat neemt verder toe wanneer grafische effecten zoals raytracing uitgebreid worden op de pc-versie.

Het originele spel draait op de PlayStation 4 met 30 frames per seconde; in de remaster werd dat verhoogd naar 60 frames per seconde op de PS5. Voor de pc-versie is de framerate onbeperkt, en ondanks deze grote wijziging heeft deze stap volgens de ontwikkelaars niet voor onverwachte effecten in de engine gezorgd, zoals afwijkende physics. De gebruikte engine is in de basis voor de pc-versie gelijk aan de PS5-versie, maar Insomniac en Nixxes hebben naar eigen zeggen wel de nodige aanpassingen gedaan in dienst van optimalisatie.

De PS5-versie gebruikt raytracing, wat op de pc in een nog hogere kwaliteit getoond kan worden. Dat vraagt uiteraard ook flink meer rekenkracht van de gpu, maar ook de cpu wordt daardoor meer belast omdat er meer objecten zijn waar raytracing wordt toegepast. De eventuele extra rekenkracht van de cpu op de pc maakt het mogelijk om met hoge grafische instellingen ook nog boven de 60 frames per seconde uit te komen, terwijl er op de PS5 geoptimaliseerd is voor twee instellingen waarmee je kiest tussen resolutie, 4k met 30fps, of framerate, 60fps met dynamische resolutie.

Met het gebruik van DirectX 12 voor de pc-versie wordt in de eerste plaats raytracing mogelijk, maar volgens Nixxes zorgt de lagere overhead ten opzichte van DirectX11 er ook voor dat het spel soepeler loopt op de minder capabele hardware en tegelijkertijd beter kan schalen over een groter aantal cpu-cores. Vanwege de open wereld in Spider-Man moet er op de achtergrond veel data worden gestreamd waardoor het geheugenbeheer een belangrijk onderdeel is om het spel goed te laten draaien. Ook daarin biedt DX12 voor Nixxes betere en verfijndere controle van geheugengebruik dan met oudere api’s het geval was. Ten opzichte van de PS5 vraagt dit wel meer processorkracht, omdat de decompressie van deze data volledig op de cpu gebeurt, in tegenstelling tot het uniforme geheugen van de PS5 in combinatie met zijn razendsnelle ssd. Zodra hier raytracing aan wordt toegevoegd, is Spider-Man Remastered bovengemiddeld veeleisend als het op de processor aankomt. Het spel is daarmee in staat om de snelste cpu’s op de proef te stellen, nog meer dan we bij andere recente games hebben gezien.

Het doel van Insomniac en Nixxes was met deze diepgaande optimalisaties vooral om dezelfde kwaliteit als ze voor het PlayStation-platform hanteren ook voor de pc toe te passen, en daarbij de uiteenlopende pc-hardware zo goed mogelijk te benutten.

Systeemvereisten en testmethode

De systeemvereisten die Insomniac en Nixxes hebben opgesteld voor Spider-Man Remastered zijn opgedeeld in maar liefst vijf categorieën, en daarmee vrij gedetailleerd. De tabel laat goed zien hoe schaalbaar de game is over een brede selectie hardware, uiteenlopend van gedateerde videokaarten en processors als minimale vereiste tot en met de luxere modellen van de huidige generatie om raytracing op te activeren.

Opvallende zaken zijn verder dat het spel vanaf een ouderwetse harde schijf op een systeem met 8GB werkgeheugen moet werken, tegenover alle andere opties waar een ssd en meer ram worden aangeraden. De eis voor Windows 10 of hoger is vanwege het gebruik van DX12 aanwezig; het spel biedt geen ondersteuning voor DX11 of oudere versies.

Spiderman Remastered Pc-specs Minimum
(720p @ 30fps)
Recommended
(1080p @ 60fps)
Very high
(4k @ 60fps)
Amazing raytracing
(1440p @ 60fps of 4k @ 30fps)
Ultimate raytracing
(4k @ 60fps)
Gpu GeForce GTX 950 of vergelijkbaar GeForce GTX 1060 6GB of Radeon RX 580 GeForce RTX 3070 of Radeon RX 6800 XT GeForce RTX 3070 of Radeon RX 6900 XT GeForce RTX 3080 of Radeon RX 6950 XT
Cpu Core i3-4160 of vergelijkbaar Core i5-4670 of Ryzen 5 1600 Core i5-11400 of Ryzen 5 3600 Core i5-11600K of Ryzen 7 3700X Core i7-12700K of Ryzen 9 5900X
Werkgeheugen 8GB 16GB 16GB 16GB 32GB
Besturingssysteem Windows 10 64bit Windows 10 64bit Windows 10 64bit Windows 10 64bit Windows 10 64bit
Opslag 75GB hdd 75GB ssd 75GB ssd 75GB ssd 75GB ssd

Onze nieuwe testsystemen

Voor het draaien van gamebenchmarks hebben we recentelijk een nieuwe opzet uitgewerkt. In plaats van een reeks videokaarten van allerlei prestatieniveaus op een uiterst high-end systeem te testen en te vergelijken, gaan we prestaties in pc-games vanaf nu meten met vier referentiesystemen. De processor, de videokaart en het geheugen van deze systemen zijn uitgekozen op basis van wat populaire en veelvoorkomende configuraties zijn volgens onder andere de Steam Hardware Survey. Daar zit ook oudere hardware bij, zoals de GTX 1060 die in 2016 uitkwam, maar nog steeds op nummer één staat volgens Steam.

Voor de videokaarten gebruiken we per systeem gpu's van AMD en Nvidia van dezelfde generatie die qua prestaties erg dicht bij elkaar zitten, om zo ook de verhoudingen van deze fabrikanten te kunnen vergelijken. Per systeem verschilt wel de generatie van de grafische chips, waardoor we een beeld krijgen van de gameprestaties op uiteenlopende gpu-architecturen. Bij de processorselectie hebben we primair de rekenkracht en gemiddelde gamingprestaties goed laten aansluiten op de overige hardware, in plaats van een uiterst snel model dat pc-gamers met onderstaande videokaarten niet zo snel in een eigen pc hebben zitten.

Testsystemen voor benchmarks pc-games "Instapgame-pc"(1080p) "Midrange game-pc"(1440p) "High-end game-pc" (4K) "Ultrahigh-end game-pc" (4K+)
Cpu AMD Ryzen 5 3600X AMD Ryzen 7 5700X AMD Ryzen 9 5950X (@4,65GHz allcore) Intel Core i9-13900K (@5,5GHz allcore)
Grafische kaarten GeForce GTX 1060 6GB & Radeon RX 580 8GB GeForce RTX 2070 Super & Radeon RX 5700XT GeForce RTX 3080 10GB & Radeon RX 6800XT GeForce RTX 4090 & RTX 4080
Werkgeheugen 16GB DDR4-3200CL14 16GB DDR4-3600CL16 32GB DDR4-3600CL16 32GB DDR5-7200CL34
Processorkoeler Noctua NH-U12S Noctua NH-U12S SE-AM4 Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilators Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilators
Moederbord MSI MEG X570 Godlike (Agesa 1.2.0.7) MSI MEG X570 Godlike (Agesa 1.2.0.7) ASUS ROG Crosshair VIII Hero (Agesa 1.2.0.7) Gigabyte Aorus Z790 Master
Voeding Seasonic Focus GX-650 Seasonic Prime GX-750 Be quiet Dark Power Pro 12 1500W FSP Hydro PTM Pro ATX3.0 1200W
Opslag Samsung 970 Evo Plus 500GB Samsung 970 Evo Plus 500GB Samsung 970 EVO 250GB (OS) + Kioxia Exceria+ 2TB (games) Silicon Power XS70 4TB
Besturingssysteem Windows 11 Pro Windows 11 Pro Windows 11 Pro Windows 11 Pro

Vergelijkingsscreenshots

Als we de vier geteste presets in beeldkwaliteit met elkaar vergelijken, komen we uiteraard verschillen tegen. Eerst valt op dat er op Medium veel minder schaduwen zichtbaar zijn dan op High en hoger. De beste kwaliteit textures komen we bij Very High tegen, wat bij personages een stuk minder verschilt tussen de presets dan bij statische objecten in de open wereld. Wel komen deze objecten pas later gedetailleerd in beeld bij de Medium- en High-presets ten opzichte van Very High. Toch komen we ook op de hoogste preset nog gevallen tegen waarbij gebouwen of voorwerpen minder scherp ogen. In die gevallen lijkt het alsof de texture van hogere kwaliteit nog niet is ingeladen, maar dit is niet anders dan we op de PS5 hebben gezien.

Omdat het stedelijk gebied van de open wereld in Spider-Man uit veel steen en rechte lijnen bestaat, is anisotropic texture filtering een grafische setting die je graag op zijn hoogst wil hebben om in de textures in de verte nog zo goed mogelijk te kunnen zien. Op de hoogste setting is dat nog wel een stapje beter dan op de PS5, maar het is geen verschil van dag en nacht. De presets Medium en High hanteren een lagere kwaliteit texture filtering dan we graag zien, en omdat de instelling op moderne videokaarten relatief weinig rekenkracht vereist, is dit een instelling die handmatig het best nog hoger gezet kan worden.

De raytracing van Spider-Man Remastered betreft de reflecties, die je onder andere bij glas en water tegenkomt. Tussen de vele gebouwen en plassen water of het incidentele zwembad maken deze reflecties een groot verschil. Dat was bij de PS5 al het geval, maar de framerate werd bij maximale beeldkwaliteit op die console beperkt tot 30 beelden per seconde. Het voordeel van de pc-versie is uiteraard dat je, met de juiste hardware, niet hoeft te kiezen tussen grafische pracht of een hoge framerate zoals op de PS5. Met een snelle videokaart en processor geniet je dan van de hoogste beeldkwaliteit op een hoge resolutie en framerate. Hoe verschillende hardware precies presteert in Spider-Man Remastered, bespreken we op de volgende pagina's.

Spider Man RemasteredSpider Man RemasteredSpider Man RemasteredSpider Man Remastered
Spider Man RemasteredSpider Man RemasteredSpider Man RemasteredSpider Man Remastered
Spider Man RemasteredSpider Man RemasteredSpider Man RemasteredSpider Man Remastered
Spider Man RemasteredSpider Man RemasteredSpider Man RemasteredSpider Man Remastered

Prestaties instap-pc

Op onze instapgame-pc testen we op 1080p-resolutie, waarvoor we zowel de GeForce GTX 1060 6GB als de Radeon RX 580 8GB gebruiken. Dit draaien we in combinatie met een Ryzen 5 3600X en 16GB DDR4-3200-geheugen.

Gemiddelde framerates bij presets

Onze benchmark van Spider-Man Remastered resulteert in een winst voor de RX 580 ten opzichte van de GTX 1060 als we kijken naar de gemiddelde framerates. Op de Very High- en Medium-presets is de kaart uit het Radeon-kamp tot 10fps sneller; bij de High-preset is het verschil iets kleiner. In de frametimes zijn de verschillen nog wat kleiner.

  • Very High
  • High
  • Medium
1080p RX 580 8GB GTX 1060 6GB
Gemiddelde framerate 67fps 57,3fps
95e percentiel 19ms 21ms
99e percentiel 21,6ms 23,2ms
1080p RX 580 8GB GTX 1060 6GB
Gemiddelde framerate 73fps 66,2fps
95e percentiel 18,7ms 19ms
99e percentiel 21,4ms 20,9ms
1080p RX 580 8GB GTX 1060 6GB
Gemiddelde framerate 82,5fps 73,3fps
95e percentiel 14,9ms 16,6ms
99e percentiel 17,1ms 17,7ms

Frametimes

Als we onze frametimelog onder de loep nemen, dan valt te zien dat Nvidia meer variatie vertoont in de tijd die het nodig heeft om elk frame te renderen. Dat neemt niet weg dat AMD er in de minder gunstige gevallen net zo lang over doet als de uitschieters die we op de GeForce-kaart hebben gemeten. Op de Very High-preset heeft de GTX 1060 meer last van frequente stotters dan AMD. Op High en Medium liggen de twee dichter bij elkaar, wat in de percentielen ook is terug te zien. Dit betekent dat de ergste stotters niet zo erg verschillen tussen de RX 580 en GTX 1060, maar dat de Radeon er gemiddeld wel meer beelden per seconde weet uit te persen en voor een groot deel van de tijd een prettigere animatie neerzet.

  • Very High
  • High
  • Medium
Spiderman Remastered 1080p
Spiderman Remastered 1080p
Spiderman Remastered 1080p
  • Very High
  • High
  • Medium
Spiderman Remastered 1080p percentiel
Spiderman Remastered 1080p percentiel
Spiderman Remastered 1080p percentiel

Prestaties midrange pc

Op onze midrange game-pc testen we op 1440p-resolutie, waarvoor we zowel de GeForce RTX 2070 Super als de Radeon RX 5700 XT gebruiken. Dit draaien we in combinatie met een Ryzen 7 5700X en 16GB DDR4-3600-geheugen.

Gemiddelde framerates bij presets

Ten opzichte van de instapgame-pc zijn de rollen tussen Nvidia en AMD omgedraaid: het groene kamp is hier consistent sneller. De RTX 2070 Super is in alle gevallen ruim 10 procent sneller, en net als bij de RX 580 zien we dat AMD ook hier op de High-preset verhoudingsgewijs een iets grotere achterstand heeft dan op Very High en Medium.

  • Very High
  • High
  • Medium
1440p RX 5700 XT RTX 2070 Super
Gemiddelde framerate 89fps 99,1fps
95e percentiel 13,6ms 11,9ms
99e percentiel 16,6ms 15,1ms
1440p RX 5700 XT RTX 2070 Super
Gemiddelde framerate 102,8fps 118,4fps
95e percentiel 12,4ms 9,5ms
99e percentiel 15,1ms 12,1ms
1440p RX 5700 XT RTX 2070 Super
Gemiddelde framerate 116,6fps 129,5fps
95e percentiel 9,4ms 8,6ms
99e percentiel 12ms 10,4ms

Frametimes

In onze uitgebreide log van de frametimes is terug te zien dat de RTX 2070 Super in Spider-Man Remastered over de gehele linie sneller is dan de RX 5700 XT. Toch is de variatie in de frametimes betrekkelijk klein als we dit vergelijken met de vorige pagina. De uitschieters van beide kaarten zijn niet zo frequent als we op de GTX 1060 zagen. In de percentielgrafiek resulteert dat in een grotendeels rechte, horizontale lijn, wat betekent dat er weinig momenten zijn waarop stotters waarneembaar zijn.

  • Very High
  • High
  • Medium
Spiderman Remastered 1440p
Spiderman Remastered 1440p
Spiderman Remastered 1440p
  • Very High
  • High
  • Medium
Spiderman Remastered 1440p percentiel
Spiderman Remastered 1440p percentiel
Spiderman Remastered 1440p percentiel

Prestaties high-end pc

Op onze high-end game-pc testen we op 4k-resolutie, waarvoor we zowel de GeForce RTX 3080 10GB als de Radeon RX 6800 XT gebruiken. Dit draaien we in combinatie met een overgeklokte Ryzen 9 5950X en 32GB DDR4-3600-geheugen.

Gemiddelde framerates bij presets

Op de hardware van dit systeem hebben we naast de drie presets van de vorige pagina's ook de hoogste preset in combinatie met raytracing getest. Die grafische instelling vraagt duidelijk veel rekenkracht; we zien ongeveer een halvering in de framerate ten opzichte van de Very High-preset zonder raytracing. De optie hakt er bij de AMD-kaart bovendien nog iets harder in. Op de overige presets blijft de RTX 3080 ook sneller, al zijn de verschillen iets kleiner.

  • Very High+DXR
  • Very High
  • High
  • Medium
2160p RX 6800 XT RTX 3080 10GB
Gemiddelde framerate 45,6fps 54,2fps
95e percentiel 27ms 22,3ms
99e percentiel 28,3ms 24,4ms
2160p RX 6800 XT RTX 3080 10GB
Gemiddelde framerate 88,2fps 100,4fps
95e percentiel 12,7ms 11,1ms
99e percentiel 14,3ms 13,4ms
2160p RX 6800 XT RTX 3080 10GB
Gemiddelde framerate 94,2fps 109fps
95e percentiel 11,7ms 10,2ms
99e percentiel 13,6ms 12,5ms
2160p RX 6800 XT RTX 3080 10GB
Gemiddelde framerate 101,4fps 120,2fps
95e percentiel 10,7ms 9,1ms
99e percentiel 11,9ms 10,2ms

Frametimes

Onze frametimelog laat mooi zien hoeveel meer tijd raytracing per frame kost om te renderen. Opvallend is daarbij dat de grafiek geen heftige variaties laat zien maar meer een soort golvend patroon. Zowel de RTX 3080 als de RX 6800 XT hebben dan hun handen vol met het berekenen van complexe in-gamereflecties, wat zoals gezegd de Nvidia-kaart iets beter afgaat. In vergelijking met de raytracingresultaten zijn de grafieken op de overige presets simpele rechte lijntjes met slechts enkele noemenswaardige uitschieters. Ook in de percentielgrafieken is direct te zien hoe groot het verschil met raytracing is.

  • Very High+DXR
  • Very High
  • High
  • Medium
Spiderman Remastered 2160p
Spiderman Remastered 2160p
Spider-Man 2160p High
Spiderman Remastered 2160p
  • Very High+DXR
  • Very High
  • High
  • Medium
Spiderman Remastered 2160p percentiel
Spiderman Remastered 2160p percentiel
Spiderman Remastered 2160p percentiel
Spiderman Remastered 2160p percentiel

Prestaties ultrahigh-end pc met DLSS3

Als laatste hebben we ook nog enkele tests gedraaid op de GeForce RTX 4090 en RTX 4080 gecombineerd met ons nieuwe gpu-testplatform, op basis van een Intel Core i9 13900K met 32GB aan DDR5-7200 werkgeheugen. Dit is momenteel de combinatie van de snelste componenten die we in het testlab beschikbaar hebben, en vertegenwoordigen de prestaties van zo ongeveer de snelste pc die je op dit moment kunt samenstellen.

Gemiddelde framerates bij presets

Op dit systeem hebben we enkel de hoogste preset in combinatie met raytracing getest. Wel hebben we dit drie keer gedaan om de prestaties van native rendering te vergelijken met DLSS en met de recent toegevoegde ondersteuning voor DLSS3. De RTX 4090 wint met DLSS op Quality Mode ruim 20 procent aan fps ten opzichte van de native rendering. Voor DLSS3 met framegeneration is dat 58 procent. Bij de RTX 4080 zien we voor DLSS Quality Mode een grotere winst van 39 procent en ruim 65 procent vooruitgang voor DLSS3.

  • RTX 4090
  • RTX 4080
2160p Very High met DXR RTX 4090 native RTX 4090 DLSS Quality RTX 4090 DLSS3 framegeneration
Gemiddelde framerate 107,1fps 129,5fps 169,5fps
95e percentiel 11,52ms 8,61ms 6,9ms
99e percentiel 12,53ms 9,56ms 8,25ms
2160p Very High met DXR RTX 4080 native RTX 4080 DLSS Quality RTX 4080 DLSS3 framegeneration
Gemiddelde framerate 85,7fps 119,5fps 141,9fps
95e percentiel 14,1ms 9,9ms 8,3ms
99e percentiel 15,6ms 10,95ms 9,37ms

Frametimes

Zowel op de RTX 4090 als de RTX 4080 zorgt het gebruik van DLSS voor een hogere framerate, maar ook voor wat meer variatie in de frametimes. Hoewel we in alle drie de gevallen echte uitschieters tegenkomen, is bij vooral het gebruik van DLSS3 een wat meer uitgesmeerd patroon zichtbaar. Bij native rendering is dat minder het geval. Omdat de frametimes in het geval van DLSS en DLSS3 toch al lager zijn, zul je van deze sterkere variatie in de praktijk minder merken dan het voordeel van de hogere framerate.

  • RTX 4090
  • RTX 4080
Spider-Man RTX 4090
Spider-Man RTX 4080
  • RTX 4090
  • RTX 4080
Spider-Man RTX 4090 percentiel
Spider-Man RTX 4080 percentiel

Tot slot

De originele PlayStation 4-versie van Spider-Man is al weer vier jaar oud, maar in 2020 verscheen de Remastered-editie voor de PS5. De recent uitgebracht pc-versie is op die laatste release gebaseerd, en kan dankzij het Nederlandse Nixxes moderne pc-hardware flink op de proef stellen om de grafische effecten nog verder op te schroeven.

De inhoud van de game is gelijk gebleven aan het origineel, maar de pc-versie valt vooral op door de uitgebreidere raytracing, de onbeperkte framerate en de ondersteuning voor ultrawide-beeldverhoudingen. Het spel blijkt met lagere instellingen nog prima speelbaar op oudere hardware, maar weet tegelijkertijd snellere hardware flink uit te dagen als de grafische settings omhoog worden geschroefd.

Zodra raytracing wordt ingeschakeld voor realistischere reflecties in de open spelwereld, krijgt het spel menig videokaart nog sneller aan het zweten. De framerates halveren grofweg, en de frametimes gaan bijbehorend omhoog. Met upscalingtechnieken zoals DLSS valt daar heel wat te compenseren, maar bij DLSS3 neemt door framegeneration de variatie in frametimes dan wel wat toe, al ligt de framerate dus aanzienlijk hoger.

Reacties (88)

88
88
49
2
0
36
Wijzig sortering
Ik vind het heel slecht dat er getest wordt ent DLSS3 zonder dat er diep in gegaan wordt op de beeldkwaliteit met die techniek.
Als dat wel gedaan was gad iedereen geweten dat die waardeloos is dus waarom zou je het dan gebruiken? Latency's zijn hoger. De gegenereerde frames zien er niet uit kortom het is alleen een tool voor nVidia om de hoogte fps scores te laten zien en boven aan de charts te staan.

DLSS 2.4 is met een 4K monitor zeker nuttig maar DLSS3 is echt een gedrocht wat voorlopig nog niet klaar is voor dagelijks gebruik en vooral een marketing middel voor nVidia is.

Als je voorbeelden wilt zien en een goede analyse van wat het is en doet kan je hier terecht:
https://youtu.be/GkUAGMYg5Lw

[Reactie gewijzigd door Astennu op 22 juli 2024 14:31]

De vergelijking van beeldkwaliteit met DLSS3 heb ik in dit artikel niet opgenomen omdat we vooralsnog geen goede manier hebben om de afwisselend gerenderde en gegenereerde frames te onderscheiden. Met video kan dat weliswaar min of meer, maar met echte screenshots is het een muntje opgooien wat voor soort frame je te pakken hebt.
Mag ik je wijze op een item van Linus Tech Tips over Nvidia DLSS 3.0 waarbij toevallig ook Spider-man gebruikt wordt? Een side by side vergelijking laat daar goed het verschil zien tussen de twee opnames met en zonder DLSS, waarbij het shot met DLSS aan in de gegenereerde frame een soort aura-achtig effect heeft om Spider-man.

Zoals dit:
https://tweakers.net/foto...mMsn8gRFo9iIQPzfaMiox.png

en deze:
https://tweakers.net/foto...obpf3JH4xggYF0wDHUSeq.png

Waarbij bij het laatste voorbeeld de railing voor een extra verstoring zorgt omdat Spider-man zich achter deze railing bevind en er dus (pixel)informatie ontbreekt (lichaamsdeel en de (stads)achtergrond) met als resultaat een soort ghosting/halo effect.

In deze video is naar mijn idee goed te zien dat er om en om een frame 'verzonnen' wordt omdat je van goed naar 'fout' naar goed naar 'fout' gaat. De kans dat je een gegenereerd frame hebt lijkt me dus niet een kwestie van een muntje opgooien als je het vanuit een gameplayopname doet. Vooral bij fast pace actie is het waar te nemen (zie ook de videolink van Astenmu hierboven) maar kan ook daardoor weer wegvallen omdat het soms hetzelfde effect geeft als motion blur. Dan moet het gene waar de vervorming optreed niet relevant zijn om om bijvoorbeeld te lezen.

De uiteindelijke conclusie is dat de meeste spelers het uiteindelijk niet opmerken in Spider-Man zolang je maar genoeg originele frames per seconde hebt. Echter is opmerken van artefacts nog geen eens zo'n probleem als je met het algehele resultaat (Lees: Meer fps op lagere framerates) meer baat hebt dan de nadelen van de artefacts. Bij hun kleine proef in Spider-man (4K30 vs 4K60DLSS3.0) kozen acht van de tien proefpersonen smoothness met artefacts over een lagere framerate zonder artefacts. Wat een mooi resultaat is voor een techniek dat nog redelijk in de kinderschoenen staat. Zoals Astennu vermeld in zijn post hierboven, niet alle games hebben er profijt van en tekst boven een auto zoals bij een racegame (F1) kan er verschrikkelijk door gaan uitzien en is een ghosting effect bij de auto's niet (altijd) wenselijk.

En een linke naar hun eigen conlusie:
https://youtu.be/PUTsE1q1bYI?t=922
(Digital Combat Simulators kunnen er veel profijt van hebben.)

Bron:
https://www.youtube.com/watch?v=PUTsE1q1bYI

[Reactie gewijzigd door jdh009 op 22 juli 2024 14:31]

Voor dit soort onderwerpen is Digital Foundry wellicht nog een wat betere bron dan LTT.

Men is er in gespecialiseerd en gaat meer de diepte in (Ze hebben zelfs een stuk of 10 video's specifiek over DLSS/FSR/XeSS waarvan 3 video's puur DLSS 3.0)

Hier is de meest recente, mochten er geïnterneerden zijn: https://www.youtube.com/watch?v=92ZqYaPXxas

(Nvidia DLSS 3 Analysis: Image Quality, Latency, V-Sync + Testing Methodology)

[Reactie gewijzigd door DLSS op 22 juli 2024 14:31]

Ik denk dat het punt was om aan te tonen dat je met laagdrempelige content, zoals dat van LTT, óók erg goed de verschillen tussen DLSS/geen DLSS kunt aan tonen, zonder dat je een super technische in-depth review erover moet hebben.
Ah dat had ik gemist.

De DF video is ook niet een extreem hoge drempel hoor.. Ze hebben er vooral meer kennis en ervaring op dit specifieke vlak.

[Reactie gewijzigd door DLSS op 22 juli 2024 14:31]

Het gaat bij DLSS3 niet alleen om de mindere beeldkwaliteit, maar net zo veel om de hogere input latency.
Dank voor de mooie review. Gaan jullie deze game voortaan ook gebruiken om videokaarten te testen?
met echte screenshots is het een muntje opgooien wat voor soort frame je te pakken hebt.
Dat is dan alsnog een kans van 50% om een gegenereerd plaatje te schieten.
En gezien de duidelijke aanwezigheid van artefacten lijkt het me niet moeilijk te beoordelen welke je dan te pakken hebt, toch?
precies, gewoon dat muntje een paar keer opgooien
Het is dus wel mogelijk om je geprefereerde DLSS versie te kiezen? Dat is dan sowieso wel het vermelden waard. Heb me over DLSS3 nog niet zoveel ingelezen, was reeds afgehaakt bij het hele interpolatie + latency gedeelte, maar DLSS2 was eigenlijk nog nooit ergens afgeraden.
DLSS 3 is een hele andere techniek dan DLSS 2 en ook niet een vervanging of verbetering. Het is heel vervelend dat Nvidia deze naam heeft gekozen, want daardoor ontstaat er veel verwarring, waar mensen denken dat DLSS 2 vervangen wordt, slechter is, etc. Ze hadden beter een totaal andere naam kunnen kiezen.
Ja, specifiek kies je dan de optie "frame generation" niet aan, dan heb je eigenlijk gewoon dlss2.x (dacht 2.4).
Dlss3 komt boven op DLSS2. Ze gebruiken voor de overige frame nog steeds uoscaling maar daarnaast verzinnen ze er frame bij die niet aangevraagd zijn.
Hardware Unboxed heeft er een mooie video over gemaakt met een beeldkwaliteit vergelijking en analyse er bij.

Het zal aan het spel liggen maar de games die het ondersteunen hebben een keuze optie zo ver ik weet. Is maar goed ook anders wil je het niet meer aan hebben. Terwijl DLSS2.4 in sommige gevallen nuttig kan zijn even als FSR2.2 die is ook goed bruikbaar qua beeld kwaliteit. Maar voor beide technieken geld dat je het het liefste op een 4k scherm gebruik. Bij lagere resoluties heb je te weinig bron data en zie je het verschil tussen native en upscaled eerder.

[Reactie gewijzigd door Astennu op 22 juli 2024 14:31]

Als dat wel gedaan was gad iedereen geweten dat die waardeloos is dus waarom zou je het dan gebruiken?
Bij deze blind test uitgevoerd door LTT kwam DLSS3 er anders een stuk beter uit. Ook DF is gematigd positief.
Om het dan af te doen als waardeloos, zeker zonder zelf ervaren te hebben (?), is wel weer heel kort door de bocht.
Ik heb de filmpjes gezien het is voor mij duidelijk zichtbaar.
Ik ben een artifact hunter omdat ik al 20 jaar overclock. Dat is met dit soort dingen een nadeel. Ik zie ook heel vaak rare glitches in games die andere mensen niet snel opvallen.

Dus ja ik weet 100% zeker dat ik mij hier gigantisch aan ga storen.

Daarnaast is en blijft het niet eerlijk generated frames vergelijken met echte gerenderde frames waar veel meer compute power in gaat zitten. Dat is gewoon appels met peren vegelijken. De kwaliteit van de generated frames is totaal niet vergelijkbaar met het origineel en de latency is veel hoger dus fps zegt dan helemaal niets meer over de spelervaring die je krijgt.

Dat ze dit in de review willen testen prima maar daar hoort dan ook een duidelijk stukje tekst over de nadelen bij en niet alleen maar die hoge fps promoten waardoor het allemaal geweldig lijkt. Dat is vooral mijn probleem en ja ik en vele met mij vinden dlss 3.0 in z'n huidige vorm waardeloos. Dat is echt zo'n grote stap achteruit qua beeld kwaliteit dat wil je niet met je peperdure pc setup.
Misschien kunnen ze het in de toekomst verbeteren dat het wel bruikbaar wordt. Dlss 1.0 was ook een drama 3 jaar verder is het wel nuttig (al werkt het nu heel anders en wordt het niet meer op de tensor cores gedaan) dus wie weet.

[Reactie gewijzigd door Astennu op 22 juli 2024 14:31]

Vind het nog wel wat dat je dus zelf geen DLSS3.0 videokaart hebt en je hele mening baseert op 1 Hardware Unboxed video en daarmee heel DLSS 3.0 af serveert. En dat jij je er misschien aan gaat storen betekend niet dat iedereen er zich aan gaat storen en de hele technologie ruk is. Daarnaast gaat AMD ook gewoon meedoen met de frame generation techniek, dus het is zeker niet een Nvidia only marketings truc.

Het is zeker niet perfect maar zeker niet iedereen is een "artifact hunter".
Kom op zeg. Dit is overduidelijk een marketing truuk om bovenin de benchmarks te staan. Zo naief kun je niet zijn dat je dat niet door heb. En uiteraard gaan AMD en Intel daar ook in mee doen als de meeste review sites er in trappen. Ze moeten immers wel.

Niet iedereen is een artifact hunter nee.
Maar in die video kijken mensen heel kort naar de verschillen. Dan vallen artifacten minder snel op dan hogere framerate. (ook afhankelijk van het spel, want de artefacten in F1 zijn zeer duidelijk en storend)
Maar speel je een spel langer dan gaan de artefacten veel meer opvallen.

Iedereen zal zelf een afweging moeten maken of die extra frames de moeite waard zijn tov slechtere input latency en artefacten.
Maar je zult het toch met Astennu en mij eens zijn dat je niet die hogere framerate in een review moet zetten zonder de nadelen er ook bij te benoemen.
AMD heeft zijn eigen techniek FSR

Alleen daar geld ook dat de drivers er op moet worden toegespitst.

Alleen kun je er als game-ontwikkelaar er ook rekening mee gaan houden wat het allemaal dubbel maakt.
Ik denk dat je niet helemaal begrijpt waar wij het over hebben.
De FSR technieken zijn tegenhangers van DLSS1 en 2.

DLSS3 doet echter iets totaal anders. DLSS3 pakt 2 frames en plakt daar een derde frame tussen op basis van die twee berekende frames zonder zelf een nieuw frame uit te rekenen, maar op basis van wat er zichtbaar is in de twee frames en wat de verschillen tussen die twee frames zijn.
Je zou het heel grof kunnen vergelijken met frame interpolation bij TVs. Die bv 24fps film naar 100 of 200 fps omzetten.

Dat is dus totaal anders dan zowel FSR1+2 en DLSS1+2.
Het heeft uiteraard daardoor ook nadelen die compleet verschillend zijn van die eerdere versies.
Hardware Unboxed legt het in hun video heel goed uit.
Ik denk dat je niet helemaal begrijpt waar wij het over hebben.
De FSR technieken zijn tegenhangers van DLSS1 en 2.

DLSS3 doet echter iets totaal anders. DLSS3 pakt 2 frames en plakt daar een derde frame tussen op basis van die twee berekende frames zonder zelf een nieuw frame uit te rekenen, maar op basis van wat er zichtbaar is in de twee frames en wat de verschillen tussen die twee frames zijn.
Je zou het heel grof kunnen vergelijken met frame interpolation bij TVs. Die bv 24fps film naar 100 of 200 fps omzetten.

Dat is dus totaal anders dan zowel FSR1+2 en DLSS1+2.
Het heeft uiteraard daardoor ook nadelen die compleet verschillend zijn van die eerdere versies.
Hardware Unboxed legt het in hun video heel goed uit.
ze hebben ook een voorbeeld met 22 fps native vs 100 dlss3 dan worden er dus meer frames dan 1 ertussen geproot, eerder 4. Speelt niet leker want latency word dan een issue. En ja 4 op 1 nep frames...
Momenteel kunnen ze volgens mij er maar een frame tussen wrotten. Wat ze doen is eerst DLSS 2.x gebruiken om daarna frame generation te gebruiken. Je gaat dus eerder van 22 FPS naar 50 FPS om dan middels frame generation naar 100 te gaan. Dit doet mij ook vermoeden dat ze zeker niet de quality optie hebben gekozen met DLSS 2.x (ik heb het artikel overigens niet gelezen dus ik doe hier aannames), wat de kwaliteit van het resultaat zeker zal beinvloeden.
Laat niet weg dat het nogal dom is om op 50 FPS frame generation aan te zetten gezien je dit minimaal 18ms extra latency opleverd.
Nee hoor het internet staat vol met video's en tests. Als je het in filmpjes kan zien kan je het ook in gameplay zien. Dus het is niet gebaseerd op een video of review.

En AMD lijkt er inderdaad ook aan mee te gaan doen ja en als dat dan net zo slecht werk zul je mij daar net zo hard over horen. Ik gebruik zelf ook geen FSR1.0 in de games die ik speel ik tweak dan liever wat andere settings om de gewenste framerate te halen.

[Reactie gewijzigd door Astennu op 22 juli 2024 14:31]

Ik heb de filmpjes gezien het is voor mij duidelijk zichtbaar.
Ik ben een artifact hunter omdat ik al 20 jaar overclock. Dat is met dit soort dingen een nadeel. Ik zie ook heel vaak rare glitches in games die andere mensen niet snel opvallen.
En na 20 jaar weet je ook dat computer graphics letterlijk van artifacts aan elkaar hangt. SSR, TAA en LODs zijn allemaal voorbeelden van technieken die negatieve gevolgen kunnen hebben voor het uiteindelijke resultaat. Toch worden deze technieken door vrijwel iedere AAA-studio gebruikt omdat de trade-offs het uiteindelijk waard zijn.
Dus ja ik weet 100% zeker dat ik mij hier gigantisch aan ga storen.
Ja, en dat kan. We hebben allemaal een andere grens wat betreft ergernissen. In je originele reactie zeg je echter letterlijk dat niemand DLSS3 zou moeten gebruiken.

Maar ik ben van mening dat je DLSS3 eerst zelf moeten ervaren. YouTube met zijn compressie is geen goed medium om een oordeel te maken over kwaliteit. Zeker als reviewers stilstaande beelden gaan gebruiken om hun punt te maken. De artifacts die je dan in alle rust kan gaan bestuderen blijven in werkelijkheid maar een een fractie van een seconde op je scherm.
Daarnaast is en blijft het niet eerlijk generated frames vergelijken met echte gerenderde frames waar veel meer compute power in gaat zitten. Dat is gewoon appels met peren vegelijken.
Maar hoe is dit anders dan de huidige situatie met DLSS2/FSR2/XeSS? Zolang de reviewer het gewoon netjes vermeld, misschien met een korte uitleg, zie ik geen probleem.
en de latency is veel hoger dus fps zegt dan helemaal niets meer over de spelervaring die je krijgt.
De latency in vergelijking met wat? In vergelijking met DLSS2 wel, aangezien je een hogere framerate krijgt door op lagere resolutie te renderen. Maar is dit nog steeds het geval in vergelijking met native res? En spelervaring is meer dan alleen latency. DLSS3 laat juist zien dat vloeiendheid en framerate/latency niet het zelfde hoeven te betekenen.
Dat ze dit in de review willen testen prima maar daar hoort dan ook een duidelijk stukje tekst over de nadelen bij en niet alleen maar die hoge fps promoten waardoor het allemaal geweldig lijkt.
Eens.
Dat is echt zo'n grote stap achteruit qua beeld kwaliteit dat wil je niet met je peperdure pc setup.
Je bent dan ook niet verplicht om het aan te zetten. Ik zie het meer als een extra feature bovenop de standaard DLSS.
Dlss 1.0 was ook een drama 3 jaar verder is het wel nuttig (al werkt het nu heel anders en wordt het niet meer op de tensor cores gedaan) dus wie weet.
Klopt, gelukkig staan ze niet stil qua onderzoek.
DLSS2 draait trouwens wel nog gedeeltelijk op de Tensor Cores. Het verschil met 1.0 zit hem meer in dat ze zijn afgestapt van een generiek AI model en de integratie van TAA upscaling.

[Reactie gewijzigd door ColinZ op 22 juli 2024 14:31]

Ik game maar heel weinig laat staan iets war FPS eraan toe doen. Echter als we kijken naar de ontwikkelingen van DS2.4 en DS3 en de artefacten + latency waar het hier omgaat, valt dit niet gewoon te definieren? Latency kan men toch wel nauwkeurig vaststellen en men kan dan toch wel aangeven of er een groot verschil zit tussen deze twee generaties?

Met betrekking tot artefacten, wederom ik heb hier weinig ervaring maar als je kijkt naar film compressies zie je dat er als het ware bepaalde velden zijn waar compressies duidelijk kenbaar zijn en die ook vaak in dat gebied blijven steken. Zij het een zee maar ook de lucht, wederom moet het toch wel mogelijk zijn om een bepaalde benchmark te maken waar de gevoeligheid van compressies duidelijk is waar te nemen? Treden ze hetzelfde op zoals bij films, langdurig en in bepaalde plekken waardoor het storend is, of treden ze kortstondig op wellicht zelfs per frame waardoor je echt je best moet doen om deze artifacts waar te nemen.

Kan aan mij liggen maar zowel Astennu maar ook Trygve doen elkaar en ons als lezer te kort. Er zijn twee potentiele problemen, men is ervan op de hoogte dat ze zijn maar in plaats van deze te quantificeren zitten we nu in het luchtledig te praten. Ik game niet, ik weet niet wie hier gelijk heeft maar ik vind dit wel een ietwat gemiste kans voor Tweakers. Stel je voor dat ze deze problemen specifiek onderzochten dan had je toch wel een "plus" artikel, nu is het in alle redelijkheid oppervlakkig en missen we de harde input.
[...]
Maar hoe is dit anders dan de huidige situatie met DLSS2/FSR2/XeSS? Zolang de reviewer het gewoon netjes vermeld, misschien met een korte uitleg, zie ik geen probleem.
Het enige doel is een vloeiendere ervaring te bieden door meer (van hopelijk vergelijkbare kwaliteit) te kunnen weergeven in dezelfde tijds-spanne.
Het enige doel is (met en zonder, en welke versie dan ook) de 'video' die er mee ontstaat en uiteindelijk is dat dus gewoon appels met appels vergelijken, gameplay met gameplay vergelijken, immersion met immersion vergelijken.
Mosterd na de maaltijd wat betreft de discussie, maar je kan de video's van Digital Foundry ook gewoon op hoge kwaliteit downloaden via hun Patreon. Dan ben je niet afhankelijk van Youtube. Van iemand die er dusdanig inzit als @Astennu zou het me niet verbazen als hij/zij hier ook gebruik van maakt.
Ik ben benieuwd of je uit eigen ervaring(en) spreekt, want ik heb een RTX 4090 en in Spider-Man, Flight Simulator 2020 en Bright Memory is de beeldkwaliteit zeker niet slecht.

Toegegeven moet worden, in Flight Simulator zijn wat 'artifacts' te zien bij Ui-elementen als je de camera beweegt en de latency in Bright Memory was merkbaar hoger (zeker i.c.m. G-Sync). Echter, de beeldkwaliteit is niet zo slecht als dat jij het beschrijft. Daarnaast heeft de ontwikkelaar de latency-problemen in Bright Memory aangepakt met een patch.

Vergeet niet dat het hier een nieuwe technologie betreft, die nog volop in ontwikkeling is.
Ik spreek niet uit eigen ervaringen alleen uit filmpjes en als het daar al duidelijk te zien is is dat in echte gameplay net zo goed te zien dat maakt niet veel uit.
Misschien stel je zelf andere eisen dan ik maar ik ga geen 2000 euro voor een GPU betalen om dan dat soort artifacts te zien. Dan maar een iets lagere FPS met DLSS 2.4 of lekker native renderen. Maar ieder zijn eigen keuze

De Latency problemen worden veroorzaakt door het offloaden van de workload naar de tensor cores en dat veroorzaakt de latency. Dat is ook de rede dat DLSS2 geen tensor cores meer gebruikte waar een dat wel deed. Latency was daar ook een issue.

Ik geef ook in meerdere posts aan dat het nog in ontwikkeling is. En wie weet is het over 3 jaar wel nuttig maar in deze staat vind ik het niet interessant.
De Latency problemen worden veroorzaakt door het offloaden van de workload naar de tensor cores en dat veroorzaakt de latency. Dat is ook de rede dat DLSS2 geen tensor cores meer gebruikte waar een dat wel deed. Latency was daar ook een issue.
Huh. Dat klinkt als een onzinnige reden voor de latency.
De techniek werkt inherent middels het vertragen van het beeld. Dat heeft niks met wel of geen tensor cores gebruiken te maken. Je kunt deze techniek niet toepassen zonder de extra latency.
De Latency problemen worden veroorzaakt door het offloaden van de workload naar de tensor cores en dat veroorzaakt de latency. Dat is ook de rede dat DLSS2 geen tensor cores meer gebruikte waar een dat wel deed. Latency was daar ook een issue.
Dat klopt niet. DLSS 2.x gebruikt de tensor cores wel degelijk. De hogere latency van DLSS 3 komt doordat je altijd moet wachten op de volgende frame voordat je kunt interpoleren. En AMD heeft geen gelijkwaardig Relfex alternatief, dus als die paar miliseconden latency echt zo'n probleem is dan maar geen AMD videokaart meer kopen?
DLSS3 is inderaad vooral een manier voor NVidia om hoge fps te kunnen raporteren (en een hoge fps zegt ineens niks meer), doet verder zoals je zegt niet veel goed.
En tweakers trapt er met beide benen in.

Er was een tijd dat Tweakers zelf zo'n analyse zou doen als bij Hardware Unboxed is gedaan. Maar helaas is die tijd ver achter ons.
Of Tweakers bekijkt het meer vanuit een praktische kant. Heel DLSS is een compromis van snelheid versus kwaliteit. DLSS3 neemt daar nog een forse sprong overheen. Maar de use-case is ook anders.

DLSS 1/2 geven je fors meer FPS waarbij je amper ziet dat het aan staat - veel mensen gebruiken het om bijvoorbeeld games met raytracing te kunnen spelen op high en toch nog 60+ FPS te halen.

DLSS 3 is als je niet die hogere FPS kan halen, maar wel je game nog wilt kunnen spelen op een hogere resolutie. Ik vind de techniek dus meer voor de (komende... ooit) budget kaarten. Dan kan iemand met een RTX 4050 misschien toch op zijn 2 4k schermen lekker een flight sim spelen. En zolang je niet probeert van 5 FPS 100 te maken gaat een leek dat echt niet zien.

Is het perfect? Nee! Verre van!
Kan het alsnog waarde toevoegen voor mensen, zelfs op dit moment? Ja!
Maar juist als je niet die hogere FPS kan halen is DLSS3 niet erg geschikt.
Want de input latency is dan nog veel sterker een issue en de artefacten zijn veel beter zichtbaar.

Wat dat betreft is DLSS3 juist iets voor als je al vrij hoge FPS haalt, om die dan nog hoger te maken.
Om bv 120 fps te halen met je VR headset. (In VR word reprojection al massaal toegepast en dat is in wezen vergelijkbaar met DLSS3)
Ze hebben het een tijd geleden al een uitgebreide test gedaan bij Hardware Unboxed https://youtu.be/GkUAGMYg5Lw Dat ze enthousiast waren, nou nee.
Dat waardeloze DLSS 3.0 zie ik tijdens het gamen echt niet terug. Misschien eens gebruikers ervaring op doen in plaats van Youtube filmpjes of screenshots bekijken. Ik heb zelf DLSS 3.0 in A Plage Tale Requiem getest en tijdens het gamen zijn mij geen artifacts opgevallen en ik denk dat dit geldt voor de meeste gamers. Er zullen vast wel artifacts optreden maar die zijn dan onzichtbaar omdat het waarschijnlijk in een fractie van een paar milliseconden optreed dus Ik denk dat DLSS 3.0 alleen waardeloos is voor screenshots die men ergens voor wil gebruiken.

DLSS 3.0 werkt nu ook met G-Sync en V-Sync wat ik een plus punt vind want screentearing is iets wat wel heel erg opvalt.
In flight simulator werkt het nog wat beter, omdat je door de aard van de game niet zo snel de problemen gaat ervaren die je in een fast pace game zult zien. Latency is misschien nog wel het minst van belang daar. In theorie zou je dan nog turn based games hebben waar het prima zou moeten kunnen en voor de rest zou ik frame generation ongeacht lekker laten liggen, al dan niet voorlopig.
Klopt maar ook daar zag je artifacts maar voel het minder op. Bij turn based is fps niet zo belangrijk en die games zijn vaak niet heel zwaar voor de gpu. Dus imo is er geen echt goede use case gezien er betere opties beschikbaar zijn zoals DLSS2.4 die veel minder nadelen hebben.
Als dat wel gedaan was gad iedereen geweten dat die waardeloos is dus waarom zou je het dan gebruiken? Latency's zijn hoger. De gegenereerde frames zien er niet uit kortom het is alleen een tool voor nVidia om de hoogte fps scores te laten zien en boven aan de charts te staan
Wat betreft de beeldkwaliteit kun je best zeggen dat DLSS 3 verre van perfect is, maar is het niet een beetje spijkers op laag water zoeken om over de latency te klagen? Volgens de technische uitleg van NVidia is de extra render latency maximaal 1 frame, maar door de veel hogere framerate die je kan halen vertaalt zich dat in de meeste gevallen niet of nauwelijks tot hogere input latency. In sommige games is de input latency zelfs lager dan zonder DLSS 3 zelfs vanwege de hogere framerates. Voor veel games kun je je sowieso afvragen hoe belangrijk een paar ms extra input latency zijn.
Als dat wel gedaan was gad iedereen geweten dat die waardeloos is dus waarom zou je het dan gebruiken?
Dat gaat er wel wat over, in bepaalde gevallen zijn die idd niet zo goed, maar de vraag is hoe goed merk je dit als je er niet op let?
Very high met DXR lijkt wel slechter dan "High" setting? Veel schaduwen verdwijnen. Je ziet dit ook al bij "gewoon" very high? Vooral bij de steeg (2e reeks screenshots) kan je dit goed zien.
Nou je het zegt, Ambient Occlusion lijkt wel uit te staan vanaf "very high" en DXR gebruiken ze dan puur voor de reflecties en verder niks. Ziet er niet uit..
Waar zie jij schaduwen verdwijnen dan? Naar mijn idee ziet het er met dxr echt stukken beter uit. Ik vind het juist jammer dat er niet ook op qhd met dxr getest is want uhd+dxr lijkt voor vrijwel alles te zwaar maar dxr doet naar mijn idee veel meer voor de grafische kwaliteit dan uhd.

Edit: oh wacht, ik zie nu wat @Ventieldopje ook zegt, het gebeurt al tussen high en very high. Ik was vooral aan het kijken naar het verschil tussen very high en dxr.

[Reactie gewijzigd door Finraziel op 22 juli 2024 14:31]

Er lijkt idd een probleem te zijn met ambient occlusion bij sommige objecten.
Maar vind het op high eigenlijk weer iets te overdreven. Zo heeft de fiets op very high geen AO, maar dat ziet er op zich beter uit.
Ook het clustertje vuilnisbakken net links van de auto zien er voor mij te donker uit op high. Maar die AO mist dan weer compleet op die objecten op very high.
Ontzettend leuke game, veel spidie pakken om te unlocken en skills. Het vechten is echt cool, als je goed op zijn zintuigen let kan je alles ontwijken en voel je je echt spiderman😁. Enigste minpuntje vind ik het zoeken van alle dingen in de stad, dat word wel eentonig. En ik vond de story een beetje kort, als je dan Miles morales gaat spelen en ziet dat die nog korter is voelt het alsof deze games samen horen als een game met dlc ofzo
Zijn leuke games inderdaad. Verhalend leuk, toffe actie en de combat is erg goed. Alles daar om heen vond ik hele vervelende filler content. Je map ontplofte echt met zoeken naar rugzakjes, labjes, foto-momentjes, katten, duiven etc etc... voegde echt niks toe en dat vond ik jammer.
Helaas erg typisch voor moderne games, wat allemaal begonnen is bij Assassin's Creed, naar mijn herinneringen. Die maakte het geloof ik populair.

Nu vind ik het best leuk als er secrets inzitten (De fotomomenten vond ik b.v. het minst erg) maar je kunt inderdaad ook overdrijven. Dat is gewoon 'grinden' en voegt na een paar dingetjes niet meer zo toe aan het spel. Dit is ook de reden dat ik de meeste moderne platformers saai vind ("Ga eerst uren dingen moeiteloos doch moeizaam verzamelen om dingen te unlocken zodat je het verhaal van 3 uurtjes uit kunt spelen!") dus als anderen nog games kennen waarbij dit niet zo is, sta ik open voor adviezen!

De souls heb ik allemaal al gespeeld!
zijn idd maar weinig games die dat nog goed doen, ik vond e wither 3 wild hunt daar erg sterk in, ik vond al die side quests gewoon leuk om te doen en dat voelde totaal niet als een grind. Verder ben ik niet iemand die alles gaat lopen zoeken in een spel, God of war ragnarok bv vind ik echt een geweldige game maar ik kan me er niet toe zetten om al die gebieden nog eens te bezoeken omdat ik nog een raaf zoek of een weet ik veel wat xD
ja helemaal mee eens, al die zooi is gewoon gameplay verlengen maar verder niks toevoegend
Leuk idee, zo'n overzicht voor Spiderman.

Misschien moet ik nog een tweede koffie nemen maar klopt het dat het qua CPU volledig op AMD gefocust is? Ik weet niet waar ik moet kijken met mijn i7 10700K. Is alweer een paar generaties geleden, mijn 3080 is één generatie geleden. Gevoelsmatig denk ik dat het dan tussen mid en high end in zit. Wat denken jullie?
Alleen de laatste pc is Intel. Hoewel dat ook wel redelijk overeenkomt met de desktop koop adviezen hier op het forum. AMD wordt meer aangeraden. De specifieke cpu die heel veel wordt aangeraden (Ryzen 5 5600) zit dan weer niet in een van de builds.
De benchmarks hier zijn volledig op de GPU gefocust.
Bedankt voor deze hoogstaande review en doordachte opbouw van testsystemen. Hierdoor kunnen veel tweakers de nodige info uithalen.
Zelf ga ik voor een 3440 x1440 systeem en kan dus concluderen dat ik een RTX3070 of een RX6700XT nodig zal hebben. Recent heb ik m'n CPU al geupdrade naar 5800X.
Ik kan je aanraden naar de 5800X3D te kijken. De gaming performance van die CPU tov een 5800X is vaak bizar veel beter.
Hij heeft z'n CPU al een upgrade gegeven.. als in verleden tijd.
Dat is een overweging geweest, maar de stap van m'n Ryzen 5 1600 naar m'n Ryzen 7 5800X is groter dan het verschil tussen de 5800X en de 5800X3D. Bovendien kan ik het prijsverschil mooi gebruiken de upgrade van de videokaart (nu RX590).
Bij de vergelijkingsscreenshots is goed te zien dat er nog werk aan de winkel is. Bij de hoogste settings zie je felle lichtreflecties in de schaduw... Erg bijzonder.
Extra frame generation al getest, en het werkt prima. Nadeel; je kunt v-sync niet meer aanzetten. Dus je fps schiet de pan uit.
Bij de voorbeeld screenshots, de 3e serie waar spiderman tegen de gevel hangt.
Bekijk het witte gebouw links.
Zit een verticaal bruin bordje op de gevel bij 'Medium'. Vergelijk deze eens met de andere settings ;)
Bekijk het witte gebouw links.
Bedoel je dat beige gebouw aan de andere linkerkant?
Kan iig niet zeggen dat ik zoiets enorm zou missen in de game.
Ja sorry, de ander links. En inderdaad, bij bewegend beeld zal het niet opvallen.
En inderdaad, bij bewegend beeld zal het niet opvallen.
Nou ja, het heeft denk ik niet zoveel met bewegen te maken. Het is gewoon iets waarvan je niet weet dat het anders kan en als je het spel dan speelt dan zie je geen probleem, ook al kijk je er direct naar.
Het zou mischien storend zijn als die cijfers dan alsnog ingefade worden als je dichterbij komt. Maar dat kan ik niet aan die screenshots zien.
Super die analyse van de frametimes! Dat is iets waarvan ik me al lange tijd afvroeg hoe je dat overzichtelijk kan laten zien, en dit werkt erg goed!
Het stoorde me namelijk dat je een goede framerate kan hebben en dan nog steeds haperingen kan ervaren, dat valt hierin goed terug te zien.
Helaas is deze grafiek misleidend, want DLSS3 zorgt voor hogere input latency, wat je niet uit die grafiek kan herleiden.
Mee eens, de DLSS3-resultaten negeer ik dan ook volledig ;)
Het zijn trouwens alleen de DLSS3-resultaten die een vertekend beeld geven.
De rest is volgens mij heel duidelijk en handig voor het vormen van een oordeel.
Anders was ik ook niet zo lovend in mijn reactie :)
Hogere latency dan bij de originele framerate? Dus voor het toevoegen van de frames? Of is ie hoger dan de input latency die je zou hebben als je alle details omlaag zou schroeven en daarmee dezelfde fps zou halen als de DLSS 3.0 framerate? In dat laatste geval zou ik er totaal geen probleem mee hebben. Een extra frame is wat mij betreft altijd beter dan een ouder frame wat langer op je scherm blijft staan, afgezien van artifacts waar ook niet iedereen last van heeft. En alles is beter dan slechtere belichten/textures/schaduwen/reflecties.

Het is dat ik een 30xx kaart heb en geen 40xx, maar zou DLSS 3.0 best wel eens willen proberen. Extra frames in racegames zijn altijd welkom, ook al zou je er qua latency(tov de oude/input) framerate niet op vooruit gaan. Dat is wellicht anders bij competitieve shooters, maar shooters in het algemeen zijn al heel lang mijn ding niet meer. ;)
Hoe DLSS3 werkt is dat er tussen twee al berekende frames een extra frame geinterpoleerd word.
Die hogere framerate is dus niet omdat de kaart sneller een nieuw frame berekend heeft. Vandaar dat de input latency ook omhoog gaat, want dat interpoleren kost extra tijd die gedaan word nadat het nieuwste frame al berekend was.
Terwijl als je de details omlaag schroeft je kaart wel sneller een nieuw frame berekend.

Is interpolatie altijd slecht? Nee, in VR word het heel veel gedaan als je geen 90 of 120 fps kan halen. Daar heet het dan reprojection, maar het komt in wezen op hetzelfde neer. Maar liefst heb je dat niet nodig.
Dan zorgt het inderdaad voor een hogere latency dan de originele framerate.

Reprojection ken ik zeker(had ik in eerste instantie ook iets over staan), echter dacht ik dat dat met motion vectors werkte en op basis daarvan een guesstimate deed over wat het volgende beeld zou moeten zijn(een beetje wat multiplayer netwerk code ook soms doet). Dat zou DLSS 3.0 misschien ook beter kunnen doen dan.
Tja, bij veruit de meeste games komt het niet aan op een framepje meer latency.
Dank je wel @Tweakjur en @Trygve: dat is nou precies het soort van artikel dat je nodig hebt bij het samenstellen van een game bak!
Verrassend dat 1440 en 4K nog zoveel verschil laat zien... en dat DXR soms leuke effecten laat zien maar ook een beetje "random" lijkt te zijn, waarbij de opvallender verschillen, vooral de plassen op de weg in de 2e serie foto's natuurlijk ook prima te faken is met rastorization. Raytracing is vast de toekomst... alleen niet de nabije toekomst, met een Nvidia 7090 o.i.d. verwacht ik er echt heel goede resultaten van!

Op dit item kan niet meer gereageerd worden.