Met DLSS kan je letterlijk van 10fps unplayable naar 80fps super smooth gaan, met FSR mag je blij zijn als je 20% performance winst hebt.
Uh, nee. DLSS en FSR geven soortgelijke performance winsten. FSR ligt hooguit enkele frames achter, maar DLSS alleen geeft je niet de performance boost die jij claimt. Waarom? Zie hieronder.
Ik heb met Starfield letterlijk gewacht tot deze beschikbaar kwam voordat ik ging spelen.
Ik weet alleen niet precies waaraan het ligt dat DLSS het zoveel beter doet, komt dit echt door die Tensor cores aanwezig op Nvidia kaarten die AMD kaarten missen?
Jij hebt het nu over "DLSS 3.5"*, wat DLSS + Frame Generation is, terwijl de FSR implementatie in Starfield slechts FSR 2.2 is, appels met peren vergelijken dus.
Er zijn twee compleet verschillende technieken die hier belangrijk zijn: upscaling (resolutie) en frame generation (aantal
weergegeven frames).
FSR en DLSS doen dat eerste. Afhankelijk van de preset (Quality, Balanced, Performance, Ultra Performance) wordt er op 66,7/58,8/50/33,3% van de beoogde resolutie gerenderd. Als je dus 1440p output wilt, render je respectievelijk op 1706x960, 1506x847, 1280x720 of 854x480. Omdat je veel minder pixels rendert, is je GPU in staat meer frames te renderen. Qua performance winst zijn beide grofweg gelijk; DLSS perst er in de regel enkele frames meer uit. DLSS ziet er beter uit, maar vereist dus ook een relatief nieuwe GPU. En afhankelijk van de game en implementatie (de nieuwere implementaties van FSR zijn beduidend beter) zijn de verschillen niet altijd waarneembaar tijdens daadwerkelijke gameplay.
Daarnaast is er Frame Generation, wat beide helaas onder hun DLSS (3.0+) en FSR (3+) noemers gooien, ook al heeft het volstrekt niets te maken met wat die beide technieken oorspronkelijk deden. Dat is het "verdubbelen" van het aantal frames dat op je monitor gepresenteerd wordt. Het aantal daadwerkelijke
gerenderde frames blijft hetzelfde, maar nu genereren ze een tussenframe op basis van het vorige frame en het zojuist gerenderde frame (en een hoop extra data). Ik zal er wel weer kritiek op krijgen, maar plat gezegd is het gewoon interpolatie. Een slimme vorm van interpolatie, maar interpolatie niettemin. TV's doen dat ook al sinds jaar en dag, daar heet het "motion smoothing" (of een merk-specifieke marketing term, zoals LG's "TruMotion"). Nvidia en AMD doen het een stuk slimmer en accurater, maar het eind resultaat is hetzelfde: tussen frame 1 en 2 krijg je eerst frame 1,5 te zien, dat níet uit de engine komt en níet pixel-per-pixel gerenderd is...of in het geval van TV, een frame dat níet in de oorspronkelijke videostream zat.
Die laatste techniek zit nog niet in Starfield met FSR (is namelijk versie 2.2, niet 3). Dat is waarom jij hogere cijfers met DLSS ziet. Ik speel het spel niet, dus ik weet niet of je Frame Generation uit kan zetten, maar als dat wel kan zul je zien dat de
performance resultaten tussen FSR en DLSS grofweg gelijk zijn.
Waar Nvidia's hardware DLSS een voordeel geeft is in de beeldkwaliteit. Zij doen de upscaling met een machine learning algoritme, waardoor hun upscaling beter kan gokken welke kleur een "nieuwe" pixel moet krijgen. Zo'n ML model draaien op simpele shaders kan wel, maar is een stuk trager, vandaar dat AMD's upscaling een eenvoudigere methode toe past waardoor het er iets minder uit ziet, maar dus ook op veel meer hardware werkt.
* Starfield gebruikt DLSS 3.5, wat DLSS + FG + Ray Reconstruction is. Aangezien het spel geen RT doet is RR niet aan de orde. FG kwam er bij vanaf 3.0.
[Reactie gewijzigd door Werelds op 23 juli 2024 00:01]