AMD openbaart broncode FSR 3 en maakt details over implementatie opensource

AMD heeft de broncode voor FidelityFX Super Resolution 3.0.3 opensource gemaakt. Daarnaast heeft het de documentatie voor de implementatie van FSR 3 in DirectX 12 en Unreal Engine 5 geopenbaard. Ontwikkelaars kunnen met de sdk FSR 3 in hun games integreren.

De broncode van AMD's upscaling- en framegenerationtechnologie is via GitHub verkrijgbaar en stelt ontwikkelaars in staat om deze technieken in hun games te verwerken, licht het bedrijf in een blogpost toe. AMD raadt ontwikkelaars aan om games die momenteel FSR 2 gebruiken, te updaten naar FSR 3.0.3. Hoewel beide versies van de technologie upscaling ondersteunen, biedt de derde generatie de mogelijkheid om frames te genereren.

Het is voor zover bekend voor het eerst dat framegenerationtechnologie opensource gemaakt wordt. Hoewel Nvidia met DLSS 3 eerder een dergelijke tool uitbracht, is DLSS niet volledig opensource. Nvidia regelt de implementatie van de technologie via plug-ins, waardoor een ontwikkelaar in principe geen volledig inzicht in de broncode heeft. Het framework waarmee DLSS gedistribueerd wordt, is wel opensource.

FSR is net als Nvidia's DLSS een techniek voor temporal upscaling. Hiermee worden games op een lagere resolutie gerenderd, waarna de beelden met behulp van AI worden opgeschaald naar een hogere resolutie. Dit moet een hogere framerate opleveren zonder de vereiste van extra rekenkracht. Met de derde generatie van zowel FSR als DLSS werd eerder dit jaar framegeneration geïntroduceerd. Hiermee worden extra frames gegenereerd en geïnterpoleerd tussen bestaande frames, weer met als doel om een hogere framerate te creëren.

FSR upscaling

Door Yannick Spinner

Redacteur

15-12-2023 • 08:56

103

Submitter: Mijnenveger

Reacties (103)

Sorteer op:

Weergave:

Ik heb toch geregeld een discussie hier met iemand over DLSS (Nvidia) en AMD kaarten. Hij sfeert er bij dat DLSS en raytracing zoveel toevoegd, dat je ten alle tijden een Nvidia kaart moet kopen.

Als ik echter de BBG voorbij zie komen hier, dan wordt er al maanden lang een AMD aangeraden voor gaming pc's.

Wat is jullie mening hierover? Een AMD die native sneller is, of een Nvidia die met trucjes datzelde kan bijbenen?

Ik ben echt heel benieuwd naar de reacties.

Edit:
Ik had Raytracing misschien even weg moeten halen uit het verhaal. Het gaat hem (die vriend van me) er meer om dat een 4070 met DLSS bijvoorbeeld, beter zou presteren en je veel meer FPS haalt dan een gelijkwaardige AMD kaart, omdat DLSS echt zo "super goed werk" (volgens hem dan)

[Reactie gewijzigd door Wachten... op 23 juli 2024 00:01]

De 4090 is zeker de beste kaart, maar daarna volgt de 7900XTX op raster en 4080 is beter dan de 7900 XTX met Ray Tracing.

Ik kies dan toch voor betere raster performance, zonder upscaling als DLSS of FSR en laat RT en DLSS/FSR links liggen. Wat eigenlijk doet een 4080 RT ook nog steeds niet goed genoeg.

De 7900 XTX is eigenlijk nu een stuk beter geworden dan de 4080 op raster, een behoorlijke performance winst dankzij driver updates. De benchmarks van begin dit jaar kloppen nu niet meer.
Ik ga ook voor raster. Raytracing is prachtig, maar ik geef er liever niet de vloeiendheid van “echte” 120FPS+ voor op, en zelfs de 3090/4090 kan dat op dit moment niet.
In het algemeen sta ik er zo in. Ik ga voor een product dat in de kern goed is voor ik naar de gimmicks kijk. Gimmicks gaan vaak toch net niet goed of het verschilt heel erg per usecase.

Ten aanzien van GPU's heb ik dus liever iets dat op native sneller is / voldoet aan mijn voorwaarden voordat ik naar gimmicks als DLSS en FSR kijk. Die gimmicks zijn de extra's.
Maar wat is "native" en wat is een "gimmick"? Ooit was 3d acceleratie een gimmick, maar al lange tijd wordt dit gezien als basisfunctionaliteit. Raytracing werd eerst ook gezien als een gimmick, maar kun je nu eigenlijk wel (bijna) zien als basisfunctionaliteit voor een GPU.
Maar wat is "native" en wat is een "gimmick"? Ooit was 3d acceleratie een gimmick, maar al lange tijd wordt dit gezien als basisfunctionaliteit.
Die vergelijking gaat hier niet op. 3D acceleratie maakte gedetailleerde en soepel draaiende 3D games op PC mogelijk. We hebben dan overigens wel over < 640x480@30fps. Echt de begintijd van 3D acceleratie. Upscaling daarentegen is niet meer dan een lapmiddel voor de afname van prestaties in nieuwe generaties GPU's voor hogere prijzen. Een gimmick om op main stream GPU's toch aan de 60fps te kunnen komen in nieuwe games.

De mate waarin GPU's sneller worden is op dit moment niet toereikend om de huidige games op acceptabele resoluties en frame rates te draaien met main stream kaarten. In plaats van dat we snellere GPU's kregen heeft Nvidia een software lapmiddel gemaakt genaamd DLSS en daarna de vooruitgang van main stream GPU's stevig ingeperkt. Kleinere GPU, kleinere geheugen bus, weinig VRAM, etc. De main stream GPU's zijn goedkoper geworden om te maken.

Kijk naar de snelheidstoename van de Nvidia xx60 kaarten: 2060, 3060, 4060 en je ziet meteen waar het aan schort. Nvidia maakt de GPU's steeds duurder maar laat de prestaties niet langer significant toe nemen. Het verschil tussen de 3060 en 4060 is klein: slechts 15% op 1080p en een magere 9% op 1440p wat eigenlijk de beoogde resolutie van deze kaart is. En met de 4060Ti was een nog groter drama want die was soms zelfs trager dan de 3060Ti. Sterker nog, de 4060 had op z'n minst even snel als de 3060Ti moeten zijn.
Zie Hardware Unboxed prestatie samenvatting hier: https://youtu.be/7ae7XrIbmao?si=HLTxfvLEPJSUYZOo&t=768

Nvidia's marketing zet nu heel hard in op DLSS 3 frame generation. Want met DLSS 3 draaien je games sneller. Maar wat @CerandoX.nl en @Whopper85 zeggen klopt gewoon. Beter koop je een kaart die qua raster performance voldoet aan je eisen want dan werkt het altijd goed zonder problemen. En als je dan nog een upscaling / frame generation techniek aan wilt zetten dan is dat een leuke bonus. Maar games die enkel met upscaling / frame generation aan 60fps komen draaien nooit echt lekker want 1% lows zijn dan ruk. En dat maakt DLSS niet meer dan een gimmick. Leuk extraatje voor snelle kaarten, 'meh' voor kaarten die het nodig hebben omdat ze niet snel genoeg zijn.
De mate waarin GPU's sneller worden is op dit moment niet toereikend om de huidige games op acceptabele resoluties en frame rates te draaien met main stream kaarten.
Wat een grappige opmerking; je laat het lijken alsof de grafische complexiteit van games door een natuurlijk proces toeneemt, en dat de uitdaging voor de mensheid is hardware te maken die deze natuurlijke groei bijhoudt. Ik dacht altijd dat de grafische complexiteit van games een keus van de maker is, die hiermee rekening probeert te houden met de verkrijgbare hardware.

Natuurlijk houdt de maker ook rekening met toekomstige hardware. Mogelijk heeft 'ie de vooruitgang overschat. Maar mogelijk gaat de maker er gewoon van uit dat iedereen een upscaling-techniek gebruikt, zoals de makers van Quake II er vanuit gingen dat de spelers beschikking hadden over een Voodoo kaart met 3d-acceleratie. Linksom of rechtsom, of het nu om (AI) upscaling of 3D-acceleratie gaat, als de makers van computerspelletjes er van uit gaan dat je het gebruikt, zul je het wel moeten gebruiken voor een goede ervaring.
Haha wel goede opmerking. 4k word aangeboden, raytracing word aangeboden dus eerste instantie keuze van de maker.

Maar wel op de wensen van de klanten (en mss eerste instantie op wensen van nvidia).
Wat een grappige opmerking; je laat het lijken alsof de grafische complexiteit van games door een natuurlijk proces toeneemt, en dat de uitdaging voor de mensheid is hardware te maken die deze natuurlijke groei bijhoudt. Ik dacht altijd dat de grafische complexiteit van games een keus van de maker is, die hiermee rekening probeert te houden met de verkrijgbare hardware.
Software heeft historisch gezien altijd de vraag naar snellere hardware aangejaagd.

Een paar voorbeelden:
  • Quake waarbij men een co-processor nodig had en dus ging men upgraden naar Pentium processors.
  • Software API's zoals Glide, OpenGL en Direct3D waar men 3D accelerator kaarten voor nodig had. Opkomst van o.a. de Voodoo graphics in plaats van software rendering.
  • Vooruitstrevende games waar je de nieuwe generatie hardware voor nodig had om die lekker te draaien zoals DOOM (486 nodig), Quake (co-processor nodig), Crysis (Nasa super computer nodig).
Of als je het over non-games wilt hebben: Windows.
Probeer Windows 11, 10, 8, 7, Vista maar eens op een 486 te installeren, dat gaat niet. Je hebt er nieuwe hardware voor nodig. En zo is het met elke versie van Windows gegaan. Het OS wordt steeds zwaarder dus je hebt er steeds nieuwere hardware voor nodig om het lekker te draaien.

Bij al deze voorbeelden is het zo dat je de software misschien wel kunt draaien op huidige hardware. Maar je wilt vaak snellere hardware om het beter te laten draaien. Games op minimale of aanbevolgen hardware specs draaien levert vaak geen prettige ervaring op. In die zin is het dus zo dat software de ontwikkeling aanjaagd van steeds snellere hardware.

Het zit in ons wezen als mens dat we graag nieuwe dingen willen ervaren. Nieuwe, steeds mooiere, games is een van de manieren waarop we dat kunnen ervaren. Dat zegt niets over het genot dat te beleven valt over oudere of nieuwe gemaakte games met een retro look. Enkel dat veel mensen graag nieuwe games willen spelen en bereid zijn om daarvoor nieuwe hardware aan te schaffen. Als dat niet zo was dan zouden we allemaal prima content zijn met Pong uit de jaren '70.
Software heeft historisch gezien altijd de vraag naar snellere hardware aangejaagd.
Dat is zeker waar en dat kent zijn grenzen. Als Microsoft in 1995 een besturingssysteem op de markt had gebracht dat niet lekker werkte met een processor die trager geklokt was dan 1Ghz, dan hadden ze weinig verkocht. Een software of spelletjesmaker moet dus weldegelijk rekening houden met wat er verkrijgbaar is.
Windows.
Probeer Windows 11, 10, 8, 7, Vista maar eens op een 486 te installeren
Maar Windows 11 draait (met TPM omzeiling) op computers die met Vista geleverd zijn. Dat het OS steeds zwaarder wordt is al ruim 10 jaar geen argument meer. Linux idem dito, de minimum eisen zijn daar ook al zo'n 20 jaar hetzelfde.
[...]

Wat een grappige opmerking; je laat het lijken alsof de grafische complexiteit van games door een natuurlijk proces toeneemt, en dat de uitdaging voor de mensheid is hardware te maken die deze natuurlijke groei bijhoudt. Ik dacht altijd dat de grafische complexiteit van games een keus van de maker is, die hiermee rekening probeert te houden met de verkrijgbare hardware.
Het is een evolutionair proces omdat de hardware fabrikant het prijstechnisch altijd verliest t.o.v. de levensduur.

Wat @Blorgg hier aanstipt is wel interessant, blijkbaar heeft Nvidia moeite kosteneffectief een performance upgrade neer te zetten of hebben ze besloten hun voorsprong over een langere periode uit te smeren.
Om van die gimmick status af te komen moet het eigenlijk bij zo goed als alle games bruikbaar zijn imo.

Omdat het eigenlijk maar op weinig kaarten bruikbaar is (want anders zakt je FPS compleet in), is het draagvlak in games nog laag, ik gok dat we over 1 a 2 generaties videokaarten het meer de standaard is voor games en de meeste kaarten iig in bepaalde maten prima RT kunnen draaien...

[Reactie gewijzigd door watercoolertje op 23 juli 2024 00:01]

Gaat meer van de next-gen consoles afhangen. Als die fatsoenlijk path tracing kunnen draaien word dat de standaard. Maarja, daar heb je niks aan als je nu een 40-series kaart koopt.
Path tracing draait best goed met een RTX 4080 en RTX 4090. Ik zit constant boven de 70 FPS met enkel DLSS op quality mode zonder FG. Je hebt dus wel degelijk wat aan als je een 40-serie koopt.
Raytracing is nog geen basisfunctionaliteit om eerlijk te zijn. Het is nu een bonus in mijn ogen. Pas wanneer consoles het volle bak en constant draaien dan kan ik het pas als een noodzakelijkheid zien. Dat is nog zeker niet het geval.
AMD is niet per se native sneller, het is gewoon "meer waar" voor je geld, daarom staat hij ook in de BBG en niet omdat het de allerbeste kaarten zijn. Als je graag DLSS en RT wilt en geld speelt geen rol dan koop je een 4080 of 4090.
Is wel zo, maar ik zal zelf bijvoorbeeld nooit een 4080 of 4090 kopen. Ze zijn allebei zwaar overpriced en je krijgt echt weinig voor je geld. Maarja, als je 4090 geld hebt maakt het weinig uit denk ik dan ook. Whales zullen er altijd zijn.
Moet zeggen dat ik de demo's met RT wel altijd heel mooi vindt, maar tijdens het gamen zie ik het verschil niet, blijkbaar let ik niet op dat soort details. En FPS heb ik altijd wel over de 100, dus daar maak ik me ook nooit zorgen om.

Het hangt dus meer van jezelf af dan je denkt, mij boeien die technieken dus niet want het levert me niks nuttigs op, ervoor (extra) betalen ga ik dus niet doen.

PS ik heb nu een 7900XTX hiervoor had ik de luxe van een 6900XT en 3080 maar ben toen voor de 6900XT gegaan, was sneller in de games die ik speelde. Ik game op 3440x1440, op 4k zou DLSS/FSR misschien wel wat toevoegen om lageren FPS te voorkomen. En als je perse RT wilt gebruiken dan kan je daarmee ook je frames weer naar een acceptabel level tillen.

[Reactie gewijzigd door watercoolertje op 23 juli 2024 00:01]

Hangt er een beetje vanaf wat je budget is, wat je speelt, etc. Heb je het budget voor high-end dan gaat een RTX 4090 gewoon het beste beeld tonen in de nieuwste games. Zeker als je gevoelig bent voor artifacts dan voegt ray tracing best veel toe, en in games met ondersteuning voor path tracing al helemaal.

Maarja, ray tracing is nog lang niet essentieel (en tegen de tijd dat dat wel zo is, is je kaart alweer veroudert). Kijk je meer naar de midrange dan zou ik prijs/performance in acht nemen. En het is ook weer niet zo dat ray tracing op AMD kaarten helemaal niet werkt.
Ikzelf voel niks voor Ray Tracing, dus dat staat bij mij sowieso altijd uit, in elke game.
Raytracing is voor mij nog steeds een gimmick die te veel performance kost en FSR en DLSS kun je volgens mij tegen elkaar afstepen.

Ik zou gewoon voor de meeste bang voor de euro gaan qua rauwe performance.

Mensen die 'ten allen tijde' iets schreeuwen missen per definitie de nodige nuance. Dat is IMHO het Reddit niveau waar een 4080 of 4090 de enige goede kaarten zijn.
Volgens mij is Cyberpunk nog steeds de enige game waar raytracing dusdanig is geimplenteerd is dat het verschil in visuele pracht en praal oprecht groot te noemen is.
Maar de performance hit is nog steeds erg hard.
Dat lost DLSS dan op maar er zijn ook genoeg mensen die gewoon een beetje rauwe rekenkracht nodig hebben, zeker als je een beetje budgetbewust bent kan je AMD echt niet zomaar afschrijven.
En als je niet zo aan raytracting trekt heb je DLSS ook niet nodig.

Volgens mij zijn trukendozen zoals DLSS in de competatieve space ook niet echt populair.

[Reactie gewijzigd door Polderviking op 23 juli 2024 00:01]

Alleen Cyberpunk is niet helemaal correct. Maar wel zeker de grootste.

Er zijn de NVidia demos zoals hun Portal versie waar het verschil heel duidelijk is. maar die zijn (expres) totaal niet geoptimaliseerd waardoor je zonder DLSS 3 frame interpolatie het toch niet kan draaien. Dat was vooral een verkoopsdemo voor de 4090. En om eerlijk te zijn, vond ik het er niet beter uitzien. De art direction klopte niet meer. De effecten waren vaak overdreven zodat je ze zeker zou zien.

Een goed voorbeeld van een echte game is Metro Exodus enhanced edition. Maar daar hebben de devs echt wel goed hun job gedaan met te zorgen dat de ray tracing esthetisch goed werkt. En ook nog eens deftig geoptimaliseerd waardoor niet de allerzwaarste kaart nodig is om een mooie framerate te halen.
De enige game met raytracing en DLSS (Frame generation) waar het écht iets uitmaakt is Cyberpunk 2077 (en de next-gen versie van de Witcher 3).
Ik vind DLSS iets mooier dan FSR2 in games, maar niet wereldschokkend. Zeker niet tijdens gameplay.

De enige échte verbetering die ik momenteel zie door raytracing, zijn reflecties. Screen spaced reflecties zijn anti-immersie. Je ziet ineens reflecties verdwijnen in water/ramen/etc. Met ray-traced reflecties heb je dat niet, dus haalt het je minder uit het spel.
Ray traced belichting en schaduwen zijn natuurlijk mooi en als je er naar gaat zoeken ziet het er echt wel iets beter uit, maar de "normale" rendering in hedendaagse games zijn niet heel veel minder mooi.
Wat voor mij belangrijk is in een kaart is de raw raster performance.

1e reden is omdat RT een marketing gimmick is momenteel. Het is leuk om er even een paar screenshots te maken, maar meer dan dat niet. Simpel vanwege het feit dat je FPS, op welke kaart dan ook, er sterk onder lijdt. De grote daal in FPS is het de kleine boost in visuals niet waard. En er zijn maar momenteel 3 a 4 games die RT goed implementeren, ik ga niet voor 3 a 4 spellen speciaal Nvidia halen.

2e reden is dat DLSS, FSR en XESS allemaal de game "blurry" maken als het ware. Native zal er altijd het beste uitzien. DLSS is wel beter dan FSR en XESS, maar kan nog steeds niet op tegen native. Dus software trucs maken mij weinig uit.

3e reden is prijs. Ik wil kaarten die mij goede performance geven voor de prijs. Kijk bijvoorbeeld naar de 7900 XTX, het zit tussen de 4080 en 4090 in qua raster performance en je kan het al krijgen voor onder 1k. De 4080 kost veel meer, maar levert minder raster performance op, alleen DLSS en wat betere RT performance. De 4090 levert rond 30 fps meer in het algemeen, maar is ook 2 tot 2.5x zo duur.

4e reden is Nvidia zelf. Ik had voor lange tijd een 5700 XT, prima kaart, deed z'n werk tot ie het niet meer deed. 3090 aangeschaft en dit zijn mijn bevindingen:
-> Scherm flikkert veel ( Gsync compatible scherm ).
-> Duurde heel lang als ik ging alt-tabben.
-> Account vereist voor drivers downloaden..???
-> 2 aparte apps...??? ( in principe gewoon bloatware )
-> Heel erg outdated software.
-> Minder opties dan Adrenaline / opties moeilijker te vinden.
-> Matige performance voor wat ik ervoor had betaald.
-> DLSS was goed, maar niet echt iets dat mij wow'de.
En ik kon daar allemaal mee leven. Ik had Nvidia, zogenaamd geen driver issues, zogenaamd de betere kaart. En toen kwam ik erachter dat mijn vorige generatie bijna flagship kaart geen frame generation kon, maar een laptop 4050 wel! Kaart meteen verkocht. Voelde gewoon als een "fuck you very much" persoonlijk van Nvidia naar mij, om dat te locken achter de 40 series. Nooit meer Ngreedia kopen.
ik kan me zeker vinden in zijn uitspraak dat DLSS super goed werkt. Immers de prestatiewinst is goed merkbaar en nog belangrijker, ik merk blijkbaar het verschil niet tussen native rendering en upscaling... Tuurlijk als je DLSS op Performance zet en daarnaast een andere scherm zet met precies hetzelfde spel op native, zal ik het verschil wel merken. Maar over het algemeen zit ik vervolgens "in het spel" en merk ik de verschillen niet meer op. Het is net als bij een TV, met name de duurdere varianten hebben gewoon betere kwaliteit (panel, hardware + software) en dat zie ik heus wel indien ze naast elkaar staan (bijv bij de mediamarkt). Maar als je vervolgens de goedkopere koopt en die naar huis brengt dan wen je daar mettertijd gewoon aan, er is namelijk geen sprake meer van vergelijken van het beeld....
Ik gebruik daarom graag DLSS (quality mode) omdat ik dus eerder voorkeur heb voor vloeiender beeld dan wat kwaliteitsverlies die ik toch niet opmerk, of me er niet aan stoor. En als je inderdaad twee evenredige kaarten neemt van die twee partijen zal de NVidia met DLSS gegarandeerd meer frames uitpompen dan de AMD tegenhanger in native mode...
Ik denk dat je vooral moet kijken welke games je speelt. Raytracing en DLSS voegen voor mij persoonlijk niet zoveel toe. Dus heb ik voor een AMD kaart gekozen, daar ben ik tevreden mee.

Een ander ding om mee te nemen in de overweging is VR, dat bij nvidia vaak nog een stuk stabieler werkt.
DLLS is leuk voor een aantal singleplayer games die veel perfomance nodig hebben maar daar is het ook wel mee gezegd.
nVidia is gewoon veel te duur. AMD wint op prijs-prestatie voor raster performance, dat is de bottomline in de BBG.
De raster prestaties van nVidia zijn door de bank genomen hetzelfde als die van concurrende AMD modellen of zijn soms zelfs beter, zonder DLSS. Met DLSS wordt AMD vaak weggeblazen. Als ik die talloze reviews mag geloven.
Het is dat ray tracing bijna niets uitmaakt voor je gameplay of gamebeleving dankzij vernuftige shaders, anders zou dat niet veel goeds brengen voor AMD.
Wat ik persoonlijk ook belangrijk vind is het energieverbruik bij de geleverde prestaties, want vele honderden watts verbruiken voor een spelletje, en dat je gamepc ingericht moet worden om op te kunnen stijgen of te kunnen vriezen in de zomer geeft mij wat gewetenswroeging. Niet om de energiekosten hoor, want dat kan ik gewoon betalen. En ook in efficiency is nVidia efficienter.

On topic in dit artikel: een mooie zet van AMD om FSR zo mainstream te maken voor alle games! Dat zal de markt goed doen.

[Reactie gewijzigd door Fireshade op 23 juli 2024 00:01]

De toegevoegde waarde van DLSS voor mij, buiten de extra performance, is de extreem goede AA die het oplevert.

Ik game op 1440 en dat geeft in native rendering flinke aliasing. DLSS werkt dit in mijn beleving mooier weg dan welke andere techniek dan ook.
Fijn dat er nog een partij inzet op 'algemeen goed'. Alleen jammer dat FSR3 nog altijd slechter is dan de eerste versies van DLSS :'(
Maar het is nog steeds goed genoeg. Als je screenshots met elkaar gaat vergelijken dan kan je misschien hier en daar wat vinden, maar of je dat op gaat vallen tijdens het gamen is maar de vraag. En dat laatste is ook redelijk de consensus.
Het is niet zozeer het resultaat waarin FSR minder is, maar vooral de performance. Met DLSS kan je letterlijk van 10fps unplayable naar 80fps super smooth gaan, met FSR mag je blij zijn als je 20% performance winst hebt. Maar goed iets is altijd beter dan niets. Maar ja als de DLSS optie er is wordt ik toch altijd een stuk vrolijker. Ik heb met Starfield letterlijk gewacht tot deze beschikbaar kwam voordat ik ging spelen.
Ik weet alleen niet precies waaraan het ligt dat DLSS het zoveel beter doet, komt dit echt door die Tensor cores aanwezig op Nvidia kaarten die AMD kaarten missen?

[Reactie gewijzigd door ro8in op 23 juli 2024 00:01]

Met DLSS kan je letterlijk van 10fps unplayable naar 80fps super smooth gaan, met FSR mag je blij zijn als je 20% performance winst hebt.
Uh, nee. DLSS en FSR geven soortgelijke performance winsten. FSR ligt hooguit enkele frames achter, maar DLSS alleen geeft je niet de performance boost die jij claimt. Waarom? Zie hieronder.
Ik heb met Starfield letterlijk gewacht tot deze beschikbaar kwam voordat ik ging spelen.
Ik weet alleen niet precies waaraan het ligt dat DLSS het zoveel beter doet, komt dit echt door die Tensor cores aanwezig op Nvidia kaarten die AMD kaarten missen?
Jij hebt het nu over "DLSS 3.5"*, wat DLSS + Frame Generation is, terwijl de FSR implementatie in Starfield slechts FSR 2.2 is, appels met peren vergelijken dus.

Er zijn twee compleet verschillende technieken die hier belangrijk zijn: upscaling (resolutie) en frame generation (aantal weergegeven frames).

FSR en DLSS doen dat eerste. Afhankelijk van de preset (Quality, Balanced, Performance, Ultra Performance) wordt er op 66,7/58,8/50/33,3% van de beoogde resolutie gerenderd. Als je dus 1440p output wilt, render je respectievelijk op 1706x960, 1506x847, 1280x720 of 854x480. Omdat je veel minder pixels rendert, is je GPU in staat meer frames te renderen. Qua performance winst zijn beide grofweg gelijk; DLSS perst er in de regel enkele frames meer uit. DLSS ziet er beter uit, maar vereist dus ook een relatief nieuwe GPU. En afhankelijk van de game en implementatie (de nieuwere implementaties van FSR zijn beduidend beter) zijn de verschillen niet altijd waarneembaar tijdens daadwerkelijke gameplay.

Daarnaast is er Frame Generation, wat beide helaas onder hun DLSS (3.0+) en FSR (3+) noemers gooien, ook al heeft het volstrekt niets te maken met wat die beide technieken oorspronkelijk deden. Dat is het "verdubbelen" van het aantal frames dat op je monitor gepresenteerd wordt. Het aantal daadwerkelijke gerenderde frames blijft hetzelfde, maar nu genereren ze een tussenframe op basis van het vorige frame en het zojuist gerenderde frame (en een hoop extra data). Ik zal er wel weer kritiek op krijgen, maar plat gezegd is het gewoon interpolatie. Een slimme vorm van interpolatie, maar interpolatie niettemin. TV's doen dat ook al sinds jaar en dag, daar heet het "motion smoothing" (of een merk-specifieke marketing term, zoals LG's "TruMotion"). Nvidia en AMD doen het een stuk slimmer en accurater, maar het eind resultaat is hetzelfde: tussen frame 1 en 2 krijg je eerst frame 1,5 te zien, dat níet uit de engine komt en níet pixel-per-pixel gerenderd is...of in het geval van TV, een frame dat níet in de oorspronkelijke videostream zat.

Die laatste techniek zit nog niet in Starfield met FSR (is namelijk versie 2.2, niet 3). Dat is waarom jij hogere cijfers met DLSS ziet. Ik speel het spel niet, dus ik weet niet of je Frame Generation uit kan zetten, maar als dat wel kan zul je zien dat de performance resultaten tussen FSR en DLSS grofweg gelijk zijn.

Waar Nvidia's hardware DLSS een voordeel geeft is in de beeldkwaliteit. Zij doen de upscaling met een machine learning algoritme, waardoor hun upscaling beter kan gokken welke kleur een "nieuwe" pixel moet krijgen. Zo'n ML model draaien op simpele shaders kan wel, maar is een stuk trager, vandaar dat AMD's upscaling een eenvoudigere methode toe past waardoor het er iets minder uit ziet, maar dus ook op veel meer hardware werkt.

* Starfield gebruikt DLSS 3.5, wat DLSS + FG + Ray Reconstruction is. Aangezien het spel geen RT doet is RR niet aan de orde. FG kwam er bij vanaf 3.0.

[Reactie gewijzigd door Werelds op 23 juli 2024 00:01]

Volgens mij is DLSS 3 frame generation en biedt 3.5 ook ray reconstruction. Dat laatste is dan weer een functie die ook door 30-series cards ondersteund wordt, exclusief de frame generation.
Och ja, sorry, 3+ is met FG, 3.5+ met RR. Zal het even aanpassen. Dat is waarom ik die versie nummers hekel en ze zelf nooit gebruik.
FSR werkt ook gewoon op Nvidia kaarten dus daar zal het niet aan liggen denk ik.
Bij mijn weten draait FSR echter niet dedicated op Tensor cores, denk dat @ro8in dat bedoelt. DLSS heeft die specifieke hardware config van NVidia nodig om te kunnen werken.
Maar DLSS die het dus veel beter doet werkt niet op AMD kaarten, omdat deze niet de benodigde Tensor cores hebben die NVDIA kaarten wel hebben. Ik vermoed dus dat daarom DLSS zoveel beter werkt. Maar technisch gezien heb ik hier verder nooit ingedoken dus dat is enkel maar een vermoeden. Maar het is wel echt een wereld van verschil kwa prestaties. Waar in Starfield FSR amper verschil maakt voor mijn gevoel, kan ik met DLSS aan echt alles op Ultra hoog, hoogste resolutie gewoon makkelijk op 60fps spelen. Maar met enkel FSR was dat echt niet haalbaar.

[Reactie gewijzigd door ro8in op 23 juli 2024 00:01]

DLSS 3 Frame Generation maakt gebruik van de hardware Optical Flow module op de RTX 40x0 series GPU's.

Optical Flow is een techniek waarmee tussen twee opeenvolgende beelden bepaald wordt hoe pixels zich verplaats hebben tussen deze twee beelden. Je kan dan door gebruik te maken van de bewegingsvectoren die dit oplevert een betere inschatting maken hoe je tussen beeld 1 en beeld 2 een extra frame kunt genereren.

Dit is natuurlijk niet de hele truuk die DLSS 3 toepast voor Frame Generation, maar het is wel een van de meest tijdrovende zaken die je nodig hebt. En een hardware accelerator die dit voor je kan doen is natuurlijk veel sneller dan het equivalente te moeten doen in software (en waarschijnlijk geeft het je de mogelijkheid om OF parallel te laten uitvoeren aan de andere zaken die nodig zijn).

FSR 3 FG zal ongetwijfeld hetzelfde proberen te doen in software (als ze universeel willen zijn voor alle GPUs), maar zal in dat geval ergens offers moeten brengen. Dus of minder resolutie voor OF of minder vaak een volledige OF slag doen en gebruik maken van temporele data.
Ik weet niet precies hoe de optical flow processoren gebruikt worden. Ik dacht dat dat meer iets is wat bij TVs gebeurt. Bij FSR en DLSS moet je als ontwikkelaar zelf een vector veld aanleveren waarmee je de snelheid/verplaatsing van elke pixel aangeeft. Dit is een van de redenen waarom frame generatie op GPUs zoveel beter werkt dan op TVs, er is veel meer informatie.

De informatie had je vaak toch al omdat deze ook nodig is voor TAA en motion blur.
NVIDIA heeft een overzicht van hoe DLSS werkt hier neergezet:

https://www.nvidia.com/en...ral-graphics-innovations/

Uit die sheets haal ik dat Optical flow gebruikt wordt voor pixel effects zoals shaduwen e.d. en de geometrie motion vectors voor veranderingen daar. Deze twee worden dan door het A.I. model gebruikt om te beslissen hoe het specifieke interpolatie frame het best geconstrueerd kan worden.
Ah bedankt voor het overzicht, ik had me nog niet specifiek in DLSS verdiept maar ooit wel geprobeerd mijn hobby engine aan FSR te koppelen. Vandaar mijn halve understanding.
Ik denk dat het motto "het is beter dan niets" een goeie is.
Voor apparaten als de Steamdeck is FSR een enorme uitkomst. Prima voor het 1280x800 schermpje ook.
Maar op mijn laptop met RTX3070Ti kaart moet ik toch echt DLSS gebruiken als het spel t heeft. Dan is FSR3 echt een tegenvaller.
DLSS vs FSR gaat normaliter over upscaling, in jouw voorbeeld refereer je denk ik naar DLLS + Frame Generation. FSR3 biedt dat ook en bij een goede implementatie kan het resultaten geven die kwa performance richting DLSS gaan.
Het komt kort gezegd omdat een deel van de Nvidea kaarten niet gebruikt wordt bij games en wel ingezet wordt voor DLSS.
FSR is kaart-agnostisch en maakt dan ook gebruik van hetzelfde deel als games doen. Het zal dus de rekenkracht die daar beschikbaar is moeten delen met de game waarvoor het ingezet wordt.
Dat is ook de reden dat nieuwere versies van DLSS alleen op nieuwere kaarten van Nvidea werken, bij oudere kaarten is dat deel dat gebruikt wordt voor DLSS niet krachtig/uitgebreid genoeg.

Zelf ben ik juist een voorstander van de aanpak van AMD, het stukje algemene inzetbaarheid is voor mij de doorslaggevende factor.
er is letterlijk geen enkele benchmark die dit kan bevestigen, een toename van 800% dankzij DLSS ?
Hetzelfde geldt trouwens voor je uitspraak over blij zijn met 20% met FSR....
Ik snap je punt waarin je wilt aangeven dat DLSS in het algemeen betere snelheids- resultaten oplevert dan FSR, maar je post moet echt wel met een tikkeltje, of zoals jij het zou verwoorden een vrachtwagenlading vol, zout genomen worden....
ro8in is gewoon aan het trollen. Don't feed the troll.
We weten allemaal dat FSR en DLSS zeer vergelijkbare resultaten geven. Zeker wat betreft prestaties.

Het enige waarin DLSS een duidelijke voorsprong heeft is de kwaliteit op zeer lage resolutie. Maar op zeer lage resolutie heb je sowieso genoeg performance en hoef je geen DLSS en FSR in te zetten.

En DLSS heeft iets minder artefacten in bepaalde specifieke situaties.
Het is ook wel de vraag waarom je eerst 10ftps haalde. Is dat vanwege ray tracing en vind je dat belangrijk? Dan moet je inderdaad bij nVidia wezen. Is het vanwege rasterization, dan ben je op dit moment met de meeste games beter uit met een AMD-kaart. Die haalt dan zonder FSR en DLSS hogere fps, en dan kan daar nog 20% bij. En 20% meer fps met een basisinput met meer detail, en dus meer 'echte' frames levert beeld op dat onder de streep vergelijkbaar scoort als DLSS. Knap dat DLSS daar minder 'valide' input voor nodig heeft, tuurlijk, maar onder de streep zie je dan dezelfde kwaliteit.
Hebben we het hier over versie 3 van de technologie, dus frame generation?

Want voor versie 3 moet je toch al een speelbare framerate hebben, anders ga je toch te veel artifacts krijgen, of laat ik zeggen, de inferieure frames staan te lang op je scherm waardoor ze te zichtbaar worden.

[Reactie gewijzigd door ctrl-tab op 23 juli 2024 00:01]

Screenshots vergelijken? Maar je speelt een game toch niet als screenshot? Juist bij bewegend beeld valt FSR erg tegen, in mijn ervaring. Zodanig zelfs dat ik spijt heb van mijn aankoop van een 6700XT en toch maar weer naar Nvidia neig te gaan.

[Reactie gewijzigd door Laidbackninja op 23 juli 2024 00:01]

Als je focus legt op games die enkel DLSS capabel zijn en al de rest dan vergeet, ja dan heb je meer aan een nvidia kaart. Echter op al die games die geen specifieke DLSS ondersteuning hebben en je een prijs gelijke kaart neemt dan is die AMD sowieso beter.

Er is een duidelijke tendens tegenwoordig om SW optimalisatie specifiek door een hw vendor te aanzien als een keuze voor die vendor specifiek als voordeel, mijn inziens is dit foute beweging en volledige lock-in.
Ik ben van het princiepe, loop niet voorbij je schoenen, ik heb design op 2K focus 144hz, ik koop mij dan ook een kaart die daartoe capabel is. Mijn 6800XT voldoet dus al 2 jaar ruim aan die keuze.
Nou, het verschil is vaak ook vrij makkelijk te zien zonder in te zoomen in een screenshot. Vooral als je van Quality -> Balanced of Performance gaat is het verschil tussen DLSS en FSR upscaling enorm imo. Dan vind ik dat DLSS Performance er vaak even goed uitziet als FSR Quality.. Al ligt het vreemd genoeg ook een beetje aan de game. Zelfs XeSS ziet er beter uit dan FSR.

Gelukkig lijkt de frame generation van FSR wel erg goed te zijn. Iets hogere latency, maar qua beeld best oké. Het is gewoon nog steeds alleen die upscaling wat het zo veel minder maakt.

Hopelijk ondersteunen alle games die FSR3 frame generation ondersteunen, ook DLSS frame generation. Of kunnen we tenminste gebruik maken van DLSS upscaling + FSR frame generation.
https://assetsio.reedpopc...=100&format=jpg&auto=webp
https://assetsio.reedpopc...=100&format=jpg&auto=webp

Dit valt zeker wel op tijdens het gamen.
AMD en Nvidia lopen te pronken met 1440p naar 4k upscaling wat een heel beperkte usecase is, maar waar FSR best goed werkt. Maar bij lagere bronresoluties presteert DLSS duidelijk beter en toont minder artifacts bij bewegende beelden, en dat is zeker bij low-end of midrange kaarten (waar deze technieken juist essentieel worden) zeer welkom.

Maar goed, je kunt beter analyses bekijken met bewegende beelden en zelf je oordeel vellen dan de promotionele afbeeldingen van de fabrikant geloven.

[Reactie gewijzigd door Wolfos op 23 juli 2024 00:01]

Ligt er maar net aan in welke bubble je zoekt. FSR is gewoon een stuk minder performance winst en een stuk minder mooi dan DLSS. Spellen die je met DLSS op maximale settings kunt draaien met nagenoeg geen verlies in beeldkwaliteit en 60FPS draaien met FSR op medium settings amper.

Ligt natuurlijk ook weer aan welke hardware je hebt en welke instellingen je gebruikt, maar het verschil merk je toch echt wel als je boven de 30FPS gewend bent
Ik denk dat dat eerder aan de implementatie ligt dan aan de technologie zelf.
Nu FSR open source is zou dit wel eens kunnen gaan veranderen.
Laten we realistisch blijven. De reden dat AMD dit doet is omdat ze achterlopen op Nvidia en een kleiner marktaandeel hebben, en ze dus iets op de tafel moeten brengen waarin ze beter zijn dan het alternatief. En dat dus gedaan door het een open implementatie te maken. Wat natuurlijk mooi is, maar het is niet alsof AMD die vanuit de goedheid van hun hart doet. Het is ook gewoon een miljardenbedrijf.
Misschien niet vanuit de goedheid van hun hart, maar 'omdat ze minder marktaandeel hebben' betwijfel ik. Drivers van AMD zijn al jaren open source voor zover ik weet. Dit zijn geen nieuwe acties ofzo.
In elk geval gaat het argument hier (drivers) niet op dat open-source resulteert in betere kwaliteit (wel, die gaat wel vaker niet op, maargoed)
Heb zoveel issues gehad met AMD drivers. Nee, doe mij maar gewoon de 'top dog' , nivida. (heb AMD cpu overigens ;) )
In elk geval gaat het argument hier (drivers) niet op dat open-source resulteert in betere kwaliteit
Maar dat zegt ook helemaal niemand. Ik iig niet, behalve voor Linux, waar het wel degelijk geholpen heeft. Het kan wel resulteren in betere kwaliteit, maar dat is zeker geen garantie.

[Reactie gewijzigd door JakkoFourEyes op 23 juli 2024 00:01]

Top dog… heel m’n leven amd gehad en nooit problemen. Nu ruim twee jaar een 3090 en nog nooit zoveel driver problemen gehad bij Nvidia. Los van de problemen, is de UI van Nvidia echt een ramp om doorheen te navigeren.

Ik heb regelmatig artefacts op m’n scherm als ik game. Dan weet ik, is weer tijd om die drivers van Nvidia te verwijderen en opnieuw te installeren. Top troep noem ik het.
Het is simpelweg een andere strategie. Het heeft geen nut om maar zonder goede reden ethiek of motieven erbij te betrekken, het enige wat het bereikt is dat discussies zuur ruiken en blijven ruiken.
Ze moeten inderdaad goodwill creeeren bij de gemeenschap. Dat doen ze opzich goed. Deze trend is gezet destijds met free-sync vs g-sync.
Nu zijn free-sync en g-sync technisch volgens mij gelijkwaardig en hebben ze Nvidia daar terecht een hak gezet.

Met FSR ligt het natuurlijk anders. FSR haalt het niet bij DLSS kwaliteit.
Wel benieuwd of de onderste steen nog ooit boven komt mbt compatibiliteit (is er daadwerkelijk custom hardware nodig voor DLSS?)
je kan de 2 ook totaal niet vergelijken, FSR kan je uitvoeren op eender wat, DLSS is enkel na training van ML toepasbaar. Nvidia gebruikt hiervoor al specifieke cores terwijl AMD did door hun algemene pipe stuurt. Als er nieuwe AMD generaties komen met specifieke tiles voor FSR gaan we mogelijks een heel ander verhaal krijgen.

De functionaliteit is dus wel vergelijkbaar, maar wegens open en closed source en limited open scope totaal niet hetzelfde. IN uw geval met DLSS kan het dus zijn dat je nog een maand moet wachten en de kans of het er al of niet komt.

maarja, je zoveel issues terug, heeft eigenlijk geen nut om te proberen uitleggen want je bent al zo stockvast met je eigen mening van ooit, vroeger, etc....

[Reactie gewijzigd door d3x op 23 juli 2024 00:01]

Volgens mij bieden ze dezelfde functionaliteit en is FSR het antwoord van AMD op DLSS. Je kan ze prima vergelijken. Appels met Appels.
De implementatie details zijn niet zo relevant imo. Het eindresultaat wel.


Geen idee wat je bedoelt met de laatste alinea.
Euh, ik denk dat FSR 2 al redelijk wat beter is als de eerste versie van DLSS. Je moet nu ook geen argumenten gaan verzinnen.
Weet niet hoe je daar bij komt, FSR2 zag er al beter uit dan de eerste versie van DLSS.
slechter is dan de eerste versies van DLSS
Niet volgens Digital Foundry
jammer dat FSR3 nog altijd slechter is dan de eerste versies van DLSS
Dat is simpelweg onzin: DLSS1 was echt heel slecht, met enorm veel ghosting en enorm lelijke artifacten. Ook moest nvidia per game een apart model trainen waardoor de techniek totaal niet schaalde. FSR1 was van in het begin al beter dan DLSS1, en sinds FSR 2.2 is het verschil met DLSS 2 en hoger eigenlijk (hoewel het er nog altijd is) best klein.
Volledig mee eens. Op een 4k TV zie ik het verschil niet tussen FSR en DLSS maar op een 3440x1440p monitor is het verschil wel goed zichtbaar bij een stil staand beeld. Maar ik moet eerlijk toegeven, waneer ik er niet op let en helemaal op ga in de game, valt het niet meer op.
Ik vind FSR2 helemaal niet zo slecht eigenlijk. Het zal ook afhangen van de game, en ik ontken niet dat DLSS doorgaans wat betere resultaten geeft, maar je moet dan wel op specifieke dingen gaan letten, en dat doe ik tijdens het spelen niet. Ook laten reviewers soms met inzoomen zien dat de één beter is dan de andere, maar wie speelt er nu ingezoomd?
De eerste versies van allebei waren schandalig slecht. FSR3 is zeker veel beter dan DLSS1.
Alleen jammer dat FSR3 nog altijd slechter is dan de eerste versies van DLSS
Alle versies van DLSS voor 1.9 waren zo slecht dat AMD's CAS + upscaling er VEEL beter uit zag. En CAS was iets dat perongeluk ook voor upscaling gebruikt kon worden, dus ik heb werkelijk geen idee waar je het hier over hebt.
Pas vanaf 2.x werdt DLSS bruikbaar.
Omdat ze hulp van buiten af nodig hebben.
Vragen. Ze vragen het. En dat is een prima strategie, eentje die ook goed aansluit bij de development cultuur van de 21e eeuw.
Tactisch besluit van amd. Dit kan voor versnelling in de ontwikkeling zorgen om bij te benen met DLSS. Nu verwacht ik echt niet dat dit heel snel zal zijn, maar het kan zeker helpen.
Ze willen niets bijbenen. Ze willen dat de markt kiest voor een opensource standaard, zodat Nvidia niets meer heeft aan die marketing troef. Want laten we eerlijk wezen dat is het. Geen hond kiest er voor te upscalen als ze het ook gewoon native kunnen draaien. En de enige keren dat men het wel gebruikt is omdat Nvidia na een game release, 3 maanden ontwikkeltijd tegen een al uitgebrachte game laat gooien om het er "beter" uit te laten zien met realtime raytracing op hun kaarten, en dat draait zo bedroevend slecht dat je upscaling moet gebruiken om het speelbaar te houden. En dat alles om hun marktaandeel te houden, met als gevolg dat hun fanbase hier die technieken loopt op te hemelen terwijl ze het eigenlijk helemaal niet gebruiken. En doen ze dat wel ziet hun game er gewoon ruk uit.

Het zijn allemaal technieken om ontoereikende hardware iets op je scherm te toveren waarvan je kunt zeggen, meh kan ermee door. Dat is iets waar ik in iedergeval geen 2000 euro voor neer tel.

[Reactie gewijzigd door Seth_Chaos op 23 juli 2024 00:01]

Je hebt overigens helemaal gelijk. Nu rest mij alleen nog een 4090 te kopen om in ieder geval het idee te krijgen dat ik "toereikende" hoeveelheid pixels op me scherm kan "toveren".
Persoonlijk zou ik dan geen 1000 euro extra betalen voor hardware die je niet gaat en of wil gebruiken. En ook niet kiezen voor de fabrikant die, die ontwikkeling aanjaagt. Maar goed ieder zijn ding.
Zou mooi zijn als dit nog op mijn steam deck beland
Als een game FSR3 implementeert zou dit gewoon moeten werken gezien het gebruik maakt van DirectX/Vulkan in de back-end.

Ik vermoed dat je verwijst naar het implementeren van FSR in gamescope zodat je het kan gebruiken in alle games ongeacht van of de game het zelf ondersteund of niet. FSR2 en hoger kan niet worden geïmplementeerd in gamescope, het is diepte-buffer informatie nodig om AA toe te passen, dit is informatie waar de compositor geen toegang tot heeft.
Blijft mijn grootste hoop, een globale upgrade van FSR naar FSR 2 of 3. FSR 2 op Steam Deck met Deathloop zag er fantastisch uit, helemaal als je het vergelijkt met FSR 1
Ik lees in de reacties veel over de nut of onzin van RT bij een kaart als de 4090, maar niets over de enorme stroomverbruik. Ik heb een 7900XTX en zeer tervreden. Terecht staan de AMD kaarten hoog in de BBG. Ik laat de 4090 maar aan de kopers die altijd alles op alles willen zetten om de beste, snelste en duurste te kopen.
Ik laat de 4090 maar aan de kopers die altijd alles op alles willen zetten om de beste, snelste en duurste te kopen.
Maak daar maar of van ipv en!
Cool, nu kan het aan steamOS toegevoegd worden ;)
Dit kan je alleen maar waarderen
Dit gaat FSR hopelijk snel beter maken, nu straks meer mensen er aan kunnen werken. Is alleen maar goed.
En het kan de lat om het te implementeren in games ook alleen maar ten goede doen.
Dat was ik ook aan het denken, omdat er zoveel mensen nu de kans hebben om eraan te werken kan er iets heel mooi uitkomen.
Omdat er meer mensen aan kunnen werken garandeert niet dat het ook gebeurt, genoeg opensource die gewoon alleen onderhouden wordt door degene die het publiceert. Vaak is het niet interessant om je er helemaal in te verdiepen om het werkelijk te kunnen verbeteren, en heeft het niet echt toegevoegde waarde boven een closed source variant. Leuk dat je de mogelijkheid hebt, maar kost vaak teveel moeite om het zelf verder te onderhouden.
Dit is fantastisch nieuws!
Zeer benieuwd hiernaar. Ik ben zelf wel een graphics freak die alles er zo goed mogelijk uit wil laten zien. Maar mijn computer kan dat jammer genoeg niet draaien.

Tijdens het gamen zelf merk ik echter dat spelen met DLSS ultra performance aan 1440p prima te doen is, ondanks artifacten. Ik vermoed dus dat FSR3 zeker welkom zal zijn en ik er niet veel last van zal hebben.

Op dit item kan niet meer gereageerd worden.