Nvidia verbetert DSR op RTX-gpu's met AI voor hogere fps

Nvidia brengt op vrijdag Deep Learning Dynamic Super Resolution uit, waarbij een game op een hogere resolutie wordt gerenderd en daarna wordt gedownscaled om een betere beeldkwaliteit te geven. Dankzij AI moet Dldsr meer fps genereren dan het reguliere DSR.

Dldsr werkt alleen op GeForce RTX-gpu's en gebruikt kunstmatige intelligentie om met minder inputpixels dan reguliere DSR nodig heeft, een beeld 'met vergelijkbaar beeldkwaliteit' te produceren. Nvidia geeft het voorbeeld van het in 2017 verschenen Prey, waarbij in DSR een 4k-beeld wordt gedownscaled naar een 1080p-beeld. Het bedrijf claimt met Dldsr een vergelijkbaar beeld te kunnen produceren als een 1620p-beeld wordt gedownscaled naar een 1080p-resolutie.

Het voordeel is dat in Dldsr 143fps wordt bereikt, terwijl bij DSR 'slechts' 108fps wordt gehaald omdat er eerst een hogere resolutie gerenderd moet worden. Zonder de twee technieken zou 145fps gehaald worden. Met Dldsr kan een pc dus een betere beeldkwaliteit genereren, terwijl de fps bijna gelijk blijft, zegt Nvidia.

DSR verscheen in 2014 voor het eerst. De schalingstechnieken verbeteren volgens Nvidia details, zorgen voor zachtere randen en verminderen glinsteringseffecten. Dldsr verschijnt op vrijdag met een nieuwe Game Ready-driver en is binnen het Nvidia Control Panel in te schakelen. Dan verschijnen ook nieuwe Freestyle-filters, die het bedrijf samen met ReShade-ontwikkelaar Pascal Gilcher heeft gemaakt. Zo komen Screen Space Ray Traced Global Illumination, ook wel bekend als de Ray Tracing ReShade Filter, ssao en Dynamic DOF naar GeForce Experience.

Nvidia Dldsr Deep Learning Dynamic Super Resolution

Door Hayte Hugo

Redacteur

12-01-2022 • 09:43

94

Submitter: zikje

Reacties (94)

94
92
74
3
0
14
Wijzig sortering
SSAA heette die vroeger toch?
Of een andere naam met "Super Sampling". Eigenlijk nooit gebruikt, zelfs niet met oudere games. De performance impact was vaak gewoon té hoog.
Maar als ik dit zo lees... Dan lijkt t een onwijs goede oplossing. Ik vraag mij alleen af in hoeverre dit nuttig zal zijn voor de nieuwste AAA games die al vaak de grenzen van de nieuwste hardware opzoeken.
Ik hoop dat dit soort technieken op PCVR werken. Met redelijke hardware kun je op een 27-40 inch scherm alles wel vrij helder draaien alleen AAA games in VR zakt de fps echt ver naar beneden. Voor een fijne ervaring wil je toch wel naar een fijne ervaring wil je toch naar een stabiele 80-90 fps gaan en indien mogelijk 120 fps. Dit soort technieken zijn fantastisch om op een mogelijke lagere resolutie te draaien maar hetzelfde visuele beeld te hebben met een hogere fps.

In VR word alles wat op je monitor er helder uitziet uitvergroot waardoor je alle gebreken ziet. DLSS werkt ook niet in VR games voor zover ik heb gezien omdat de kwaliteit van de game in VR sterk achteruit gaat en het beeld veel minder scherp wordt in tegenstelling waar je op een monitor de meeste mensen dit veel minder snel of helemaal niet zien.

[Reactie gewijzigd door -Tweakert- op 23 juli 2024 02:16]

Wellicht samen met Foveated rendering en dan waar de ogen kijken met deze techniek omhoog schroeven...

Poah, ik zie idd wel toekomst voor VR hier mee!
Ik heb het getest en het lijkt een marketing gimmick van Nvidea, heel smerig. DLDSR heeft prakties dezelfde performance hit als DSR wat al een jaar uit is. Maar ze hebben wel weer leuke buzz gecreëerd. Achterbaks ook.
Hmm. DLSS 1.0 was destijds ook niet echt schokkend. Pas na een hoop updates en met DLSS 2.0 waren de verschillen enorm en onwijs positief. Wellicht is het weer zo'n "pijplijn, AI training dingetje"?
Dat zeggen ze indd. Ik geloof dat DSR en DLDSR voor 1080 wel iets kan toevoegen op een monitor. Of als je een heel groot beeldscherm hebt. De meeste hebben echter 27 of 32 inch als monitoren waarbij de resolutie op 1440p al zo hoog is dat het verschil zeer klein is terwijl de extra performance kost hoog is.
Ik doe dit weleens bij wat oudere games. Render resolutie op 150% zetten, dan heb je mooiere anti-aliasing.
yep was een ideale setting...als je genoeg prestaties had om het te laten draaien. vooral oude games werden dan gewoon een screenshot in motion, zo lekker kalm beeld
Klopt, alleen met SuperSampling was het gewoon op hogere resolutie renderen om vervolgens op een lagere resolutie monitor te tonen. Het mooie aan deze oplossing met AI is dat de Tensor cores aan de gang gaan in plaats van impact op je GPU cores.

SuperSampling was(is?) trouwens één van de beste manieren om VR beeld scherp te krijgen. Het verbeterde de ervaring (vele malen scherper beeld) gigantisch toen ik het gebruikte i.c.m. een HTC Vive. Arme grafische kaart toentertijd!
Haha ja goeie. Sommige VR games, mocht je GPU t aankunnen, kan je inderdaad op meer dan 100% van de resolutie van de headset draaien.
Bij bijv de Rift S kreeg je super fijn haarscherp beeld.
Ik had de hoop dat DLDSR voor VR zou werken dat is helaas niet zo op het moment. Daar zou het moment wel echt verschil kunnen maken.
Dat is zeker jammer inderdaad! Zal in de toekomst vast wel komen, VR loopt altijd iets achter zeker gezien games tegenwoordig handmatig ingeschakeld moeten worden op dit soort technieken.
Soms gebruik ik dit of een ingame resolutie slider op ongeveer 120%. Er zijn gevallen waar dat beter werkt dan high anti aliassing setting met gelijkaardige of betere performance. AC Origins bijvoorbeeld werkte een beetje supersampling veel beter dan de ingebouwde AA op hoogste setting. Zeker wanneer ze in de AA ook adaptive resolution steken, kan het manueel forceren soms beter resultaat geven.
Ligt het aan mij of ik zie geen verschil tussen de 3 afbeeldingen behalve een afwijkende fps counter.
Misschien helpt dit:

https://www.nvidia.com/en...dsr-ssrtgi-comparison-01/

hogere kwaliteit, fullscreen en een handige slider waarmee je heen en weer kan.
Beetje flauw dat Nvidia dan gelijk ook een GI implementatie overheen legt. Nogal wiedes welke screenshot er dan beter uitziet.

Dat is alsof je wil laten zien dat 1080p er beter uitziet dan 720p, maar vergeet dat je ondertussen ook elke andere setting van low naar high hebt gezet.
Doet mij een beetje denken aan die monitor reclame van 60 fps/hz en 120 fps/hz met een stilstaand beeld. 8)7
Dat kan wel en de meesten zijn nog niet eens zover van de realiteit (niet voor niks wordt de UFO tests voor dit soort dingen graag gebruikt). Zo'n vergelijk is niet perfect en lastig uit te voeren.
Dit daarentegen is echt opzettelijk misleiding.

[Reactie gewijzigd door Darkstriker op 23 juli 2024 02:16]

Marketing he. Iedereen denkt "oh ja vet die ene is inderdaad veel beter, goed bezig nVidia". Wij als techneuten balen omdat je nu alsnog niet duidelijk de impact van die techniek ziet.

Een vriend van mij heeft een 4k tv, en hij was er zo blij mee, want zijn netflix zag er zo mooi uit in 4k. Series zien er op 4k veel mooier uit dan wat hij vroeger keek, zei hij. Ja nogal wiedes, maar toen we erachter kwamen dat hij gewoon een full hd abo heeft realiseerde ie zich dat dat dan weinig met de 4k te maken heeft en alles met de cinematografische vooruitgang en betere beeldeigenschappen van de tv.
Daar hebben ze de helft van de grafische features in de native afbeelding uitgezet zodat hun screenshot met de magische AI er beter uitziet. Wat een marketing BS.

Ik hoop echt dat tech reviewers hier niet weer zo in de marketing trappen als bij DLSS maar dit soort schimmige manipulaties keihard te grazen nemen. WTF echt.

[Reactie gewijzigd door Darkstriker op 23 juli 2024 02:16]

Oja beetje minder hakkeltjes, maar zou liever gamen met links, zie je de enemy beter.
Viel mij ook al op. Als er al verschil is zie je dit tijdens het gamen echt niet.
Wel als je een heel groot scherm hebt of PCVR games speelt waarbij dit hopelijk ook werkt natuurlijk.
Kijk maar eens naar de tekst op de dozen. 'Petersons' is wel degelijk een stuk scherper op de rechter afbeelding.

[Reactie gewijzigd door Craftop op 23 juli 2024 02:16]

Dat is vooral een contrastverschil. Die NV techniek verhoogt het contrast tussen de tekst en de box waardoor het scherper lijkt, maar niet scherper is. Er is veel aliasing in die screenshot maar ik vind dat rechts niet vergelijkbaar met het middelste. Het is marginaal beter dan het linker maar dat is het dan ook.
Dat is toch een beetje wat ze willen aangeven? Met een betere manier van schalen dezelfde kwaliteit krijgen met een hogere fps. DSR4x moet dus op 4k gerenderd worden en gedownscaled worden naar 1080p waardoor je meer recources nodig hebt en dus een lagere fps hebt. Met de nieuwe DLDSR2.25x krijg je dezelde kwaliteit met maar renderen op 1620p en downscalen naar 1080p.
Alle 3 plaatjes zie ik geen verschil in kwaliteit, kun je net zo goed DSR uit laten want Nvidea claimt dat de beeldkwaliteit verbetert moet worden indien ingeschakelt.

Dan vraag ik mij af waarom toon je dan 3 afbeeldingen met alleen een klein verschil in fps.
Kun je net zo goed DSR helemaal uitgeschakeld laten.

Je zou verwachten dat de afbeelding waar DSR uitgeschakeld is een slechtere afbeelding moeten zijn.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 02:16]

Er zit wel verschil in. Ik zag het eerst ook niet, maar de preview van de afbeelding is wazig/pixelated. Pas als je de afbeelding volledig opent, zie je het.
Afbeelding 3 is ietsje scherper en lijkt net iets meer details te bevatten. Het viel mij voornamelijk op aan de plant die links in het beeld staat.
Het zijn in ieder geval details die in game niet opgaan vallen verwacht ik.
Hier is een hogere resolutie van dat afbeelding:
https://cdn.videocardz.co...ge-quality-comparison.jpg

Hier kun je wat meer verschil zien. Voornamelijk de text op de kartonnen dozen en ook de metalen baren overheen dat licht dat schijnt naar de dozen.
Ik zie minimaal verschil en niet consistent...

De naam Petersons op de 1e doos links vind ik het beste er uit zien met de minste "Jaggies" op plaatje 1
De plaat die op het plafond hangt in de achterste ruimte heeft op plaatje 2 en 3 weer minder "Jaggies".

Blijf het raar vinden.... meer tekenwerk om het vervolgens "weg te gooien" (want uiteindelijk blijft het aantal pixels gelijk)....
Ik zie ook geen moer verschil. En als je t ziet is het maar 1% beter. Dan kies ik toch weer liever voor de extra 2 fps die je meer krijgt hoor :D
Ik vraag me af hoe renderen op 1620p en dan downscalen ooit kan met 143fps, terwijl 1080p zelf al met bijna dezelfde fps (145fps) gaat. Enkel renderen op 1620p, dus zonder de extra downscaling-stap er achteraan, zou al meer dan 2fps verschil moeten geven ten opzichte van 1080p, en daar komt de downscaling dan nog eens bovenop...

Oftewel, klinkt leuk, maar ik neem wel even een strooiwagen zout bij deze cijfers. De enige reden voor deze cijfers die ik kan bedenken is dat daar een flinke CPU-bottleneck aanwezig is, waardoor dit eigenlijk niks zegt over de grafische prestaties. :+

[Reactie gewijzigd door bwerg op 23 juli 2024 02:16]

Veelal is er geen CPU bottleneck maar vanwege de engine/applicatie kan er niet meer gelijktijdige Threads aangestuurd worden waardoor een gedeelte van de CPU onbenut blijft, vandaag de dag zie je dat nog heel veel.

De applicatie geeft welliswaar heel veel Threads aan maar in praktijk zijn er maar een paar die daadwerkelijk 100% zijn en de rest op idle.

Ik was vooral benieuwd naar de frame times.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 02:16]

Dat een aantal cores aan het idlen is betekent niet dat er geen CPU-bottleneck is. Er is sprake van een CPU-bottleneck als de CPU de beperkende factor is voor de performance. Of er nog ongebruikte cores zijn (of ongebruikte cache, of ongebruikte bandbreedte, of wat dan ook) is daarvoor niet van belang.

Als er daadwerkelijk sprake is van een CPU-bottleneck zijn deze cijfers wel echt extreem nutteloos.

[Reactie gewijzigd door bwerg op 23 juli 2024 02:16]

Ongebruikte cores is een "fout" van de programmeur die niet weet hoe de hardware correct aan te spreken, de bottleneck zit in de software en niet de CPU want die krijgt simpelweg geen instructies aangeleverd over meerdere Threads.

Veel software gaat vandaag de dag alsnog doodleuk als een schaap 1 voor 1 door de CPU rammen terwijl het wel in een wachtrij staat wat eigenlijk verwerkt had moeten worden.

Je kan alsnog 100+ fps projecteren met een CPU bottleneck echter heb je dan een delay omdat de videokaart niet op tijd gevoed wordt, dit merk je aan muis/keyboard gedrag alsof er een buffer in zit wat je bij video streaming ook hebt of bijvoorbeeld stuttering.

fps is niks meer dan een getal als je de frame times niet weet, films ervaren wij ook als soepel ondanks maar 24fps.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 02:16]

Ongebruikte cores is veelal een "fout" van de programmeur die niet weet hoe de hardware correct aan te spreken
Dit is ronduit flauwekul. Niet alle problemen zijn eenvoudig te multi-threaden, het is geen vinkje in je compiler die even alles magisch voor je regelt.

Ja, je kan moeite steken in zoveel mogelijk cores gebruiken maar afhankelijk van de toepassing kan dat botsen met de eenvoud van je code, verhoogt het doorgaans het risico op bugs en het kan zelfs simpelweg onmogelijk zijn. Multi-threaded code schrijven bestempelen als "correcter" is dus onzin.

Ja, sommige zaken zijn inherent extreem parallelliseerbaar. Typisch voorbeeld zijn grafische algoritmes die je onafhankelijk kan uitrekenen voor verschillende stukjes van het beeld. Daar kun je het een 'fout' noemen als een professioneel stuk software geen multi-threading ondersteunt. Maar bij de typische applicatie-afhankelijke business-logica (in het geval van een spel de 'spelregels') is het uitzoeken van hoe je zaken in threads opsplitst gewoon handwerk, en vaak niet eenvoudig. Sterker nog, met de 12 of meer threads die een beetje game-pc vandaag de dag al parallel kan draaien is het evenredig verdelen van het werk over al die threads een enorme opgave.

[Reactie gewijzigd door bwerg op 23 juli 2024 02:16]

Waarom? Nagenoeg alle consoles zijn al jaren multi-threaded.
Sterker nog, consoles waren al multi-core te noemen voordat x86 desktop CPU's dat waren.
Deze techniek is vooral bedoeld om (oudere) games er beter uit te laten zien op lage resolutie. Vooral games waarbij de bottleneck niet de GPU is. Als je met je GPU al een bottleneck hebt op 1080p in je games, dan denk ik niet dat deze techniek je FPS gaat verbeteren. In tegendeel. Voor die situaties hoop je dat de game DLSS ondersteund.
Vooral games waarbij de bottleneck niet de GPU is.
Ja, prima, maar presenteer dan niet de FPS als methode om de performance van je GPU-pipeline aan te tonen (zoals NVidia letterlijk doet). 8)7

Dit is een beetje alsof je een renault twingo presenteert, zegt dat 'ie even hard gaat als een ferrari, en de aap uit de mouw is dat ze beide 100km/u gaan omdat dat de maximumsnelheid op de snelweg is. :+
Het idee zal zijn kijk hoe weinig impact het heeft, wat op zich een goed stuk informatie is.
Dat stuk informatie is niet goed als die cijfers misleidend zijn.

Iets op 2,25 keer zo hoge resolutie renderen heeft niet 1,5% impact op de prestaties.
Dat kan verder prima hoor, als je CPU de GPU bottlenecked zit er vaak nog een hoop extra power in de pijp. Dus hoe duurder je GPU hoe meer dit waarschijnlijk waar is.
Ja, en nu komen we terug bij de post waar je op reageerde: presenteer dan niet de FPS als methode om de performance van je GPU-pipeline aan te tonen. Ze zeggen bij het plaatje "kijk hier eens naar de geweldige performance van ons nieuwe algoritme" waar je dan FPS-tellertjes in ziet - die dus niks zeggen over de performance van het algoritme.
Ja maar dit hele algoritme is nou juist voor exact deze situatie (dus de zelfde waar je vroeger gewoon DSR gebruikte) dus het is verder volkomen logisch om het zo te brengen. Als je GPU limited bent is het natuurlijk een dom idee maar dat was het altijd al en Nvidia gaat er nu vanuit dat men dat begrijpt.

Het hele punt is "betere kwaliteit met dezelfde FPS omdat je GPU power over hebt" het enige wat omhoog zal gaan is de power.
en Nvidia gaat er nu vanuit dat men dat begrijpt.
Aangezien de uitleg gaat over dat het nieuwe algoritme "betere performance" geeft dan DSR, die voor dezelfde context bedoeld is, en ze dat toelichten aan de hand van concrete FPS-getalletjes, klopt die uitleg simpelweg niet. Als ze waren uitgegaan van GPU-limited situaties 1) was het hele verhaal over performance van het algoritme t.o.v. DSR overbodig geweest, want 2) dan had DSR ook gewoon 143 FPS gescoord. DSR heeft precies dezelfde toepassing, dus waarom is die dan ineens wel GPU-bottlenecked?

Antwoord: ze kiezen hier de bottlenecks precies zo dat je het verschil met DSR nog net wel ziet maar het verschil met gewoon native op 1080p renderen niet, en ze geven zelf nul informatie over of er wel of niet bottlenecks spelen en hoe de cijfers tot stand gekomen zijn. Dat is gewoon goochelen met getallen. Het plaatje wekt de suggestie dat je de kwaliteit van DSR krijgt met de grafische zonder performancehit t.o.v. native renderen, dat dat enkel zo is als je je CPU-bottleneck precies juist kiest is echt niet iets om onder het tapijt te vegen.

[Reactie gewijzigd door bwerg op 23 juli 2024 02:16]

Voor wat oudere spellen icm een moderne high end GPU is het vrij normaal dat fps op 1080p en 1440p niet veel verschilt, maar fps op 4k nog wel een stuk lager is.
Ja, prachtig, maar als de curve tussen performance en beeldkwaliteit wil weergeven met wat FPS-cijfers zorg je natuurlijk wel dat die CPU-bottleneck niet precies ergens halverwege de curve komt binnenwandelen, zonder dat je uberhaupt de CPU bottleneck (of de CPU zelf) even benoemt.

Of juist wel, als je op de marketing-afdeling van NVidia werkt. :P

Tuurlijk kan deze situatie bij een gemiddelde gamer thuis toevallig een keer voorkomen, maar als je de performance van je nieuwe GPU-techniek presenteert is een CPU-bottleneck die halverwege de vergelijking stilletjes komt binnenvallen - precies in het voordeel van de nieuwe techniek - gewoon misleidend.
Weinig verschil tussen 1080p en 1440p (en ga er van uit dat 1620p niet heel veel verschilt) geldt voor een groot deel van de spellen die uitgebracht zijn voor videokaarten van een paar generaties terug. Die spellen hebben vaak wat minder goede antialias opties, dus juist voor die spellen is supersampling een uitkomst. Dus precies de spellen waar je het wil gebruiken hebben een goede kans vrij goed met de marketing cijfers overeen te komen.

En natuurlijk moet je niet alleen van marketing cijfer uitgaan. Maar in eerste instantie lijkt mij dit niet overdreven misleidend.
Heb je ook helemaal gelijk in.
Ik heb de press release ook twee keer moeten bekijken. Maar kwam ergens tegen dat het een "instant remaster" zou zijn van any title. En dat is ook de reden waarom ze de demo doen met een game uit 2017.
Bij het plaatje zeggen ze "Check out the improvement in performance vs. the original below". Oftewel: deze FPS zijn een correcte weergave van de prestaties van de genoemde algoritmes. Nou, dat denk ik dus niet.

Als ze zeggen "hoi, dit kost wel wat performance, maar die heb je bij een oude game toch wel en het wordt er veel mooier van!" dan geef ik ze 100% gelijk.

Laten we het maar houden op een over-ijverige marketing-afdeling. :P
Ik denk dat ze met die performance doelen op het verschil in beeldkwaliteit met de zeer minimale impact op de FPS.
Ja, en dat is het hele punt: die "zeer minimale impact" is dus zeer twijfelachtig.
Ze bedoelen toch de performance winst ten opzichte van de 'oude' DSR? Die lijkt me wel onmiskenbaar. Gezien het er grafisch eerder beter dan minder uit ziet.

[Reactie gewijzigd door Me_Giant op 23 juli 2024 02:16]

Schalen ze niet gewoon op van 1080p naar 1620p via DLSS om daarna te downscalen naar 1080p? Dat zou precies de performance verklaren. Dan gaan ze niet echt naar 1620p, maar naar een nep 1620p.
Dat is niet wat NVidia aangeeft. Ze zeggen letterlijk
DLDSR (Deep Learning Dynamic Super Resolution) renders a game at higher, more detailed resolution before intelligently shrinking the result back down to the resolution of your monitor. This downsampling method improves image quality by enhancing detail, smoothing edges, and reducing shimmering.
"Render at a high resolution" laat toch weinig ruimte voor creatieve interpretatie over, lijkt me.

Daarnaast vraag ik me ook af of eerst upscalen en dan weer downscalen niet een super-omslachtige manier is om grafische kwaliteit te verbeteren. Je doet eerst veel moeite om dubbel zo veel pixels te vullen en gooit ze dan ook weer weg. Ja, door de manier waarop je ze weggooit voegt het wat detail toe maar er bestaan veel gangbaardere en goedkopere "sharpening" methodes die effectief hetzelfde te doen zonder dat je daarvoor een complete dubbel zo grote render buffer hoeft te vullen.

Voorzichtige conclusie: ze renderen inderdaad eerst op hogere resolutie, maar dan zijn deze cijfers BS.

[Reactie gewijzigd door bwerg op 23 juli 2024 02:16]

De enige reden voor deze cijfers die ik kan bedenken is dat daar een flinke CPU-bottleneck aanwezig is, waardoor dit eigenlijk niks zegt over de grafische prestaties.
Ik denk precies dat dit het is. Op 1080p met een RTX-kaart zit je al gauw tegen een CPU-bottleneck aan.
Ik vraag me af hoe renderen op 1620p en dan downscalen ooit kan met 143fps, terwijl 1080p zelf al met bijna dezelfde fps (145fps) gaat.
cpu bottleneck?
Niet alleen sneller dan vanaf 4k te schalen maar blijkbaar ook veel scherper!

Snap niet hoe de performance hit maar 1.5% kan zijn (tov native 1080p) als je een 2.25x hogere resolutie rendert en daarna ook nog omlaag schaalt...

Ben wel benieuwd of het echt zo goed werkt want dan is native 1080p natuurlijk praktisch overbodig als je praktisch zonder performance-hit gewoon 1620p kan renderen :)

Enige wat ik kan bedenken is dat die 145FPS met 1080p is van tijdens de launch van Prey (2017) van DSR4K en dat nu door driver optimalisatie al 220fps (oid) is en er dus wel een performance-hit is maar die wordt verborgen door met oude resultaten te werken voor 1080P en 4K downscale.

[Reactie gewijzigd door watercoolertje op 23 juli 2024 02:16]

Omdat ze eigenlijk niet upscalen met deze techniek, maar gewoon de DLSS techniek gebruiken op de native resolutie, in plaats van een lagere upscalen naar native. Met als nadeel (althans in mijn ervaring) dat je soms wat oversharpening en wat kunstmatig versterkte elementen krijgt. Wel heb ik gemerkt dat sommigen dat ervaren als 'betere beeldkwaliteit'. Dus het is maar net wat je zoekt.
Moet dit dan niet onder het (rechter) plaatje staan als opgaat wat jij zegt:
1080p > 1620p > 1080p

En ze stellen wel degelijk (ook op de site van Nvidia zelf) dat ze een hogere resolutie redeneren:
DLDSR (Deep Learning Dynamic Super Resolution) renders a game at higher, more detailed resolution before intelligently shrinking the result back down to the resolution of your monitor.
Ik weet nou niet of je DSR en DLSS door elkaar haalt of dat je een andere interpretatie hebt dan ik van de teksten die tweakers en nvidia schrijven. Maar in principe upscale DSR niet maar downscaled het juist, het is juist een tegenhanger van DLSS (al zou een combi zoals jij het lijkt te verwoorden ook mogelijk kunnen zijn).

[Reactie gewijzigd door watercoolertje op 23 juli 2024 02:16]

Als Nvidia nou van zichzelf vindt dat een upscaled resolutie via DLSS gewoon zo genoemd mag worden? In hun DLSS marketing noemen ze een upscaled resolutie van sub 4k via DLSS naar 4k ook gewoon '4k'. Dan zeggen ze ook gerust 'renders at 4k'. We hebben het hier over marketing hè, niet een technische presentatie.

[Reactie gewijzigd door fapkonijntje op 23 juli 2024 02:16]

laat maar begrijp hem al

[Reactie gewijzigd door glennoo op 23 juli 2024 02:16]

Nee, DSR is downscalen van een hogere resolutie naar native. Dat doet Nvidia en AMD al heel lang. Vroeger heette dat SSAA. Super Sample anti aliasing.

Nu is er een alternatief voor dat trucje dat beter beeld moet opleveren dan native, maar met lagere performance impacct op basis van machine learning. Hierbij is er sprake van upscaling van het native beeld via dezelfde techniek als DLSS, maar waar normale DLSS een lagere resolutie naar native opschaalt, schaalt DLDSR de native resolutie op naar een nog hogere resolutie om die weer te downscalen.
Die lage performance hit geldt natuurlijk alleen voor spellen die op 1620p nog steeds CPU limited zijn. Dus voornamelijk oudere spellen.
Ik ben heel blij met deze verder ontwikkeling die Nvidia doorvoert. Fijn dat je met een eerdere generatie RTX kaart ook nog goed mee kan en dat er geld wordt gestopt in verdere optimalisatie van die kaarten. Ze hadden ook kunnen denken "wil je een betere performance? dan koop je maar een nieuwe GPU".

Voor mijzelf is het verder alleen nog niet zo relevant in de zin van dat ik helaas nog geen betaalbare kaart heb kunnen vinden. Hopelijk houdt mijn MSI GTX 980 het nog even vol :). Voor wie bijvoorbeeld een RTX 2060 of hoger heeft, enjoy!
Ik ben er niet zo blij mee, het is de zoveelste closed source eigenwijze implementatie. Ik ben een groter fan van technieken die gewoon overal werken, zoals AMD FSR. Ik snap dat Nvidia dat doet om marktaandeel vast te houden, maar goed voor de consument is anders.
Het ligt niet aan Nvidia dat AMD achter loopt. Neem CUDA bijvoorbeeld. Dat is populair geworden omdat AMD jarenlang geen werkbaar alternatief bood. Nu met RTX en DLSS hetzelfde verhaal. Toen Nvidia daarmee kwam konden AMD kaarten dat gewoon niet.
Uiteindelijk gaat de industrie ook liever voor een gezamelijke oplossing, maar dan moet het wel net zo goed werken.

[Reactie gewijzigd door Wolfos op 23 juli 2024 02:16]

Uiteindelijk gaat de industrie ook liever voor een gezamelijke oplossing, maar dan moet het wel net zo goed werken.
Ik ben een aardige Nvidia fan boy, maar ik heb niet het idee dat zij gaan voor "een gezamenlijke oplossing". Ik zie eerder het tegenovergestelde: zij komen met een closed source oplossing (Hairworks, DLSS), terwijl AMD dan met een open source oplossing komt (TressFX, FSR).
Als FSR net zo goed zou zijn dan zou niemand nog DLSS implementeren, want het is gewoon extra werk. Echter is het niet net zo goed.

Hairworks is wel een goed voorbeeld: dat gebruikt niemand meer, want het werkt alleen op Nvidia kaarten.

[Reactie gewijzigd door Wolfos op 23 juli 2024 02:16]

Raar vergelijk van je. FSR is niet zo goed als DLSS, maar FSR werkt wel overal op alle GPU's en met veel beperktere performance impact. Appels met peren dus, de technieken zijn compleet anders. Dat FSR bij gebrek aan DLSS een interessant doch kwalitatief minder alternatief is, dat is wel zo.

Wat je het liefst hebt moet je zelf weten. Zelf doe ik veel met Linux en waardeer ik open standaarden, dus dat DLSS beter is, doet mij niets, want het is in mijn ogen vervelend vanwege dat het de zoveelste gesloten techniek is van Nvidia, hoe goed het ook is. Je merkt ook dat ze de afgelopen jaren de Linux support hebben zitten verknallen en AMD is in dat gat gesprongen. Nvidia moet niets hebben van zaken die open zijn, zo veel is wel duidelijk.

AMD komt iedere keer met open alternatieven en echt niet altijd later dan Nvidia.
Het gaat niet om voor of achterlopen, dat is jouw verzinsel. Het gaat om dat als er een nieuwe techniek komt en die komen óók op tijd bij AMD vandaan, dat het dan voor de markt in z'n totaal leuker is als dat niet zo'n gesloten oplossing is.

Je licht hier wel specifiek Nvidia technieken uit. Er zijn ook AMD technieken, maar die zijn nooit closed begonnen. Ik noem een Vulkan dat begon als Mantle. Nvidia is groter en heeft een grotere waffel, dat betekent niet dat AMD niets doet of dat Nvidia altijd voorloopt. Die kunnen gewoon meer herrie schoppen.
Mantle is het slechtste voorbeeld wat je kunt bedenken. Mantle zelf is nooit open geweest, INtel had interesse maar mocht het niet gebruiken. Pas op het moment dat Mantle morsdood was is het als basis voor Vulkan gebruikt. En dat staat nog los van de vraag hoe "open" een standaard kan zijn als deze volledig door 1 bedrijf bepaald wordt.

[Reactie gewijzigd door cnieuweboer op 23 juli 2024 02:16]

Ik plaats een reactie over dat ik het op prijs stel als iets een open standaard is en niet een gesloten standaard en jij komt aan met voorlopen of achterlopen. Je kunt ook met open standaarden voorlopen, hoe hebben die twee in jouw hoofd met elkaar te maken? Ik kan de link niet leggen.

Reageerde je per ongeluk op de verkeerde?

OpenCL is niet van AMD, maar van de Khronos Group waar Nvidia ook in zit. Raytracing op AMD kaarten gaat behoorlijk goed, het is alleen iets minder snel in sommige situaties. Tja, iemand moet de snelste zijn. Maar wie de snelste is of wie de langste heeft heeft weinig te maken met of iets een open standaard is. Je hoeft niet overal zo'n pissing match van te maken. Zeker niet als het totaal irrelevant is voor het onderwerp.
Dan moet je toch verder kijken als je als bubble. Want alles wat Nvidia gedaan heeft heeft tot open source alternatieven geleid. Iets dat AMD nooit en te nimmer uit zichzelf gedaan had. (Met uitzondering van nvenc waar amd nog altijd geen antwoord op heeft).

En daarna voegt nvidia vaak de open standaarden ook toe ondanks dat de closed source varianten beter zijn.

De consument wint dus..

[Reactie gewijzigd door computerjunky op 23 juli 2024 02:16]

Ik volg je niet, wat heeft Nvidia gedaan dat tot open source en open standaard geleid? En wat heeft Nvidia precies toegevoegd van de open standaarden? Je zegt wel wat, maar je zegt ook zo weinig.

Ook je conclusie dat AMD iets niet uit zichzelf zou doen is een beetje uit de lucht gegrepen. AMD heeft altijd al open standaarden omarmd, dat zit in hun bedrijfscultuur.
-Nvidia kwam met G-sync >amd kwam met freesync > Nvidia voegde ook freesync toe = win win win.
-Nvidia kwam met Physx op de GPU > openGL kwam met een cpu alternatief = Win voor de gamer
-Nvidia kwam met hairworks > openGL kwam met een alternatief = Win voor de gamer
-Nvidia kwam als eerste met Ray tracing > amd volgde = win voor de gamer
-Nvidia kwam met DLSS > AMD kwam met FSR > Nvidia kwam met NIS > amd Komt nog met FSR op driver level = win win win win win voor gamers.

En zo kan ik nog wel even door gaan. Dat Nvidia met iets komt dat hardware specifiek is is niet perse slecht gezien het de competitie die vrij lag is wakker houd en dus ons als eindgebruiker meer geeft voor ont geld. Veel van deze dingen was AMD zelf echt niet uit zichzelf mee gekomen. Je kan dus wel blind AMD de hemel in prijzen voor de open standaarden maar omdat ze altijd achter de feiten aan lopen en zelf niet genoeg innoveren hebben ze eigenlijk geen keuze.
Het moment dat amd niet meer achter loopt is het moment dat ze niet meer zo pro consument zijn. kijk maar wat ze nu al bij de threadripper cpu's doen. Daar mag je voor bepaalde zaken ineens extra betalen.

Al me al heeft Nvidia ons de gamer heel veel gebracht wat we zonder Nvidia nog lang niet gehad hadden.

Iets verder kijken dus want die mooie open standaarden waar je blijkbaar zoveel waarde aan hecht (*ondanks dat ze vaak niet de beste van de 2 zijn) hadden niet bestaan zonder de druk om te 'innoveren' (kopiëren) vanuit Nvidia.

[Reactie gewijzigd door computerjunky op 23 juli 2024 02:16]

DLDSR is een driver level functie, totaal niet te vergelijken met FSR.
FSR is toch ook aangekondigd als een feature in de driver voor spellen die het default niet ondersteunen? Zoals hier.
Dat is RSR, het verschil tussen FSR en RSR is juist dat de ene driver level is en de andere niet. RSR is (net zoals DLDSR) driver level en werkt daarom alleen voor AMD GPU's. En zo zitten er in de AMD, Nvidia en Intel GPU drivers natuurlijk allerlei functies die alleen werken voor de videokaart waar de driver voor geschreven is. Dus niet echt voorbeelden van open standaarden. En volgens mij is geen enkele bruikbare Windows GPU driver is opensource.

Daarnaast is niet DLDSR maar NIS het alternatief voor FSR: https://github.com/NVIDIAGameWorks/NVIDIAImageScaling
Functie en beeld kwaliteit is hetzelfde, beide zijn opensource, beide kunnen heel makkelijk in spellen geïntegreerd worden, en beide hebben een driver implementatie (FSR in de form van RSR).
Benieuwd hoe het werkt, is het een soort hybride DSR/DLSS? Nvidia gaat er niet echt op in, maar het lijkt me dat het hier om vergelijkbare technieken gaat.
Het is eigenlijk een soort DLSS in reverse. In plaats van upscalen van lage resolutie naar hoge resolutie, downscalen ze hier van hoge resolutie naar lagere resolutie + een AI sausje.
Ben benieuwd welk effect dit in VR gaat hebben. MSAA is in sims vaak echt nodig om minder shimmering e.d. te krijgen, maar heeft veel impact op performance. Als dit in de plaats van MSAA zou kunnen werken is dat goed nieuws!
Helaas is DLSS in VR nog niet erg bruikbaar (wazig beeld), dus hoop dat bij downscaling er niet dit soort negatieve bijwerkening zijn in VR.
Moet een spel dit dan ook wel ondersteunen of werkt het dan gelijk op spellen die DSR ondersteunde?
Het originele artikel is hier jammer genoeg nogal vaag in:
DLDSR works in most games on GeForce RTX GPUs, thanks to their Tensor Cores.

Ik veronderstel dat elke game het ondersteunt maar je niet in elk spel even veel performance winst haalt tegenover DSR. Ben benieuwd.
Wat mij opvalt is dat het juist weer blokkeriger wordt, maar door het hogere contrast scherper wordt. De doos in de laatste afbeelding krijgt veel duidelijkere schaduws aan de rechterkant die niet in het origineel aanwezig zijn. Ook wordt de zwarte tekst van de doos zwarter.

Mijn eerste indruk van de 3 afbeeldingen is dat de middelste er het beste uit ziet.

[Reactie gewijzigd door Pindamann op 23 juli 2024 02:16]

Super! Ik gebruik nu al zeer vaak DSR om games in 4K te renderen en down te scalen naar 1080p (omdat ik op mijn TV game en deze nog geen 4K heeft). Als het dan nog scherper en met hogere FPS kan ben ik blij :D
De plaatjes gaan als volgt: 1080p native, 4k downscaling (oude methode), 1620p downscaling (nieuwe methode). Er is inderdaad weinig verschil tussen plaatje 2 en 3 te zien maar wel een behoorlijke fps winst. Cool!

Op dit item kan niet meer gereageerd worden.