Nvidia bevestigt eerste games die DLSS 3-ondersteuning krijgen

Nvidia maakt de eerste games bekend die binnen nu en een week ondersteuning voor DLSS 3.0 krijgen. De functie is vanaf het moment van schrijven voor enkele titels beschikbaar, maar voorlopig alleen in combinatie met een GeForce RTX 4090-gpu.

De eerste games met Deep Learning Super Sampling 3-ondersteuning zijn inmiddels beschikbaar, zo laat Nvidia in een blogpost weten. Het gaat onder meer om de pc-port van Marvel's Spider-Man Remastered, Super People, Loopmancer en de grafische showcase Justice ‘Fuyun Court’. Microsoft Flight Simulator en A Plague Tale: Requiem krijgen daarna op respectievelijk 17 en 18 oktober een update voor DLSS 3-ondersteuning. F1 22 krijgt 'binnenkort' ondersteuning voor Nvidia's nieuwe functie.

De games kunnen na een update vanaf de vermelde data met DLSS 3 gespeeld worden, mits er een Nvidia GeForce RTX 40-serie gpu gebruikt wordt. Praktisch betekent dit dat de update voorlopig alleen voor systemen met een RTX 4090 relevant is, aangezien de 4080 pas in november uitkomt. De RTX 4090 werd officieel op 12 oktober uitgebracht. Gebruikers met een oudere RTX-videokaart kunnen in DLSS 3-games wel DLSS 2 Super Resolution gebruiken.

Later krijgen onder andere Cyberpunk 2077, Hitman 3, Stalker 2 en The Witcher 3: Wild Hunt ondersteuning voor DLSS 3. Er zijn tot dusver 35 games bekendgemaakt die de technologie gaan ondersteunen. In dezelfde blogpost kondigt Nvidia daarnaast DLSS 2.0-ondersteuning aan voor onder meer Kena: Bridge of Spirits, PC Building Simulator 2, Destroy All Humans! 2, Gotham Knights en Sackboy: A Big Adventure.

DLSS 3.0 is de nieuwste versie van Nvidia's upscalingtechnologie en introduceert onder meer het creëren van 'nieuwe frames'. Nvidia legt tegenover Tweakers uit hoe de technologie een soort tussenframes rendert om 'aanzienlijk hogere framerates' mogelijk te maken. Daarnaast blijft DLSS 3 ook een techniek voor upscaling, net als voorgaande versies. Daarbij worden games gerenderd op een lagere resolutie en vervolgens met AI opgeschaald naar een hogere resolutie. Daarmee moet de techniek voor hogere framerates zorgen zonder een grote impact op de beeldkwaliteit.

Nvidia DLSS 3.0

Door Yannick Spinner

Redacteur

12-10-2022 • 16:16

94

Submitter: Xtuv

Reacties (94)

94
93
33
2
0
48
Wijzig sortering
Alleen is de 4090 zó snel dat het ook niet nodig is om DLSS te gebruiken.
Nog een reden waarom DLSS op een RTX4090 vrij nutteloos is, hij kan max maar 120 fps op 4k weergeven.
Dat is niet waar.
Eerst fact checken voor je "feiten" gaat verspreiden.

Je kan geen 4:4:4 boven de 4k 120fps, maar je kan makkelijk naar de 4k 240fps als je wil, alleen moet je dan subsampeling gebruiken.

De frames komen gewoon door hoor
Je kan het wel gebruiken om flink wat stroom te besparen
Als je dan je fps locked, anders is er 0 stroom besparing.
Je kan ook de power target verlagen en/of undervolten, schijnt relatief weinig fps te schelen maar wel een veel lager stroomverbruik. Het verlies aan fps kan je dan met DLSS weer ruimschoots goedmaken. In theorie kan je er een hele zuinig kaart van maken die met DLSS 3 evengoed presteert als de stock kaart.
Kleeft er nog een risico aan dat undervolten, of is het volledig risicoloos?
Je moet het rustig opbouwen met stapjes naar beneden in voltage totdat je merkt dat de boel onstabiel wordt. Dan weer een stapje hoger. Geen risico want je kan je kaart niet over de kling jagen, hij valt alleen uit als het voltage te laag wordt. Het is wel aan te raden het goed te doen dus wel handig om er even het een en ander over te lezen.
Ja daar ging ik een beetje van uit
voelt alleen wel een beetje dubbel als je eerst meer dan 2200 e uitgeeft aan een RTX 4090 om vervolgens te gaan bezuinigen op het verbruik :P
Dit is meer bedoelt voor die 144Hz monitoren denk ik. Zonder DLSS haalt zelfs een 4090 denk ik geen 4K @ 144FPS in moderne games.
Ook heb je bij zulke hoge framerates minder last van die extra frame latency en zul je eventuele artifacts nauwelijks opmerken.

[Reactie gewijzigd door Wolfos op 22 juli 2024 20:02]

De 4090 haalt wel 144 fps @ 4k in moderne games, misschien niet op alle settings op ultra, maar in de meeste games gaat die 144 fps @ 4k makkelijk halen.

Enkel een probleem, de rtx4090 kan niet meer dan 120 fps op 4k weergeven, door de hdmi/displayport standaard die die gebruikt, grote blunder van Nvidia in mijn ogen.

Benchmarks die laten zien dat de 4090 meer dan 144 fps haalt in 4k in veel games, zelfs ruim erboven:
https://www.youtube.com/watch?v=tZC17ZtDmNU

[Reactie gewijzigd door Vlizzjeffrey op 22 juli 2024 20:02]

Kan nergens iets vinden over dat probleem, heb je daar ergens een bron voor?
Boven de 120hz/fps moet je over gaan op chroma subsampling. Dus niet de 4:4:4 die je bij 120 hebt.

Nu speel ik al een paar jaar op een 144hz 4k monitor, en tijdens het gamen merk je hier geen zak van. Windows en dan vooral tekst oogt lelijk, maar in games is het niet te zien, ook niet met hdr.

Ben een flinke muggenzifter als het op beeld kwaliteit aankomt, maar dit is een non-issue voor game gebruik.
Er bestaan toch high end monitoren waarbij je het scherm gesplitst kunt inzetten tussen 2 inputs die allebei een 32:9 1080p signaal doorsturen?

Wie zo gek is om echt op dat soort refresh rates in 4K te willen gamen zal ook flink in de buidel willen tasten voor een monitor?
Nvidia noemt al 2 generaties 8K 7680x4320 waar ik overigens 2 hele monitoren van vind in de prijsvergelijker. Ze zullen wel TV's in gedachten hebben bij Nvidia maar wie zit er nu met een Desktop met dikke RTX kaart op een TV. Okay toegegeven ikzelf al sinds 2018 met een OLED TV maar ik weet dat ik van de weinigen ben. Ik betwijfel zelfs of ik het verschil tussen 2160p en 4320p wel zal zien op 3 meter afstand maar wellicht is mijn 65 inch TV daar te klein voor ;)

Deze RTX 4090 is dan alleen ook puur marketing. De standaard is 1440p dat zal prima gaan met een RTX 3080 en lager.

categorie: Monitoren
Ik zit met een 3080 op een 4k tv te tokkelen
Same here, monitor dan welteverstaan 😊

[Reactie gewijzigd door Heav_y_Fun op 22 juli 2024 20:02]

"Ze zullen wel TV's in gedachten hebben bij Nvidia maar wie zit er nu met een Desktop met dikke RTX kaart op een TV."

Ik. ACC Simracing met RTX3080 op een 65" 4K/120Hz TV (dus ook op <1meter van het scherm;)
Ja idd als ik een TV icm mijn desktop gebruik dan zit ik er ook echt 2,5 meter vanaf. Ook op een OLED 65 inch. Niet voor SIM racen, ik ben meer van Forza Horizon. Maar ik snap je setup al heb ik ook een hdmi glasvezelkabel en een paar actieve usb kabels lopen naar een andere kamer waar ook een 1440p scherm staat.
Nu nog wel ja, maar in de toekomst waarschijnlijk niet meer in games die meer GPU rekenkracht vragen.. Dan is DLSS wel weer handig om de levensduur van zo'n videokaart te verlengen..

Het begint er nu trouwens op te lijken dat de grafische ontwikkeling van games de hardware niet kan bijhouden.. Dat was vroeger precies andersom, toen je zelfs met de nieuwste snelste videokaarten nog niet eens alle details aan kon zetten in de nieuwste games met fatsoenlijke fps.. Dat is het gevolg van het steeds meer games ontwikkelen met vooral de gameconsoles in gedachte vrees ik.. Die lopen nu toch wel enorm achter bij wat zo'n RTX 4090 kan.. Maar ja, de RTX 4090 kost dan ook net zoveel als 4 PS5's bij elkaar..
Mooi toch dan kunnen er kleinere zuinigere chips gemaakt worden die geen 400W aan stroom zuipen.
Nou, "kleiner" moet je niet direct verwachten als je "zuiniger" wil. Je ziet al dat deze 4090 zuiniger kan zijn dan een 3090, simpelweg omdat die meer CUDA cores heeft. Als je de FPS dan vastzet, dan kunnen de cores op lagere frequentie én lagere spanning werken. Die dubbele besparing weegt ruim op tegen het feit dat er meer cores actief zijn. Wil je het nog zuiniger, dan moet je dus nog meer cores hebben zodat de frequentie nog verder omlaag kan.
Er zijn 2 opties bij een die schrink, meer transistors per mm2 voor meer performance of een kleinere chip met het zelfde aantal transistors en een gelijkblijvende performance. Dit is met name zichtbaar in de mid range kaarten. Dus wat ik aangaf dat gebeurt al bij elke generatie natuurlijk. Dit is ook zichtbaar geweest bij consoles over de jaren. Kleinere chips, minder hitte en kleinere behuizingen. Ik dat dat de chip uit de laatste revisie van de ps5 ook al kleiner is, maar ik kan me vergissen.
Dat lijkt misschien zo maar dat klopt denk ik niet. Toen ik mijn vorige game pc kocht met een gtx1080) kon ik alles op max draaien (behalve fsx omdat het bij de release geen multicore ondersteunde). Er komen altijd wel nieuwe dingen die meer van de hardware vragen zoals raytracing nu.

[Reactie gewijzigd door Calcifer123 op 22 juli 2024 20:02]

Ik heb het over 10+ jaar geleden.. Het hoofdzakelijk games ontwikkelen voor de gameconsoles is al een tijdje bezig.. Eind jaren 90 begin 00 was het heel normaal dat de nieuwste games de allernieuwste en snelste GPU's etc vereisten om een beetje fatsoenlijk gedraaid te kunnen worden.. Dat punt zijn we nu al een tijdje voorbij, zeker voor mensen die nog steeds op 1920x1080 gamen..
Ze kunnen het nog wel zo maken, dat de 4090 niks meer voorstelt.
In pcvr kan je niet genoeg power hebben.
Het gaat om DLSS 3. Dat werkt anders dan DLSS 1 of 2. Volgens mij gaf Digital Foundry aan dat DLSS 3 pas goed werkt vanaf 100fps.
Ray tracing set on psycho 8-)
Nou Ik hoop dat die games ook nog wel 2.0/2.1 ondersteunen voor oudere kaarten.
Ik vermoed dat DLSS3 alsnog naar oudere kaarten gaat komen.
Dat denk ik niet, anders valt Nvidia wel heel hard door de mand met hun verhaal dat je er een zogenaamde 'optische flow-accelerator'-module voor nodig hebt, die je nu alleen in de 40-serie kaarten vindt..
It’s theoretically possible that with additional research and engineering that we could get this technology working on other cards, although it wouldn’t provide as much benefit. The current version only works on 4000-series cards.
https://twitter.com/ctnzr/status/1572358120130871297?
Correct - het probleem is dat "optical flow" prima op CUDA cores te simuleren is, maar als je CUDA cores daarvoor gebruikt dan heb je geen CUDA cores over voor je eigenlijke game!

Ik vermoed ook dat ze't al werkend hadden in het lab op een 3090, naar de performance keken en zeiden: "dit moet in hardware; in software is het alleen maar een verslechtering".
Ah hebben we daar toch bijna een echte flux-capacitor!
Ja. Staat gewoon in het artikel.
In principe op Ampere (3000) en Turing (2000) kaarten is er een fallback naar DLSS2 voor titles die DLSS 3.0 support hebben. Gereleased titles met DLSS3 support hebben bewust de key feature ( optical frame generation) als aparte toggle in games erbij gezet. Niet iedereen wilt dat per-se hebben. Zodra je dat uitschakeld, val je weer terug naar DLSS2 reconstruction.
Gebruikers met een oudere RTX-videokaart kunnen in DLSS 3-games wel DLSS 2 Super Resolution gebruiken.
Ik ga er vanuit dat het gebruikte framework/SDK om DLSS support toe te voegen praktisch backwards compatibility voor DLSS2 ingebouwd heeft in de function calls en dat daarom alle games die DLSS3 support hebben ook DLSS2 kunnen gebruiken voor oudere kaarten.
Als u helemaal tot de tweede alinea leest zult u zien dat uw vraag/hoop beantwoord is.
Is het een hardware limitatie dat de 3000 serie kaarten DLSS 3 niet krijgen? Dat zou wel jammer zijn, want de eerste benchmarks met DLSS 3 lijken erg goed!
Volgens mij werkt het alleen met de nieuwe tensor cores en optical flow accelerator op de 40xx series.
als ik dit mag geloven dan werkt het ook op oudere kaarten:
https://wccftech.com/nvid...2070-gets-double-the-fps/

Eerst nog wel wat meer bewijs zien.
Dat het op oudere GPU's wel werkt, was te verwachten.
Veel tv toestellen hebben al de simpele motion interpolation dat in essentie hetzelfde doet: uit 2 gekende frames een derde er tussenin berekenen. Basis berekening daarvoor is helemaal niet zo zwaar want zelfs simpele tv chips kunnen van 30 naar 60hz. Vaak zelf al van 30 of 60 naar 120hz. Er zijn gevallen waar het niet perfect werkt, maar dat is al zelden zichtbaar en werkt vooral goed om snelle sportactie vloeiender te maken.
Ik geloof Nvidia niet dat het een 40xx nodig heeft daarvoor.
Wat wel speelt is extra latency van te wachten op het 2e frame om een extra frame te berekenen. Daarvoor kan Nvidia reflex wel helpen om latency weer wat lager te krijgen. Maar reflex werkt ook perfect op oudere Nvidia GPUs.
Lijkt mij gewoon platte marketing.
Mooie techniek, bleek uit de reviews. Wél weer jammer dat Nvidia voor de proprietary route kiest, en dan ook alleen weer op de RTX40 kaarten.....Voor mij genoeg rede om AMD te supporten, die kiezen tenminste voor de opensource route ;)
Als ze het open source hadden gemaakt had je er nog niks aan gehad, want dit gaat gegarandeerd niet werken op AMD kaarten. Anders had AMD inmiddels ook wel machine learning upscaling gehad.
Misschien niet, maar dan was het wel beschikbaar voor meer gpu's, zoals FSR dat is.
The community zou dan DLSS 3.0 beschikbaar kunnen maken voor RTX30 kaarten bijvoorbeeld.

[Reactie gewijzigd door EMR77 op 22 juli 2024 20:02]

Precies, Nvidia is wat dat betreft niet sympathiek en AMD wel.
De optical flow hardware is proprietary, daar zal voorlopig nog wel geen standaard voor komen. Het is namelijk ook niet iets wat veel waarde heeft als zelfstandige API, dus waarom zou Microsoft een DirectFlow API gaan maken?
Hopelijk kunnen we ook kiezen voor alleen Super Resolution en NVIDIA Reflex zonder de Frame Generation :)
Reflex is in vele games momenteel ook al een losstaand iets.
Ik gok en hoop dat ze dit apart blijven houden idd.
Vind die frame generation een beetje een gimmick. De beelden die ik er van zag waren niet bepaald eyecatching. Vooral de artifacts waren best lelijk, maar als dit uiteindelijk beter werkt/verder ontwikkeld is zou ik het heus een kans willen geven.
Ik mis denk ik nog steeds het nut van dlss3 .

Wil je tijdens het spelen van een spel een hogere framerate om naar meer frames te kijken , of meer frames te voelen ? Of in andere woorden , het spelen van een spel is een feedback loop tussen jouw input en wat je op het scherm ziet. Snellere actie van jouw input op het scherm betekent sneller handelen / corrigeren en dat voelt fijner .

Ik mis dus ook het nut van extra generated frames die nooit als reactie uit de game engine komen. Pas nadat de game engine keren gedaan heeft (network packets ontvangen , user input verwerkt , etc...) en er vervolgens nog een frame is getekent , kan er een dlss3 frame gemaakt worden. I'm confused .

Zit ook wel een andere kant aan om het te bekijken natuurlijk. Als de latency met dlss3 en reflex niet (veel) erger is dan dlss3/native zonder reflex .. dan kan je de extra frames als een bonus zien . Ze voegen dus naar mijn inzien niet veel toe , maar het maakt het ook niet slechter .

Ik had verwacht dat dlss3 iets zou zijn als 'in plaats van dure objecten met veel ray tracing opnieuw te renderen elk frame , kan je het object verplaatsen aan de hand van wat de engine zegt. En vervolgens alleen die pixels renderen (en rays schieten ) waar nieuwe pixels nodig zijn of artifacts kunnen optreden . Dus op die manier krijg je een manier om NOG minder pixels te hoeven renderen dan dlss2, door nog meer gebruik te maken van wat er al op het scherm staat van de vorige frames .

Een compleet nieuw frame objecten 'een moment terug in tijd ' (dus frames express vertragen om dlss3 de kans te geven er eentje tussen te verzinnen ) voelt als een nutteloze manier voor mij .
Dat is niet echt waar.

Stel, je hebt een game engine die netjes elke 20 ms een frame produceert, dus exact 50 FPS. Frame 0 is om 0 ms, frame 1 is op 20 ms, frame 17 is op 340 ms, etcetera.

Met DLSS kan NVidia frame 17.5 al renderen op 350 ms, in plaats van te wachten op frame 18 uit de engine wat pas om 360 ms beschikbaar is. Dit hoeft helemaal niet door complexe rendering engines, dit zijn "neighbourhood" operaties. Je hebt alleen een paar pixels uit de omgeving nodig - en de optical flow engine vertelt je welke pixels dat zijn.

Het gevolg is dus een frame elke 10 ms, wat je FPS verdubbelt tot 100. Zie je dit in de latency terug? Nee, als jouw input van t=344 ms in frame 18 terecht kwam op t=360 ms, dan is dat nog steeds zo.
Lees nog even hoe dlss3 werkt .

Want Nvidia zegt zelf dat ze een frame genereren tussen frames van de engine , en dat dit dus een latency hit heeft. Reflex is daarom verplicht om het zo veel mogelijk op te vangen.

In jouw voorbeeld , zal de engine dus frame 0 op 0ms , 1 op 20ms , 2 op 40ms renderen.

Met dlss3 krijg je dus pas frame 1.5 en frame 2 te zien nadat frame 2 ook klaar is.

Dus je krijgt 0 op 0ms (of helemaal niet ) , 0.5 op 30ms, 1 op 40ms , 1.5 op 50ms , 2 op 60ms , etc...
Je loopt altijd 1 origineel frame achter vergeleken met geen dlss3 . Wanneer je de frames daadwerkelijk ziet heeft ook nog met je monitor en refreshrate te maken natuurlijk , maar vanuit de engine is dit de presenteer timing.

Simpel gezegd heeft dlss3 je een vloeiender beeld voor je ogen , in ruil voor hetzelfde of miniscuul slechter gevoel . Hoe erg je dat vind verschilt persoon per persoon.

Bij een game die over de 60fps draait zonder dlss3 , kan dit met dlss3 fijn zijn om je 120/144hz schermen netjes aan te sturen .

Maar als de game zonder dlss3 eerder rond de 30fps draait, zal je framerate counter op 60 komen te staan maar het zal nog steeds ruk aanvoelen als een (wisselvallige) 30fps game. Misschien dus nog wel nog slechter dan zonder dlss3, vanwege de extra frame aan latency (en een extra frame rond de 30fps is lang ).

En als een 30fps game reflex moet bieden om de latency hit op te vangen, dan speel ik nog liever zonder dlss3 maar met reflex om een beer gevoel te krijgen, dan dat mijn ogen meer frames hoeven te zien .
Ik heb het gelezen, en in miin voorbeeld komt frame 17.5 inderdaad tussen frames van de engine - namelijk tussen frames 17 en 18. Daarom had ik het ook frame 17.5 genoemd.

En NVidia is er ook expliciet over: frame 17.5 is gebaseerd op 4 frames, 13 tot 16. (260 ms tot 320 ms)
Tsja.. hangt er vanaf of je het de 'frames uit de engine' noemt, of 'de frames op je scherm'.

Ik kan ook in jouw bewording mee gaan. Als de engine frame 15 en 16 maakt, zal DLSS3 frame 15.5 maken. Maar dat kan dus pas nadat frame 16 gemaakt is. Daarom zal frame 16 nog niet op het scherm gezet worden, Maar gaat DLSS3 eerst frame 15.5 maken en tonen, daarna frame 16 tonen (die de engine dus al een tijdje klaar heeft) en dat truukje gaat door.

De frames die de engine maakt worden dus _delayed_ weergegeven, omdat DLSS3 eerst eenf rame er tussen moet genereren. Dat is de latency hit waar iedereen over praat met DLSS3,

https://www.youtube.com/watch?v=6pV93XhiC1Y&t=1036s

Komt er op neer dat ik terugkom op mijn originele verhaal: Wat is nu belangrijk?? Meer frames zien, of de frames ook voelen, als in latency die minder wordt?

Dat is mijn grote vraag, want wat DLSS3 doet is de framerate die je voelt _niet_ verbeteren, misschien zelfs verslechteren. Het beeld wat je ziet is vloeiender, maar het voelt alsof je nog op de vorige FPS speelt of misschien zelfs minder.

En ik snap dat als je framerates sowieso over de 100 zijn, dat dit misschien minder boeit. Maar de techniek zal dus 'kapot' gaan als je native (DLSS2) framerates hebt van rond de 30. DLSS3 zal dan misschien 60fps op het scherm tonen, maar het voelt alsof je iets speelt van 25fps gok ik zo. Wat nog steeds ruk is.

'f.o.s' => frame on screen, naar welk frame kijk je op je monitor

dlss2 situatie (50fps):
ms | 0ms | 20ms | 40ms | 60ms | 80ms | 100ms | 120ms | 140ms
f.o.s | | 1 | 2 | 3 | 4 | 5 | 6 | 7

dlss3 best case situatie (+/- 100fps, uiteindelijk)
ms | 0ms | 10ms | 20ms | 30ms | 40ms | 50ms | 60ms | 70ms | 80ms
f.o.s | | | | 1 | 1.5 | 2 | 2.5 | 3 | 3.5
...
ms | 90ms | 100ms | 110ms | 120ms | 130ms | 140ms | 150ms | 160ms
f.o.s | 4 | 4.5 | 5 | 5.5 | 6 | 6.5 | 7 | 7.5

dit gaat er natuurlijk vanuit dat andere latency-gevers - zoals je monitor en je input device - even niet bestaan.

Dus puur de engine latency gaat hier van 20ms naar 30ms. Dat is dus een beetje alsof het voelt van 50fps naar 33.3fps. Wie weet kan Nvidia Reflex dus helpen die 30ms naar beneden te krijgen. maar goed, dan kan je dus ook kiezen om met DLSS2 te spelen en Reflex, voor _nog_ minder latency.

Dus, mijn originele vraag weer: Waarom wil je meer FPS halen. Om te zorgen dat je inputs sneller zichtbaar zijn om te reageren (feedback loop), of om vloeiender beeld te zien met je ogen.
Voor mij altijd het eerste (up to a limit), en DLSS3 zal dat dus niet doen, of zelfs slechter maken.
Ik kan ook in jouw bewording mee gaan. Als de engine frame 15 en 16 maakt, zal DLSS3 frame 15.5 maken.
Ja, nogmaals, daar is dus geen enkele reden voor. Wat jij beschrijft is interpolatie, wat ik beschrijf is extrapolatie. Na frames 15.0 en 16.0 maakt de AI frame 16.5, niet 15.5. Dat frame is niet perfect, maar alsnog een betere benadering dan frame 16.0 langer op het scherm te laten staan.

Input latency is irrelevant. Of je nu frame 16.0 of 16.5 ziet, in geen van beide gevallen zie je input die de engine pas na frame 16.0 heeft gekregen. Extrapolatie maakt dat niet beter of slechter.

Wat wél een latency issue kan opleveren is als de engine framerate niet constant is (de beruchte 1%). DLSS moet namelijk wel de extra frames op de goede momenten tonen.
[...]

Wat jij beschrijft is interpolatie, wat ik beschrijf is extrapolatie.

[...]
Precies!!

En Nvidia zegt dat ze interpoleren, niet extrapoleren met DLSS3,. Vandaar de extra frame aan latency, en daarom dat ze Reflex verplichten om het 'onder controle te houden'.
Ik begrijp eigenlijk niet waarom we hier zo blij om moeten zijn? Ik mag toch van een kaart dat 2k kost verwachten dat ik al deze tittels op ultra + 4k kan spelen???
Omdat dlss 3.0 natuurlijk ook(mag ik hopen) ook naar de rest van de 4000 reeks komt. En er komt ooit een moment dat de rtx 4090 niet meer als mid tier of zelf ultra low tier. De gtx 780 to was ook ooit een monster kaart.
Precies dat dus. Ik wil daarom niet geforceerd zijn om DLSS te gebruiken voor 4K/Ultra want alle games dat ik persoonlijk speel hebben geen DLSS support, van welke generatie dan ook. Dus mag ik mooi meer dan €2000 betalen? Dacht het mooi niet.
"Ultra" is natuurlijk maar een vage term. Elke game kan zelf belissen wat ze "ultra" noemen. Als jij de oude Doom 1 code voor 4K compileert dan kun je die in Ultra runnen op je iGPU.

En op dezelfde manier heb je een kans dat de "ultra" settings van games uit 2052 niet eens in het geheugen van je 4090 passen.

In de praktijk is "ultra" daarom in bijna elke game een relatieve aanduiding voor "beste wat er mogelijk is met de hardware op de releasedatum". En een game die nu uitkomt en niet in "ultra" werkt op een 4090 heeft z'n ultra setting verkeerd gekozen.
Waarom? Geeft nvidia dan ergens die garantie?
debiele reactie, heb nergens gezegd of ook maar verwezen naar dat ze ergens een garantie zouden geven.
Gezond verstand noemen we dat, de kaart is de duurste kaart ooi voor consumenten zover ik weet, die ook het meest verbruikt. Dan mag ik maar hopen dat die de spellen van vorig jaar op minimaal 60fps kan spelen met alles op de hoogste settings.
Spellen van vorig jaar wel ja, maar spellen van over een jaar of 2? En wat als je meer dan 60pfs wil? En wat als je een triple monitor setup hebt? En vooral: wat als je alle drie belangrijk vind?

Ik heb zelf een 3090 en bij simracing gebruik ik toch echt FSR of DLSS waar mogelijk icm mijn Odysey G9. Als je niet te gretig bent met de instellingen loopt het veel soepeler(vind ik fijn) terwijl je er amper beeldkwalitieit voor inlevert.

Bij andere spellen(third person bijvoorbeeld) wil ik overigens wel vaak een framecap gebruiken(60 of iets hoger), dan vind ik een hoge framerate minder belangrijk. Al is het met RTX zonder DLSS soms nog lastig om de 60 te halen.
offtopic- Maar welke G9 heb je? De Neo of de vorige? Ben ook in de markt ervoor, ook voor mijn sims. Kan ik het beeld echt vergelijken met een qled van Samsung tvs? kwa zwart waardes enzo? Ik zou zo graag het scherm ergens in een winkel willen zien, maar nog geen tegen gekomen helaas. Vandaar mijn vraag. Thanks alvast
Ik heb de vorige. Het is een VA-paneel, dus het contrast(en de zwartwaardes) is in orde, maar verwacht geen OLED of zelfs QLED zwartwaardes. Die van mij heeft wel local dimming, maar dat zijn 10 verticale zones, dus dat zet niet echt zoden aan de dijk. Ik heb het zelfs uit staan omdat te grote vlakken meeverlicht worden en dat eerder afbreuk doet dan wat toevoegt. :) Bij de Neo is dat als het goed is een heel stuk beter(wat waarschijnlijk ook meteen de perceptie van de zwrtwaardes verbetert).

Ben er verder wel heel tevreden over. Ik had geen zin in 3 schermen en dit bevalt me echt veel beter dan één groot (plat) scherm. Natuurlijk mis je links en rechts nog wat kijkhoek t.o.v. 3 schermen, maar het is genoeg om met meer zekerheid zij-aan-zij door de bocht te gaan.

Misschien dat er wel goede reviews zijn die jouw vragen beantwoorden eventueel in vergelijking met andere schermen.
Hey erg bedankt! Eigenlijk heb je alles verteld wat ik wilde horen. Heb echt veel reviews gezien, maar wilde meer een eigen ervaring. Alles wat je zei ligt ook in lijn met de hardware en ervaringen van anderen. Dat is de reden waarom ik ook gewacht heb tot er een versie 2 zou komen met wat kleine aandacht puntjes. Hoor ook best veel over problemen met updaten. Had gehoopt dat je de Neo had en dan mij gerust kon stellen.

Ik deel je mening over de 3 schermen. Het lijkt mij een super ervaring voor sims. Nu nog een winkel vinden voor hem in het echt te bekijken.
Nogmaals bedankt voor je reactie! En geniet van je super scherm!
Geen probleem. Iedereen ervaart beeldkwaliteit anders, dus is het inderdaad handig zoveel mogelijk ervaringen mee te nemen in je oordeel. En helaas, maar ik had zelf natuurlijk ook liever de Neo gehad. ;) Ondanks dat geniet ik er inderdaad van, thanks! En succes met je keuze.
op 4K misschien, maar 8K? is ook in opkomst! 8K 60FPS is nog niet (helemaal) haalbaar...
EN je hebt kaarten die niet een 4090 zijn een 3070 kan games op 4k dlss spelen dat zonder dlss onspeelbaar (40fps) zijn . Dat ze dat nu verbeteren is meer dan welkom voor die lagere kaarten en toekomstige games.

8k is imho een beetje nutteloos bedoel 8k op 40 inch scherm = 220ppi, dat is gelijk aan 4k op een 20 inch scherm.
Ik zie weinig gezond verstand hoor :
  • Niemand zegt dat je "blij" moet zijn, het is en blijft een mooie techniek die alle 40xx kaarten kunnen gebruiken niet enkel deze
  • "kan spelen" is zo subjectief
  • Alle games hier opgelijst halen 60+fps op 4k ultra
  • 3090 ti's gingen vlot boven de 2500 euro op een bepaald moment, prijzen nu voor 4090 zijn ook zoiets
  • Het meeste verbtuikt is ook al niet juist
Kortom weinig logica/gezond verstand, zelfs niet het artikel gelezen en veel zagen en klagen voor niks.

[Reactie gewijzigd door k995 op 22 juli 2024 20:02]

Nvidia wil alleen verkopen. Meer niet hoor.
DLSS is gewoon nep.

De framerate wordt wel omhoog gepompt, maar dat is maar schijn.
Ik bedoel: je hebt bijvoorbeeld 150fps en met DLSS wordt er bijvoorbeeld 300fps naar het scherm gepompt. Echter is dat maar schijn, omdat het systeem gewoon op 150fps draait.

Net als bij de functie bij de tv die van 50Hz 100Hz maakt. Echter is het originele beeld gewoon 50Hz.
Was er maar iemand die frame by frame de resultaten analyseerde :+

Die motion smoothing op TV's werkt anders. DLSS is onderdeel van de graphics pipeline en heeft zo veel meer informatie om mee te werken dan alleen wat je ziet.

[Reactie gewijzigd door Wolfos op 22 juli 2024 20:02]

Vandaag is er nieuwe video uit gekomen bij DF https://www.youtube.com/watch?v=92ZqYaPXxas
Wat dacht je van:
DLSS 3 Increases Latency | How fast is RTX 4000 without fake frames?
van Daniel Owen:

https://www.youtube.com/watch?v=bEr9AmEkImg
DLSS is niet nep. Het supersample gedeelte is echt. Omdat je op een lagere resolutie runt gaat je FPS werkelijk omhoog.

Het stukje met frame generation is een ander verhaal ja, maar DLSS zelf is niet nep.
DLSS genegeerd gewoon tussen twee frames een extra niet bestaande frame.
Wat ik eerder aangaf vind ik dat persoonlijk nep.
In mijn optiek had nVidia beter kunnen zorgen dat die framerate echt omhoog ging.
Met extra frames tussen bestaande frames te genereren gaat in mijn optiek de werkelijke framerate niet omhoog, maar worden met kunstgrepen extra niet bestaande frames er tussen gegooid. Het systeem genereerd deze beelden niet zelf, maar worden ze aan het einde van de pijplijn er tussen gegooid.

Dat is exact hetzelfde wat de technische foefjes bij een tv doen om de framerate van het beeld optisch op te krikken.
Feitelijk is DLSS niets anders dan een optische beeldverbeteraar.
Dlss is zeker een optische beeldverbeteraar. Een hele, hele goede.
Kijk als ik het verschil niet zie. Vind ik het niet erg.
Once again, jij hebt het over het frame generation stukje. DLSS 3.0 in het algemeen is supersampling/upscaling + frame generation. Ja, Optical Flow Interpolation is niet echt FPS verbeteren maar dat is niet wat ik bedoel. Ik heb het over het feit dat jij DLSS 3.0 bedoelt voor het gehele concept achter DLSS.

Supersampling helpt namelijk wel met de FPS, althans de game goed geoptimaliseerd is. Dit is niet "nep" want de game wordt letterlijk in een kleinere resolutie gerendered maar door AI upscaled waardoor het wel lijkt op 1080p of 4K.

Ik ben er wel mee eens dat die interpolatie niet echt FPS verbeterd en ook niet heel impressed erover was maar dat had ik een andere reactie ook al gezegd.

[Reactie gewijzigd door yourbirthcertif op 22 juli 2024 20:02]

Supersampling helpt namelijk wel met de FPS, althans de game goed geoptimaliseerd is. Dit is niet "nep" want de game wordt letterlijk in een kleinere resolutie gerendered maar door AI upscaled waardoor het wel lijkt op 1080p of 4K.
Oke, daar heb je wel gelijk in.

Echter zie ik ook het tegenovergestelde: een beeld wordt op een veel grotere resolutie gerenderd en dan later verkleind. Hierdoor is meer details zichtbaar.

Eerlijk is eerlijk: wat ik dacht dat DLSS stond voor meer frames per second.
Mijn excuses dat ik het voor de rest verkeerd had. O+
DLSS is supersample/upscale, en niet een frame generator. Twee heel verschillende dingen, die je apart aan en uit kan zetten. Check de filmpjes van Digital Foundry eens zou ik zeggen.
Nou moet nog eens zien flight simulator met 122 fps.
Ik heb msfs op een 3090 draaien en haal er 30-40 fps mee

Op dit item kan niet meer gereageerd worden.