Nvidia DLSS 4.5 biedt 6x-framegeneration en betere kwaliteit door nieuw model

Nvidia heeft DLSS 4.5 aangekondigd. Deze versie van de upscalingtechniek biedt verschillende verbeteringen. Zo is het transformermodel verbeterd, waardoor de techniek betere beeldkwaliteit moet bieden. Multiframegeneration werkt voortaan met maximaal 5 AI-frames per gewoon frame.

Het transformermodel is het onderliggende AI-model voor DLSS-upscaling. Nvidia stapte met de introductie van DLSS 4 over op een transformermodel, waar het voorheen gebruikmaakte van convolutionele neurale netwerken voor de techniek. Die overstap zorgde ervoor dat de techniek aanzienlijk meer rekenkracht en data kon toepassen voor zaken als upscaling.

DLSS 4.5 introduceert een tweede generatie van dit transformermodel. Volgens Nvidia kan dit model nóg meer rekenkracht gebruiken voor een betere beeldkwaliteit, moet het verbeterde model slimmer zijn in het samplen van pixels voor upscaling en is het beter in het interpreteren van context in scènes. Ook de trainingsmethode is verbeterd. Het nieuwe model is bijvoorbeeld getraind op een grotere dataset.

Deze verbeteringen zorgen volgens Nvidia voor een betere beeldkwaliteit bij het gebruik van DLSS. Versie 4.5 moet stabieler zijn, met minder ghosting en minder ruwe randjes. Nvidia toont verschillende vergelijkingen tussen DLSS 4 en DLSS 4.5, waarop scherper beeld met minder artefacten te zien is.

Framegeneration krijgt twee grote upgrades

Ook framegeneration krijgt verschillende upgrades in DLSS 4.5. De eerste daarvan is een nieuwe 6x-modus voor Multiframegeneration. Bij die modus wordt een enkel frame op normale wijze gerenderd. Dat wordt dan opgevolgd door vijf frames die gegenereerd zijn door een AI-model. Voorheen lag het maximum op drie AI-frames per gewoon frame.

Dat moet de framerate verbeteren, aangezien AI-frames minder rekenkracht vergen dan reguliere rendermethoden. Daar staat tegenover dat het nog altijd om interpolatie gaat, waardoor multiframegeneration wat meer latency met zich meebrengt.

Verder krijgt DLSS 4.5 een optie voor dynamische framegeneration. Gebruikers selecteren daarmee hun gewenste framerate in de Nvidia-app. Vervolgens genereert DLSS de benodigde AI-frames om die framerate te kunnen halen.

De verbeteringen aan het transformermodel komen beschikbaar voor alle RTX-videokaarten van Nvidia. Dat geldt per direct: gebruikers kunnen het nieuwe model in hun games toepassen via de DLSS Override-functie in de Nvidia-app. Tegelijkertijd komt ook een sdk beschikbaar voor ontwikkelaars, zodat ze het nieuwe model in hun games kunnen verwerken. De 6x-framegeneration en dynamische framegeneration komen deze lente uit. Die functies zijn beide exclusief voor videokaarten uit de nieuwste RTX 50-serie.

Nvidia DLSS 4.5-framegenerationNvidia DLSS 4.5-framegenerationNvidia DLSS 4.5-framegeneration

Door Daan van Monsjou

Nieuwsredacteur

06-01-2026 • 06:30

89

Reacties (89)

Sorteer op:

Weergave:

Misschien ligt het aan mij, maar ik begrijp de use case van frame gen niet. Stel je gaat van 30 fps naar 120. In theorie is dit harstikke wenselijk maar de latency maakt dit voor mij onspeelbaar. Voor wie is frame gen nou precies want degene met al 100 fps naar 400 fps is vrijwel nutteloos behalve misschien e-sport?

Tot dusver heb ik frame gen altijd uitgezet vanwege de latency. Het voelt niet fijn. Gebruik ik het verkeerd? Is er een andere use case of is niet iedereen even gevoelige voor het effect van stroperige controls?

[Reactie gewijzigd door seez op 6 januari 2026 07:21]

Framegen werkt eigenlijk het beste als je al voldoende native fps hebt. Als je framegen gaat toepassen bij een basis fps van 30 dan gaat het heel stroperig voelen omdat je dan uiteindelijk met slechtere latency dan 30 fps zit te spelen.

Het is eigenlijk voornamelijk een tool voor mensen met een 240Hz of 360Hz monitor die bijvoorbeeld native wel 80-100 fps halen en dan met frame generation de fps omhoog krikken naar de refresh rate van de monitor. Je latency blijft dan redelijk vanwege de hoge basis framerate maar je game loopt visueel soepeler.

Wat framegen dus niet is, is een tool om te helpen met performance als games in basis al niet goed draaien. Nvidia presenteerde het destijds als een middel om te claimen dat een RTX 5070 net zo snel zou zijn als een RTX 4090 maar dat is dus onzin, zonder al een hoge basis framerate te hebben is de techniek eigenlijk waardeloos.

Het heeft dus wel voordelen maar deze voordelen zijn beperkter te gebruiken dan Nvidia het doet voorkomen.
Dank voor deze uitleg. Maar wat is de noodzaak om bij al een relatief hoge fps in niet competitieve situaties de framerate op te krikken naar de native refresh rates als gsync/freesync de boel synct?

Ik kan het verschil tussen 100 en 144hz verversing nog amper opmerken, maar misschien ligt dat aan mij.

Andere vraag, accentueert frame gen micro stutters (bij een hoge base framerate) of wordt dat door frame gen juist wat smoother (de perceptie)
Wat een beetje het rare is aan hoge hz monitoren qua gamen........je merkt in het begin niet echt een wow effect als dat je had van 60 naar 144hz, dat was echt ontzettend zichtbaar voor de meeste. Maar zodra je een 240hz monitor hebt dan denk je in het begin, mwha zie wel iets maar niet echt een mega verschil. Vervolgens speel je een tijdje op 240hz (met games die dag ook aantikken uiteraard). Als je dan ineens weer terug naar 120hz gaat dan merk je dat vrijwel direct en het is gewoon minder soepel. Niet zo een verschil als van 60 terug naar 30 of van 144 terug naar 60 maar het is wel merkbaar.

Het is gewoon net even die extra soepelheid qua verloop van beeld vind ik.

[Reactie gewijzigd door marco-ruijter op 6 januari 2026 09:06]

Dank voor deze uitleg. Maar wat is de noodzaak om bij al een relatief hoge fps in niet competitieve situaties de framerate op te krikken naar de native refresh rates als gsync/freesync de boel synct?
Alle bewegende dingen op het scherm worden zichtbaar scherper.
Ik gebruik het veel om van 60 fps naar 120 fps te gaan om met me 4080 super in combinatie met me LG C9 OLED die 4k HDR op 120hz ondersteund. Neem bijvoorbeeld Clair Obscur: Expedition 33, waar de Unreal Engine de beperkende factor is. De timing voor de attacks en parries gaat ondanks de wat hogere input latency toch beter omdat er meer frames zijn die mij informeren wanneer ik de input moet geven. Framegen is ook echt heel moeilijk weer te geven in een video. Ik heb de 4080 super voornamelijk gekocht om dat het 2 nvenc encoders heeft, die ik goed kan gebruiken tijdens mijn live producties. Ik heb hem niet gekocht vanwege de framegen, ik geloofde het ook niet. Door de interpolatie van de frames heb je dus meer "vloeiende" frames, dit is ook een fix voor engines die een slechte framepacing hebben. Ik sta er versteld van hoe goed het werkt... maar je moet het echt een keer ervaren... de marketing en reviews overtuigde mij ook niet van het nut.
Persoonlijk, prettiger en rustiger voor de ogen, langere sessies zonder problemen. (maar ik gebruik dan ook een 360hz monitor welke inderdaad Gsync heeft 8)7 ) meer hz is ook minder motion blur (als je genoeg fps hebt, niks met de motion blur in game settings te maken). Ook wil je niet frames mislopen, maar dan gaan we weer de competitievere kant op.
Andere vraag, accentueert frame gen micro stutters (bij een hoge base framerate) of wordt dat door frame gen juist wat smoother (de perceptie)
Frame gen biedt geen oplossing voor de micro stutters maar door de extra beelden die je te zien krijgt is het voor de oog / brein wel vloeiender en daardoor(vaak) minder zichtbaar aanwezig.
Bij extreem inconsistente basis frames kan Frame Gen echter ook “vreemde interpolaties” maken, dan kunnen juist de micro stutters weer juist enorm opvallen.
Volgens mij schrijf je hierboven enkel over "rate". Correct?
Dan is het antwoord: frame gen is niet het vermenigvuldigen van bestaande frames, maar het genereren van andere/verschillende frames. Daardoor oogt beweging vloeiender; bv 3rd person camera draaien terwijl personage in beweging is.
Ik kan het verschil tussen 100 en 144hz verversing nog amper opmerken, maar misschien ligt dat aan mij.
Alles is persoonlijk maar het kan ook aan je scherm liggen. Op mijn oudere VA scherm zag ik ook amper nuttig verschil tussen 100 en 144 Hz (en zelfs 165) door de smear en ghosting maar op de QD-OLED die ik nu heb zie ik het verschil een heel stuk beter. Zelfs omhoog naar 240 Hz maakt aardig verschil.

En de vraag is ook of je die 144 Hz eigenlijk wel haalt. Daar kan je monitor wel op staan maar als je game effectief maar 100 fps haalt dan zie je natuurlijk ook geen verschil.

Daarnaast merk je dergelijke verschillen pas echt goed als je een tijdje gewend bent aan de hogere refresh rates en dan een keer terugschakelt naar een lagere. Ik vond 60 Hz/fps in games altijd heel vloeiend maar de keer dat ik dat laatst eens getest heb in een game die normaal op 120 fps draait viel ik echt zowat van m'n stoel door de "diashow".
Nou. Pak de zwaarste game van het moment. Zet alle grafische opties aan, op 4K en kijk eens hoe het dan loopt. Voor multiplayer en shooters wellicht niet prettig, maar in principe stelt het je in staat om langer met je bestaande hardware de nieuwste games te blijven spelen.
Nouja dat is het dus nét niet wat @Redblader uitlegd want als je game al niet lekker loopt voelt het alsnog niet lekker aan. Ik ben absoluut geen FPS zeurpiet maar 30FPS bij een RPG speelt ook gewoon niet lekker.

Ik ben het met je eens dat DLSS mits goed uitgevoerd kan helpen wat langer met je hardware te doen maar framegen helpt imho niet perse daarbij want je houd de beroerde latency als je game al niet lekker loopt.

DLSS met free-/G-sync heeft dan eerder mijn voorkeur ivm latency.
Dat is toch altijd zo geweest.

Toen crysis uit kwam was er 8800Ultra gekoppeld aan Core 2 Extreme.

Dan nog geen hoge frames.

[Reactie gewijzigd door zanza006 op 6 januari 2026 09:22]

100hz heeft een persistentie van 10ms, 144hz heeft een persistentie 6.94ms. Een stuk minder groot verschil dan 100hz en 60hz (16.7ms). Om bewegend beeld net zo scherp als een CRT te krijgen heb je een persistentie van 1ms nodig (1000hz), en dit gebrek aan vervagen maakt beeld veel prettiger om naar te kijken en voelt een stuk waargetrouwer aan. Het "magische" beeld van CRT en plasma schermen komt vooral van hun lage persistentie, ook al waren zijn maar 60hz. Voor de beste beeldqualiteit is hier zeker baat bij ook in niet competitieve scenarios

Framegen zelf helpt niet per se bij microstutter, de techniek interpoleerd slechts extra frames, maar gaat hand in hand met Nvidia reflex dat met slechte framepacing kan helpen (als het goed geïmplementeerd is).
Nou ik werd vroeger niet blij van 60hz CRT, dat gaf enorme hoofdpijn door het geflikker van het scherm. Pas bij 75hz of hoger was het beeld rustig. De overgang naar 'platte' schermen zo rond 2004 gaf een veel rustiger beeld dan CRT uberhaupt gaf. Kleuren, contrast en kijkhoek was toen nog wel totaal bagger van die LCD schermen.
60hz gaf inderdaad geflikker, maar ik heb het hier over de persistentie onscherpte die, zeker op vroege LCDs, het beeld wazig maakt bij beweging. Een plasma heeft ook veel betere persistentie dan LCD schermen en is een beter voorbeeld in vergelijking met moderne schermen, ook al is de persistentie niet zo goed als een LCD
Zelfs in die specifieke use case kleven er nog nadelen aan, zoals ghosting en andere artefacten. Competitieve gamers gebruiken het niet.

De use case is nu grotendeels voor marketing. FPS nummertje hoog dus 6x beter dan de competitie. Stom genoeg werkt het ook nog. Wellicht dat het in de toekomst beter wordt dan wanneer het uit staat, maar daar zijn we nog lang niet.
Waar Nvidia daarnaast ook naartoe wil, is Dynamic Frame Gen.

Gaat je videokaart een frame droppen? Genereer er maar een. Of meerdere, ligt eraan. Dat betekent dat je in rustige, makkelijkere scènes een stabiele 120 fps native kan halen, maar dat framegen bij intensievere scenès naar vraag frames gaat genereren. Dat lijkt me, los van dat ik zeker een mening over framegen heb, de beste use-case van framgen.
Helemaal juist. Daarom wil ik ook dat mijn nieuwe monitor een 360hz monitor is. Op die manier kan ik mijn games op 164fps draaien en dan met framegen ze boosten naar 328fps ofwel de maximum aanbevolen framerate voor 360hz VRR.

Nu speel ik met 167fps cap ( 175hz VRR ) en met een oled voelt dat al super snappy aan.
Het is in VR wel nuttig. Daar zat het eigenlijk al in met verschillende varianten van async warping, maar dit is beter. Ook voorkom je artifacts zoals tear en judder als je niet op je native refresh draait. Het is vrij lastig om in VR met een ~8K resolutie alsnog 60/90/120hz te halen.
Voor wie is frame gen nou precies want degene met al 100 fps naar 400 fps is vrijwel nutteloos
Vanwaar is dat nutteloos? Zeker met alle 360Hz+ schermen die nu uitkomen lijkt het me daar juist handig voor. Niemand gaat dat native eruit draaien. En of je dan 6x FG nodig heb is een andere vraag hoor, maar het concept framegen lijkt mij best zinvol voor die schermen.
Tot dusver heb ik frame gen altijd uitgezet vanwege de latency. Het voelt niet fijn. Gebruik ik het verkeerd?
Is dat latency, of toch de artifacts wat je al dan niet onbewust opmerkt? De latency impact van frame gen bestaat zeker, maar zo groot is hij niet als je de eerlijke reviews bekijkt. Dus niet de schreeuwende koppen van Youtubers. Het verbeterd vooral de latency niet: Dus het is niet dat als je 200 FPS haalt met 5x framegen, je de latency hebt van een 200 FPS spel, nee je draait gewoon op 40 PFS onder de motorkap. Maar het verslechterd de latency ook beperkt: Ja het verminderd de echte framerate wel een beetje, en ja dat verslechterd de latency wel wat. Maar het zijn geen dag en nacht verschillen als je kijkt naar reviews.

Wanneer het wel mis gaat is als je een framerate cap hebt, en dan framegen (onnodig) gebruikt. Als je een cap hebt van 120 FPS, en je zet 6x framegen aan, dan zal hij hem op 20 FPS cappen. En ja dan is het een kut latency (en waarschijnlijk heel veel artifacts). Als je PC prima native 120 FPS had kunnen draaien, dan wordt het vooral heel veel slechter. Maar daarvoor is de dynamische framegen natuurlijk een hele mooie oplossing: Je stelt gewoon in welke framerate je wil, en zoveel mogelijk doet hij native, en wanneer die te ver inzakt, gaat hij framegen gebruiken.
Maar het verslechterd de latency ook beperkt: Ja het verminderd de echte framerate wel een beetje, en ja dat verslechterd de latency wel wat.
Het is interpolatie, het gegenereerde frame kan pas berekend worden als het volgende echte frame al beschikbaar is.. bij 2x gen is de extra latency dus meer dan een halve frame als ik het goed heb.
Bij 4x gen zit je al op driekwart.

Dan nog is de vraag of het uiteindelijk gaat om framerate of om latency.. en als het om latency gaat, voegt een hogere framerate bij dezelfde latency dan iets toe?
Dat zou ik ook verwachten ja (gezien het interpolatie is, moet je eerst een echt frame hebben, en dan kan je frames pas gaan invoegen, en dus is het echte frame later). Maar blijkbaar is het allemaal toch wat complexer, zie bijvoorbeeld: https://www.techspot.com/article/2945-nvidia-dlss-4/#:~:text=Benchmarks%3A%20FPS%20and%20Latency%20with%20Multi%20Frame%20Generation

Als je de wiskunde doet schaalt de latency bijna precies 1 op 1 met de base framerate, en niks extra. En ja die base framerate gaat wel wat naarbeneden hoor, maar het is niet dat latency instort. Dat gebeurd enkel wanneer ze FPS cappen op 120 FPS, en dan meer en meer framegen gaan toevoegen. En dus voor die use case is dynamische framegen perfect.
Dan nog is de vraag of het uiteindelijk gaat om framerate of om latency.. en als het om latency gaat, voegt een hogere framerate bij dezelfde latency dan iets toe?
Als het je puur gaat om je latency? Nee dan moet je gewoon FG uitzetten en native draaien. Voor meeste spellen zal het mij meer gaan om framerate. (Ik ben recent van 144Hz naar 240Hz scherm overgegaan, en de verversingssnelheid was totaal niet de reden om het te doen. Maar ik was wel echt verrast toen ik een Moba speelde hoeveel soepeler eenheden over het scherm bewegen).
Als je de wiskunde doet schaalt de latency bijna precies 1 op 1 met de base framerate, en niks extra.
Dat haal ik er niet uit.
Als we naar Alan Wake kijken gaat de latency van 31.8 naar 38.7 ms, base fps van 96 (10,4 ms) naar 83 fps (12,0 ms).
6,9 - 1,6 = 5,5 ms extra latency, wat ongeveer die halve frame is.
Voor meeste spellen zal het mij meer gaan om framerate.
Dan gaat het om games waar reactiesnelheid geen factor is?

[Reactie gewijzigd door Olaf van der Spek op 6 januari 2026 09:58]

Dat haal ik er niet uit.
Als we naar Alan Wake kijken gaat de latency van 31.8 naar 38.7 ms, base fps van 96 (10,4 ms) naar 83 fps (12,0 ms).
6,9 - 1,6 = 5,5 ms extra latency, wat ongeveer die halve frame is.
Fair enough, ligt eraan hoe je ernaar kijkt. De relatieve latency schaalt 1 op 1: 31.8 * 96 / 83 = 36.7ms (oké nog iets minder wel, maar bij andere in hun metingen is het beter vergelijkbaar, en alsnog redelijk in de richting). Absoluut is het inderdaad meer, en dat is inderdaad wel logisch.

Tegelijk laat het alsnog zien dat de impact op de algehele latency simpelweg beperkt is.
Dan gaat het om games waar reactiesnelheid geen factor is?
Dan gaat het gewoon om eigenlijk elk spel wat ik zelf speel. En jij weet ook dat het een dooddoener is om te komen met dat "reactiesnelheid geen factor" dan moet zijn. Want bij alles wat niet turn based is, is reactiesnelheid een factor. Maar die paar milliseconde meer of minder latency zijn echt niet hetgene waardoor ik win of verlies. En met betere bewegingsscherpte ziet het wel gewoon mooier eruit op mijn beeld.

Als mijn hoofddoel was zo'n laag mogelijke latency zou ik wel spelen op lage resolutie met laagste settings, maar ik wil ook dat het er leuk uit ziet.
De relatieve latency
De totale latency omvat ook bijvoorbeeld latency van input devices, CPU tijd, etc. Het zou niet logisch zijn als frame gen daar ook invloed op zou hebben.

Dat relatieve latency goed lijkt te schalen met base framerate lijkt mij 'toeval'.
Dan gaat het gewoon om eigenlijk elk spel wat ik zelf speel.
Maar die paar milliseconde meer of minder latency zijn echt niet hetgene waardoor ik win of verlies.
Dat is toch prima? In deze context gaat het vaak over shooters waar elke ms wel telt. Maar je hebt gelijk, er zijn genoeg games waar dat niet zo is.

[Reactie gewijzigd door Olaf van der Spek op 6 januari 2026 10:26]

Volgens mij is het verschil tussen 2x en 4x FG dat er meer tussen frames gemaakt worden, nog steeds van de 2 echte frames, dus de laatste en de eerst volgende
Ja, dat leek mij ook, en niet zoals boven gesuggereerd leek te worden dat er dan ook meer frames vooruit gekeken wordt. Dat zou vreemd zijn IMO.
Ik kan me hier volledig in vinden en dat is ook echt mijn ervaring.

Zelf heb ik een 5090 en een Neo G9 57 monitor met een resolutie van 7680 x 2160 en een refresh rate van 240hz.

Ik speel bijvoorbeeld Battlefield 6 op ultra met DLSS op quality en frame gen op 2x. Ik merk echt geen latency en speel echt veel shooters (geen top niveau) maar echt voldoende om zaken zoals latency te merken. En heel eerlijk, ja het is er wel maar de extra latency is zo laag dat het echt verwaarloosbaar is.

Zo speel ik wel Battlefield rond de 180 fps gemiddeld (base fps is 90)

Hetzelfde geld voor Alan Wake 2, daar ik heb alles maxed out en haal ik met fg 3x 100/110 fps (en dat spel is grafisch echt zwaar)

Vroeger was ik totaal geen fan van frame generation, maar dat kwam omdat in de meeste spellen ik een base fps had van gemiddeld 30/40fps. Dat merk je aan alles, want je hebt gewoon de input van de base lage fps (kan ook echt geen ps5 meer spelen met 30 fps games)

Dus ja, latency is meetbaar. Maar is het voelbaar? Mijn ervaring zegt nee mits de base fps vloeiend is en dus minimaal 60 fps. Daarnaast is 2/3x frame gen de sweet spot.
Waarom zou het voor e-sports handig zijn? Die willen juist geen extra latency of frames die wellicht verkeerd voorspelde gegevens bevatten. Het lijkt me vooral voor de gemiddelde gamer die graag soepele beelden wil en weinig merkt van wat extra latency of eventuele artifacts.
In de begin jaren waren het minder "neppe" frames, dit gaf vooral visueel een voordeel gevoel. Ook is het aimen en corrigeren van je crosshair op een visueel scherper beeld fijner. Technisch gezien zal speler A native met 25ms totale latency vs speler B met DLSS 29ms, speler A winnen.

Er zijn ook slowmotion videos waarin je ziet dat met DLSS eerder de tegenstander ziet, leuk maar als dat een neppe frame is dan wint Speler A nog steeds door lagere latency en daadwerkelijk eerder de tegenstander kan zien.

Wel moet ik zeggen als Speler A een menselijke reactietijd heeft van 165ms en Speler B 160ms, dat speler B toch wint met zijn "neppe" frames.
Denk aan games zoals cyberpunk gta6 red dead redemption alles wat offline is .
gta6 gaat niet offline zijn, dat kan ik je nu al vertellen.
Hij bedoelt single player games.
Voor wie is dit goed? Marketeers. :+
Meer latency is niet voor iedere game, game modus en/of gamer even belangrijk of vervelend als dat leidt tot een hogere framerate. Je hebt natuurlijk het liefst meer echte frames maar dat heeft ook zijn nadelen met steeds grafisch intensievere games (meer GPU kracht en VRAM). Ik denk dat het zeker een usecase heeft afhankelijk van de omstandigheden en met name als je beperkt tot 2x FG. Maar het hangt er natuurlijk ook van af hoe deze technieken zich verder ontwikkelen.

[Reactie gewijzigd door jumbos7 op 6 januari 2026 10:08]

Ik speel Cyberpunk op mijn TV in 4k.

Daar moet mijn GPU zich wel érg voor inspannen, met raytracing en pathtracing en zo haalt die net 50 fps.

Speelbaar, maar je dipt soms net te veel naar beneden. Met FrameGen is het rond de 80 fps.

Wellicht dat ik het zou merken kwa latency is super competitieve spellen, maar op het moment merk ik er weinig van. Al speel ik sowieso over mijn LAN dus ik heb altijd een iets hogere latency al.
Niet alleen de latency, het ziet er ook niet uit omdat er in principe frames verzonnen worden, een samenvoegsel van een vorige en nog te renderen frame (of die is eigenlijk al klaar maar moet wachten, vandaar de vertraging) maar details gaan verloren, als ik DLSS aanzet in Darktide en je kijkt naar de sterrenhemel in de lobby en de camera beweegt dan krijg je motion blur en verdwijnen de sterren.

Nee voor mij geen artificial beeld verbetering, ook op de TV zet ik alles uit wat zogenaamd het beeld moet verbeteren, ik zie alleen maar ghosting, blur, artefacts en andere troep.
Ik heb daar zelf geen enkele hinder van die latency, mogelijk komt door het type games dat ik speel. In AC: Shadows ga ik van 57FPS naar 100+ en het voelt en ziet wel degelijk vloeiender. Overigens op een AMD 9070 maar goede principe is hetzelfde. Ook de kwaliteit van FSR4/DLSS4 is dusdanig goed dat ik het voortaan altijd aanzet als ik niet voldoende frames haal.
Ik zie Framegen & Upscalers zelf vooral als extra settings in het graphics menu om mee te sleutelen, op de zelfde manier dat je aan de texture-, shadow- & lighting-quality settings kunt sleutelen om een balans te vinden tussen beeldkwaliteit en smoothness.

Op mijn PC& Steamdeck zet ik Framegen (built-in, AMD Fluid Motion Frames of LossLessScaling) aan in spellen waar de input latency niet zo uitmaakt en ik vooral wil genieten van de prachtige graphics van het spel. Dat is vooral bij langzamere single-player spellen, denk aan RDR2, God of War, the Witcher 3. En andersom zet ik FSR upscaling aan ipv native resolutie wanneer ik een betere latency wil hebben in games waar dat wél belangrijk is, zoals racing of online-shooters.

Bij upscaling is het altijd een afweging van betere latency & framerate vs verminderde beeldkwaliteit. En bij Framegen is het een afweging van een vloeiender beeld vs framegen artifacts & latency. En iedereen heeft daar een andere voorkeur in.

Framegen en upscalers zijn nooit de silver-bullet zoals het Nvidia Marketing Department belooft. Maar het zijn wel een nice-to-have extra gereedschap om de ervaring per game zelf precies te kunnen tunen zoals ik dat wil.
Het maakt voor mij persoonlijk b.v. Diablo IV lekker speelbaar op 4K met alles op max. Dit gaat dan van 50fps (stil staan in town) naar b.v. 100. Nu heb ik maar een RTX 4070 natuurlijk, maar toch. Dan moet ik niet DLAA gebruiken, maar DLSS Balanced b.v. met FrameGen aan.

Het speelt voor mij lekkerder en in zo'n game is de extra latency, if any, voor mij niet merkbaar. Wel veel soepeler en geen stutters of haperingen in drukke gevechten.

[Reactie gewijzigd door Soeski op 6 januari 2026 15:01]

Jeee. Nog meer fake frames! Ik wil geen fake frames. Ik wil goedkopere GPU’s.
Ok, maar dan wil je ook grafisch minder imposante games en geen monitor op 360hz.

... een mening die ik lang geleden al gevormd heb. Ik hou het tegenwoordig voornamelijk bij indie games; dat zijn games die er nog echt uitzien als games en niet realisme simulatoren. En je draait ze doorgaans op wat vandaag de dag als een potato gezien wordt. En de Steam Machine, als die er ooit nog gaat komen.
Ok, maar dan wil je ook grafisch minder imposante games en geen monitor op 360hz.
Correct. Ik snap dat er altijd een drive moet zijn naar mooiere graphics en betere framerates, maar haal dat laatste vooral eerst uit optimalisatie en dat soort zaken dan uit het genereren van fake frames.

360Hz is voor mij sowieso niet nodig. Ik ben geen pro-gamer waarbij elke microseconde telt. En ik zie persoonlijk al amper verschil tussen 120Hz en 165Hz (wat mijn huidige monitor aankan).

Realistischere graphics zijn altijd mooi. Ik kwijl ook echt wel bij het zien van al die grafisch opgepimpte video's van Cyberpunk ultra-realistisch en zo. Maar ik ga er nooit van m'n leven een machine van 5000 (of meer met RAM en GPU prijzen van tegenwoordig :+ ) voor aanschaffen.
Er hoeven geen grafisch-minder-imposante games te zijn. En als de input-lag groter is dan 16.66ms boeit het ook 0,0 of de theoretische refreshrate boven 60hz ligt.

Ik kan er echt met mn verstand niet bij dat naarmate de jaren vorderen mensen deze basisprincipes enkel minder goed begrijpen; heeft nvidia's marketing zo veel invloed op jullie informatievoorziening?

De dingen die nodig zijn:
- Developers die weer de tijd krijgen om hun games (danwel hun engine/omgeving) te optimaliseren en niet overal waar onnodig RT in te mieteren
- Ophouden met super-uber-mega-hypersplatting (het overlayen van meerdere 4k danwel 8k textures, vreet ook VRAM)
- Videokaarten die weer proper designed worden, niet zoals bij de hele 5000 (non-TI) serie een gebrekkige hoeveelheid VRAM voor de rauwe computatiekracht, zodat DLSS interessanter lijkt dan het dient te zijn.

Heel moeilijk is het eigenlijk niet.

[Reactie gewijzigd door Annihlator op 6 januari 2026 15:00]

Ik lees vaak veel negatieve reacties over Frame Generation en DLSS. Het klopt dat native rendering in theorie altijd beter is, maar in de praktijk ben ik juist erg tevreden met deze technieken. Met mijn RTX 5080 is het simpelweg onmogelijk om moderne singleplayergames native op 4K en 240 Hz te draaien. Denk aan titels met zware global illumination, zoals Wuchang of Black Myth.

Dankzij DLSS Performance (upscalen van 1080p naar 4K) verdubbelt mijn fps de meeste games met hoge instellingen al van 80 naar 150 fps. Op een 32″ 4K OLED moet ik echt uitzonderlijk dicht op het scherm zitten om het verschil met native te kunnen zien. Dat zegt veel over hoe goed de nieuwere upscalingmodellen inmiddels zijn. In snel bewegende scènes zijn er zeker kleine artifacts te zien, bijvoorbeeld rondom de randen van een character, maar die vallen in de praktijk nauwelijks op wanneer je gewoon gefocust bent op het spel.

Met Frame Generation schaal je die 150 fps vervolgens eenvoudig door naar 240 fps, terwijl de latency verrassend acceptabel blijft. Dankzij de hoge al hoge fps door DLSS. Het voelt ongeveer alsof je native op 120 Hz speelt, wat voor de meeste mensen meer dan voldoende is.

Het resultaat in de praktijk is een moderne game op 4K en 240hz dat superscherp, gedetailleerd en responsive (genoeg) aanvoelt.
Hier zelfde. Ik speel Cyberpunk, ook zo een krachtpatser.

FrameGen is het verschil tussen 4k op medium of 4k op high met raytracing en alles.

Ik vind het bijzonder hoe je GPU ineens veel zwaardere spellen kan draaien zonder dat ik kwaliteitsverschil zie (vanaf de bank...).
Hier ook inderdaad. Ik game zelf echt alleen maar zeer casual tegenwoordig (heel soms even een uurtje GTA V of iets dergelijks) en doe dit op mijn mini-pc'tje in de woonkamer. Dat ding heeft alleen een (degelijke) geïntegreerde GPU, maar dankzij framegen ziet het er erg vloeiend uit op redelijke settings. Dat beetje latency merk ik weinig van en vind ik minder belangrijk dan stotterend beeld en/of lagere grafische instellingen.

Fijn dus dat framegen in ieder geval die keuze geeft!
De negatieve reacties vloeien voor een aardig deel voort uit het feit dat Nvidia bewust minder goede kaarten produceert dan ze zou kunnen, zodat DLSS gunstiger uit de verf komt.

Voeg daar aan bij toe het aantal (hoofdzakelijk "aaa") games wat 0,0 optimalisatie doet en vooral de unreal engine pakt met alle defaults (He BL4?!) en dan is het nogal voorspelbaar (voor wie wel kennis en interesse in de achtergrond heeft) dat dit het resultaat is.

Maar gelukkig heb je het ook over framerates waar jij als eindgebruiker eigenlijk onmogelijk het verschil in waarneemt, maar gelukkig lever je daar maar een vorm van kwaliteit in waar jouw ogen te slecht/ongefocuset/weetikveelwat zijn om de verschillen bij op te vallen.

dat-alles is geen argument om een objectief beroerde staat van zaken pogen recht te lullen.

Iedereen die denkt DLSS te gebruiken zonder nadelen kijkt niet goed genoeg of is net-zogoed stekeblind, de artifacts zijn zéér aanwezig en een continue 60fps zonder artifacts dient zondermeer verkozen te worden dan een framerate dat input-technisch toch niet klopt en meer lag heeft. Als je die lag niet opmerkt, nooit dat je het verschil tussen zelfs 60 en 90fps kán opmerken.

Je bent eigenlijk álle nadelen van triple-buffering (en misschien nog een beetje extra latency dan dat) opnieuw aan het implementeren op die manier, en er zijn zeer stevige redenen dat triple-buffering eigenlijk zo goed als nooit meer gebruikt wordt.

[Reactie gewijzigd door Annihlator op 6 januari 2026 14:44]

Ben hier persoonlijk wel blij mee, m'n inmiddels 10 jaar oude Asus PG279Q is een 165Hz G-sync paneel, maar met multipliers voor framegen heb je al snel dat je eroverheen schiet, het cappen van de framerate via software brengt alleen maar slechtere resultaten in deze combinatie met FG.

Dus in plaats van onnodig de resources verbruiken voor frames die er buiten de Hz range toch niet tot doen zorgt ervoor dat de latency lager blijft en meer resources beschikbaar blijven voor een hogere base-fps.

Over het G-sync limiet heen schieten is eigenlijk het effect van het vloeiender maken van het beeld in de prullenbak gooien in de meeste gevallen omdat het tearing veroorzaakt en dus ook als soort-van microstutter begint te worden omdat de frames niet in sync lopen.

LSFG laat haarfijn zien dat dit prima mogelijk is, dat kan met DLSS enkel beter worden.

Overigens heb ik makkelijk 140+ fps in GTA V Enhanced op de 5090 bij 1440P met DLAA, maar met 4x MFG is het gelukkig op 500 fps nog altijd zeer vloeiend en de latency is laag i.v.m. de hoge base framerate, in dat geval kan MFG met name voor hele snelle panelen wel van toegevoegde waarde zijn.

Hopelijk krijgen ze wel de ghosting nog wat beter onder controle maar zo het erop lijkt gaan ze dit ook aanpakken.
Je wilt eigenlijk met een gsync monitor in Nvidia Control Panel onder 3d settings V-Sync aan hebben staan. (Is ook echt het advies)

Vervolgens zet je in game frame generation aan welke ervoor zorgt dat ook Nvidia Reflex wordt ingeschakeld. Dit capt automatisch de frames en zorgt voor minder latency.

Je wilt namelijk geen software matige caps zelf toepassen met frame generation, dit wil je laten doen door dus V-Sync aan te zetten in Nvidia Control Panel (altijd in games op off) en dan Nvidia Reflex zijn werk laten doen.

Al zal ik zelf geen frame gen gebruiken zodra de native fps (dus inclusief DLSS) onder de 50 fps is, dan zal ik altijd eerst de settings langslopen om de fps naar minimaal 50 fps te krijgen en daarna pas frame gen aan te zetten voor net het soepeler ogend beeld.

Zelf merk ik dat 2/3x frame gen de sweet spot is, 4x geeft echt zichtbare artifacts.

[Reactie gewijzigd door marco-ruijter op 6 januari 2026 08:52]

V-sync zorgt er niet voor dat MFG de limiet van G-sync niet overschrijdt, dat is heel het punt.
Lees even nogmaals goed mijn bericht.

De optimale aangeraden configuratie met een g-sync monitor is:

1. V-Sync op ON in Nvidia Control Panel (Global 3d Settings)
1. G-Sync op ON in Nvidia Control Panel
2. V-Sync uit in-game

Vervolgens wordt geadviseerd om FPS te cappen met 3 fps, echter hangt dit totaal af van het aantal hz de monitor heeft.

~224 fps cap for 240hz monitor
~158 for 165hz
~138 for 144hz
~116 for 120hz

Echter Nvidia Reflex doet bovenstaande automatisch, echter moet V-Sync op ON staan in Nvidia Control Panel.

Ik heb bij alle games waarbij ik Frame Generation aanzet de frame automatisch cappen op +/-225 fps (240hz monitor). Als ik v-sync op let 3d application decide i.p.v. ON dan schiet mijn FPS vaak ver boven de 240hz (monitor). Het wordt ook onwijs afgeraden om zelf een frame cap toe te passen i.c.m. frame generation. Dus gewoon v-sync in Nvidia Control Panel op on en bij frame generation wordt automatisch Nvidia Reflex aangezet.

De V-sync op on in Nvidia Control Panel i.c.m. met een G-Sync monitor is al een vrij lange tijd al een way to go configuratie.

Zie onderstaande pagina voor de complete guide en toelichting

https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/

[Reactie gewijzigd door marco-ruijter op 6 januari 2026 10:12]

Ik heb eens gekeken met DOOM TDA, maar inderdaad, het forceren op ON werkt met V-sync dan weer wel, hoeft niet perse het globale profiel te zijn.

Want ondanks dat het ingame is ingeschakeld, werkt dat dus niet, wel merk ik dan weer op dat de FPS-limiter in de Nvidia drivers er blijkbaar niets om geeft, RivaTuner met Async op 163fps locken zorgt er wel voor dat er een betere respons is dan 165hz capped met V-sync. Rivatuner echter op Nvidia Reflex mode zetten werkt dan weer niet en blijft ook vrolijk op 165Hz cappen ook al staat hij op 30.

Maar natuurlijk ondanks dat MFG voor een lagere GPU load zorgt blijft de latency merkbaar aanwezig, DLAA op 1440P met Ultra Nightmare met 2x FG met PT is dan véél meer direct qua respons en vloeiend genoeg met ruwweg 120-140 fps.

GTA V Enhanced werkte de frame-cap dan weer wel van de Nvidia driver, werkte op zich redelijk bijvoorbeeld met 158 fps cap maar als je al 140 fps base haalt en dan 2x/3x/4x ervan maakt voelt de input niet echt goed aan dan gewoon met 140 base spelen zonder die cap. Maar de frametimes zijn bij GTA V Enhanced wat aan de hoge kant zonder FG waardoor het zelfs dan niet echt vloeiend aanvoelt bij beweging dus heb ik standaard 4x MFG naar 500 fps en dat voelt zowel qua latency en vloeiendheid van de framepacing gewoon zoveel beter aan ondanks eventuele tearing.

Dergelijke FPS-caps werken echter niet overal goed, de RTX-Remix games reageren dan enorm slecht met grafische vervormingen:Op m'n eigen scherm zonder FG op 165Hz cap met V-sync ervaar ik niet echt veel last van input delay dus ik laat het meestal maar zo, voel het wel maar het is miniem

Wat deze dynamische framegen natuurlijk voor kan gaan zorgen is dat het berekend op basis van de echte frames hoeveel extra werkt het moet verzetten om de Hz cap te halen, hierdoor hoeft het geen vaste multipliers te gebruiken met de latency-gevolgen die daarbij komen kijken, want als je base 150 fps hebt en wilt 165hz solide halen dan is die 10-20 fps natuurlijk veel minder veeleisend en dus latency verbeterend dan base 150fps met een vaste 2x multiplier waarbij de base fps niet alleen zwaar onderuit gaat om die interpolatie te bewerkstelligen met 2x FG maar dus ook hierdoor de latency zwaar benadeeld.
ik had juist gelezen dat je vsync uit moet zetten als je gsync optimaal wil benutten. ik heb gsync inmiddels uit gezet vanwege vrr flicker. dat stoort me nog veel meer.
vsync moet altijd uit in-game (latency) en indien je g-sync gebruikt dan moet v-sync aan in Nvidia Control Panel.

https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/
ik zal er nog eens mee rommelen, maar zolang ik in donkere delen flicker zie gaat het toch weer uit. Hoe lekker VRR en Gsync ook is om de framarate en refreshrate soepeler te maken, een knipperend beeld doet alles weer teniet.

[Reactie gewijzigd door Bulls op 6 januari 2026 10:26]

Heb je een OLED monitor?
Ja ik had zelf in het verleden ook altijd wel problemen met vrr flickering, voor mij werd dit wel drastisch minder toen ik dus de optimale configuratie instelde (vsync in nvidia control panel op on + gsync).

Oled vind namelijk een fps hoger dan je monitor niet fijn, dan krijg je veel stutters en flickering. Is een algemeen bekend Oled probleem.

Sommige monitoren hebben een optie om vrr flickering te verminderen (weet even niet hoe die instelling heet) het was toen wel op mijn Samsung Neo 9 QD-Oled (ik moest toen juist iets uitzetten zo uit mijn hoofd in de monitor instellingen)

[Reactie gewijzigd door marco-ruijter op 6 januari 2026 10:29]

In het OSD panel op het beeldscherm staat bij het activeren van Gsync er ook bij dat het flickering kan veroorzaken. nadat ik het merkte in bijvoorbeeld Arc Raiders, heb ik het op het beeldscher gedeactiveerd.

Ik zal het nog eens checken met verschillende settings.

Op de PS5 met een LGC2 oled heb ik er geen last van met VRR aan. verschilt dus wel echt per paneel en of hardware combinatie
Klopt PS5 gebruikt VRR (HDMI variant) en Nvidia gebruikt G-Sync (vaak is het G-Sync compliant en tegenwoordig niet meer met een dedicated G-Sync module)
Dit is een fysieke eigenschap van het OLED paneel, VRR geeft een directere toegang tot het refreshpatroon, maar OLED-panelen geven als het ware wanneer de LEDs aanstaan zó veel licht dat dat principe is afgesteld/uitgaat-van een vast refreshrate.

Dit effect wordt verergerd door de mate waarin "HDR" compatible panelen eigenlijk 8-bit+FRC gebruiken, die reductie in brightness-diepte zorgt eigenlijk ervoor dat dit effect vooral in donkere delen nog-uitgesprokener is (de sacrifice van 8-bit+FRC is dat je precisie verliest in de donkerste lichtwaarden, maar geen volledige 10bits aansturing "nodig" hebt = goedkoper)

als je dus VRR en HDR gebruikt bij zo'n paneel heb je een double-whammy van deze effecten, de beste manier om eromheen te werken is om het scherm op een vast refreshrate te laten presenteren, iig, voor zover ik begrijp zou het uitschakelen van HDR niet heel veel doen an-sich)

[Reactie gewijzigd door Annihlator op 6 januari 2026 14:55]

Ja, dat was juist hét hamerstuk van G-Sync; zet VSYNC overal uit want dit werkt niet samen (of, werkt tegen). Dat moest echt. Is blijkbaar veranderd, ik heb het overal uit staan en G-SYNC aan.
Voor jou is de nieuwe optie om een target framerate te zetten dus perfect. Met 4 maal framegen ben je namelijk je latency omhoog aan het krikken. Als je met native (zonder framegen) zou spelen zou je een lagere FPS latency hebben.
Ik heb Frame Gen uitgezet, ik vind het wel soepele spelen maar na 2X FG heb ik enorm last van ghosting bijvoorbeeld op de richtmiddelen of tekst in beeld.
Ja detail gaat verloren, het is alsof je motion blur aan hebt staan. en dat allemaal voor een hoger nummer van fps wat niet echt is.
Voor mij zijn de verbeteringen aan DLSS erg welkom. Sinds het nieuwe Transformer model gebruik ik in vrijwel elke game liever DLSS Quality ipv native 4k met standaard AA, het ziet er afhankelijk van de game beter en scherper uit en het geeft een performance boost.

Ik ben daarom ook erg blij met alle verbeteringen aan het model.

Framegen brand ik vooralsnog niet mijn vingers aan, blijft voor mij een dubieuze technologie
Niks dubieuzers aan dan DLSS zelf.

Even heel kort door de bocht; als je de verschillen niet kan zien/ niet probeert op te merken, dien je je gewoon aan het hele onderwerp afzijdig te houden.

Beetje verdedigen dat nvidia geen echte kaarten meer wil produceren allemaal zodat de AI lobby nog verder gesponsort wordt, houd op. daar heeft echt werkelijkwaar niemand wat aan.
Nieuwe GPU > meer fake FPS voor meer geld.

Welkom in 2026.
Is hier iemand echt blij mee?

Is weer een van de zovele dingen die ik nooit aanzet.
Bart ® Moderator Spielerij @TNG128MB6 januari 2026 07:55
Met framegen in zijn algemeenheid ben ik wel blij. Games die in 80-100 fps draaien, krik ik zo op naar 160fps. Loopt lekker smooth op een 240Hz scherm :). Dus het antwoord op je vraag is ja.
ik ben tegenwoordig al blij met "speelbaar" (3060ti en ultrawide scherm) dus voor de echte die-harders is er dus een markt.
Maar waarom wil jij het dan niet? Als je niet voorbij speelbaar komt eigenlijk, dan zou het toch hartstikke mooi zijn als je betere framerate kan krijgen? (Geen idee welke versies van FG worden ondersteund door een 3060ti).
Het probleem is dat het al speelbaar moet zijn voordat het nut heeft, en vervolgens als het al speelbaar is waarom moet het dan hoger met nep frames die weer allerlei visual artefacts introduceren
Nou ja, omdat het mooier is. En natuurlijk zitten er teveel artifacts in, dan kan het prima zijn dat je het liever uit hebt. Maar betere bewegingsscherpte is en gewoon soepelere beelden zijn mij ook wel wat waard.
Ja snap ik, goede framepacing en vloeiende beelden zijn ook wenselijk, bijvoorbeeld 30 fps op een console is echt not done, krijg er zelfs hoofdpijn van. maar zodra er dus halos, ghosting of andere inconsistenties zichtbaar worden, haak ik ook al af.
Het gaat niet alleen over framegen, de verbeteringen van het Transformer model zijn denk erg welkom.
Ik vind vooral die adaptive FG wel interessant maar vraag me wel af hoe het werkt.

Ik heb nu een 4080 (dus kan sowieso niet van deze nieuwe functionaliteit profiteren) met 2x FG, en een 144Hz paneel. Er zijn games die bijvoorbeeld zonder FG 100fps halen, en als ik dan 2xFG aanzet zit ik op 144fps waarvan de helft gegenereerd, waarmee ik dus effectief minder echte frames heb (namelijk 72) dan neppe t.o.v. geen FG gebruiken. Dat vind ik een beetje zonde. Ik heb liever dat er zo veel mogelijk echte frames gebruikt worden en de framerate cap wordt aangevuld met gegenereerde frames. Geen idee of zoiets mogelijk is, maar de enige andere "oplossing" is een scherm met een hogere refresh rate kopen. Of beter gezegd; 6x FG is eigenlijk enkel interessant voor wie al een hele hoge base framerate heeft van op zijn minst 80fps, en dan een scherm met een verversingssnelheid van 400Hz of hoger.
Ik begrijp dat precies Dynamic FG daar dus voor bedoeld is.
Met name het tegengaan van ghosting zou een goede verbetering zijn. In MSFS 2024 en de zogenoemde 'glass cockpits' van diverse vliegtuigen is DLSS eigenlijk niet goed te gebruiken omdat de getallen op bijvoorbeeld de speed tape en hoogte niet goed leesbaar zijn. Preset F doet het nog het beste, maar het blijft behelpen. De rest is over het algemeen redelijk goed. Dus als deze update echte verbeteringen brengt op dat vlak ben ik blij.
Inderdaad, in het algemeen, nog scherpere DLSS zou super zijn!

Nu stoor ik me toch soms aan de lichte wazigheid van DLSS, zelfs op de beste kwaliteit.

Om te kunnen reageren moet je ingelogd zijn