Nvidia App kan DLSS Override standaard inschakelen voor alle ondersteunde games

Nvidia heeft verschillende nieuwe functies voor zijn desktopapp aangekondigd. Zo wordt het mogelijk om DLSS Override standaard te activeren, waardoor alle games die daar ondersteuning voor bieden automatisch gebruikmaken van DLSS 4 met Multi Frame Generation.

Gebruikers moesten DLSS Overrides voorheen per game activeren, maar via de Nvidia App kunnen ze deze functie binnenkort in één keer voor alle compatibele games aanzetten. Hiermee is het mogelijk om de gebruikte DLSS-versie te overriden, zodat DLSS 4 met Multi Frame Generation ook gebruikt kan worden in games die daar geen native ondersteuning voor bieden. Ook de Super Resolution-upscalingtechniek kan via de appinstellingen in één keer worden ingesteld voor alle games die er ondersteuning voor bieden.

Daarnaast krijgt de Nvidia App ondersteuning voor Smooth Generation voor RTX 40-gpu's. Deze functie voegt net als Frame Generation een extra frame tussen twee gerenderde frames toe, maar het verschil is dat Smooth Generation op driverniveau werkt. Deze functie werd begin dit jaar al beschikbaar gemaakt voor RTX 50-modellen.

Verder maakt Nvidia's lokale AI-gamingassistent Project G-Assist gebruik van een nieuw AI-model dat volgens de fabrikant 40 procent minder geheugen gebruikt. Gebruikers kunnen de chatbot voortaan gebruiken op RTX-videokaarten met minstens 6GB vram, terwijl gpu's voorheen minimaal 12GB vram beschikbaar moesten hebben.

Deze functies zijn vanaf 19 augustus beschikbaar via de bètaversie van de Nvidia App. Het is de bedoeling dat ze volgende week voor alle gebruikers worden uitgebracht. Nvidia bracht zijn desktopapp vorig jaar uit. Hierin worden het Control Panel, GeForce Experience en RTX Experience gecombineerd, zodat gebruikers game-, programma- en driverinstellingen vanuit één app kunnen aanpassen.

Nvidia DLSS Override

Door Kevin Krikhaar

Redacteur

19-08-2025 • 10:16

38

Reacties (38)

Sorteer op:

Weergave:

icm FPS games heb de indruk dat mijn 'hits' beter gaan wanneer DLSS uitgeschakeld wordt - het voelt beetje als een kunstmatig truukje, maar kan het helemaal mis hebben
Dat is opzich niet raar als je DLSS Frame gen gebruikt, input lag is lager zonder frame gen. En alle gegenereerde frames hebben geen input van de gebruiker dat is alleen maar interpretatie van het AI model. Het is meer een frame smoothing om het soepeler te laten voelen niet precieser of snappier.

[Reactie gewijzigd door Astennu op 19 augustus 2025 11:42]

Echter DLSS zelf is geen framegen per definitie, het is upscaling of native met anti-aliasing. Helaas dan wel mogelijkheid tot wazigheid of ghosting ook met DLAA maar niet echt van invloed op de input behalve dat DLAA meer FPS kost voor een betere beeldkwaliteit.
Je kan DLSS gebruiken voor óf upscaling óf framegen.
Kan beiden, DLSS + Framegen, dus een niet-native resolutie samen met framegen of enkel DLSS zonder framegen. DLSS zijn resoluties die lager zijn dan je huidige monitor resolutie dus daarom gaat de FPS erop vooruit met wat trucjes om het beeld wat proberen te verbeteren zodat het dichter op native lijkt. Maar een goed oog ziet natuurlijk dat dit niet het geval is.

DLAA blijft hetzelfde als je monitor resolutie, maar je krijgt er dan Deep-Learning Anti-Aliasing bij en de beeldkwaliteit betreft textures wordt een stuk duidelijker/scherper weergegeven. Maar ook daar is framegen optioneel te gebruiken.
Wat zou dan een scherper beeld opleveren op een 4K monitor? 4K resolutie met DLSS of zelf op 1080P/1440P instellen met DLAA?
Mijn persoonlijke ervaring blijft DLSS Quality toch net wat achter op native op een 1440P PG279Q 27" scherm, ik merk bij een halve meter kijkafstand toch een kleine achteruitgang, maar het mag weinig naam hebben als je daarmee wel je benodigde frames haalt.

Echter hoe de beeldkwaliteit eruit ziet op 1080P/1440P t.a.v. 4K ligt natuurlijk ook aan de beeldgrootte van het paneel. :P
Dat klopt tekst iets aangepast. Quality mode zonder frame gen zou de extra processing lagg te niet moeten toen omdat de totale "render tijd" nog steeds korter is dan native en dat zou dan wel snappier moeten voelen. Tenzij de implementatie in het spel niet lekker is.
Misschien uncapped? Zelf heb ik nog geen last gehad van DLSS in termen van latency/input lag, ik cap wel altijd mijn fps tot 240.

Ik denk dat je miscchien ook frame gen aanzet? Dat verhoogt de latency namelijk wel aanzienlijk in fps games ed. Ik zet fg iig altijd uit, geeft een beetje hetzelfd gevoel als v-sync vroeger.
Dat framegen de latency aanzienlijk verhoogd is simpelweg niet waar. De latency is 1 frame later, bij 100fps is dat dus 10 milliseconde.
Gebruik je dan DLSS met frame-gen of alleen de up-scaling techniek?

Met frame-gen kan ik het mij voorstellen, met up-scaling zou juist dat voor hogere FPS moeten zorgen waardoor je frame-times omlaag gaan. Lagere frame-times zorgt voor meer responsiveness.
Dat kan zeker met framegen omdat dit (ondanks alle markettingpraajtes van nvidia) de inputlag verhoogt, en ook een raar 'gevoel' geeft: als je FPS verhoogt wordt van 40 fps naar 80 fps dan ziet het eruit als 80 fps (met wat merkbare artifacten), maar de latency is alsnog die van een 40 fps game (zelfs ietsje meer dan dat) en dat voel je. als je er gevoelig voor bent dan kan het best zijn dat daadwerkelijk op 40 fps gamen voor jou beter werkt.

Met DLSS upscaling niet volgens mij: je kan wat detail verliezen, dus in theorie kan het zo zijn dat je daardoor slechter kan mikken, maar in de praktijk is het kwaliteitsverlies van DLSS (of FSR of XESS) upscaling zo beperkt dat het daar niet echt invloed op kan hebben. En je krijgt er (echte) hogere fps voor terug waardoor je net wat beter zou moeten kunnen spelen.
Is ook niet zo raar, als je frame perfect aan het mikken bent, en je hebt 1 echt frame voor je doel, 1-3 gen frames op je doel, en 1 echt frame achter je doel, dan heb je geen frame waar je daadwerkelijk je doel raakt. Of situaties waar je doel in de ene richting gaat, 3 frames worden gegenereerd in die richting door waar je op mikt/schiet, en dat komt het echte frame waarin blijkt dat je doel van richting veranderd was en je nu er naast mikt. Het is alsof je een FPS speelt met slechte netcode, waar de hutbox en het visuele doel niet overeen komen, maar dan ook locally/een extra laag bovenop de netcode lag.

YouTube: Lag Compensation in FPS Shooters (Best Explanation)

[Reactie gewijzigd door wild_dog op 19 augustus 2025 10:42]

Voor FPS games wil je juist geen framegen aanhebben, tenminste bij competitive shooters. Functies zoals framegen, rtx hdr, in-game vsync zorgen allemaal voor meer inputlag waardoor je niet die smooth experience ervaart.

Bij dergelijke games kan je het beste die opties uitschakelen, in-game graphics aanpassen als je hogere fps wilt voor het gebruik van je 144/240/360hz monitor. Zet de game in je nvidia app bij power management = prefer max performance, reflex = on/ultra/(of in-game reflex+boost indien ondersteund).
Het is ook een kunstmatig trucje. We hikken tegen (o.a.) Moore's law aan, dan maar softwarematig de performance opkrikken.
Welke video kaart heb je ?
GeForce RTX 4070 Super

ik volg al die huidige nieuwe ontwikkelingen maar moeilijk, DLSS, RDNA 3.5, FSR, Low latency etc. etc.
klik op; auto/recommended, 'en het zal wel', maar dat is klaarblijkelijk niet de juiste manier :+
Het maakt nogal een verschil wat voor spel je speelt inderdaad. Als je alleen gaat voor vloeiende plaatjes, zoals in een mooie RPG, is zoiets als MFG/Smoothing wel leuk, maar het is meer een gimmick.

Als responsiveness van je input de prioriteit heeft, zou ik gewoon altijd dit soort trucjes uit zetten. Zelfs DLSS, ook al heeft dat geen impact op je input (sterker nog, je zult een hogere framerate halen dus theoretisch heb je meer frames per seconde om raak te schieten). Er was een hele beweging in CS:GO die hun display op 1024x780 zette om de hitboxes te vergroten en alle settings minimaal liet om maar zoveel mogelijk frames te halen. DLSS doet iets soortgelijks alleen veel minder extreem. FSR is AMD's sausje van hetzelfde principe alleen FSR draait op alle GPU's (driver based) terwijl DLSS draait op de Tensor cores van een RTX-gpu.

Nvidia Reflex is misschien wel een leuke optie om aan te laten.
Ah, dat verklaart een hoop. De 50XX verwerkt het native via hardware, en daar zie ik geen problemen. De 40XX doet dit deels via drivers, wat vertraging veroorzaakt doordat het om softwarematige rendering gaat.
Weet je dat ik exact hetzelfde ervoer tijdens de BF6 Beta ? Met de standaard instellingen raakte ik vrijwel niets. Toen ik DLSS uitzette, nota bene op de laatste dag van de beta, raakte ik 90% waar ik op schoot. Had toen al zoiets van "wtf is dit nou weer".
Spel heeft anders ook wel een vreemd probleem, de FPS die getoond werd via de perfoverlay van het spel zelf, strookte niet met de FPS getoond op overlays zoals Rivatuner of zelfs m'n ingebouwde G-sync FPS counter van de monitor.

Later bleek dat zelfs op 1440P lage instellingen de 5090 op ~67 fps bleef hangen terwijl tegelijkertijd de perfoverlay 330+ fps toont. Ik had het spel via de EA App. Zodra je de EA App overlay inschakelde, schoot de FPS de lucht in en soms meer dan verdubbelde naar 150+ fps (CPU bound), en dat speelde ook een stuk directer qua input, maar de perfoverlay ingame strookte nog niet want die toont doodleuk 330-340 fps.

Met 2x framegen op 5K met DLAA was het anders prima speelbaar op de 5090 toen ik de overlay uit had staan overigens, dan zat ik ergens in de 140fps regionen.
Aha. Terzijde, ik snap sowieso niet waarom je een RTX 5090 zou willen hebben, maar dat is mijn mening en een story for another glory.
On topic, ik heb het via Steam geprobeerd. Ik ben een beetje klaar met die EA App. Ik gebruik mijn computer voor gaming, maar ook voor muziekproductie. Ik moet iedere keer als ik BF2042 wil spelen, RipX deïnstalleren, want anders krijg ik de melding dat ik cheatsoftware gebruik. Verschrikkelijk irritant. Waardoor ik dus BF2042 niet meer speel. Niet dat ik het een echt leuk spel vond, maar na 12 jaar actief BF4 spelen, wil ik wel weer eens wat anders. BF6 via EA App schijnt exact hetzelfde te doen bij collegae in de muziekbusiness, maar via Steam heb ík er in elk geval geen last van. Heel jammer, ik had graag alles van Battlefield op één platform gehad, maar BF6 is nu gepreorderd via Steam. Die hele EA App is echt verschrikkelijk, zo vindt 70% van alle gebruikers ervan hetzelfde. Steam is ook niet wat het geweest is, maar die is tenminste niet zo heel aanwezig. Met commands kan je de Steam app tot een minimum beperken tijdens gaming, dat kan bij EA App veel minder tot niet.
Ben overgegaan van een 1080Ti FTW3 naar Astral 5090 na 8 jaar simpelweg omdat het de enige GPU sinds die voorlaatste is met halo-achtige specificaties dat ik m'n geld waard vind en er spellen aankwamen zoals DOOM die enkel op RTX-GPUs werken, speel vaak oudere spellen met frame/renderscaling of DSR resoluties en 5K is een verdubbeling van 1440P waardoor Anti-Aliasing dan geen echt probleem meer is en het op die manier het scherpste wordt weergegeven.

En die hoge bandbreedte komt wel ten goede voor de hogere resoluties vloeiend met zo min mogelijk hikjes te spelen. Maar ook RTX Remixed games met Ray Reconstruction en Path Tracing lukt het een overklokte 5090 met moeite 60 fps te halen op 1440P DLAA dus wat overkill lijkt is het niet in alle gevallen zo. Het VRAM is ook wel fijn zodat er tenminste zeer hoge kwaliteit textures e.d. in passen voor de komende tijd terwijl het opnemen via Nvidia App Shadowplay dan plots ook 2-3GB extra kan innemen en verder heeft DLSS Framegen natuurlijk ook meer VRAM nodig.

Mja heb vooral de BF games via EA omdat eigenlijk al m'n BF titels daar al waren, nadeel dat een deel van de oudere titels niet zonder kan. Speelde alle titels al sinds vanaf het begin met alle uitbreidingen, enkel 2042 heb ik volledig genegeerd omdat ik het niet BF-waardig vond. Helaas heeft de Javelin-anti-cheat wel problemen met meer software zoals Daemontools, zag zelfs iemand rapporteren dat het wilde dat iemand Valorant verwijderde. :+ Gelukkig zijn er voor Daemontools wel alternatieven zoals ImDisk.

Ik weet overigens niet of het FPS-probleem ook speelt bij de Steam variant, dat heb ik niet kunnen testen.

Battlefield 6 met 5K op DLAA en 4x Framegen haalde ik nog 230+ FPS overigens, terwijl het op 1440P eerder richting de 400-700 schiet. Maar ik merk op 1440P native zelfs met DLAA dat het spel er lichtelijk 'grainy' of 'noisy' uit ziet.

Dit is 1440P op laagste instellingen, je ziet de perfoverlay een hoge framerate rapporteren, maar de Rivatuner OSD zegt iets heel anders, dit is zonder EA-app overlay.Dit is met de EA-app overlay ingeschakeld, 1440P laagste instellingen, maar die perfoverlay ingame strookt niet met de rest:Dit is met 4x Framegen op 1440P laagste instellingen mét overlay:1440P hoogste instellingen met overlay en 4x Framegen & DLAA:5K hoogste instellingen met overlay en 4x Framegen & DLAA:1440P hoogste instellingen met overlay en 4x Framegen & DLAA Off:5K hoogste instellingen met overlay en 4x Framegen & DLAA Off:1440P hoogste instellingen met overlay en 4x Framegen & DLSS Quality:1440P hoogste instellingen met overlay en 4x Framegen & DLSS Performance:
Ik begrijp je beweegredenen, maar het is wel erg veel geld voor een videokaart met 'fake frames'.
Persoonlijk had ik dan meer voor de 5080 gekozen, gezien het prijsverschil en het minimale prestatieverschil. Tenzij je een zooi zonnepanelen op je dak hebt liggen, is er geen enkele reden om zoveel power te vragen van het stroomnet. Je hebt namelijk een beste PC nodig om geen bottleneck te krijgen met een 5090. Maar nogmaals, dat is mijn mening. Ik kan heel wat andere dingen verzinnen om mijn dierbare knaken aan uit te geven en alsnog een monsterlijke PC te hebben. Ben zelf echter wel klaar met die nVidia-onzin. Dat hele AI-gedoe bij nVidia verpest de hele PC-gaming wereld. Met alle ewaste erbij komende.
Afgezien van het stroomgedoe, geniet van je kaartje. Succes trouwens met de garantie mocht ie ooit kapot gaan, in mijn klantenkring heb ik genoeg voorbeelden gezien van merken (XFX bijvoorbeeld, eikels) die tot in den treure blijven aanhalen dat een defecte RTX5090 de fout is van de gebruiker.

Als bouwer van custom PC's (al 26 jaar), weiger ik nog langer een RTX 5090 in te bouwen bij PC's. Ook ik moet die garantie bieden aan mijn klanten. Gelukkig verlies ik er niet echt klandizie op, maar moest het wel melden bij mijn klantenkring. Gelukkig willen de meesten een AMD-kaart :-)

[Reactie gewijzigd door Indifstublatia op 20 augustus 2025 14:27]

Het is inderdaad veel geld, maar ik kan dan ook weer een jaar of 8 voorruit zonder veel zorgen te maken of een game niet meer draait, laten we wel wezen, de 5090 is ruim 4x zo snel als een 1080Ti in ruwe rekenkracht en bandbreedte, een overklokte 1080Ti op 12Gbps VRAM zit rond de 528GB/s terwijl de RTX 5090 hier nu op 2176GB/s draait.

We kunnen ons verzetten tegen de 'trucjes' maar de realiteit is momenteel wel als je dergelijke visuele praal wilt in spellen je op dit moment enige concessies zal moeten doen alvorens dit 'ruw' goed speelbaar is simpelweg omdat deze raytracing technieken gewoon erg zwaar zijn, dat is ook een deel van de reden dat ik de 20/30/40 series heb overgeslagen, anders dan de beschikbaarheid, prijzen, mininggekte maar ook weinig voorruitgang in VRAM t.a.v. de 11GB 1080Ti.

De 5080 met 16GB is helaas niet genoeg voor mij persoonlijk en voelt niet echt als upgrade aan voor de oude 1080Ti op dat gebied en is eigenlijk bijna een halvering van de performance t.a.v. de 5090. Er zijn al best veel situaties waarbij 16GB verzadigd raakt en moet gaan swappen, dan is de RTX 5080 Super een wat betere keus straks met 24GB gezien dat nog niet zoveel wordt overschreden tenzij je 5K of 8K gaat draaien met DLAA + Framegen in bepaalde zeer zware titels zoals Monster Hunter Wilds of GTA V Enhanced.

Wat betreft het stroomnet, ik denk dat je jezelf eerder zorgen mag maken over de mensen met zware elektrische auto's, kookplaten, airco's en warmtepompen die onevenredig veel stroom vragen van het lokale stroomnet dan die enkele paar mensen met een dergelijk zware computer die het grootste deel van de tijd niet eens benut wordt op die manier. En natuurlijk die enorm zware datacenters die zoveel stroom en drinkwater vergen, natuurlijk vergt bepaalde zware industrie ook veel energie maar dat is ook deels je economische motor.

Overigens doet AMD net zo goed mee in de AI-race, dat is niet gelimiteerd tot Nvidia, Nvidia heeft enkel op dit moment de bovenhand. Zaken zoals FSR en FSR Framegen is precies hetzelfde maar dan de AMD implementatie. Dat is helaas het 'nu' en niet perse te verwijten aan Nvidia. Het is wat de toekomst in veel zaken zal aandrijven. Dat de prijzen absurd hoog zijn beaam ik zeker.

Ik kan mij herinneren dat juist XFX samen met EVGA en Sapphire dé merken zijn die vroeger de beste garantie/ondersteuning genoten. XFX is bij Nvidia weggegaan na de 200-series omdat ze ook voor ATI videokaarten gingen maken en dat Nvidia hierop antwoorde geen Fermi chips te leveren en samenwerking met het merk zou afraden. Maar ik kan me juist herinneren dat XFX het als merk goed deed en nog altijd samen met Sapphire bovenaan staat voor AMD.
Dat je voor een 5090 heb gekozen kan ik alleen maar mee eens zijn. Zelf heb ik er ook een van Inno3D de OC versie. Ik doe bijna alleen flightsims en dat in VR met een HP Reverb Pro. Je begrijpt dan zeker wel waarom ik mijn 4090 heb ingeruild. Sommigen begrijpen niet dat je juist voor deze extreme toepassingen alle kracht nodig heb die wenselijk is ook al is het maar een paar luttele fps.
Geen idee maar ik heb DLSS gewoon aan op mijn 5080 in bo6.
Masterclass rammen deze opa merk er niks van maar de fps is ook enorm hoog.
Je zou hier wel eens gelijk in kunnen hebben.

Stel je hebt een 4k scherm en schakelt DLSS performance in, dan draait de game engine op 1080p.

Je hebt dan wel 2x meer pixels in de breedte en de hoogte, maar game engine heeft nog steeds de helft (1080p) aan hitboxen.

Dus een raak schot in beeld, is in de game engine een mis.
Heel handig dit. De DLSS algo override maakte een gigantisch kwaliteitsverschil in RDR2 en om het zo goed toegankelijk te hebben in iedere ondersteunde game is fijn.
Naja, in mijn geval een LG CX 77 inch OLED tv op 4,5 meter afstand :P Nu zijn mijn ogen zeker niet de beste, maar in beweging zie ik weinig verschil met of zonder DLSS. In stilstand en je kijkt naar vegetatie in games ofzo, dan zie je dat het wat scherper is.
DLSS4 in transformer mode is een stuk scherper. Maar dan moet je wel een 50 series kaart hebben en een game die het ondersteunt. En als je een 50 series kaart hebt dan heb je momenteel over het algemeen geen DLSS nodig...
Transformer Model is gewoon beschikbaar op alle RTX videokaarten, maar de 20-series bijvoorbeeld kan mindere prestaties bieden omdat de Tensor cores gewoon verouderd zijn in capaciteit. Multi-Framegen 3x/4x is dan enkel voor de 50-seres.

Maar dat je geen DLSS nodig hebt is niet helemaal waar, spellen met volledige path tracing & ray reconstruction kunnen zo zwaar zijn o.a. RTX Remix mods die 20 jaar oude spellen weer nieuw leven inblazen dat zelfs een overklokte 5090 op 1440P moeite heeft om dat boven de 60FPS te renderen zonder framegen met DLAA

DLAA valt overigens onder DLSS en werkt op native-resolutie, maar dan als Anti-Aliasing via Deep-Learning, dat kost ook frames dus is het zwaarder. Heb je een 4K scherm dan ben je in die situaties al snel gebonden aan DLSS zodat hij intern een lagere resolutie rendert en dat upscaled met wat op-poetsen om wat speelbaardere framerates te halen.

Overigens in spellen waar DLSS is toegevoegd is DLAA overal te forceren met de laatste Transformer Model, zonder dat dit een probleem vormt voor anti-cheats omdat je geen DLLs hoeft te vervangen, dat zorgt er wel voor dat de beeldscherpte een stuk aangenamer wordt en natuurlijk anti-aliasing zonder dat je DSR nodig hebt wat juist meer resources zou kosten, of framescaling e.d. technieken om hogere resoluties te downsamplen naar native.
Ik denk dat dit samenhangt met de FPS targets die Nvidia wilt hanteren voor Geforce NOW.
Is dit om onderteuning te bieden voor games die geen DLSS ondersteuning hebben? want DLSS profiles konden wel al doen. wat is het nut hiervan....
Nee het dient als override zodat je het niet per spel individueel hoeft in te stellen als je de wens hebt overal globaal dezelfde instellingen te gebruiken.

Maar ik denk dat dit allang mogelijk was via Nvidia Inspector's profile inspector door daar de instellingen te configureren in het globale profiel, maar dit soort features sijpelen nu langzaam door naar de Nvidia App.
Dit was ook al mogelijk in de Nvidia app hoor.. dus daarom vroeg ik me af wat dit is...
Het was nog niet mogelijk om in de Nvidia-app op globaal niveau in te stellen dat een DLSS-profiel aangepast moet worden. Dat moest per game, dat kan nu met een enkele instelling, waarna het geldt voor alle compatibele games. Scheelt een hoop moeite, is nieuw, is nieuws.

Op dit item kan niet meer gereageerd worden.