Nvidia App krijgt Frame Generation op driverniveau voor RTX 50-gpu's

Nvidia heeft Smooth Motion toegevoegd aan de Nvidia App. Bezitters van een RTX 50-gpu kunnen hiermee Frame Generation inschakelen, zonder dat een game deze functie hoeft te ondersteunen. AMD biedt een soortgelijke feature voor de Radeon RX 6000- en 7000-gpu's.

Het bedrijf schrijft in een blogpost dat Smooth Motion net zoals het reguliere Frame Generation AI inzet om een extra frame tussen twee gerenderde frames te plaatsen. In combinatie met upscaling moet dit doorgaans de framerate verdubbelen. De functie werkt momenteel in games op basis van DirectX 11 en 12. AMD biedt met AFMF een eigen variant van deze feature, die bovendien compatibel is met Vulkan en OpenGL.

De update voor de Nvidia App brengt allerlei extra functionaliteit met zich mee. Zo maakt Nvidia het onder meer mogelijk om de DLSS-versie van een spel te overriden indien dat nog niet over de nieuwste variant beschikt. Daarnaast kan RTX Video Super Resolution voortaan overweg met hdr-content. Het gpu-gebruik van deze upscaler moet na de update bovendien met maximaal 30 procent afnemen.

De nieuwe versie van de Nvidia App komt samen uit met de GeForce RTX 5080 en RTX 5090. De eerste Blackwell-videokaarten zijn sinds gisteren te koop, maar zijn niet goed verkrijgbaar. De Founders Edition van die gpu's waren naar verluidt al voor 15.00 uur uitverkocht, nog voor de verkoop officieel van start ging.

Nvidia Smooth Motion
Nvidia Smooth Motion in de Nvidia App

Door Idriz Velghe

Redacteur

31-01-2025 • 20:23

110

Lees meer

Reacties (110)

110
106
26
4
0
65
Wijzig sortering

Sorteer op:

Weergave:

Nou, als je toch op driver niveau bezig bent Nvidia, ondersteun de 40 serie dan ook gelijk even...
Die gaat er ook komen:
“NVIDIA Smooth Motion is a brand-new driver technology and requires time for validation and QA across multiple products. Support for GeForce RTX 40 Series GPUs will be coming in a future update.”
Is dat gelijk aan mfg. Wat makkelijk zou kunnen op de 4000 serie.
Nouu, ik zou graag gewild hebben dat mijn RTX 4090 omgeturnd werd tot een RTX 5090 maar helaas, Nvidia is geen liefdadigheidsinstelling. De MFG mag van mij een RTX 50XX feature blijven. Of het technisch mogelijk is op 4000 serie, dat weten alleen de Nvidia engineers. Wij mogen slechts gissen.
Ik ben wel erg blij dat hun DLSS 4 met het nieuwe transformer model naar de 4000 serie hebben gebracht. Voor de beeldkwaliteit is dit echt een game changer, wel met een lichte performance hit.
Ooit lossless scaling geprobeerd?
Software kost 6 euro op Steam en vele reviewers zijn er laaiend over.
Ik heb het zelf ook en voor spellen zoals Witcher en Cyberpunk is het echt super goed. Ik weet dat de technische implementatie verschild t.o.v. nvidia, maar het feit dat ik voor 6 euro mfg x20 kan hebben vind ik bizar terwijl nvidia x4 mfg paywalled.
Ja heb het uitgeprobeerd met Final Fantasy X. Wilde eens op 60fps spelen maar het maakte het beeld instabiel. Volgens mij werkt het pas echt goed met games vanaf 60fps. FFX is gecapped op 30fps. Daarna nooit echt gebruik van gemaakt.
Je wil een base framerate van minimaal 50 hebben om het een beetje speelbaar te houden omdat de latency idd verhoogd. Het maakt daarnaast ook nog uit of je HDR aan hebt staan of niet. Maar met mfg en normale frame gen van Nvidia is dat (op HDR na) het zelfde.
Lossless scaling vind ik top voor YouTube video's. 60 fps upscaling naar 240 of 360 en in game recordings zien er terug vloeiend uit.
Nee dat gaat niet makkelijk want MFG vereist specifieke hardware om MFG goed te laten werken.
Ik begrijp dat MFG echt alleen kan op de 5000 serie omdat daar een nieuwere (hardware) optical flow accelerator in zit. Dat is althans hun uitleg.

Edit: de OFA is waarom frame generation alleen op de 4000 serie werkte, voor de 5000 serie zijn ze op een andere methode overgestapt, die afhankelijk is van iets wat "hardware flip metering" heet, dat is ook de reden dat ze het niet kunnen laten werken op de 4000 serie.

[Reactie gewijzigd door K0L3N op 1 februari 2025 09:58]

Het klopt inderdaad dat er geen OFA meer in zit, maar alles nu via tensor cores verloopt. Hardware flip metering is iets dat in software gebeurd. Maar dat betekend ook dat misschien FG wel naar 3000 serie kaarten komt. In ieder geval zou dit nu technisch mogelijk moeten zijn, blijkt uit het Digital Foundry interview met Bryan Catanzaro.
I think this is primarily a question of optimization and also engineering and then the ultimate user experience. We're launching this Frame Generation, the best Multi Frame Generation technology, with the 50 Series, and we'll see what we're able to squeeze out of older hardware in the future." So, frame generation will most likely arrive on the older RTX 30 series, with even a slight possibility of the RTX 20 series getting the DLSS frame generation. Due to compute budget constraints, the multi-frame generation will most likely stay an RTX 50 series exclusive as it has more raw computing power to handle this technology.

When we built NVIDIA DLSS 3 Frame Generation, we absolutely needed hardware acceleration to compute Optical Flow. We didn't have enough Tensor Cores and we didn't have an Optical Flow algorithm that was good enough. We hadn't developed a real-time Optical Flow algorithm that ran on Tensor Cores that could fit our compute budget. We had the Optical Flow accelerator, which NVIDIA had been building for years as an evolution of our video encoder technology, and it's also been a part of our automotive computer vision acceleration for self-driving cars.

It made sense for us to use that for NVIDIA DLSS 3 Frame Generation. But the difficult part about any sort of hardware implementation of an algorithm like Optical Flow is that it's really difficult to improve it. It is kind of what it is and the failures that arose from that hardware Optical Flow, we couldn't undo them with a smarter neural network until we decided to just replace it and go with a fully AI-based solution, so that's what we've done for Frame Generation in DLSS 4

[Reactie gewijzigd door 24hourpartypal op 1 februari 2025 18:28]

Interessant, hoe ik het begrepen heb is dat flip metering voorheen via de CPU gebeurde (al snap ik nog steeds niet wat dat nou precies is) en dat ze dat nu in de 5000 serie via aparte hardware via de GPU laten lopen, waardoor ze accuraat genoeg zijn om meerdere AI frames tussen de normale frames te stoppen. Voor de 2X framegen is dit niet zo'n probleem, dus die zou naar de 3000 serie kunnen komen, maar dat zou de reden zijn dat 3x en 4x niet naar oudere gpu's kan komen.
Volgens mij is de Flip Metering iets dat op de Tensor cores gebeurt uit dit verhaal ("We hadn't developed a real-time Optical Flow algorithm that ran on Tensor Cores that could fit our compute budget."), maar dan klopt de rest van wat je zegt ook. Mogelijk heb je int4/fp4 nodig om dit snel genoeg dit te kunnen doen voor x3/x4 framegen

[Reactie gewijzigd door 24hourpartypal op 2 februari 2025 15:15]

Ja het heeft iets met de "compute engine" te maken, maar goed, eindstand is dat het niet gaat werken, en dat de rtx5000 serie als het goed is stabielere frametimes heeft.
Ach ja. Ik wil niet lullig overkomen. Maar wat jij denkt veranderd de situatie niet en het is NVIDIA’s goed recht om dit soort acties uit te voeren.

Als mensen dit nou zo een probleem vinden moeten ze de kaarten niet kopen. Dan merkt NVIDIA vanzelf de daling van verkoop. Maar blijkbaar vinden de meeste mensen het prima. Want kaarten van NVIDIA worden nog steeds net zo hard verkocht, als het niet meer is.
Ze moeten een software feature over houden voor kaarten die nergens te koop zijn...
jamaar, de 50 series is ook nergens te koop :p
Nochtans komt dat eraan , net zoals amd deed
Leuk zo'n hoog getal in je FPS counter. maar voelt het ook daadwerkelijk vloeiender?
Hardware Unboxed heeft een mooie analyse video hierover gepost vorige week, "Is DLSS 4 Multi Frame Generation Worth It?"
Korte antwoord... nee. Het werkt alleen goed als je al behoorlijk hoge framerate had (liefst 100+) en alle nadelen die framegen had zijn er nog steeds en worden alleen maar meer als je nog meer frames er bij gaat verzinnen.
Het lijkt alleen misschien zinvol als je een monitor met absurd hoge refreshrate hebt, dan zou je van 100 fps naar 300-350 kunnen gaan misschien (het is nooit precies x 4 want de frame gen kost ook resources).
Bij die normale frame gen merkte ik verder geen input lag verder.
Had in begin een fps van 980 fps. Op Cyberpunk met een AMD 6650 OC. Meteen naar beneden geschroefd, want belachelijk.
Nee, de toegevoegde frames maken de input latency juist hoger, en qua ‘feel’ blijft het hetzelfde als de echte gerenderde frames. De extra frames maken alleen je FPS counter hoger.
En laten de game er gewoon vlotter uitzien.
Ach, doorsnee gamer merkt echt geen bal van die inputlag.
Portal RTX is verschrikkelijk met Frame Gen en V-Sync, zeker 500 milliseconden mouse lag.
lol dat zou 2 fps zijn
Jah, zo voelt de muis op een 60 Hz monitor met FG.
Link l langs geen kanten
En daarom koopt de doosnee gamer ook geen 5090 of 4080.

Mensen met hele goede ogen en geld zien het nut van topkaarten in.
Dit zal een onpopulaire mening zijn, maar waarom gaan we zoveel geld betalen voor bijna marginale extra kracht aangevuld met valse frames? Metaforisch gesproken betaal je nu voor "festivalbier", leuk maar aangelengd en best duur.

[Reactie gewijzigd door SkyStreaker op 2 februari 2025 09:54]

Forza Horizon 6 is straks ook weer een festival om naar toe te gaan en al helemaal met de 50xx series hopelijk, en dat is nu eenmaal festivalbier wat ze daar schenken O+
Maareh de 5090 op power limit 70% verbruikt 400W net als een 4090 op 100%. De 5090 is dan alsnog zonder trucjes 25% sneller. Die performance gaat de 4090 niet evenaren, de amd 7900xtx ook niet, en daarmee zal geen enkele andere kaart je dat bieden.

Helaas is het geen sprong van 40-50% efficiency dit keer, maar zeker wel een merkbare vooruitgang als je wel die 400 of zelfs 575W daarvoor over hebt.

[Reactie gewijzigd door OruBLMsFrl op 31 januari 2025 23:51]

Hoe kan het verschil op 70% power nagenoeg hetzelfde zijn als op 100% als uit diverse reviews blijkt: overall maar 25% sneller op 100% power.
Ja tweakers meet 30% maar dat zijn te weinig games in de sample size.

[Reactie gewijzigd door Torched op 1 februari 2025 13:12]

Van der8auer:
YouTube: 20% Efficiency Boost by RTX 5090 Power Target Tweaking
3dMark Speedway
100% 5090 - 146.1 fps - 551W
90% 5090 - 143.7 fps - 511W
80% 5090 - 138.4 fps - 460W
70% 5090 - 128.5 fps - 403W
100% 4090 - 101.2 fps - 408W

Uiteindelijk zal er altijd verschil zijn tussen diverse games ook in relatieve prestatieverschillen. Helaas testen maar heel weinig reviewer(s) op 70% power limit. Bij Tweakers en der8auer is het dan 25% wat overblijft, elders in bepaalde games krijg je dan misschien 20%. Dat is nog altijd een netto efficiency winst op een performance level dat de 4090 niet haalt. Al de rest komt daar nog bij. Hadden we op meer gehoopt: vast en zeker. Is het slechts marginaal: bij de 5080 ja, maar niet bij de 5090 dan toch.
Ja in speedway. Daar is een 5090 op 100%dus 35% oid sneller dan een 4090. Maar dat is niet representatief voor scores in games.

Ik bedoelde over een gemiddelde set games. Daar zijn de verschillen in zijn video veel kleiner. Ik zie een 11%, een 20% en een 30%. Tussen 100% 4090 en 70% 5090.
Gemiddeld is dat dus weer 20% dus je raakt 5% kwijt door underpower te gaan. Je krijgt dus 20% en geen 25%

Ditzelfde verhaal was ook al met 4090 hoor, met lager powerbudget kreeg je ook efficiëncy terug.

[Reactie gewijzigd door Torched op 1 februari 2025 10:04]

Gaat overal eigenlijk op. Gaan we voor stroomverbruik in deze wereld of voor maximale prestaties.

Eigenlijk hoort alles een optimalisatieprofiel te hebben, maar dan wil je eigenlijk dat dat weer standaard vanuit de fabrikant al komt. En dan zegt men weer, hij kan dus wel sneller.
Dus een 3d mark score is opeens leading voor gaming? Natuurlijk is een 5090 op 70% power niet 25% sneller dan de 4090 op 100% power in games. Graag een benchmark van 10 games waaruit dat blijkt
wat je vergeet is dat de 4090 net zo goet ge-powerlimit kan worden
Wat vergeten wordt is dat de 5090 meer presteert dan de 4090 ooit kan in elk normaal systeem. Dus wat jij zegt klopt, de 4090 houdt wel ook best veel van diens prestaties vast op 280W, maar een 4090 kan desondanks nooit een 5090 evenaren op 400W, laat staan op 575W. En veel mensen kijken naar de 5090 voor het prestatieniveau, niet zozeer voor de energie efficiëntie ervan.
Waar hier gezegd werd van de verschillen zijn marginaal, dat klopt gewoon niet op het 5090 prestatieniveau gelet. Net als dat het super knap is om met 10W op een handheld te kunnen gamen, misschien nog wel hogere energie efficiency dan een 4090 en 5090, maar ook dat is even zo goed geen optie als je domweg hogere prestaties wenst. Die technologie schaalt maar zover maximaal qua prestaties.

[Reactie gewijzigd door OruBLMsFrl op 2 februari 2025 15:06]

Omdat een 4090 zo goed als evenveel kost ?
Omdat dat is waar mensen zich op richten en nieuwssites over schrijven.
Ik ben van plan om van een 3060 naar een 5080 te gaan.

Mensen die iedere generatie een nieuwe GPU kopen zijn een zeer kleine minderheid. Net zoals bij smartphones.
Dit zal een onpopulaire mening zijn, maar waarom gaan we zoveel geld betalen voor bijna marginale extra kracht aangevuld met valse frames? Metaforisch gesproken betaal je nu voor festivalbier, leuk maar aangelengd en best duur.
Festival bier bestaat niet.
Metafoor niet te letterlijk nemen, maar heb het wel iets voor je genuanceerd.

[Reactie gewijzigd door SkyStreaker op 1 februari 2025 17:17]

Je betaalt voor festivalbier maar krijgt er gratis een extra biertje bij. Zonder extra kost en zonder dat je het moet opdrinken.
Nouja, gratis bier. Het is wat men denkt dat bier zou moeten zijn. Het kan ook iets anders zijn.
Wat gaaf voor die 5 mensen die nu een 5090 bezitten :X
Het is droevig dat je met een top-end kaart van 2500+ euro nog dit soort zooi uberhaubt nodig hebt..
Tja ze zijn lui om games goed te optimaliseren.
Vreemd dat je op 0 staat, want je vertelt gewoon de waarheid hier. De Unreal engine bijvoorbeeld heeft te veel opties die je kan aanvinken en veel zuiniger toegepast zouden kunnen worden.

Optimalisatie is op een dieptepunt en dat kan je simpelweg zien door games van 10 jaar geleden te vergelijken met nu en sommige games die nu nog maar 30 fps halen op de consoles terwijl je het er nergens aan af ziet.

Het zijn natuurlijk meestal de grote bazen die hier schuld aan hebben, maar we kunnen er ook vanuit gaan dat de rest van het personeel de kortste weg te vaak neemt.
dat heeft toch niks met luiheid te maken! Alsof het een keuze is van developers. De game wereld wordt gedomineerrd door te krappe deadlines met investeerders die zo snel mogelijk een return willen hebben want het is een heel risikovolle investering. Je denkt een goede game te hebben, de giftige fanbase gilt en schreeuwt in superlatieven omdat ze iets gezien hebben dat hen niet zint of niet binnen de 'lore' valt, en hup de verkopen zijn maar 50% van je prognose. In zo'n situatie is er helemaal geen tijd en energie voor optimalistaie. Staat helemaal onderin het rijtje van dingen te doen. Eerst de dealine halen, daarna misschien een patch tenzij de fanbase de game al heeft laten vallen.
Dat wat jij zegt waar is maakt het andere nog niet incorrect. Geen idee in welk vakgebied jij zit, maar ik heb in elk bedrijf en sector tot nu toe werknemers en afdelingen gezien die de kantjes er af lopen en het minimale doen om hun loon te ontvangen en jij gaat mij niet vertellen dat de gamesindustrie daar een uitzondering op is. Misschien vroeger toen enkel passie je een gamedev maakte, maar tegenwoordig is het gewoon een baan zoals elke.

Die zelfde vreemde redeneringen zie je altijd langs komen als een falende game op de markt komt. Het ligt nooit aan de werknemers. Ik geef zelfs aan dat de schuld meestal aan de kant van de leiding en investeerders ligt, maar ook daar gebruik je in mijn ogen een vreemde excuus. Het is niet alsof wij gamers om die onmogelijk (dure) projecten vragen. De meeste gamers willen gewoon een goede lopende game bij release met leuke gameplay en als de map dan wat kleiner is of niet elke weerspiegeling helemaal klopt dan kijken we daar wel voorbij. Het
je hebt gelijk natuurlijk dat er allerlei soorten werknemers zijn met meer of minder integriteit en professionaliteit (en natuurlijk training, optimalisatie is niet zo maar wat).

Wat gamers betreft vind ik het wereldje niet zo onschuldig. Bij iedere grote game is een deel van de groep extreem tegen met veel haat en venijn. We willen allemaal wat nieuws (we zijn juist enorm veeleisend) maar owee als 'the lore' niet gevolgd wordt. De mass efffect, assassins creed en dragon age fundamentalisten komen in actie. Ik heb het dan niet over bugs, een game zou bugvrij moeten zijn, maar over artistieke/verhaal keuzes. De groep die zich wel met een nieuwe versie vermaakt of de gematigde groep wordt ondergeschreeuwd. Er heerst hetzelfde fanatisme als bij voetbal. "we kijken er wel aan voorbij" => totaal niet. Miscchien zijn jij en ik de uitzonderingen.
Game makers kunnen simpel opties een 5% lager in kwaliteit zetten. Zie je niks van en dat is optimaliseren. Daar hoeft commercie of management in een gamebedrijf niks mee te maken te hebben.

Elden Ring verkoopt niet beter met 3% meer precisie. Elden Ring verkoopt omdat het een goed spel is en een goede fps heeft, en nu minder bugs. Dat is belangrijk.

Ik denk dat we kwalitatief goede hoofden van de afdelingen moeten hebben, die horen tegengas te geven richting elders. Helaas zijn de team manager lagen in veel soorten bedrijven van dramatisch niveau.

Dus uiteraard moeilijk ergens de vinger op te leggen. Maar men kan intern bij de gamemaker wel een hoop doen.
Te lui weet ik niet. Denk dat de kosten om een game te maken gewoon uit de pan aan het rijzen zijn
Wie zegt dat je het nodig hebt? Het is een extra feature. Je kan gewoon kiezen om de grafische instellingen lager te laten.
Bovendien is frame generation juist het beste geschikt als je al redelijk hoge framerates hebt. Dus nodig niet, handig wel. Monitoren krijgen steeds hogere refresh rates. Je kunt gewoon op 60fps blijven spelen als je dat graag wilt.
Vroeger haalden de nieuwste gpus ook maar 45 fps gemiddeld op de hoogste instellingen in games. Afhankelijk van de game natuurlijk. Hoort allemaal bij vooruitgang. Als het eindresultaat maar goed (genoeg) is.
"Je kan gewoon kiezen om de grafische instellingen lager te laten. "

ah ja, laat ik een 2500 euro kaart halen om settings op medium te zetten omdat ik geen dlss smear op mn scherm wil.

klinkt logisch.
Het is toch gewoon zo?

YouTube: Is DLSS 4 Multi Frame Generation Worth It? (Timestamp)

Hoe dan ook moet je minstens 80 en beter nog 100 fps draaien om er ten volle van te profiteren dus dat punt snap ik dan weer niet zo goed. Zou bv. er gewoon voor zorgen dat de game op 100 fps draait ook al lever je wat shadow in ipv met te lage frames DLSS aan zetten om alles op max te kunnen zetten (als je zo’n beest van een kaart hebt)

Hoe dan ook sneu dat we dit nodig hebben als pleister voor belachelijk slechte optimalisatie van games.

[Reactie gewijzigd door Beakzz op 1 februari 2025 03:09]

Dat is louter mfg of 1 kleine deeltje van dlss.

Dus neen dat is absoluut niet zo. Heb je het zelf zl geprobeerd?

[Reactie gewijzigd door k995 op 1 februari 2025 09:28]

Jammer van de mensen die boos zijn dat 5000 series heel duur zijn en Scalpers heel veel geld vragen. Je moet je agressie ergens kwijt en dan reageren met dit soort opmerkingen.
Kocht mijn 4090 aan 2050 , 5090 is 2300 . Idd moeten hun frustraties kwijt
YouTube: This issue is plaguing modern gaming graphics

Kijken op eigen risiko, als je het eenmaal opvalt, kun je het niet meer onzien.
Raar genoeg game ik niet met een stilstaand beeld ingezoomd.

Am gamend meek je daar gewoon niks van en ziet dlss er soms gewoon beter uit met minder artefacts dankzij SR of een vloeiender beeld met betere graphics dankzij FG of RR
Je hoeft geen 2500 kaart te kopen...

Je moet ook slim gamen op 1440p60.
Soms heb ik het idee dat gamers zich eens achter de oren moeten krabben. Omwille van geld hebben, geeft men zoveel uit aan een game PC. En dat voor steeds minimalere verbeteringen (alleen ful raytracing en betere rendering varianten zie ik nog als beter).

Ik ken iemand die een 4090 heeft maar er nauwelijks mee speelt, maarja het geld was er ergens. Dus heeft hij zo'n kaart in de PC. Gelukkig is de hoofdmoot van gamers natuurlijk rationeler. En gaat inderdaad lekker op 1440p gamen. Dan is een 3070/4070 ook al een prima kaart en het scheelt heel veel geld.

We hebben nu net de hype dat alleen een 9800X3D nog maar goed voor gaming is, alsof ineens 90% van de andere processors opeens niet meer voldoet. Die voldoen prima, uitstekend zelfs.

Men laat zich erg gek maken tegenwoordig qua gaming overal. Het is een big business.
Grote verschil natuurlijk is dat er tegenwoordig veel meer wordt gedevved op brute force power ipv slimme truukjes en optimalisatie om performance omhoog te houden.

Kijk voor de gein eens naar een game zoals Witcher 3 welke uit 2015 komt en vergelijk dat met games tegenwoordig.
+3

Dat mag je wel zeggen ja :/
Tot nog toe doet geen andere voor consumenten bestemde videokaart het echter beter. Dus het is meer een kwestie van dat de grafische instellingen in games verder gaan dan de huidige generatie videokaarten zonder handigheidjes als DLSS en (M)FG e.d. aankan. En dat is op zich geen probleem, het lijkt mij prima dat je in de toekomst oudere spellen op een hogere grafische settings kunt spelen bij een videokaart upgrade.
Wat gaaf voor die 5 mensen die nu een 5090 bezitten :X
Als je niets nuttigs te zeggen hebt, zeg dan niets. Want uiteindelijk zullen er tientallen zo niet honderden miljoenen van deze generatie kaarten over de toonbank gaan, en heeft ieder voor zich daar voordelen van.

Dat het nu uitkomt terwijl niemand de kaart nog heeft, voegt niets toe aan het nut van deze feature.
Honderden miljoenen RTX-kaarten? Ik weet niet wat je op hebt, maar doe mij er ook maar vijf.

Keiharde data ontbreken, maar van de RTX4080 en 4090 samen zijn wereldwijd minder dan 200.000 verkocht; van de RTX3x zou ik niet veel andere data verwachten.
Hoe kom je daar nou weer bij? In 2022 waren er al 160k verkocht... en toen kwam de productie pas goed op gang en we weten dat inmiddels bijna nergens meer 40xx kaarten zijn te krijgen, dus het zijn er veel meer dan 200k.

https://www.kitguru.net/c...40-series-graphics-cards/
Honderden miljoenen? Mooie aanname. Of heb je een bron? Er is nog niet veel positief nieuws over die fake frames te vinden namelijk. En sn3lders zegt helemaal niks over het nut van de kaart. Ik vind zijn post op dit moment meer op de waarheid lijken dan die van jou als ik heel eerlijk ben...
Als ik zie wat de frame gen plugin doet voor de Steam Deck, dan ben ik juist erg geïnteresseerd.
Bedoel je Lossless Scaling? Want naar mijn weten werkt dat enkel op Windows, niet in SteamOS. Als je een andere plugin bedoelt heb je m’n aandacht, want ik ben al lang op zoek naar frame gen voor de Steam Deck.
Is al een aantal maanden beschikbaar, maar nu makkelijk als Decky-plugin:

https://github.com/xXJSONDeruloXx/Decky-Framegen

Desktop mode > .zip downloaden > in Decky developer mode activeren > plugin .zipje installeren > activeren (onder Decky > Framegen kiezen voor "Install FG mod") en gaan met die banaan.

Ik ben zelf niet echt een fan van fake frames, maar kijk maar eens of het voldoet aan je verwachtingen. :)
Geweldig! Dank je wel 🙏 Dat wordt vandaag prutsen, want neppe frames zien er in mijn ogen net iets beter uit dan een lage FPS.
Exacte cijfers heb ik zo niet. Nvidia is ook niet erg happig in het delen van deze informatie. Wel dat het er inmiddels meer dan 300 miljoen over de hele RTX serie zijn: https://finbold.com/over-...-should-you-be-buying-it/
Je hebt het over een cryptomunt, niet over de grafische kaartenserie. Wel even lezen als je iets googlet.
Ik hou zelf eigenlijk helemaal niet van Frame Generation, mijn kaart kan het aan (2x , 4080) maar als het per ongeluk aan staat dan merk ik het vrij snel in games.
Als je even om je heen keijkt en stil staat op 1 punt dan zie je nog even het beeld aanpassen aan wat er écht te zien is.
met 4x ijkt me dat effect alleem maar erger te worden.

maar mijn kaart kan de komende jaren nog prima mee, geen nut om die nu al te vervangen voor een 5000 serie.
Misschien dat ik enthousiaster zou zijn als het verschil groter zou zijn, al zou ik sowieso niet van nep frames houden, ik hou ook niet van DLSS, ik wil native resolution.

Scheelt dat ik een 1080P monitor heb.. wel 280Hz. :)

[Reactie gewijzigd door SiGNe op 1 februari 2025 04:28]

We worden graag voor de gek gehouden en dit is gewoon het volgende aan smeerseltjes-verkoop.
Het zal vast een bijkomend "voordeel" zijn van een andere functie, A.I.
Nuhidia zet hoog in op A.I. , gaming is niet hun eerste doel maar de A.I.functies kunnen ze er wel voor inzetten.
Je koopt een auto die 200 km/u rijdt maar op het display 250 km/u aangeeft. En vervolgens geloof je dat je daadwerkelijk 250 km/u rijdt...dat probeert Nvidia te verkopen. Wat een scam
Nou, nee, das geen goede vergelijking. Want in jouw geval is alleen het nummertje hoger, maar bij nvidia is er toch wel degelijk ook een verschil wat je door je voorruit ziet.
Inderdaad, je gaat inderdaad ook 250km/h, alleen is de snelheids beleving tussen de oren wat anders.
Je koopt een auto die 200 km/u rijdt maar op het display 250 km/u aangeeft. En vervolgens geloof je dat je daadwerkelijk 250 km/u rijdt...dat probeert Nvidia te verkopen. Wat een scam
Het komt er meer op neer dat je teller 250 aangeeft maar dat je in werkelijkheid heel kort 500 km/u rijdt en heel kort stilstaat.

De techniek is vergelijkbaar met de interopolatie die tv's al jaren doen. Die voegen een extra frame in tussen twee frames om zo de frame rate, en daarmee jidder/judder, te voorkomen. Het bijzondere is dat de TV al weet welk frame het volgende frame is want de film is al gemaakt. In een game weet niet wat er gaat komen. Nvidia doet eigenlijk aan toekomst voorspellen met ai. Je hebt situatie A en hij beredeneert a+1, a+2, a+3, a4+ en vervolgens komt de werkelijkheid. Gaat a+4 niet matchen met de werkelijkheid dan valt het op.

Overigens ben ik zelf nog skeptisch over of dit zijn doel niet voorbij schiet, je latency verlagen.

[Reactie gewijzigd door sdk1985 op 1 februari 2025 16:51]

Software launchen die alleen voor content creators en influencers is😅
Begrijp toch ook niet waarom dit specifiek enkel voor 50x series zou kunnen.
Het is Nvidia. Die deed dit ook met de 3000 naar 4000 kaarten. Waarbij AMD met het antwoord kwam van ‘wij ondersteunen de overige kaarten wel voor je met FSR’.

Maar goed FSR is nog niet wat het moet zijn, al is dat met 3.1 al aardig, maar zit amper ergens in. Maar dat is aan devs te wijten, wordt continu door modders toegevoegd om DLSS te vertalen naar FSR in games die alleen DLSS doen.
Ik begrijp best dat frame-gen RTX40 exclusief was, en dat die multi-frame gen exclusief voor RTX50 is. Zolang de features enkel kunnen door hardware-features, vind ik dat maar normaal. Maar de app enkel voor RTX50 aanpassen zodat je op driver-level framegen kan aanzetten, terwijl die op de 40-reeks perfect kan (maar dan wel enkel FG x1), is gewoon ruk.
Nu kunnen ze laten zien dat de 5080. Met mfg meer fps haalt dan de 4090 zonder mfg.
dat doet het ook niet, komt ook naar 4000 series
Deden ze ook met Integer Scaling op de 10-Series, was daar ook niet ondersteund, terwijl het prima werkte in RetroArch op een 10-Serie.
All I want is reflex 2

Stop this garbage fake framery
Het heeft wat fasen nodig voordat het perfect werkt.

Zolang ze modi hebben van de mate van toepassing (inclusief uitzetten) is het voor iedereen prima.
Ik snap het nut eerlijk gezegd niet van MFG. Dit is alleen bruikbaar in story games(mss iets te kort door de bocht) ivm input latency. Daarin is 60fps imho prima. Aangezien MFG pas goed genoeg werkt als je zeker minstens 60 echte fps hebt zie ik het als behoorlijk nutteloos momenteel. Daarbij komt het alleen uit voor de 50 series en die kunnen momenteel toch wel alles draaien.
Ik snap die focus op latency plots niet.
Consoles gamen op 30fps(33ms) in veel gevallen, steam deck is 40-45fps? Om geen stutter te krijgen zetten veel vroeger op vsync & 50fps.

Waarom zou dan 60fps (16ms) plots het absolute minium zijn?

IK speelde cyberpunk 2077 zonder FG op een 40fps (met dlss), ging perfect. Met FG was dat 60-65 fps zag er prachtig uit en speelde goed.
In racing games en twitch shooters voel je het verschil heel goed, hoe minder input lag hoe beter je kan sturen/mikken.
En al de rest van de games ( de overgrote meerderheid) is dat dus niet of minder het geval.
Wat een BS, zit bij de meeste echt tussen de oren. We hebben het niet over tich jaar geleden.
Die focus is an sich logisch. De hogere frame rate heeft namelijk als doel de latecy te verlagen. Dus wanneer je een techniek gebruikt die je een hogere FPS laat zien maar je latency verhoogd, zoals destijds met SLI en CrossFire, dan heb je niet het resultaat bereikt dat je dacht te behalen met de hogere frame rate. Je kunt frame rate juist niet los zien van latency.
Het resultaat is en blijft dat het beeld er "vloeiender" uitziet, je doet precies alsof fps niet uitmaakt.
Ja voor de gameplay in snelle games zal latency belangrijker zijn, maar latency hangt van veel factoren af en ik bewijfel of diegene die blijkbaar elke ms belangrijk vinden daarnaast wel enige aandacht aan besteden.

Op dit item kan niet meer gereageerd worden.