FSR 4-upscalingtechniek van AMD krijgt dit jaar AI-framegeneration en meer

AMD geeft zijn FSR4-upscalingtechniek binnenkort een upgrade. Deze nieuwe versie, die de codenaam Redstone krijgt, krijgt onder andere framegeneration op basis van AI en moet beter presteren bij het gebruik van raytracing. FSR Redstone verschijnt in de tweede helft van dit jaar.

FSR Redstone bevat drie upgrades, zo vertelt AMD tijdens zijn persconferentie op de Computex. Zo gaat de techniek 'neural radiance caching' gebruiken, iets wat Nvidia eerder dit jaar al verwerkte in DLSS 4. Deze techniek moet helpen bij het pathtracen van games, vooral door de indirecte verlichting te verbeteren zonder dat daar extra weerkaatsingen voor nodig zijn.

AMD verwerkt ook rayregeneration in FSR Redstone; ook dat is een techniek die al langer in DLSS zit onder de noemer 'rayreconstruction'. Simpel gezegd moet deze techniek zowel de beeldkwaliteit als de framerates verbeteren. Raytracing is erg rekenintensief, waardoor er vaak minder rays worden gebruikt dan nodig zijn om een scène te vullen. Je krijgt dan korrelige 'ruis' in de beelden die met raytracing worden gerenderd. Met rayregeneration wordt dat opgelost met een AI-model.

Tot slot wordt framegeneration voortaan ook geregeld met een AI-model. Momenteel gebruikt AMD daarvoor nog geen AI-model, in tegenstelling tot Nvidia. De werking is verder wel hetzelfde als voorgaande FSR-versies: FSR pakt twee frames en plakt daar een extra AI-frame tussen, waarmee de framerate in theorie bijna verdubbeld kan worden. Nu AMD ook overstapt op AI, moet de beeldkwaliteit in theorie beter worden ten opzichte van voorgaande FSR-releases.

AMD-generalmanager David McAfee bevestigt na vragen van Tweakers dat FSR Redstone óók een simpel upgradeproces krijgt, net als andere toekomstige versies van FSR. Dat moet er in theorie voor zorgen dat meer games Redstone snel gaan ondersteunen. McAfee bevestigt ook tegenover Tweakers dat FSR Redstone alleen beschikbaar komt voor RX 9000-videokaarten op basis van de RDNA 4-architectuur. Radeon-gpu's van eerdere generatie bieden namelijk onvoldoende machinelearningprestaties om de benodigde AI-modellen te draaien. Om FSR Redstone later dit jaar te gebruiken is dus een RX 9060 XT, 9070 of 9070 XT nodig.

Door Daan van Monsjou

Nieuwsredacteur

21-05-2025 • 05:35

61

Reacties (61)

61
60
27
2
0
26
Wijzig sortering
De grote uitdaging voor AMD is te zorgen dat dit gewoon snel beschikbaar komt in spellen. Kijkend naar de situatie rondom FSR 3.1 en 3.0 zag je dat heel veel spellen gewoon een oudere versie gebruikte en nooit de moeite namen om de nieuwe/verbeterde FSR toe te passen.
Dit is inderdaad het grootste struikelblok. Gebruikers kunnen FSR 4 forceren in bepaalde FSR 3.1 spellen via de Adrenalin (zoals te lezen op AMD's website), maar de hoeveelheid supported games is onduidelijk. Bij DLSS daarentegen kun je, naar mijn weten, alle spellen die DLSS 2.0 of hoger ondersteunen moeiteloos DLSS 4 laten gebruiken. Via een simpele .dll swap of tegenwoordig via de NVIDIA app.

Hoop echt dat FSR 4 meer vaart krijgt qua ondersteuning. Het is een enorme verbetering t.o.v. FSR 3.1. Overigens zie ik tegenwoordig de meeste spellen nog steeds met DLSS 3 verschijnen, dus dit is zeker geen AMD-specifieke issue.
Via een simpele .dll swap
Dit kan ook met FSR, en is net zo complex en ondoenlijk voor 95% van de gebruikers. Niet echt iets wat ik als common place zou noemen.
Dat zou goed kunnen! Ik heb zelf geen AMD-kaart. AMD heeft het in ieder geval over ''select'' FSR 3.1 games, waardoor ik de indruk krijg dat dit niet bij elk spel werkt. Als dat wel zo is, dan is dat natuurlijk geen probleem (alhoewel officieel FSR 4 support natuurlijk altijd gewenst is).

[Reactie gewijzigd door IlIlIllII op 21 mei 2025 12:25]

Mijn irritatie, maar ook tegelijk waar ik wel blij mee ben, is dat ik heel vaak handmatig Optiscaler moet toepassen voor FSR4 functionaliteit te krijgen in DX12 games.

Het werkt vaak daadwerkelijk goed, in een paar gevallen werkt het niet. Maar het is veel beter dan geen FSR4. Op dit moment vind ik het enkel jammer dat je niet de "het werkt gewoon in veel games" ervaring hebt van Nvidia DLSS.

Mochten gebruikers niet weten wat Optiscaler is, zoek het in ieder geval op. Je hebt er veel aan met AMD's nieuwe GPUs.
Ik denk dat de grootste uitdaging voor amd is dat het goed werkt. Tot nu toe lopen hun alternatieven namelijk behoorlijk achter op nvidia.
FSR4 zit qua kwaliteit tussen DLSS 3 en 4 in, dus wat dat betreft hebben ze flinke stappen gemaakt. Neemt niet weg dat DLSS 4 icm het transformer model nog steeds beter is.
Als je kijkt waar AMD vandaan komt hebben ze grote stappen gemaakt! En dat zonder de AI miljarden van Jensen.
Dlss4 is ook beter dan fsr4. Ook zonder transformer. Amd blijft gewoon met hun technieken 2 generaties achter lopen... hoop dat ze nu een keer bij komen.
Daarentegen is het natuurlijk wel open, in tegenstelling tot Nvidia. Ik ben ook fan van DLSS, en frame generation is zwarte magie, maar dat het zo veel werk lijkt om te implementeren is wel erg jammer natuurlijk.
FSR4 is beter als DLSS3 en DLSS4 is maar iets beter als FSR4
Dit zijn geen 2 generaties, dit is hooguit een halve generatie dat ze nu achter lopen.

Ook de game adoptie gaat redelijk snel als ik de laatste berichten mag geloven
beter maar niet zoveel beter gezien de prijs van nvidia.
Ja ze lopen achter, maar het verschil is ook weer niet gigantisch en bovendien haal je in alle games met prima settings gewoon een prima FPS voor het prijsniveau.

Verder is de markt toch beter bedient met minder AI frames en meer echte frames...

[Reactie gewijzigd door Martinspire op 21 mei 2025 09:49]

Want? Zolang ik een betere spel ervaring krijg en ik zie het verschil niet , interesseert het mij niets waar die frames vandaan komen. Uiteindelijk gaat het om de spel ervaring. Als dat beter wordt met "fake frames" , zoals nogal hip is om het te noemen, of met echte frames, maakt voor mij geen verschil.
Zolang nepframes de input latency verhogen, ga ik er niet aan. Als ooit het punt bereikt wordt waarop latency gelijk blijft, kan het wmb een optie zijn.
Yep, same. Er is niks meer immersie brekend dan latency tussen mijn handen en het scherm. Fps en resolutie be damned
Toch wel wat vreemd dat dit bijna nooit gezegd wordt over LCD schermen, verschil tussen OLED en high end gaming LCD is ongeveer gelijk aan framegen. Ook zijn er nauwelijks klachten over specifieke spellen, terwijl input latency tussen spellen veel hoger is dan de paar ms die framegen toevoegt.

Natuurlijk moet je wel zelf nadenken over het type spel. Voor een competitive shooter is framegen (of een LCD monitor) niet ideaal. Maar voor dat soort spellen is het ook niet echt nodig. Voor een 3rd person spel gespeeld met een controller, heb ik nog niemand gezien die framegen geprobeerd heeft, en de latency een probleem vindt.
Dat komt omdat de drempel om te profiteren van de OLED-latencywinst heel hoog is - die dingen zijn peperduur. De latencykosten van nepframes vermijden kent daarentegen juist totaal geen drempel - zet het gewoon niet aan, als je de optie überhaupt tot je beschikking hebt.

Als geld geen obstakel zou zijn, zou ik lekker mijn latency drukken door naast die OLED een videokaart te kopen die duurder is dan een prima occasion, maar daar praat ik niet over want ik ga geen 2K+ neerleggen voor een videokaart.

[Reactie gewijzigd door Mark_88 op 21 mei 2025 10:40]

Sorry hoor, maar het is echt bij lange na niet zo merkbaar als jij nu doet voorkomen, ja je hebt gehoord dat er latency is en denkt dan dat je het merkt.
Daar heb je bij Nvidia dus reflex voor, framegen + reflex dan heb je geen extra latency.
De nepframes voegen nog steeds toe aan latency. Dan ga ik voor Reflex zonder nepframes. :+
Reflex was specifiek toegevoegd om de extra input latency van framegen te compenseren.
Tenzij je de input lag van games zonder framegen al te hoog vinden is het een rare opmerking.
Dat zou knap zijn want Reflex is ten tijde van de RTX 3000 geintroduceerd, toen was er nog geen sprake van framegen
https://www.nvidia.com/en...lex-low-latency-platform/

Het is namelijk ook toepasbaar in niet frame-gen situaties om de system latency (a.k.a. click-to-display latency) te verminderen voornamelijk in competitive games, dit was sowieso dus een mooie welkom.

Dat het uitermate toepasbaar is in framegen scenarios is natuurlijk 1+1, want je wil je verhoogde latency zo veel mogelijk verminderen, echter is je uiteindelijke latency nog steeds hoger (naarmate je meer frames extrapoleert), ergo @Mark_88 heeft zeker een punt Reflex zonder "nepframes" equals minder system latency dan met "nepframes"

Als ik voor mezelf zou spreken, zou ik in bepaalde games die niet veeleisend zijn op input latency met frame-gen 2x wel kunnen spelen als ik deze beoordeling zo zie, Cyberpunk met 2x multi frame gen YouTube: Can the RTX 5070 Ti Survive Ultrawide 3440x1440 with Full Ray Tracing?
Echter wanneer het komt op competitive games, fighting games of souls-like games waar elke ms input telt zou ik er niet over peinzen om opzettelijk meer input latency te introduceren

Om nog wel wat toe te voegen aan dit artikel heeft AMD wel een tegenhanger van reflex in de vorm van anti-lag
https://www.amd.com/en/pr...on-software-anti-lag.html ze liepen hier nog op achter t.o.v. Nvidia, maar ook hier maken ze een inhaalslag
nieuws: Previewversie AMD Anti-Lag 2 is nu beschikbaar in Counter-Strike 2

[Reactie gewijzigd door Turismo op 21 mei 2025 12:20]

Vergeet ook niet dat de initiele framerate / latency ontzettend belangrijk is voor de ervaring en de extra latency die framegen toevoegd.
Framegen van 30 naar 60 is een veel slechtere ervaring dan bv van 60 naar 120.
Als je echter al 60fps als base framerate hebt wordt de noodzaak al veel lager om de techniek uberhaubt te gebruiken.
Tja daarom blijf ik het een gekke techniek vinden, en hebben we daarom Jensen die uitspraken kan doen van RTX 5070 with 4090 level performance.
Of de RTX 5060 die op raster performance slechter presteert dan een 3060 ti, maar Nvidia met een achterlijk review embargo komt waar ze perse met multi-framegen moet testen en specifieke games.

[Reactie gewijzigd door Turismo op 21 mei 2025 14:59]

AMD raadt ook aan om framegen te gebruiken bij ten minste 60+ fps. Persoonlijk vind ik dat het minimum 90fps moet zijn. En dan is het natuurlijk de vraag of het nog de moeite is om framegen te gebruiken.
Je moet je oor niet zo laten hangen naar Nvidia's marketingdia's. Reflex is ouder dan hun nepframes (lees: niet in het leven geroepen om te compenseren voor de latency-add van die feature) en het is totaal niet verplicht om de twee te combineren.

[Reactie gewijzigd door Mark_88 op 21 mei 2025 10:28]

Wat jij “echte” frames noemt is ook door diezelfde videokaart gerendert. Zijn die “echte frames” dan niet net zo nep als de “neppe frames”?
Nee. Bij de “generated frames” plakt hij er een frame tussen gebaseerd op wat daarvoor kwam.

Bij daadwerkelijk gegenereerde frames is het een “nieuwe” frame, kortom: met nieuwe input vanuit de game / gebruiker.
Snap ik. Ik doel meer op dat “echte frames” net zo nep zijn als “neppe frames”, ze worden immers beide gegenereerd/gerenderd maar dan op een andere manier.

Input delay is inderdaad nog wel een probleem, maar afgezien van shooters merk ik er niets van

[Reactie gewijzigd door Ricco02 op 21 mei 2025 11:10]

Ja, maar dat tussen geplakte framepje is niet zomaar een simpel gegenereerd framepje gebaseerd op de vorige, het is in veel gevallen een heel goed geanticipeerd framepje waardoor het in heel veel gevallen bijna gelijk is aan native rendering. Meeste mensen zullen het in veel situaties niet eens zien zonder een side-by-side vergelijking inclusief aanwijzingen waarop ze moeten letten. Voor veel mensen zou een blinde test als men zegt dat het een 5090 native is, maar in werkelijkheid een 5070ti+framegen, ze het gewoonweg geloven.
De "echte" frames kloppen met de gamesimulatie. De neppe zijn alleen visueel. De game voelt dus niet responsiever aan, en dat haalt wat mij betreft het hele nut van hoge framerates onderuit.
Ligt eraan welke games. De iets hogere input delay merk ik helemaal niet in non shooter games.

In shooter games zou ik zelf nooit frame gen gebruiken. Gelukkig speel ik daar weinig van.
Het verhaal is wat genuanceerder: van 20 fps naar 80fps genereren is inderdaad geen goede ervaring. Maar bij bijvoorbeeld 120fps genereren naar 240fps heb je nog steeds goed speelbare latency, maar visueel is het verschil wel goed merkbaar.
Fair enough. Ik zou in dat scenario alsnog kiezen voor de input latency, hoogstwaarschijnlijk. Maar ik snap dat het in het ene scenario schadelijker is dan de andere.
Dus is gewoon eenzelfde soort upscale techniek door middel van AI net zoals Nvidia met DLSS4 op zijn RTX50** series momenteel gebruikt .. en blijkbaar voor velen niet echt een toegevoegde waarde heeft met het hogere prijsverschil van de RTX50** series tgv de RTX40** series. Natuurlijk een leuk toegevoegde waarde als je gebruikmaakt van Raytracing, maar zoniet .. :?
Vind het geen toevoeging, wegens de vertraging die je hebt..
Dlss geeft geen vertraging toch? Dat is MFG bij mijn weten.
Upscaling technieken zoals DLSS en FSR 2.0 en omhoog introduceren ook een klein beetje latency. Bij zowel DLSS 2.x alsmede FSR 2.0 is de latency echter vrijwel te verwaarlozen zo klein.

Mensen hebben ook latency :-D Tenzij je een pro e-sports gamer bent (120-150MS) of een F1 coureur (~100MS) ga je er echt niks van merken als je geen FG technieken gebruikt. Helemaal met Reflex.

Uiteraard is de latency meer zodra je extra frames gaat toevoegen met FG (DLSS3, 1 interpolated frame) of MFG (DLSS4, 2-4 interpolated frames)

De helden bij Digital Foundry hebben een paar videos met uitgebreide analyses over hoeveel extra latency er in de rendering pipeline zit bij framegen technieken.

Zie: YouTube: Nvidia DLSS 3 Analysis: Image Quality, Latency, V-Sync + Testing Met...
En een video over Reflex : YouTube: [Sponsored] Nvidia Reflex - PC vs PlayStation 5 Input Lag - Lowering...
Maar voor de meeste mensen zit die latency puur tussen de oren, want als ze er niet van gehoord hadden, dan hadden ze het niet gemerkt, maar nu denken sommige dat ze het merken..
Latency is vooral een storend dingetje als je met MnK speelt. Op controller merk je er al veel minder van.

Ergens is het jammer dat Microsoft niet via DirectX dezelfde tech als op de XSX / XSO ondersteunt: daar syncen ze de polling van de Xbox controller met de framerate, waardoor elke input precies op een frame valt. Mede hierdoor hebben Xbox controllers dezelfde of betere input delay dan de Dualsense, terwijl ze maar op 125Hz ipv 500Hz pollen. Daarom hebben Xbox controllers ook 300-400% langere accuduur.
Daar heb je reflex (plus boost eventueel) voor , in het geval van nvidia. Daarmee is de latency vaak lager dan native. Iig is het absoluut niet meer merkbaar.

[Reactie gewijzigd door Visgek82 op 21 mei 2025 08:17]

Die vertraging bij DLSS4 heb je inderdaad dan ook nog eens, hoe dat zich gaat verhouden tgv AMD hun FSR Redstone weet ik niet.
Ga er maar van uit dat de volgende console generaties er waarschijnlijk gebruik van zullen maken om het te normaliseren.
Dat sowieso want het is de nieuwe manier van optimaliseren...

Verlaag de resolutie om het toch nog enigszins speelbaar te maken en laat de upscale techniek de rest doen. Als dadelijk frame gen ook nog zonder noemenswaardige compromissen is dan is het helemaal een feest. :X
Dynamische resolutie was op de PS4/XBO ook al gebruikelijk. De upscalers waren alleen minder goed.
Alles wat de 5000 series heeft, heeft de 4000 series ook bij Nvidia.

Enige is de mutiframe-gen. Dlss 4 is niet alleen voor de 5000 series.
Maar de RTX50** series heeft dan wel extra RT cores voor Raytracing/pathtracing
Extra ten opzichte van wat?

Een 4080 heeft er meer dan een 5060
Van hetzelfde type in lijn

RTX4060 -> RTX5060
RTX4080 -> RTX5080
Gelukkig wel anders was het prijsverschil deze generatie niet te verklaren. De performance boost is ook echt na genoeg gelijk aan het aantal extra cores.
Ik had ergens gehoopt dat AMD ook FSR 4 voor de 7xxx serie zou uitbrengen. Of in iedergeval de hogere 7xxx reeks.
Eigenlijk dat die universeel zou zijn, maar op software terug zou moeten vallen voor niet ondersteunde functies, zodat het overal op draait mits genoeg rekenkracht, maar echt de voordelen van een FSR4 kaart zou gaan benadrukken. Dan sluiten ze niemand uit, maar kunnen ze wel hun meerwaarde aantonen.

FSR had lang niet zo groot geweest zoals het is als het niet "Overal" op draaide, en Vulcan hetzelfde(dat had niks geworden als het "Mantle" was gebleven. Nu heeft Intel XeSS, wat wel weer overal op draait, en het lijkt me niet gunstig voor AMD als dat de nieuwe "draait overal op" upscaler word.
FSR bestaat alleen maar omdat AMD de chips levert voor de consoles. Op PC is hun marktaandeel verwaarloosbaar.
Wat een bullshit.

FSR is gewoon een upscalertechnologie die nodig is ter beeldverbetering zodat de console de native resolutie van je scherm kan vullen waar de hardware in de console het eigenlijkniet kan redden.

Dat je dit mee kan nemen naar de PC markt, en openzet voor de concurrentie was een goede zet.

"Op PC is hun marktaandeel verwaarloosbaar."
- Slecht onderbouwde meningen van een Nvidia groupie die gepoogd worden als feiten te brengen ook.
Ik heb van deze technieken (nVidia) dankbaar gebruikgemaakt bij Alan Wake 2. 4K met (vrijwel) alles op max was daardoor prima te doen met een 5070ti. Doorgaans genereerde de setup zo’n 120-140 (fake😉) frames per seconde.
Enige nadeel dat ik zag was dat de tekst van documenten ‘blurry’ werd tijdens het scrollen.
Hoe breder toegankelijk deze technieken zijn, hoe beter!

[Reactie gewijzigd door Timx2 op 21 mei 2025 07:31]

Kan dat ook hallucineren? Dus krijgen modellen 15 vingers of ghosts in die AI frames…
In theorie wel. Maar zo ver zal dat niet komen.
De inputs zijn frames en motion vectors. Het verzint op basis daarvan wel wat een beeld zal worden, maar afgezien van lijntjes die op de foute plaats staan of rare vorm hebben (voor 0,02 seconde of korter) is er niet veel hallucinatie aan.
Je ziet dat nu al met Nvidia multi-frame-gen, hoe meer frames je extrapoleert, des te minder effectief DLSS wordt (wat vaak wel in combinatie wordt gebruikt) omdat die ook sourced uit de ge-extrapoleerde frames wat zich uit in ghosting en artifacting.

Maar ook in het geval als je base frame rate te laag is dan zijn er minder frames om uit te sourcen
Zie ook YouTube: DLSS 4 Multi Frame Generation Review- it helps you win MORE, but it ...

[Reactie gewijzigd door Turismo op 21 mei 2025 12:40]


Om te kunnen reageren moet je ingelogd zijn