AMD FidelityFX Super Resolution 3 met framegeneration verschijnt binnenkort

AMD heeft meer details gedeeld over zijn volgende versie van de FidelityFX Super Resolution-upscalingtechniek. FSR 3 krijgt framegeneration, waarmee extra frames worden gegenereerd voor hogere framerates. De eerste games met FSR 3 verschijnen binnenkort.

FidelityFX Super Resolution 3 combineert een nieuwe techniek, AMD Fluid Motion Frames, met temporal upscaling en Radeon Anti-Lag+. Daarmee wordt een game op lagere resolutie gerenderd en vervolgens opgeschaald naar een hogere resolutie. Daarna worden extra frames geïnterpoleerd voor hogere framerates. Anti-Lag+ moet op zijn beurt zorgen voor lagere latency's.

De werking van FSR 3 lijkt hiermee op Nvidia's DLSS 3, dat ook framegeneration, temporal upscaling en Reflex-latencyvermindering toepast in ondersteunde games. FSR 3 is echter niet gebaseerd op AI-hardware, in tegenstelling tot DLSS. Daarmee werkt deze techniek in theorie niet alleen op videokaarten van AMD, maar ook op die van Nvidia en Intel.

AMD toont tijdens de gamescom-beurs in Keulen verschillende benchmarks van FSR 3, onder meer van Forspoken op 4k met raytracing. Die game draaide volgens een test van de fabrikant op 36 fps met een Radeon RX 7800 XT. Met FSR-upscaling, Fluid Motion Frames en Anti-Lag+ werd dat opgehoogd naar 122fps. FSR 3 is nog niet gebenchmarkt door onafhankelijke media. AMD raadt het gebruik van FSR 3 verder vooral aan bij games waar de framerate al hoog is.

AMD FidelityFX Super Resolution 3AMD FidelityFX Super Resolution 3

FSR 3 komt volgens AMD 'binnenkort' beschikbaar. De eerste games met FSR 3, Immortals of Aveum en Forspoken, voegen 'begin deze herfst' ondersteuning voor de techniek toe. Verschillende media, waaronder Digital Foundry en Ars Technica, schrijven dat dat in september gebeurt. In totaal zijn er twaalf games waarvan is bevestigd dat ze FSR 3-ondersteuning krijgen. Daaronder vallen ook Avatar, Frontiers of Pandora, Cyberpunk 2077, Frostpunk 2, Squad en Black Myth Wukong.

AMD demonstreerde ook een losse Fluid Motion Frames-techniek. Deze techniek kan ook frames genereren, maar werkt op driverniveau met alle DX11- en DX12-games. Gezien de driverbrede werking van AFMF, ontbreken echter de motionvectors uit de engine. Die worden bij games gebruikt voor temporal upscaling, waarbij data uit meerdere frames wordt gebruikt voor upscaling. AFMF werkt dan ook puur op optische flow, waarbij de bewegingen uit frames worden geanalyseerd om tussenliggende frames te berekenen. De losse implementatie van AFMF verschijnt in het eerste kwartaal van volgend jaar. De techniek wordt dan toegevoegd aan Hypr-RX.

Verder toonde AMD tijdens de gamescom-beurs een nieuwe antialiasingoptie voor FSR. Daarmee wordt het upscalingalgoritme gebruikt terwijl de game zelf al op native resolutie wordt gerenderd. Dat moet vooral een scherper beeld opleveren zonder veel prestatieverlies. Het bedrijf kondigde ook zijn eerste midrangevideokaarten met RDNA 3-gpu aan: de Radeon RX 7700 XT en RX 7800 XT. Tweakers publiceerde vrijdag een videopreview van die gpu's.

AMD FidelityFX Super Resolution 3AMD FidelityFX Super Resolution 3AMD FidelityFX Super Resolution 3

Door Daan van Monsjou

Nieuwsredacteur

25-08-2023 • 19:01

75

Submitter: Xtuv

Lees meer

Reacties (75)

75
73
55
10
0
10
Wijzig sortering
Ben benieuwd hoe goed (of slecht) dit gaat werken op de recente APU's van AMD. De 780m draait de meeste games al op 1080p met prima settings en framerates, dus dat kan dan alleen maar nog beter worden?

Kan het AI framework in de Zen 4 CPUs nog meehelpen om dit te versnellen?
Dat berust natuurlijk ook op de hoop dat AMD ooit nog een updated driver voor de 780m gaat leveren, hun nieuwe phoenix-lijn lijkt geen hoge prio te hebben en ze zijn nog niet supported door de 'generic' Adrenalin.
Al die machine learning upscaling magie is allemaal poets en pleister werk voor een groot probleem binnen de games industrie in dat er al jaren nog amper aan optimalisatie gedaan wordt.

FSR en DLSS (welke er mee begonnen is) gaven devs een kosten efficiënte manier om maar vooral geen uren in het zelf optimaliseren te hoeven stoppen.

Het is jammer, want zo wordt het plafond van wat grafisch kan (in de basis, zonder de postprocessing gimmicks) wel erg vlug gevonden zonder dat de fidelity zelf er heel veel op vooruit gaat.

Dat FSR3 er aan komt is AMD niet kwalijk te nemen, die moeten met de stroom wel mee. Maar waar ligt de grens van de magie? Is game artist en animator zijn dadelijk niet meer dan een query opgeven en een AI generator de rest laten doen?
Sterker nog ik ben bang dat met de komst van FSR 3 en dus frame gen voor iedereen devs nog luier worden omdat ze nu niet meer rekening hoeven te houden met mensen met een AMD , Intel of nvidia 3xxx of oudere kaart die geen DLSS3 frame gen ondersteunen.

Dus upscaling aan + frame gen aan en waarom nog optimaliseren... Veel van de games die recentelijk uitgekomen zijn zien er niet echt indrukwekkend uit maar draaien echt bagger op high end hardware native. Net als dat er eigenlijk geen valide reden is dat games ineens niet meer genoeg hebben aan videokaarten met 8/10 Gb vram... jaren werkte het prima en games zagen er hetzelfde uit en ineens is het niet genoeg meer zonder dat we grafisch echt sprongen zien (RT uitgezonderd).

De fabrikanten van 300+ Hz panelen zullen ook wel denken "nou deze markt is ook dood aan het gaan, daar stoppen we beter ook geen geld meer in".

[Reactie gewijzigd door computerjunky op 23 juli 2024 18:27]

Je kunt het ook positief bekijken? Het is namelijk niet alleen optimalisatie waardoor games “zwaarder” draaien. Het is ook de engine en dat games steeds zwaarder worden.

Neem bijv cyberpunk of hogwards, prachtige games op hogere settings wordt nu beter speelbaar door upscalingtechnieken.

Zonder upscalers zou cyberpunk voor de meeste gamers amper speelbaar zijn.

Dan of de graphics drastisch naar beneden waardoor de beleving veel minder wordt. Of de resolutie aanpassen.

Het moet geen excuse worden voor developers. Maar in theorie en praktijk zie ik er echt de meerwaarde van in.
Als we er grafisch niets voor terug zien mag je je toch afvragen waarom games zwaarder worden. De enige logische conclusie is dan slechte optimalisaties.

Ik ben net begonnen met cyberpunk en het is algemeen bekend dat die niet goed geoptimaliseerd is maar ik haal mer een 9900k en 6900XT (zonder Rebar wat 10% prestaties kost) makkelijk 144 fps op 1440p ultra.
Als je dan kijkt naar wat sommige nieuwere games laten zien die er grafisch niet beter uit zien vraag je je toch af wat er gaande is in de game industrie.

Ik zou er minder problemen mee hebben als het echt een bonus is op een goed geoptimaliseerde game maar het is steeds vaker een excuus voor de game gewoon slecht in elkaar flansen. Ik game al 30 jaar en Het patroon is overduidelijk. Zelfde gebeurde in de PS3/4 tijd ook met pc ports. De pc hardware was dermate veel krachtiger dat er nul moeite gestopt werd in optimalisaties.
Als we er grafisch niets voor terug zien mag je je toch afvragen waarom games zwaarder worden. De enige logische conclusie is dan slechte optimalisaties.
Ik snap helemaal wat je bedoeld, maar ik denk ook dat dit te kort door de bocht is. Het hangt vaak ook samen met de gebruikte engines en hoe deze de GPU belasten. Een unity game die op nieuwe hardware 50 fps haalt is slecht geoptimaliseerd. Ik geloof niet dat Hogwards (Unreal 4) of Cyberpunk (Red engine) echt slecht geoptimaliseerd zijn, het zijn gewoon hele grote games die goed gebruik maken van de hardware.

Daarnaast is Cyberpunk (nu in iedergeval) een goed geoptimaliseerde game als je ziet hoe gigantisch het spel is. Het draait daarnaast ook nog eens op hun opgevoerde Red engine (geen excuse, puur een conclusie)
k game al 30 jaar en Het patroon is overduidelijk. Zelfde gebeurde in de PS3/4 tijd ook met pc ports. De pc hardware was dermate veel krachtiger dat er nul moeite gestopt werd in optimalisaties.
DLSS is vooral ontwikkeld is om ray tracing beter mogelijk te maken. Vergeet niet dat de Concsoles ook gewoon FSR gebruiken.

En zoals je wellicht hebt mee gekregen is bij Cyberpunk het tegenovergestelde juist gebeurd, slecht geoptimaliseerd voor console, beter voor PC.
Toen DLSS 2.0 werdt getoont met Death Stranding en de kreet, "Het spel ziet er beter uit met DLSS!" verscheen krabte ik me ook eens achter de oren.

Waarom 4K textures en modellen in het spel doen? De upscaling die fixed het wel even. |:(
Nog luier? Ja want game devs zitten elke dag lekker lui achter over. Echt een typische opmerking van een Gamer™ die nog nooit in een productie omgeving heeft gewerkt.

Ze kunnen er geen tijd aan besteden als management er geen tijd en geld voor vrij maakt. Heeft niets met de bereidheid van de devs te maken, die willen ook een goed product op de markt brengen. Maar wat kunnen ze doen als management de game zo snel mogelijk op de markt wilt brengen.
Euhm er zijn genoeg devs die absoluut niet bereid zijn om werk te stoppen in hun product. Ook devs met name die aan triple A titels werken zijn net zo verdorven als het management waar ze voor werken.

Een goed voorbeeld is op gaan zoeken hoe devs reageerden op claims die de devs van Baldur's Gate maakten over dat er geen microtransacties of optionele meuk die je kan kopen in de game te stoppen.

Het feit dat ze tot nu toe die claim ook waar maken heeft mij juist doen besluiten om de game gewoon te kopen en ik koop amper nog spellen gelijk wanneer ze uitkomen gewoon omdat er gewoon een hele bak meuk extra bij komt. Vervolgens heb je het jaar daarop gewoon een GOTY super edition met alles erin wat er dat jaar ervoor is uitgekomen voor de helft van de base game het jaar eerder.
Maar het is niet allemaal zwart/wit met het woord "devs" raak je een hele groep van mensen waar goede en slechte tussen zitten. Bij startups zitten vaak gemotiveerde goede devs, bij grotere bedrijven gaat het nivo vaak naar beneden vanwege management lagen, conflicten tussen wat geld op leverd en wat goed is etc.

Bij Unreal Engine hebben ze er best wel veel tijd ingestoken om een engine te maken die op alle hardware kan draaien. Dan moet je wel je gemaakte game ook voorzien van zaken die nodig zijn om de game er ook nog goed uit te laten zien zonder lumen en nanite en dat is waar het vaak misgaat. Waarom een hoop tijd en geld er insteken als het met lumen, nanite via upscaling en frame generation ook nog goede fps kunnen halen.

Wat dat betreft heb je gelijk dat er minder tijd in gestoken wordt, maar om luie devs te zeggen vind ik nog al beledigend voor devs in die sector die wel hard hun best doen.
Digital Foundry had hier wel een interessante take over: https://www.youtube.com/watch?v=qtaQskydAD0

Mijn impressie: De toolbox die een Unreal Engine 5 biedt is dusdanig uitgebreid maar ook belastend voor GPU's, dat er vooralsnog niet tegenop te bakken qua GPU hardware. Veel van de features schalen met de resolutie, omdat ze hun calculaties per-pixel doen, en daardoor exponentieel zwaarder worden. Goede upscaling helpt dit.

Op het argument dat het fake pixels zijn, is het de vraag "wat zijn eigenlijk fake pixels?". Op zich legitiem, we kijken immers ook al jaren tegen nepbelichting (cube maps / ssr) aan omwille van performance. Character models op afstand worden niet op hun ware detailniveau gerenderd, omwille van performance. Anti aliasing wordt al sinds jaar en dag ingezet als goedkoop alternatief voor supersampling, wat nog altijd de ultieme vorm van AA is, maar veel te zwaar. Is het op een lagere resolutie renderen en hier gegevens uit extrapoleren dan werken een dusdanige no-go, of slechts een extra tool waarbij er vooral voor gewaakt moet worden dat de baseline niet té laag is? (persoonlijk vind ik alles lager dan de hoogste kwaliteitssetting van FSR niet speelbaar zo lelijk, bijvoorbeeld)

Ik hang persoonlijk dus ook nog in het midden, ik zie het als een manier om dus betere graphics te bewerkstelligen waar verdere optimalisatie niet mogelijk zou zijn geweest om technische, of budgetaire redenen. Ontwikkelaars die met ondermaatste graphics én performance komen en DLSS3/FSR3 inzetten ter compensatie voor het er af lopen van de kantjes, zullen hier toch wel op worden afgerekend.

Verder ook even een reality check: Games worden groter en complexer en van de graphics wordt verwacht dat iedere texture er op 2160p nog scherp uitziet zelfs door de scope van een sniper rifle. Niet iedere studio heeft carte blanche alles te maken zoals gewild. Graphics / Performance / Budget: Pick two.
Eerlijk gezegd om cru te zijn dlss of fsr naar mijn mening falen waarom? Prijskaartje
Nu 4k zou native moeten lukken de 1080gtx kan dit perfect op 1080p nu zijn we reeds 3 generaties verder...
Ter defenitie 400 € meer betalen om toch maar sofwarematig fps manupilatie te behalen sorrie
Wat ik wil zeggen is dat ze de 4k maar eens uitbuiten en dat het tijd wordt dat we gewoon 4k kunnen gamen zonder deze software aanpassingen.
O ja dat kan met de 3090 of 4090... De 3060 3070 80 en de 4 serie hebben dlss nodig om toch een redelijke fps te hebben
Oja amd ook want in mijn ogen kleur verschild rood en groen O+
Hardware matig kunnen ze dit maar ja de prijzen willen ze erin houden en manupileren.
Jammer dat het zover is gekomen.
Wat gaan ze dan doen naar 8k het ook uitbuiten met dlss 7.0 of fsr 7 vind allemaal een marketing ding uitputting ten koste naar custumers
Het wordt tijd dat er meer concurrentie komt en dat intel het verschil kan maken zoals ryzen met intel heeft aangetoond

[Reactie gewijzigd door Anoniem: 1810558 op 23 juli 2024 18:27]

Als er GPUs gemaakt kunnen worden die makkelijk 4K draaien met nog een ietwat normale energie efficiëntie. Waarom verkopen ze die dan niet gewoon? De 4090 is een goed verkochte kaart.

Ik denk dat je het allemaal wat te simpel ziet. Helemaal als je ziet wat de nieuwe engines vragen van je GPU is dat echt zwaar.

Persoonlijk denk ik dat dit de nieuwe toekomst is en ook al was. Anti aliasing is bijvoorbeeld ook een softwarematig hulpmiddel.

En vergeet niet dat DLSS en FSR vooral handig zijn bij games met raytracing.
Kopt idd wat jullie beide zeggen en breek totaal de techniek niet af enkel het business model
Maar ergens komen jullie allebei tot mijn statement
@RobertPeterson
Als er GPUs gemaakt kunnen worden die makkelijk 4K draaien met nog een ietwat normale energie efficiëntie. Waarom verkopen ze die dan niet gewoon? De 4090 is een goed verkochte kaart.
Dat was mijn punt dat je dlss nodig hebt om dergelijke fps te bekomen
4090 zit aardig in de buurt tot native 4k met voldoende fps maar dan idd niet energie efficiënt.
We zijn nu al 3 gen verder in 4k en nog veel werk eer we er zijn.
Maar de prijs is niet rechtvaardig voor iets dat nog niet volledig 4k native is.
Vandaar ik verwees naar intel die hopelijk enoverende hardware gaat ontwikkelen die de zaken een beetje doen beven.
Straks is 4k versleten en zitten we opnieuw met een prob naar 8k
En de reden ja maar dat is zware load is geen reden om beter te ontwikkelen.
Anders zaten we nog met dual cores....
Kijk ik zie het zoals vroeger met Agea physx toen je een dedicated kaart nodig had om physx te kunnen draaien wat perfect werkte.
Je hoefde zelfs geen nieuwe generatie gpu te kopen want agea was toen de perfecte oplossing
Complexe gpu calculatie offloaden naar dedicated hardware
Nvidia heeft toen dit software matig toegepast dat je ook die physX kon draaien maar dan tekoste van fps maw gpu was te zwak zoals nu met native 4k
Totdat ze de firma Agea hebben overgekocht en laten doodgaan waren er daarna betere gpu's met agea on-board
En @RobertPeterson na meer of 30j wetenschapper te zijn in de IT business kan ik helaas niet meer simpel denken 8)7 maar er zijn ook mensen die simpel lezen
Het gaat om het business model als ze een feature verder ontwikkelen hoeven ze niet nieuwe gpu aan te kleven of zoals @Cid Highwind
Het is wel aan de klanten om fabrikanten niet te belonen voor GPU’s als de 4060, waar je een 4050-chip krijgt met het excuus “ja maar met DLSS3 draait het alsnog als een 4060”.
En @Cid Highwind vind je cynischme grappig
Volgende zijn de nieuwe games met dlss of fsr 3 sorrie geen 2 dan sta je daar met je dlss/fsr
Dat heeft er weinig tot niks mee te maken. Nieuwe technieken kunnen wat toevoegen.

Het is wel aan de klanten om fabrikanten niet te belonen voor GPU’s als de 4060, waar je een 4050-chip krijgt met het excuus “ja maar met DLSS3 draait het alsnog als een 4060”.

Wanneer dergelijke features een 5600XT een tweede leven kunnen geven, is dat gewoon iets positiefs. Het biedt zowaar eigenaars van een PS5/XSX de mogelijkheid current gen games op PS4 resoluties te spelen!

(Dat laatste was sarcasme, het is lastig niet even cynisch te worden als @computerjunky hieronder wanneer je zojuist de DF review van Immortals of Aveum hebt gezien)
het voordeel van de console is de de hardware op een console geprogrammeerd kan worden, daarin tegen zit het bij de pc met miljoenen soorten geheugen in game pc.stel je heb een game van twee jaar geleden, de code achter de game, daar zit natuurkunde(physics),wiskunde die berekeningen moeten maken, deze instructie worden door gegeven aan de hardware.
ik vraag me af of een game van twee jaar geleden met nieuwe PC hardware om kan gaan, want de code achter de game van twee jaar geleden is hier niet voor geschreven.
terwijl er misschien wel video kaart drivers voor bepaalde games worden geleverd, zal de game van twee jaar geleden misschien niet worden gepatched.met nieuwe video kaarten krijg je zeker kwa ruwe kracht een performance boost, maar het zou gewoon veel meer en kunnen zijn.
ik denk dat er veel meer uit kan worden gehaald op pc, maar dat dit te veel kosten met zich mee brengt.
verder worden developers lui omdat er toch een overload aan geheugen is, dus optimaliseren wordt niet gedaan om winst te maken op de game.

maar maken ook de verkeerde keuzes, 99% procent van de games kan echt wel 60FPS 4K halen en zeker op console maar devs gaan liever voor pracht en praal, grotere open wereld.
Je stelt de verkeerde vraag. je vraag moet zijn, wat zijn "fake Frames"?

En ja, als je een 1080p image upscaled naar 4k, genereer je fake pixels. Hoe fraai dat er dan ook uit mag zien. Met alle andere technieken worden alle echte pixels van zo'n image door een filter bewerkt. Dat is echt wat anders dan upscalen. Waar pixels "uit het niets" worden toegevoegd (er word natuurlijk een algoritme gebruikt om te kunnen inschatten welke kleur die pixel moet worden).

Nepbelichting > word toegepast op de volledige resolutie ( aka 100%pixels).
Character models op afstand > geen hond die de 4k rendering ziet van iets "op afstand", want op je beeld zit in die vierkante cm absoluut geen 4k pixels. Dat zou pas nuttig worden als je op die vierkante cm in kan zoomen tot fullscreen.

Maw; 4k / het aantal vierkante cm van je scherm geeft aan hoeveel pixels erin passen. Reken maar uit, dat is verre van 4k. Totale overkill om alles op 4k te willen renderen, elke grassprietje .
Heeft verder ook niets met fake pixels van doen.

[Reactie gewijzigd door Madrox op 23 juli 2024 18:27]

Van de andere kant kunnen devs nu ook betere technieken inzetten zonder dat de performance belabberd wordt. Al denk ik wel dat je gelijk hebt dat sommige devs het zien als een trucje om minder aan optimalisatie te doen.
Als ik soms zie wat die zeldzame game af en toe weet uit te poepen aan pixels op mijn RX580 en dan 90%+ van het andere spul zie.

Maar gebrek aan optimalisatie is niet iets recents en het meeste werk wordt al sinds jaren verzet door de engines. Unity is de laatste jaren grote stappen aan het zetten en Unreal doet het ook netjes.

De meeste grafische poespas wordt ook al sinds altijd gefaked en met trucages uitgehaald, zodat devs shortcuts kunnen nemen.

Zelf ben ik al sinds de PS3 dik tevreden met graphics en boeit het me niet zo, wel blij dat FSR de levensduur van mijn antieke kaartje met jaren heeft verlengt. FSR en DLSS zijn erg indrukwekkende ontwikkelingen.

[Reactie gewijzigd door batjes op 23 juli 2024 18:27]

Dus ik kan FSR 3 met Frame Generation dadelijk gebruiken met mijn RTX3080, wat Nvidia niet support. Slim man.

[Reactie gewijzigd door miknic op 23 juli 2024 18:27]

Let hierbij wel op het volgende:
AMD claimt dat ze zelf wat latency reductie in FSR3 toepassen, maar voor de rest ben je afhankelijk van Anti Lag. Dat is een driver feature voor AMD en geen game feature. Vervolgens komt er voor RDNA3 een verbeterde Anti Lag+, ook een driver feature. Dat lijkt op het eerste gezicht (weinig details bekend), aardig op een Reflex tegenhanger voor AMD. Maar dan wel vanuit drivers en niet als game implementatie. Hoe dat precies gaat werken is vooralsnog onduidelijk.

Voor Nvidia lijkt het erop dat je Reflex kan gebruiken als de game het ondersteund. Anders moet je Nvidia low latency mode aanzetten in Nvidia hun drivers. Dat is de tegenhanger van Anti Lag. :)

Onder de streep zal de FSR3 ervaring, waarschijnlijk meestal het beste zijn met RDNA3. Misschien in games die zowel FSR3 als Reflex ondersteunen, Cyberpunk dus want FSR3 komt naar Cyberpunk, kan de ervaring misschien meer gelijkwaardig worden qua latency reductie, tussen bijvoorbeeld een RTX3080 of een RX7800XT. :)
Denk dat het voor de niet amd gpu versie handig is om de fps dermate te cappen dat je gpu load onder de 97% komt waardoor je die latency reductie ook deels hebt.
Correct. Maar nog even de tests afwachten wat de kwaliteit is t.o.v. het “gewone” DLSS.
Werkt anti lag dan ook met nvidia gpu's? Want dat heb je wel nodig met frame generation.
Met frame gen heb je het misschien juist niet meer nodig. Reflex/anti lag werkt eigenlijk alleen als je gpu capped ben.
Als je door frame faken onder de 99% GPU load komt heb je niets meer aan reflex en anti lag.
jawel, want framegen introduceert latency en reflex vermindert dat. Daarom wordt reflex automatisch aangezet als je bijvoorbeeld in cyberpunk frame gen aanzet :)
Als je bijvoorbeeld een 144 hz scherm hebt en met frame gen van 110 naar 155 fps gaat kan je de fps cappen op 140 en daarmee komt je gpu load onder de 99% en verdwijnt dat latency probleem ook al. Anti lag en reflex werken eigenlijk alleen als je gpu capped ben, ben je niet meer gpu capped dan heb je er niets aan.
Reflex werkt ook als je niet GPU capped bent.

Voorbeeld 99-100% gpu gebruik, zorder fps cap op 4k krijg ik met zonder reflex een vertraging van 81ms.

Zet ik met dezelfde instellingen Reflex aan krijg ik nog maar een vertraging van 29ms.

Met 172 fps en 99% gpu load een vertraging van 32ms Met reflex aan een vertraging van 14ms.
Dat is geen goede oplossing. Ten eerste wil je niet 10% framerate verliezen voor een betere latency als er een prima functionerend alternatieven is (Relfex) waar dat niet voor nodig is. En op voorhand weet je helemaal niet welke framerate je gaat halen. In sommige spellen is dat goed te testen, maar in veel spellen wordt een verschillende framerate gehaald in verschillende locaties. Als je dat op wil lossen met een framecap moet je eerst de worstcase framerate zoeken, en daar de rest van je spel tot limiteren.
Ja, Nvidia heeft ook zoiets. Reflex heet dat.
Maar dat werkt alleen met Nvidia GPU’s toch? Of heb ik het nu helemaal mis.

Anti lag is de AMD variant.

[Reactie gewijzigd door FrankoNL op 23 juli 2024 18:27]

Wat houdt dat precies in? Waarom is dat nodig?
Nvidia heeft Nvidia low latency mode in hun drivers. Dat is vergelijkbaar met Anti Lag.
Verder Reflex maar dat is game afhankelijk. AMD komt voor RDNA3 met een Anti Lag+, wat in ieder geval bedoeld zal zijn als Reflex tegenhanger. Maar dit is ook een driver feature. :)
Dat is alleen relevant voor kaarten welke dlaa frame gen ondersteunen. Voor de rest van de kaarten is het iets vs niets
Das wel erg slim, vooral mocht het sneller zijn/worden tov een beetje minder of gelijke kwaliteit.
AMD raadt het gebruik van FSR 3 verder vooral aan bij games waar de framerate al hoog is.

Waarom niet bij een lage fps?
Omdat je dan echt latency problemen gaat krijgen. :)
Hetzelfde als met DLSS3. Er wordt interpolatie toegepast, maar je muis en toetsenbord inputs zijn nog steeds gebaseerd op de framerate voor de interpolatie. Is die bijvoorbeeld 30fps, dan voelt dat ook zo, terwijl je misschien 55 op je scherm krijgt te zien.
Verminderde nvidia reflex dat niet dan?
Reflex verminderd latency, maar dat staat los van je framerate. Je kan nog steeds 30fps halen, maar dan met een lagere latency. Reflex is alleen geen wondermiddel. Een hogere framerate levert al snel een betere basis op voor interpolatie. :)
Ja, maar reflex kan je ook gebruiken zonder FG. DLSS + FG latency komt in de meeste games overeen met native latency en DLSS + FG latency is hoger (slechter) dan de latency als je alleen DLSS upscaling gebruikt. Tenminste, zolang je in alle 3 gevallen reflex aan hebt. En er is weinig reden om niet reflex te gebruiken.

[Reactie gewijzigd door Raphire op 23 juli 2024 18:27]

zou dit ook toepasbaar zijn voor de RX6xxx series kaarten?
Ik kan dat niet in het artikel terug vinden.
Nog even en we upscalen 720p naar 16k.
Speel je misschien wel op een ouwe barrel de dikste games.
Tot nu toe gaat de kwaliteit van FSR mee omlaag als je de resolutie verlaagt (minder pixels en geen fancy AI om een goede inschatting te maken van de ontbrekende pixels). Ik hoop dat ze dat verbeteren want DLSS is voor niet-RTX gebruikers geen optie.

Intel XeSS heeft wel een AI-algo, dus ziet er beter uit op lage resoluties, maar die heeft weer geen hardware acceleratie zoals nVidia, dus dat levert ook veel minder op qua FPS vergeleken met DLSS en FSR.
Intel XeSS op quality leverd meer fps op dan DLSS op quality in The Witcher 3 maar ik vermoed dat XeSS quality gelijk is aan DLSS performance qua beeldkwaliteit?
Alleen als je Xess op een intel kaart gebruikt. Anders wordt er een slechtere kwaliteit algoritme gebruikt als fallback omdat er geen hardware support voor is.
Die ervaring had ik niet met mijn Nvidia GPU maar misschien heb ik ook niet goed getest en dag ik de The Witcher 3 opnieuw moeten laden. Er was in ieder geval wel een leuke performance winst met XeSS.
Ik wil geen upscaling en ik wil al helemaal geen frame generation. Je krijgt er alleen maar gezeik mee, upscaling ziet er 8/10 van de gevallen gewoon echt slechter uit (ja, met fsr en ook met nividia dlss) en frame generaiton gooit er ook nog eens een bak input lag over heen waar je u tegen zegt (je krijgt wel hogere fps maar het voelt als veel lagere fps). gewoon lekker uitzetten die troep en op native gamen, da's nog m.i altijd het beste.
Zeker! Als je dikke hardware hebt die alles draait met de settings, resolutie en frame rates die jij acceptabel vindt dan heb je geen DLSS of FSR nodig. Gelukkig is het ook allemaal optioneel.
Moeten ze de games wel beter optimaliseren.
Vanuitgaande dat fsr3 niet zo zwaar als crutch misbruikt wordt als men wél al met dlss poogde te doen...
Lees voor de lol anders het dlss/fsr topic van vorige week terug waar genoeg mensen ook de impressie hadden dat een game zonder dlss zondermeer slechter speelbaar zou moeten zijn; en dat zijn dan nog niet de jan-met-de-petten die die illusie mogelijk nog sneller hebben.
Beetje rare reactie vind je niet? En ik vind een 6800xt nou niet echt over de top duur (gekocht at launch bij amd zelf voor 600 nogwat). Mss met het verkeerde been uit bed gestapt?
Het wordt wat lomp gebracht, maar hij heeft wel een punt. Mits goed geïmplementeerd is er echt wel een plek voor compressie en upscaling.

Al mijn 128kbps MP3's uit 2003 heb ik weggemieterd, want ongenietbaar. 128kbps via Spotify is daarentegen best uit te houden, ook op high-end apparatuur. Als je er echt voor gaat zitten merk je alsnog de tekortkomingen natuurlijk, maar als je onderweg bent of aan het werk, is een bump naar 160 zeker wel fijn, maar eerde luxe dan pure noodzaak. ANC, omgevingsgeluiden of gewoon afleiding doen meer schade aan je geluid/geluidsbeleving dan die 32kbps extra bitjes.

Zo is het ook met upscaling. Wat dat betreft bevinden we ons nu in 2003 voor upscaling / frame gen. Het is een feit dat met uitzondering van bijzondere situaties (lees: 55" 2160p TV als bureaumonitor op 50cm afstand) het videoequivalent van een WAV file wel behoorlijk overkill is. Het is wachten op het graphische equivalent van FLAC, of tot het moment dat het equivalent van 320kbps dusdanig goed is, dat het niet meer opvalt.
Dlls en fsr troep noemen en mensen die het niet met je eens zijn down voten, mensen moeten het blijkbaar met je eens zijn.
Ja, ja. jouw opmerking over mijn moderatiegedrag is puur aanname, onzinnig dus. Leuk dat je wat wil bijdragen, maar dat kan je beter op een andere manier doen , me dunkt.

Ik zie dat ik het inderdaad troep heb genoemd, maar dat is mijn ervaring ook. en ik mag dat vinden. net als dat jij jouw mening mag hebben.

[Reactie gewijzigd door Visgek82 op 23 juli 2024 18:27]

zet je het uit toch, voor de rest een geweldige techniek trouwens.
absoluut geen troep.
Precies, laatst kwam dit ter sprake in de DF podcast die vonden de puristen ook niet realistisch vooral omdat het een kleine groep is. DF zijn wel lovend over deze technieken.
Rare reactie, slaat nergens op.
Het klinkt misschien dom als ik het vraag maar.

Is FSR (en DLSS) aanzetten gewoon een kwestie van "toggeltje aan en het werkt" of moet je eerst je resolutie verlagen.

Recent met iemand erover gehad en kreeg deze vraag (en ik stond een beetje met mond vol tanden erdoor), ik gebruik het zelf nooit (voldoende frames in mijn games, vandaar) en hoewel ik weet hoe beide technieken werken, heb ik mij nooit verdiept in hoe het aan moet.

Want het klinkt een beetje te simpel zo

off topic I know, maar deze aankondiging herinnert mij hieraan
aanzetten > preset voor bepaalde quality level , dat dan weer scaled op basis van native res afaik
Bepaalde technieken zoals frame generation en anti-lag+ zullen op native resolutie al voordelen moeten geven. Om de upscaling te benutten zal de game inderdaad in een lagere resolutie worden gerenderd en daarna worden opgeschaald, maar dat zouden games die het ondersteunen zelf moeten verzorgen zodra je de optie activeert. Handmatig vooraf de resolutie verlagen zou dus niet nodig moeten zijn en lijkt me ook een slechte gebruikerservaring.
De preset bepaald de aangepaste resolutie waarop de game draait en vervolgens word er geupscaled naar je monitors native resolutie.

Sommige games kan je dan wel weer FSR+RSR+Cusom resolutie aanzetten. Ik speel momenteel cyberpunk met 1224p custom resolutie door RSR geupscaled naar 1440p en vervolgens gaat daar weer FSR Quality eroverheen. En ja ik heb het getest 1 of de ander uitzetten verlaagd de FPS dus ze werken echt naast elkaar en ik kan grafisch geen verschil zien.
RSR met 1080p vind ik er niet uit zien vandaar dat ik custom resoluties gebruik daarvoor.

[Reactie gewijzigd door computerjunky op 23 juli 2024 18:27]

Zie je vaak in de settings, als je videokaart het ondersteund. FSR on/of en dan auto-quality-balanced-performance-extreme performance.
Deze techniek kan dan ook door consoles worden gebruikt toch? Zou wel nice zijn als ps5 games op quality mode dan op een hogere frame rate kunnen worden gedraaid
Ja maar wel ten koste van extra latency zie bij consoles al aan de hoge kant is.
Quality mode gebruik je meestal toch bij Singleplayergames, dus dan is de latency iets minder erg.
Zal vooral ook voor de series S een uitkomst kunnen zijn. Deze begint nu aardig achter de pas te lopen.
Hoe zit het met Starfield?
Zowel Starfield als de developer (bethesda) zijn door AMD niet genoemd. Ik ben bang dat die game geen FSR 3 zal ondersteunen.
Vreemd... je zou denken dat die ook beste zou krijgen..

Agja kan altijd nog komen met update of anders mod

Op dit item kan niet meer gereageerd worden.