Immortals of Aveum en Forspoken krijgen vrijdag als eerste games FSR 3

Forspoken en Immortals of Aveum zijn vrijdag de eerste twee games die FSR 3 krijgen, meldt AMD. Deze nieuwste versie van FidelityFX Super Resolution bevat framegeneration, waarmee extra frames worden gegenereerd voor hogere framerates.

De twee games krijgen vrijdag updates voor FSR 3, zegt AMD's Chief Architect of Gaming Solutions Frank Azor. Daarna moeten meer games volgen. AMD had al gezegd dat deze twee spellen in de herfst als eerste de FSR 3-update zouden krijgen. Ook Avatar: Frontiers of Pandora, Cyberpunk 2077, Frostpunk 2, Squad en Black Myth Wukong krijgen op termijn FSR 3.

De framegenerationtechniek van FSR 3 lijkt op die van Nvidia's DLSS 3, al is AMD's variant niet gebaseerd op AI-hardware. Daardoor werkt FSR 3's framegenerationtechniek in theorie ook op videokaarten van Nvidia en Intel. In een AMD-benchmark draait Forspoken op 122fps met FSR 3 aan, in plaats van 36fps met de framegenerationtechniek uitgeschakeld. AMD heeft FSR 3 eind augustus aangekondigd.

AMD FidelityFX Super Resolution 3

Door Hayte Hugo

Redacteur

29-09-2023 • 08:01

60

Reacties (60)

60
60
13
0
0
44
Wijzig sortering
Ik ben wel benieuwd om die techniek eens zelf te proberen, maar vooralsnog ben ik vrij sceptisch. Als je met frame generatie van 36 naar 122 fps gaat dan zal van wat ik begrijp de game nog steeds meer aanvoelen als 36 fps omdat de reactiesnelheid van de game nooit sneller kan worden dan die 1/36e seconde, of ongeveer 30 ms. Sterker nog, omdat je pas frames kan interpoleren als het volgende frame al bekend is zal dat eerder een minimum van 50-60 ms worden.

Ik verwacht dat ik zelf toch eerder zal kiezen om de grafische settings omlaag te zetten als dat nodig is om 60+ fps te halen dan om met zo'n techniek een game die eigenlijk maar net boven de 30 hangt visueel op te krikken.
Ik vermoed dat er ook upscaling gebruikt wordt, anders worden er idd wel erg veel frames gegenereerd. Het kan best zijn dat de game intern op 1080p loopt.

[Reactie gewijzigd door CaDje op 23 juli 2024 23:05]

Dat zal inderdaad ja, en dan zal het met de latency nog wel meevallen als de upscaling hem al boven de 60 fps brengt. Maar in bv starfield vind ik de fsr upscaling lelijk en speel ik veel liever met dat uit. Gelukkig kon ik me een dikke videokaart permitteren die dat ook gewoon trekt (op qhd) maar ik hoop niet dat we in de toekomst naar allemaal games gaan die er al vanuit gaan dat iedereen wel upscaling en frame interpolatie gebruikt om tot een acceptabele framerate te komen (al lijkt het wel steeds meer die kant uit te gaan).
Waarom zetten ze dat er inderdaad nooit bij? Wat de resolutie is die ge-upscaled wordt? 720p? 1080p? 1440p? Zal uitmaken neem ik aan in performance en kwaliteit.
Bij Immortals of Aveum op de XsX/PS5 gebruiken ze 720@60fps om vervolgens te upscale naar 4k60fps.
Dank. Veel grotere stap dan verwacht. Verklaart vast ook de enorme fps boost.
Dat is met DLSS 3.0 ook het geval, als je gevoelig bent voor latency zijn zulke technieken echt niks voor je, het blijven eigenlijk ook gewoon fake frames
https://www.youtube.com/watch?v=2bteALBH2ew

Links zijn alle 'fake frames', rechts zijn alle 'echte frames'. Zoek de verschillen.
ik heb het over Latency, dat kan je niet meten met een filmpje, dat moet je voelen door het te spelen
Je hebt het over fake frames. Ik toon maar aan dat ze niet echt 'fake' zijn.

Ja het is frame interpolatie, ja het kost 1-2 frames latency, maar uit eigen ervaring weet ik dat als je base fps boven de 40fps zit je toch echt goed je best moet doen om het te voelen. Ik ben nu bezig aan m'n tweede playthrough van Cyberpunk en gebruik daar DLSS3.5 op RT-Overdrive en ik merk zelfs als de fps dropt naar 60 (d.w.z. 30fps base) totaal geen input latency. Ik heb ook het idee dat er verbetering in zit: bij MSFS merk ik het wel namelijk, maar dat is ook een van de eerste implementaties van DLSS 3.

Ik heb nu al zo'n donkerbruin vermoeden dat je veel van de mensen die nu het hardste roepen dat het allemaal fake en onzin is straks niet meer hoort omdat ze zelf het zelf ook gebruiken. Hetzelfde fenomeen zag je bij DLSS, het was allemaal fake en 'native4life', totdat ze het zelf gebruikten en geen verschil zagen.
Wist niet dat het woordje fake frames zoveel emoties zou oproepen :P het enige wat ik probeerde te zeggen is dat het latency met zich mee brengt wat voor sommige mensen niet acceptabel is

En dat je het zou voelen ja of nee is heel persoonlijk (zelfde voor je DLSS verhaal)

Lijkt beetje op het framerate verhaal, de een vind 30fps prima, de ander 60fps en de ander moet weer perse 120 hebben.
Dan kan je ook niet gaan zeggen, ik zie geen verschil tussen 60 en 90 dus 60 is meer dan voldoende
En toch is latency wel een issue. Stel we gaan uit van interpolatie (ik ken niet de exacte techniek, dus ik hoop dat ze extrapolatie gebruiken, maar voor nu ga ik even uit van interpolatie). Dat betekend dat ze de tussenliggende frames pas kunnen bepalen als het volgende frame bekend is. Je zult dus altijd een extra frame achterlopen. Ga je uit van je voorbeeld waarbij de base FPS terugvalt naar 30FPS dan introduceer je dus extra een latency van 33ms. In een singleplayer game is dat vast te overzien, maar in competitieve (online) multiplayer is dat een eeuwigheid.
Voor competitieve multiplayer is het geen issue, daar zet je toch alle toeters en bellen uit voor maximale performance.
Het voelt toch echt wel alsof je opeens Vsync aanzet terwijl je 100+ frames hebt. Haalt beetje het gevoel van hoge-refresh monitor weg.
Vind je? Heb ik hier geen last van: als ik in Cyberpunk van RT-Overdrive naar RT-Ultra ga zit ik rond de 120fps en dat voelt ook echt als 120fps.
Ik heb echt niet lang moeten kijken om het verschil keihard te zien, dus wat win ik?

Na 30 seconden was me al duidelijk dat dit echt niets voor mij is. Zodra er grote bewegingen zijn zie ik echt wel verschrikkelijke artefacten. Het linkerbeeld voelt aan als een YouTubevideo met een lagere bitrate, wat ook logisch is want de geïnterpoleerde frames van DLSS3 lijken enorm op B frames in een video.

[Reactie gewijzigd door kiang op 23 juli 2024 23:05]

Kijk als het bij mij werkt. Maakt het me niet uit als ik gefopt wordt.
36 fps heeft een hogere latency dan 122fps met FG. En uit ervaring kan ik zeggen dat 122fps met FG veel ook een stuk smoother afspeeld. Bij 36 FPS zie ik ook iedere fps alsof het beeld even stil staat.

Als ik minimaal 70 fps gaat vergelijken met 122 fps FG dan zie ik het voordeel van FG verdwijnen.
Dat is technisch niet mogelijk. Wellicht gebruik je ook upscaling, of je telt andere technieken mee zoals ik geloof dat Nvidia het reflex noemt en AMD anti-lag. Maar die functies kun je ook zonder frame generatie aanzetten. Het is onmogelijk dat frame generatie geen latency kost.
Uiteraad met reflex aan want anders heb je inderdaad geen lagere latency met FG. Maar reflex geeft geen problemen dus zou ik voor 122 fps met FG gaan in plaats van 32 fps zonder FG.
Precies, hij zit appels met peren te vergelijken.
Die 36fps is zonder upscaling zonder anti-latency functies en ja ook zonder frame gerenatie.
Met de eerste twee opties ga je al naar 70fps en dan kom je met FG op 122fps.
Hij haalt zelf zijn argument al onderuit.
Beeld versnelling en “verbetering” via de tv geven veel artifacts, en daar heb ik last van, en daarom zet ik altijd alles uit. Ik neem aan dat dlss en fsr soortgelijke technieken zijn. Ik moet het eerst zelf zien.
Nee hoor ze downscalen de resolutie en ze zetten latency reductie in.

Je zal natuurlijk geen 1/122 ste latency hebben maar het veel beter zijn dan1/30.

Vloeiender beeld EN betere reactie.

Datbis het allesinds bij dlss verwacht hier hetzelfde
Als je nou de reacties op mij gelezen had dan wist je dat dat al lang besproken was, en het is geen eerlijke vergelijking. Je combineert de frame generatie namelijk met andere technieken die de latency verbeteren terwijl je die technieken ook gewoon kunt inzetten zonder frame generatie. En in die vergelijking is het onmogelijk dat frame generatie niet tot slechtere latency leidt.
Ja maar latency maakt niet veel uit zolang het niet boven de 100ms komt of zoiets. Zo goed als niemand merkt 20 vs 30 ms latency.

Die technieken zijn dus handig wqnt eens onder die 100 is een veel vloeiender beeld veel belangrijker
Nou heb ik zelf nog geen interpolatie technieken kunnen proberen dus ik kan het niet uit eigen ervaring zeggen, maar wat ik er van begrijp (volgens mij ook eens uitgelegd door digital foundry) is dat een 30 fps met frame interpolatie op fleuren nog steeds aanvoelt als 30 fps, juist doordat de vertraging tussen jouw input en de feedback op het scherm hetzelfde blijft of zelfs slechter wordt.

Maar ik ben wel benieuwd en zal het zeker eens uitproberen, misschien dat een van de games die de techniek nu krijgen over een paar maanden wel al goedkoop op te pikken zijn aangezien ze bepaald niet goed ontvangen zijn.
Je moet heel hard oppasen met bepaalde youtube kanalen die tegen bepaalde merken of technieke een hetze hebben. Neen met DLSS in cyberpunk bijvoorbeeld 30 fps vs 60 fps dan speelt dat gewoon als 60fps. En zie je gewoon een veel vlotter beeld zonder stotteringen wat je op 30fps wel ziet, dat die latencey misschien 10-15ms meer is merk je niet.

Het is dus onzin als iemand beweert dat er daar geen verschil tussen zit qual beeldervaring/game ervaring.
Nogmaals latency onder een bepalde drempel (buiten voor wat pro's) maakt dat niks uit.

meestal spreekt men dan van 100ms

https://www.youtube.com/watch?v=jIR9JUn3yTQ

Er zijn veel mensen die dlss aanzetten zelfs met FG en niemand heb ik ooit weten klagen over latency, dit is eerder iets dat sommige willen gebruiken om slim te doen dan een echt probleem.
Het is mooi dat de technologie beschikbaar komt. Het is jammer voor AMD dat het als eerste beschikbaar komt voor deze 2 games, wat gegarandeerd een hoop reacties die niet al te positief zijn gaan opleveren op het internet. Aan de andere kant kan ik wel yt refreshen voor de benchmarks vandaag :)
die moet je even uitleggen?
Beide games zijn niet de beste games. Sterker nog, het worden gezien als slechte games. De games waren zo "slecht" dat de studio die forspoken heeft gemaakt niet meer bestaat en weer terug geabsorbeerd is in Square Enix. Bij de studio van Aveum is een paar weken na de release meer dan de helft van de medwerkers ontslagen. (Hiermee wordt ook het verschil in bedrijfsvoering tussen Japan en Amerika aangetoont, maar dat is ander verhaal vandaar tussen haakjes).

De technologie komt nu dus uit voor 2 games waar het algemene sentiment over is: MEH. Wat de launch van een nieuwe technologie als FSR3.0 tegen _kan_ werken omdat de games waar het inzit slecht ontvangen zijn.

We leven helaas in een wereld waar de perceptie van iets vaak belangrijker is dan wat het eigenlijk is.
Forspoken heb ik dan voor de Playstation 5 gespeeld, maar na 12 uur ook gestaakt met het spel, buiten dat het grafisch wel mooi was, was het een saai en slecht uitgewerkt spel, snap je onderbouwing dan ook helemaal.
Deze twee games zijn zeker geen paradepaardjes inderdaad. Maar bijna niemand speelt ze nog, dus de eerste aanraking met FSR3 zal voor de meeste gamers later komen, wanneer de techniek is ingebouwd in meer titels. Het zou zeker sterker zijn geweest als FS3 direct in 10-20 games zou zitten, en dan vooral games die meer in de smaak vallen. Maar het zal vast niet heel lang duren; studio's lijken de superresolutie-technieken breed te omarmen.

Dit wordt erover gezegd in de media:
Several other games are scheduled to integrate FSR 3 in the future, including heavy-hitters like Cyberpunk 2077, Warhammer 40K: Space Marine II, and Frostpunk 2. The technology will also be available as an Unreal Engine plugin soon, which should really throw open the flood gates for game support.
Forspoken en Aveum zijn beide typische "technologie-titels"; games die deals maken met GPU-makers en soms een engine-maker om nieuwe dingen tentoon te stellen. Dat levert studio's geld op en ze krijgen dan ondersteuning van de GPU-maker om techniek x of y in te bouwen. Dit gaat al heel lang zo, zoals de Batman Arkham-games die de nieuwste Nvidia Gameworks-features kregen. Met het verschil dat de Arkham-games wel leuk waren om te spelen ;)

[Reactie gewijzigd door geert1 op 23 juli 2024 23:05]

meer als veredelde benchmarks zijn het dus niet.

je zou zeggen gooi het in een upgrade voor starfield oid
Mbt de ontslagen, zo lijkt het wel in de game industrie van de VS te zijn, en de werkgever / werknemer cultuur in het algemeen; het zijn eerder ZZPers / "contractors" dan echte werknemers, waardoor een bedrijf flexibeler is in hun personeelsbestand, wat zeker bij een game bedrijf belangrijk is; tenzij ze een van de groteren zijn die elk jaar een nieuw spel uitbrengen waardoor mensen van het ene naar het andere project kunnen gaan, zullen ze last hebben van pieken en dalen waar ze meer of minder personeel nodig hebben.
Beetje zoals HFR bij the hobbit een slechte naam heeft vanwege het soap opera effect. En dat terwijl ik hfr echt een verademing vond, eindelijk geen panning judder meer
Dit zal dé reden zijn om games niet verder te optimaliseren. Leuk voor mensen met oudere GPU's van bijv. Nvidia zonder frame generation.
Level of Detail, occlusion culling, normal maps, ... zijn ook allemaal manieren om games te optimaliseren. Gameontwikkeling is constant op zoek gaan naar "cheats" om zo veel mogelijk performance uit te persen.

Dit is gewoon een toevoeging aan die al bestaande manieren.
Dat bedoel ik, veel ontwikkelaars zullen hier op een gegeven moment op gaan leunen om niet allemaal werk in optimaliseren te hoeven doen. Dit zal met name een ding zijn met ports, wat vaak al het probleem is.
Niet mee eens. Ik zie zelf bij console/pc ports prestatie verbeteringen via updates ondanks dat er ook gebruik word gemaakt van upscale technieken. Uiteindelijk krijg je meer fps door gameoptimalisaties en door upscale technieken. Maar eigenlijk horen games vanaf reslease geoptimaliseerd te zijn.
Dat ontwikkelaars hier op gaan leunen is op zich wel een risico, maar de context is dat de hardware de verwachtingen nu moeilijk kan bijhouden. De stap naar 4k ging prima qua video/streaming, maar voor games is het andere koek. Zelfs met een 4090 zijn sommige games lang niet op 4K/120fps te krijgen, of 4k/60fps/ray-traced. Tegelijk is 4k nu alweer zo'n 10 jaar een ding en het native draaien van die resolutie in moderne games is nog steeds niet helemaal gemeengoed (of komt met beperkingen en compromis).

En hardware kan niet meer doorontwikkelen zoals dat ging vanaf de eerste GPU's. We lopen tegen grenzen aan qua miniaturisatie, hitte, formaat, betaalbaarheid en dergelijke. De volgende generatiestap in GPU's kost nu telkens meer, waar het vroeger ging met ongeveer dezelfde prijzen. Dat komt deels door aandeelhouder-gedreven groei en inflatie, maar ook deels omdat de grote sprongen al gemaakt zijn. Elke volgende stap is moeilijker en moeilijker. Dit draagt bij aan de behoefte voor resolutieschaling, frame-interpolatie en ray-tracing trucjes (zodat er minder rays getrokken hoeven worden voor hetzelfde resultaat). Simpelweg nog een paar duizend kernen toevoegen aan de GPU kan niet oneindig doorgaan. Zeker niet met de huidige logica van silicium en transistors, waardoor uiteindelijk een "post-silicon"-oplossing nodig kan zijn.

Game-ontwikkelaars zitten tegelijk met het probleem dat de ontwikkeling te veel tijd/geld kost. Honderden of zelfs duizenden mensen moeten zo bizar veel handwerk doen om een game goed te krijgen, dat de vraag groot is naar verlichting op dit vlak. En dat gaat snel ten koste van performance. Zo is er nu UE5 Nanite en Lumen; die maken het ontwikkelen van games sneller en makkelijker, maar zijn zwaarder voor de eindgebruiker.

Dit is niet zozeer gemakzucht; er moet hier af en toe iets veranderen, want game-ontwikkeling is eigenlijk te duur en risicovol (miljoenen werkuren voor één game, en als die matig blijkt te zijn ben je zo 50 miljoen euro lichter of nog veel meer). Dat maakt de industrie risicomijdend en erg lomp. Zou een AAA game gemaakt kunnen worden door tientallen mensen over enkele jaren, dan zou de hele industrie en de gamer daar enorm mee geholpen zijn.

Dus de gamer wil moderne 4k met ray-tracing en 60/120 fps, maar de hardware maakt dat niet zomaar mogelijk voor alle games, en ontwikkelaars zoeken naar verlichting van de werklast. Dat maakt deze periode technisch lastig, en maakt sommige games erg zwaar voor onze pc's. Ik denk dat superresolutie hier zeker bij helpt, vooral als artefacten en ghosting verder worden verminderd. Van frame-interpolatie ben ik nog niet overtuigd, voor games die snelle reactie vereisen.

[Reactie gewijzigd door geert1 op 23 juli 2024 23:05]

Nee. Die manieren die jij hier noemt, bedenken geen nep frames om de FPS kunstmatig omhoog te krikken.

Wij gamers kunnen slechte optimalisaties vervelend vinden, maar aangezien AAA games jaren tijd kosten om te ontwikkelen en de ontwikkelkosten de spuigaten uitlopen (tot wel honderden miljoenen $) en je als uitgever en developer geen zekerheid hebt dat je je investering terugverdiend - neem bijvoorbeeld de 2 games in dit artikel - dan kan ik mij voorstellen dat je als uitgever en game developer er alles aan doet om de tijdsduur voor game ontwikkeling te verkorten, zonder dat je een blik opentrekt met extra, geld kostende programmeurs of de game uitstelt voor optimalisatie. “Dan maar DLSS en FSR onzin erin met frame generation! Scheelt ons tijd en geld!”, denken ze dan.

DLSS en FSR zijn de game prestatieoptimalisaties vanaf nu en de (nabije) toekomst. …Of wij gamers dat nu leuk vinden of niet. Het echte optimaliseren zal daarmee naar de achtergrond verdwijnen.
op naar de volgende stap FSR 3.5 met ray recontruction?

maar goed om te zien dat concurrentie in ieder geval op software gebied zijn werk doet nou hopen dat de hardware ook snel op gelijk niveau ligt

[Reactie gewijzigd door atthias op 23 juli 2024 23:05]

Precies 2 games die nogal geflopt zijn de laatste tijd?
Precies, voeg dit dan toe aan Starfield, dan heb je een game waar je het verschil écht kunt zien.
Daarom doen ze dat ook. Er zijn zat mensen die de games dan kopen om FSR3 te kunnen proberen.
Ik ben een leek op dit gebied hoor, maar wat schiet je hier nou eigenlijk mee op?
Van leek naar leek: je beeld zal er vloeiender uitzien.
Deze software "bedenkt" extra games om tussen de extra frames te plakken.
Game ziet er vloeiend uit op 60fps terwijl je inputs op 30fps verwerkt worden. Of nog langzamer omdat je niet weet wat de echte frames zijn tov de fake frames

Best aardig voor alles wat niet echt uitdagend is.
Neen hoor latency vermindering zit ook in fsr net zoals in dlss.
Het feit dat ze dit op Twitter even tussendoor zo melden is nou niet bepaald tekenend voor gigantisch veel vertrouwen in het product als je het mij vraagt, maar ik laat mij graag verrassen.
Ze hebben natuurlijk al een uitgebreide demonstratie gegeven met ook de melding ergens september 2023. Dus het is niet zo even tussendoor gedaan. Wat hadden nog meer kunnen doen dan?
De tekst in dit bericht is wat misleidend. De fps toename in het voorbeeld komt niet alleen door frame gen, maar door het inschakelen van fsr upscaling + FG.
Waarbij de upscaling ook nog is op het 'performance' niveau draait.
Je kunt FG ook zonder upscale inschakelen maar dan is de FPS winst ook minder. Net even getest. Beste is wel FG met FSR aan.
Is het niet minstens even interessant om te zien of FSR3 ook een betere beeldkwaliteit geeft dan FSR2, zonder 'frame generation'?
Of Fsr2 games door middel van een mod Fsr3 te laten ondersteunen? Sommige games die Fsr1 gebruiken, draaien prima met Fsr2
Hopelijk ook FSR3 op de steamdeck, zodat black myth wukong speelbaar gaat zijn op de steamdeck ;)

Op dit item kan niet meer gereageerd worden.