Sony werkt aan frames genereren met AI voor PlayStation

Sony werkt met AMD aan een technologie om in PlayStation-consoles frames te genereren met behulp van AI. Dat heeft het bedrijf bevestigd. Of dat in de huidige generatie consoles komt of voor een 'PlayStation 6' bedoeld is, zegt de Japanse fabrikant niet.

Aankondigingen over die technologie komen dit jaar nog niet, zegt hoofdarchitect Mark Cerny van Sony tegenover Digital Foundry. Volgens Cerny is FSR Redstone deels gebaseerd op werk dat Sony en AMD samen hebben gedaan. "FSR Frame Generation is ook gebaseerd op gezamenlijk ontwikkelde technologie. Ik ben erg blij met de voortgang van dat werk en een vergelijkbare bibliotheek voor framegeneratie zou op een gegeven moment op PlayStation-platforms te zien moeten zijn."

Cerny zegt dat Sony vertrouwd is met de technologie door de samenwerking. Desondanks komt er geen snelle release. "Het enige wat ik kan zeggen, is dat we dit jaar geen nieuwe releases meer gepland hebben. En ik kijk ernaar uit om hierover in de toekomst verder te praten."

Met framegeneratie in FSR Redstone kan een grafische kaart tussenliggende frames gokken met een AI-model aan boord. Daardoor is het mogelijk om de framerate fors te verhogen. FSR Redstone kwam in december uit.

AMD FSR Redstone

Door Arnoud Wokke

Redacteur Tweakers

23-03-2026 • 11:56

46

Reacties (46)

Sorteer op:

Weergave:

Ik blijf het toch verbazend vinden. Al ettelijke jaren hebben we een enorme afkeer van TVs die upscalen, TVs die frames interpoleren, enz... om een beter beeld te krijgen, want ja, het is data bijverzinnen. En opeens zitten we in een tijdperk waar we het normaal vinden dat de graphics die we voorgeschoteld krijgen AI upscaling doen, AI interpolation, enz...
De kwaliteit is noemenswaardig anders. Temporal upscalers verzamelen echte subpixel data over meerdere frames (AMD raad 32 aan), en houden bij welke pixels bewogen worden. En niet alleen in 2D, maar ook voor diepte word dat bijgehouden.

Upscalers hebben dus wel degelijk data op hogere resolutie, terwijl frame generation in ieder geval intelligentere keuzes maakt dan een TV die het alleen met RGB kleurdata moet doen waar ook nog eens compressie, post processing en imperfecties van de camera in zitten.

[Reactie gewijzigd door Wolfos op 23 maart 2026 12:30]

Aha, zit het er daarom vaak naast bij TV's. Dus eigenlijk zou video van veel metadata moeten worden voorzien voordat, dit goed zou kunnen.

Wel jammer dat, dat nodig is, zoveel oud materiaal (denk aan concerten) zo mooi opgepimpt kunnen worden dat het weer lijkt alsof ze gisteren opgenomen waren.....
Dat kan allemaal prima worden opgeleukt als je er een geavanceerd algoritme op loslaat dat frame voor frame gaat analyseren wat er te zien is en wat er verbeterd moet worden. Een tv kan dat niet on the fly doen, dus die gebruiken een veel primitievere methode waarbij pixels met elkaar worden vergeleken op kleur en het vinden van randen in het beeld (grote contrasten tussen pixels). Je kan dus bestaand materiaal upscalen en opslaan, vervolgens kijken. Maar on the fly is het niet zo goed als bij games omdat al die diepteinformatie en vectoren ontbreken.
Het is beter, maar het blijft een voorspelling. Wel een hele goede voorspelling. De artifacts vliegen mij iig om de oren met Resident Evil Requiem.
Hoewel ik niet te spreken ben over DLSS 5 zoals dat nu uit zien, vind ik framegen bij de huidige DLSS verassend goed eigenlijk.

Wat is je basis framerate?
Ik denk enerzijds dat "we" het nog steeds niet helemaal normaal vinden, er is best een hoop weerstand van velen en die zetten het dan ook vaak uit (als ze de hardware hebben om het zonder te kunnen).

Anderzijds denk ik ook dat de AI upscaling/interpolation van tegenwoordig zoveel beter is geworden dat voor heel veel mensen het gewoon goed genoeg is en een betere optie dan een duurdere videokaart kopen die ook zonder al die poespas mooie beelden kan tonen.
Ik denk wel dat zowel jij als @Twixie de groep 'we' grof overschatten. Een deel van de Tweakers zal het zeker uitzetten, maar het gros van de mensen werkt gewoon met de standaard instellingen van een TV.

Daarnaast vind ik persoonlijk ook, waarom niet? Waarom zou je wel op 480hz monitors willen gamen, maar moeten we bij een film strak vasthouden aan ouderwets 24fps?

Het is een persoonlijke voorkeur, dus 'ik vind het niks' is prima. Maar 'we' en 'velen' is denk ik geen goede afspiegeling van de werkelijkheid.
Daarnaast speelt mee dat velen van ons gewend zijn aan 24 of 30 beeldjes per seconde voor films en series en als dit er ineens meer worden dat je last krijgt van het soap opera effect. Het probleem hoeft dan helemaal niet te zitten in de kwaliteit van de gegenereerde frames want bij een in hogere framerate opgenomen film heb je mogelijk hetzelfde effect.

Games zijn echter wezenlijk anders. De framerate is al heel veel langer variabel geweest, het is niet zo dat we al decennia alleen maar op 30 fps gamen of zo. Al in de vorige eeuw streefden PC gamers naar meer dan 60 fps, ik had zelfs vrienden die hele dure hardware hadden om bv 85 of zelfs nog meer Hz te draaien op hun monitor en daar bv ook twee Voodoo 2s voor hadden om de FPS er bij te halen. Consoles hadden weliswaar vaak lagere framerates, maar dat was uit nood geboren en altijd al de inferieure optie.

Bij games is de kwaliteit hoe het gedaan wordt daardoor veel meer bepalend... En ik moet zeggen, hoewel ik in eerste instantie fel tegen 'fake frames' was vooral omdat het de inputlag verhoogt, in Borderlands 4 vind ik het eigenlijk helemaal geen probleem en maak ik er graag gebruik van (wel aangemerkt dat ik zonder frame gen al rond of boven de 60 fps zit).
Soap opera effect is 1 ding. Maar opgenomen beelden hun framerate vergelijken met games kan vrijwel niet. Een game op 24fps is bijna onspeelbaar. Een film kijken aan 24fps voelt doodnormaal. Dit komt vooral door motion blur. Als je een frame van een film bekijkt dan is alles wat beweegt een blurry mess. Terwijl beelden gerenderd door een game engine haarscherp zijn. Oké de meeste games doen wel aan motion blur, maar dit valt niet te vergelijken met opgenomen video.

Ik vind het wel gek dat video met hoge framerate, althans voor mij, “goedkoper” of amateuristischer aanvoelt dan film geschoten aan 24fps.

[Reactie gewijzigd door BlaDeKke op 23 maart 2026 13:17]

Dat zit hem volgens mij eerder in het feit dat jij de boel bestuurt in een game en bij een film niet. Ik merk zelf ook al dat als ik met controller speel ik veel makkelijker een lagere framerate kan accepteren dan met een muis. Dat komt volgens mij doordat je met een controller een gradatie verder verwijderd bent van de beweging dan met een muis. Ik bepaal met de stick op een controller namelijk de snelheid van beweging, terwijl ik met de muis direct de beweging zelf bepaal. Daarom voelt het met een muis al snel onacceptabel als de framerate omlaag gaat, terwijl met controller het nog wel te doen is.

Met een film is dat natuurlijk helemaal anders. Het enige wat belangrijk is is dat er genoeg frames zijn om het nog als beweging waar te nemen. Bij games lukt dat met motion blur ook nog wel (sommige games zijn daar echt goed in, ik geloof dat Horizon Zero Dawn op de PS4 er daar een van is bv), maar je hebt nog steeds een langere tijd zitten tussen jouw bewegingen en het resultaat daarvan op het scherm.
Bart ® Moderator Spielerij @Twixie23 maart 2026 12:19
Al ettelijke jaren hebben we een enorme afkeer van TVs die upscalen, TVs die frames interpoleren, enz...
Ik weet niet wie je met 'we' bedoelt, maar ik heb daar helemaal geen afkeer van. Sterker nog, ik zou niet weten waarom ik tegen iets zou zijn dat beeld duidelijker of vloeiender maakt. Als ik het verschil niet zie tussen een pixel die echt is, en een die nep is, wat boeit het dan wat de oorsprong van die pixel is?

Er kunnen zeker nadelen aan kleven hoor, maar het is toch persoonlijk of je die wel of niet vindt opwegen tegen de voordelen? Misschien heb jij een enorme afkeer, dat kan natuurlijk, maar gebruik dan 'ik' in plaats van 'we'.
Omdat framegen nogal de neiging heeft om de basis fps te verlagen. Nou is dat met video niet zo heel interressant, maar er is niet voor niets een gamemodus op bijna elke tv die dat soort dingen uitzet.

En bij games vind het nadeel te groot ten opzichte van het voordeel. Ik heb het bij Ratchet and Clank op de pc gewoon uitgezet. Ondanks dat ik volgens Steam 75-100 fps haalde was duidelijk te merken en te zien dat de basis fps gewoon niet op orde was.
Heb dus gewoon RT een stap lager gezet en speel nu ook met 75-100 fps, maar dan native 4K. En zowel visueel vloeiend als een voldoende lage inputlag. En het ziet er nog steeds erg gelikt uit.
Hear hear. Tv’s hebben ook hun tekortkomingen tov filmdoek. Een zekere vorm van interpolatie, iets wat klassieke film uiteindelijk ook doet, maar dan middels de gebruikte projectietechniek en games deden middels CRT beeldretentie, kan de ervaring beter maken. Zeker op OLED. Mits niet te hoog geschroefd want dan gaat ieder algoritme over z’n nek.
De standaard upscaling en interpolation van een TV kan je niet echt vergelijken met een ML model zoals DLSS die toegang heeft tot veel meer informatie vanuit de game engine.

In blinde tests wint DLSS het zelfs van native rendering. https://www.computerbase.de/artikel/grafikkarten/nativ-vs-dlss-4-5-vs-fsr-upscaling-ai-leser-blindtest-auswertung.96165/

Verder is Moore's law gewoon dood, transistor kosten dalen niet meer dus moet je performance op andere manieren kunnen verbeteren.
In blinde tests wint DLSS het zelfs van native rendering.
DLSS wint het van TAA, want ook daar lees ik
..und „Nativ“ (die native Auflösung mitsamt TAA-Kantenglättung) abgestimmt werden...
2 jaar geleden las ik ook vaak "Met DLSS heb je betere beeldkwaliteit dan native!". Dus ik had het aangezet in Elder Scrolls Online...hartstikke blurry. Blijkbaar bedoeld iedereen "DLSS is beter dan TAA", wat prima zal kloppen aangezien dat vooral een snelle maar niet per se mooie AA oplossing is, maar MSAA of zelfs geen AA was vele malen mooier en scherper.

Oftewel: DLSS is beter dan een goedkope AA oplossing. Zeggen dat het beter is dan native vind ik nogal misleidend. Misschien is het de afgelopen 2 jaar wel verbeterd, maar dan zie ik graag zo'n vergelijking zonder TAA.
Tsja als zelfs mijn 5090 op 4K 120hz bij bepaalde games op max dat nog niet eens kan vasthouden zijn we helaas overgeleverd aan dlss en mfg achtige technieken
Wanneer je, zeker op consoles, dergelijke resoluties (4x 1080p) bij een dubbele (tov 60fps) of zelfs viervoudige (tov 30fps) nastreeft, inclusief realtime raytracing én een hogere complexiteit van de geometrie, lijkt het me ook niet meer dan logisch dat zelfs top-end hardware aan z’n grenzen komt.

Ergens moet je dan gaan optimaliseren, wat dus altijd met merkbare compromissen komt. Als we terug naar PS4 graphics gaan klaagt men ook weer dat het behalve framerate en resolutie achterhaald oogt.

Even afgezien van de belachelijke prijzen die Nvidia durft te vragen, schort het bij gamers soms ook wel wat aan realiteitsbesef op dat vlak.
Oneens, Laatst Horizon zero dawn aangeslingerd.

Ziet er nog steeds beter uit als veel van de laatste games die draaien als stroop.

Zoals bijvoorbeeld een monster hunter wilds. Probleem is niet de modern hardware, niet de gamers, maar de luie ontwikkelaars die geen flauw benul meer hebben wat optimaliseren is of het goed coderen van een game engine.
Dat zijn ook wel twee compleet verschillende games met desbetreffende aanpakken. MHWilds is een clusterfuck waar het al misging bij de enginekeuze. Dan sta je als ontwikkelaar al 2-0 achter. De keuze iets dan nog te optimaliseren is niet iets waar devvers over gaan, daar zijn duurbetaalde managers verantwoordelijk voor.

En aangezien het de gamers zijn die ondanks de problemen van MH World, de systeemeisen die framegen voor 30fps adviseren, en de niet bijster performante benchmark alsnog het spel kopen, of nota bene een pre order plaatsen, denk ik toch echt dat gamers de hand in eigen boezem mogen steken. Stemmen doe je met je portemonnee. Niet met beklag op een forum.

Ik ben benieuwd wat een Monster Hunter in de engine van Horizon had kunnen zijn. Capcom kán immers wel echt goede games uitbrengen, als ze willen.
Je hebt een goed punt dat gamers die kopen zonder te kijken een deel zijn van het probleem.
Op TV's kun je het aan of uit zetten en heb je een keuze of je het wel of niet wilt gebruiken. Upscaling heb ik vaak niet zo veel moeite mee met hoe de tv dat doet, interpoleren wel, want daar krijg je artifacts van in beeld (ik ben sowieso iemand die vrijwel alle hulpmiddelen van een TV uit zet incl. scherpte en ruis onderdrukking.. die laatste 2 zou namelijk sowieso geen probleem mogen zijn bij digitaal beeld tegenwoordig)

Bij deze AI toepassing in games is het echter vaak niet uit te zetten. Dat maakt wel een verschil.
Ja dit lijkt snel gegaan inderdaad, ook allerlei monitors die tegenwoordig AI upscaling doen. Ik heb het zelf nog niet gezien, maar begreep van reviews dat het bij de nieuwere monitors toch best goed werkt (zie bijvoorbeeld YouTube: The Best Ultrawide Format is Finally Here! - Hands-On with New LG Monitors)
Als het genereren van (tussen)frames minder moeite kost dan ze daadwerkelijk renderen waardoor (oudere) hardware meer frames kan leveren dan lijkt het mij dat dit een enorme vooruitgang kan zijn. Zeker omdat de rekenkracht die vrij komt weer ingezet kan worden om de beelden die wél gerenderd worden, van meer details te voorzien.

Klein voorbeeld; stel dat het genereren van frames de helft kost van renderen en je kunt zonder dat iemand dit opmerkt per gerenderd frame, drie frames renderen, dan bespaar je per vier frames dus bijna de helft aan rekenkracht.
Het is alleen jammer dat je met interpolatie een frame van de game engine op moet potten voor de maximum tijd tussen de echte frames die je weer wilt kunnen geven zonder hitching. Als de game engine zelf op 60 fps doortuft maat het niet zoveel uit. Maar als je framegen het meest nodig hebt omdat je zeg maar 30 fps uit de game engine kan krijgen, werkt het het slechtst kwa latency.

Reflex/etc doet niks wat het niet ook zou kunnen zonder framegen, de extra latency is inherent aan interpolatie.
Kennis van mij had ook een interessante opmerking erover tijdje terug.

In zijn ogen is gaming al kapot qua optimalisaties, straks "heb je een RTX 6080 nodig om "60fps" in een game te halen, maar eigenlijk is het 10fps dat dankzij 6x MFG nu 60fps is, terwijl je op een 4K monitor speelt met DLSS op Ultra Performance".

Probleem zijn DLSS, FSR en (M)FG zelf niet, maar hoe developers en bedrijven het zijn gaan gebruiken, wat de oorspronkelijke doel van deze technieken voorbij schiet.
Framegen werkt niet met lage framerates en DLSS / FSR upscaling werkt niet goed als de basisresolutie niet goed is. Het minimale is toch wel 60FPS / 1080p. Daaronder zijn er te weinig frames met te weinig pixelinformatie om de boel goed te laten werken.

In dat opzicht zijn het ook vooral "win more" technieken. Als een console niet die 1080p+60FPS haalt dan zetten deze technieken weinig zoden aan de dijk. Maar als je 1080p+60FPS naar 2160p+120FPS wil tillen dan is het weldegelijk een optie.
Ja maar de afkeer voor motion smoothing op TVs is vooral dat het de vibe van een film verandert en dus de intentie van de regisseur verandert. Een film die op 24fps geschoten is maar dan naar 50fps word geinterpoleert voelt gewoon anders aan. En frame interpolatie op TV creëert vaak lelijke frames omdat het twee 2D frames pakt en van daar uit zelf motion vectors moet calculeren en dan een intermediate frame van maakt. De data die de TV krijgt is enkel de kleuren pixels. TVs hebben geen enorme rekenkracht dus de intermediate frame is geen perfecte nieuwe frame maar meestal een wazig beeld, een gemiddelde van de twee frames.

Bij games ligt het toch anders, gamers willen juist meer frames om een soepelere beeld te krijgen. Ik speel liever een game op 120fps op m'n tv met frame gen dan in 60fps, ook al is de input lag ietsjes slechter dan op 60fps zonder frame gen. En omdat de GPU motion vectors, depth buffer, normal buffer etc vanuit de game engine geleverd krijgt en veel krachtiger is dan een TV SoC kan frame gen frames creëren die er bijna perfect uit zien

[Reactie gewijzigd door Smash1231 op 23 maart 2026 13:14]

Dat reden dat we frame interpolatie vervelend vinden is vooral dat er een vertraging in onze knopjes komt, en een klein beetje de grafische bij-effecten.

Dan zou het niet moeten verbazen dat we blij zijn als deze twee dingen opgelost zijn.
Doorheen de jaren is mijn zicht ook achteruit gegaan, dus maakt het ook minder uit :D
Heel eerlijk? We is eigenlijk de industrie en ik vind het vooral luiheid. Maar dat is in ieder geval mijn persoonlijke mening.
Ik heb liever gewoon echt, dan verzinnen. Het hele gebeuren van AMD en Nvidia omtrent DLSS en dergelijke kan me enorm gestolen worden. Heb het geprobeerd, maar voor mij wordt het er alleen maar minder van. Snap het als je een mindere pc hebt, maar het voelt voor mij meer alsof de developers alleen maar luier worden, want je kan het toch aanzetten.

Daarnaast krijg ik jeuk van iets waar AI in zit. Al die plaatjes vallen mij meteen op aan hoe ze gemaakt zijn (nee, ik zie het echt niet allemaal. Daar ben ik dan ook eerlijk in). Maar alles moet ineens AI ademen. Prima als ondersteuning, maar ik loop echt op heel veel plekken tegen de AI zooi aan.

Denk dat je zin ook eerder "waar we het normaal moeten vinden dat de graphics...".
Het wordt gewoon je strot in geduwd.
Nou, spreek voor jezelf, want ik heb nooit afkeer gehad voor upscaling. Mijn eerste OPPO dvd speler deed DVD's perfect upscalen naar 720p indertijd. Wel ben ik het met je eens wat betreft digital motion enhancement op tv's, want het zorgt ervoor dat het er vaak meer uit ziet als een daytimesoap, en ook veel artifacts rondom bewegende delen.
ik zal wel een van de weinige zijn, die al die kunstmatige frames uitschakeld
Nogal een verschil om dergelijke interpolatie door de soc van een tv te laten doen (lees: aardappel) of door een GPU van honderden tot duizenden euro's.
Appels met peren vergelijken. Op de PC heb je , iig met DLSS , vaak beter beeld met upscaling dan zonder. daar komt nog bij dat de framerate echt hoger ligt. dus win-win , met televisies was het eerder een drama.
Ik blijf dit een gevaarlijke ontwikkeling vinden, frame-generation op consoles. Op PC heb je gelukkig zelf nog de keuze om dit aan/uit te zetten, maar consolespelers hebben die luxe niet. Die extra input lag en ghosting zul je gewoon moeten slikken als gebruiker, als de ontwikkelaar daarvoor kiest (zie bijv. Black Myth Wukong's performance mode op PS5, dat FSR 3 frame-gen misbruikt om 60 fps te bereiken). Het alternatief is terugvallen op een modus met een lagere framerate.

We zien nu al dat sommige ontwikkelaars de kantjes ervan af lopen m.b.t. upscaling. Interne resoluties van rond de 720p met FSR 3 upscalen in performance mode? Da's zo'n beetje de ervaring in het gemiddelde UE5-spel op console. En het resultaat is dramatisch.

Een goede ontwikkelaar zou absoluut frame-gen kunnen gebruiken om iets moois neer te zetten, maar toch. Performance modes van 120 fps in first-party Sony titels? Ik zie het wel gebeuren. Maar dat zijn slechts een klein aantal spellen. Ontwikkelaars zoals Capcom en Game Science... ik houd m'n hart vast.

[Reactie gewijzigd door IlIlIllII op 23 maart 2026 12:17]

Interne resoluties van rond de 720p met FSR 3 upscalen in performance mode?
Maar dan ga je ervan uit dat dat zónder deze upscalers niet was gebeurt. Xbox One en PS4 games draaiden ook echt niet allemaal op 1080p:
https://www.ign.com/wikis...esolutions_and_Framerates

Het kwam toen dus ook vaak voor dat games naar 720p gingen om de 60FPS te halen, en in één geval zelfs voor 30FPS.
Ik vind dat een kromme vergelijking. De Xbox One (S) en base PS4 zijn natuurlijk geen 4K machines. 1080p is het plafond van die systemen, en 4K was pas ''mogelijk'' bij Xbox One X en PS4 Pro. Het plafond van Switch 1 is bijvoorbeeld ook 1080p. Daar is een interne resolutie van 720p dan weer wél gebruikelijk en niet dramatisch, ook als je kijkt naar de hardware van dat systeem, de output resolutie en bijbehorende verwachtingen van de consument.
Genoeg games op de console waar je gewoon settings kunt aanpassen. Zowel grafische settings als schakelen tussen PSSR/FSR. Het lijkt me duidelijk dat met framegen juist de optie zal komen om te kunnen schakelen per game of system level aangeven.

Dat die luxe er niet zou zijn is onwaar.
Performance modes van 120 fps in first-party Sony titels? Ik zie het wel gebeuren. Maar dat zijn slechts een klein aantal spellen. Ontwikkelaars zoals Capcom en Game Science... ik houd m'n hart vast.
Die zijn er al lang op de huidige consoles.
Bonus punten voor deze zin: "Met framegeneratie in FSR Redstone kan een grafische kaart tussenliggende frames gokken met een AI-model aan boord."

Wat dat is wat er gebeurd, geen simpele interpolatie, maar het AI algoritme doet intern een afweging wat het meest waarschijnlijke frame moet zijn. Dat kun je gokken noemen.
Dit lijkt me een prima implementatie van AI in videogames, puur bedoeld voor het verbeteren van de beeldkwaliteit. Ik heb liever dit dan bv. zo'n AI help modus waarover laatst bericht werd.

Ik kan me herinneren dat ik maar wat blij was dat de PS5 hetzelfde deed met sommige PS4 games, al is upscaling en AI niet hetzelfde. Omdat ik op PS4 vooral racegames speelde met een beamer had ik een aantal goede andere games nauwelijks gespeeld of niet uitgespeeld. Games als Uncharted 4, God of War, de 1e Horizon. Ik had de PS5 al eind 2021 via een direct marketing mailtje van Sony gekocht maar er waren wat mij betreft nog niet veel goede games.

Ik vond dat echt cool: ik had die games op disc, je popt de disc in de sleuf, de PS5 download een update en poef, Uncharted in 4k (soort van) en 60 fps. Ik had ook net een LG C1 TV gekocht en kon m'n ogen nauwelijks geloven.
Zal wel voor de PS6 zijn

Helaas is dit nodig om hoge frame rates en zoepel kunnen spelen

Ben ook wel blij met de pc maakt echt veel verschil dan in native

Ach als de spellen erdoor goed uit zien tegenwoordig en vlotjes draait maak je druk om zeg kunnen niet na verleden meer kijken Tja je moet toch mee met de tijd mee is met alles zo in voor en tegenspoed
Als er gewoon gefocust was op GPU rekenkracht en niet op AI rendering. Dan hadden we alles nog gewoon zonder upscaling en frame generation kunnen spelen, zonder artefacten. Maar hey waarom een goede game videokaart neer zetten, wanneer je gamers voor de ontwikkeling van AI rekeneenheden kunt laten betalen.
Ik hoop dat ze voor extrapolatie gaan. Het is de toekomst, zeker met AI generatie.

Als de frames uit de game engine toch alleen maar een hint zijn voor AI framegen zoals bij DLSS 5, dan kan de AI gewoon rekening houden met extrapolatie frames om geen zichtbare artifacten te produceren. Er hoeven geen grondwaarheid pixels op het scherm gezet te worden die de beweging in de extrapolatie frames tegenspreken, de AI kan vloeiend in de richting komen zonder abrupte sprongen te maken omdat de extrapolatie ernaast zat.
Account speciaal aangemaakt om deze fout door te geven?

Spel- en tikfouten kun je melden in het daarvoor bestemde topic: Meld hier spel- en tikfoutjes - en dus *geen* andere foutjes

Om te kunnen reageren moet je ingelogd zijn