Topman AMD: AMD FSR 4.0 wordt volledig op AI gebaseerd

Jack Huynh, een topman van AMD, heeft tijdens een interview aangegeven dat AMD FSR 4.0 op AI gebaseerd zal zijn. De upscalingtechniek is momenteel ongeveer een jaar in ontwikkeling en moet onder andere voor een langere accuduur bij gaminghandhelds zorgen.

Huynh deed de uitspraken tijdens een interview met Tom’s Hardware op IFA 2024. De general manager van de Computing and Graphics-afdeling bij AMD zei dat FSR 2 en FSR 3 voornamelijk analytische upscalingtechnieken zijn waarbij ook algoritmische filters worden gebruikt, om bijvoorbeeld aspecten van de beeldkwaliteit te verbeteren. Dat is volgens de man echter niet meer waar de toekomst van de upscalingtechnieken ligt. "We hebben de focus van het team tussen de negen en twaalf maanden geleden gewijzigd om meer op basis van AI te gaan werken."

Huynh stelt dat zowel frame generation als frame interpolation bij FSR 4 gebruik zullen maken van AI. Op welke manier precies, is niet duidelijk. De topman van AMD wil via deze weg de accuduur in gaminghandhelds verbeteren. Dat is naar verluidt een veel voorkomende klacht bij klanten. Huynh vermeldt ook een target framerate bij handhelds en die ligt nog steeds op ongeveer 30 frames per seconde. Het is niet duidelijk wanneer AMD FSR 4.0 wil introduceren.

AMD FidelityFX Super Resolution is een techniek voor spacial en temporal upscaling. Hiermee worden games op een lagere resolutie gerenderd, waarna de beelden met behulp van algoritmes worden opgeschaald naar een hogere resolutie. Dit moet een hogere framerate opleveren zonder de vereiste van extra rekenkracht. Met de derde generatie van FSR in 2023, werd frame generation geïntroduceerd. Hiermee worden extra frames gegenereerd en geïnterpoleerd tussen bestaande frames, weer met als doel om een hogere framerate te creëren. Tweakers schreef in 2022 een achtergrondartikel over de werking van de upscalingtechnieken van zowel AMD, Intel als Nvidia.

Door Jay Stout

Redacteur

14-09-2024 • 09:54

94

Lees meer

Reacties (94)

94
94
32
3
0
47
Wijzig sortering
Ik heb echt niks met deze manier van het opkrikken van de snelheid. Het geeft makkelijk fouten en soms kan dit de prestaties in spellen negatief beïnvloeden. Zo kan het bijvoorbeeld in spellen als Il-2 of DCS even lijken alsof er een gronddoel staat, waardoor je dan gaat zoeken als je het kwijt bent, terwijl het in werkelijkheid nooit heeft bestaan. Ik zie daarom liever "echte" beelden.
Het doel van AI is juist dat je het kan leren als er iets fout gaat, dus dat corrigeren met een mooi database kan je veel flaws corrigeren.

Ik zie persoonlijk ook liever echte beelden, maar als je betere kwaliteit kan renderen, hogere FPS met weinig merkbare fouten dan is dat toch een win, win als jouw videokaart niet een stabiele 120fps aan kan op native resolution/higher resolutie?
Ik zie het meer als een luie manier van hardware produceren die met behulp van software de schijn krijgt heel snel te zijn. Je betaald vervolgens 1600 euro voor een kaart die als je games native draait niet eens 60 fps haalt op 4k. Het probleem is dat je straks alles met Ai gaat upscalen maar je zelf de rekenkracht niet hebt en het dus straks allemaal vanuit de cloud moet. En je kunt wel bedenken wat er gebeurd als het internet even niet werkt. Ik vind dit niet zon beste ontwikkeling eerlijk gezegd.

In mijn ogen kunnen ze beter Ai gebruiken voor het ontwikkelen van nieuwe chips. Als je de Ai hierop zet dan kun je in een jaar ontwikkelingstijd. Misschien wel 20 jaar progressie maken. Ai is veel sneller dan mensen ooit kunnen denken. Dus moet je voorstellen dat we Ai gebruiken voor het ontwikkelen van super snelle chips ipv duffe domme plaatjes, muziek of filmpjes. Dan heeft al dat stroom verbruik ook nog nut.

[Reactie gewijzigd door sygys op 14 september 2024 11:12]

Die volg ik niet... Volgens mij zijn gpu's echt wel flink doorgegroeid in power. Het probleem (als je het dat wil noemen) is dat ontwikkelaars die power ook steeds blijven gebruiken. Je kunt dus niet gewoon zeggen maak nou eens hardware die alle games gewoon op 120 fps draait of zo, want zodra die er is maken de devs daar wel weer gebruik van voor meer grafische pracht en praal of voor minder te hoeven optimaliseren en draait het alsnog maar op 60 (en de kaart van de vorige generatie maar op 30).

En ik denk dat je de capaciteit van AI flink overschat dat die wel even 20 jaar aan chip technologie over zou slaan... Al (zoals het nu populair is) is volgens mij juist niet goed in origineel werk maar het gebruikt een hele grote dataset van wat er al is om dat vervolgens te herkauwen. Hoe zou dat revolutionaire techniek moeten produceren?
Je kunt misschien wel heel veel verschillende iteraties doorrekenen, maar wie zegt dat ze dat niet al doen. Als het zo simpel was om veel grotere stappen te maken dan deden ze dat wel want wie dat doet wordt gelijk marktleider.
Ze zijn ook gebonden aan API. DX12 Volkan oorsprong is Mantel. Als je dit wil optimaliseren zal je op hele andere maneer moeten renderen.
Zoals de Voxel render methode Novalogic
Of full raytracing.
Je zal dan API moeten omgooien om dedicated Voxel gpu aan te sturen.
Of pure RT GPU aan te sturen met benodigde hulp logic. Zoals huidige TMU en ROPS hebben.
Larabee was stap in volledig gpgpu voor renderen waar je dus de coprocessing in massive parallel waar je de meer alternatieve render methoden kon versnellen.
Maar generalpurpouse is niet hetzelfde als dedicated. Dus niet sneller maar flexibel. Waar dedicated performance en efficiëntie voordeel zal hebben.
Dat voxel gebeuren zag voor die tijd zeer indrukwekkend. Alleen de entities van dicht bij niet. Dat waren dan helicopters
Iedere 10 jaar komt er wel iemand die beweert dat voxels de nieuwe stap zijn maar het blijft zonde van de data. Detail is nou eenmaal niet uniform. Al helemaal niet in 3D ruimte. Waarom zou ik data willen hebben aan de binnenkant van een gebouw waar je niet in kunt? Waarom zou ik een 100x100 voxel grid willen hebben voor een compleet platte vloer?
Het heeft een nieuwe manier van games maken nodig. De gebouwen dus wél in kunnen. En die opbouwen met templates, niet meer missies in een handgemaakte omgeving (tunnel) maken.

En natuurlijk, in veel gevallen is die 100x100 voxel vloer verspilling, maar dat is het niet meer het destruction mee gaat spelen. Dan kan je bepalen hoeveel er stuk gaat, wat er onder zit, etc.

Detail zou inderdaad niet uniform moeten zijn. Enkel wat direcht zichtbaar is voor de speler zou in detail uitgevoerd moeten worden. En dat is nu precies waar raytracing uitkomst zou moeten bieden. Maar ook de komende jaren lijkt dit nog helemaal niet haalbaar in optima forma. Dus wat dat aan gaat ben ik het wel met je eens, daar komt het verhaal van voxel + path tracing weer langs en we kunnen het nog steeds niet echt realiteit maken.

Wat verder niet weg neemt dat het gewoon in veel type games helemaal niet nodig is. En dat ook veel mensen niet zitten te wachten op b.v. een open wereld survival game met veel destruction. Het is natuurlijk top als je emerging gameplay in een willekeurig winkel op de begane grond van een kantoorgebouw kunt hebben de ene keer en de andere keer een willekeurig tankstation in kunt lopen, maar veel soorten verhalende games hebben dit als scripted events met meer persoonlijkheid en aandacht voor detail op rails gezet. En dan krijg je de persoonlijke vraag, was Crysis 1 of 3 beter?
Vooral kwa afmetingen en stroomverbruik ja :).
Tja far cry anyone? Is altijd al zo geweest hoor dat games voorlopen op hardware, pas de laatste paar jaa leek dat wat omgekeerd , maar met cyberpunk en co en initieel slecht geoptimaliseerde console ports is dat terug gekeerd.
Bedoel je niet Crysis? Far Cry was inderdaad zwaar en prachtig toen het uitkwam; maar het was niet Crysis zwaar.
Crysis zag op 8600GS low ruk uit toch in die settings in editing mode gespeeld.
Naast 2900XT medium high setting dat goed uitzag.
8800Ultra volk gehuil heeft crytech naar consoles gejaagd
Farcry zag er goed uit op 1080P low setting door efficient tiled multi texture techniek.
Crytech van oorsprong nv tech demo studio. Kijkt uiteraard meer naar de toekomst.
Reguliere dev kijken naar mainstream. En hoog haalbare GFX niveau want dat is marketable. Dus trekken graag de grens naar 30FPS.

En daarmee gebruikt men liever oudere games voor esports want dan kan met moderne hardware 144+++ frame behaald worden en FPS>GFX dus setting vaak ook lager.
Ben benieuwd of Starcitizen planet jungle tech kan waar maken zoals die beruchte jungle scene in crysis trailer. Geïnspireerd door Predator film.
Crysis is idd nog een beter voorbeeld.
Ik gebruik Framegeneration bijvoorbeeld voor games die überhaupt niet hoger kunnen dan 60fps bijvoorbeeld, of 30 zelfs. Als een game flinke bugs heeft zoals bij Bethesda games als de framerate hoger is dan 30-60 fps, dan is dit een mooie uitkomst om toch een vloeiender beeld te hebben.

Ik heb dit ook geprobeerd met RPCS3 (de PlayStation 3 emulator) en daar brengt het een mooie visuele upgrade dat het beeld er merkbaar vloeiender uitziet! Demon's Souls met 120fps framegen is wel heel fijn om te spelen haha.
Plus je hoeft het niet te gebruiken he, ik zie het meer als een tool in je toolbox als PC gamer waarmee je potentieel je game ervaring wat op kan krikken.
Kleine terzijde: het ontsluiten van de framerate in Bethesda-games is tegenwoordig niet heel moeilijk meer, evenals het loskoppelen van de framerate van elementen uit de game die anders bugs zouden geven. Geen idee waarom het in de next-gen update van Fallout 4 niet is meegenomen; ik had al jaren ervoor een prachtige vloeiende game op 120 fps.
Dat is waar, ik had alles werkend bijvoorbeeld ultrawide, hoge framerates zonder physics issues en wat quality of life dingen zoals SkyUI, maar t ding is als je achievents wil moet je spelen zonder mods.. ik las wel dat er een manier is om ze toch aan te zetten maar t heeft bij mij nog niet gewerkt helaas
Voor mij heeft deze altijd prima gewerkt om mods + achievements te krijgen:
https://www.nexusmods.com/skyrimspecialedition/mods/245
Ik zal het nog eens proberen, ergste geval moet ik de game vanilla spelen haha, thanks!
Ik heb de mod-guide genaamd The Midnight Ride gevolgd, een bundel die stukken beter doorgetest is dan Bethesda's eigen releases en nog steeds updates ontvangt. Daar zat volgens mij de werkende achievement mod ook al bij en ik heb de deze modlist zonder problemen verder aangevuld met Creation Club content en net als jij met interface-spul (in mijn geval FallUI).

Hoe dan ook heb ik eveneens werkende achievements nu, dus komt vast goed!

[Reactie gewijzigd door Changshan op 16 september 2024 22:45]

Die software heeft anders wel een GPU nodig om te kunnen draaien. Het is gewoon een efficiëntere manier van je GPU gebruiken. Tot dusver draaien FSR en DLSS niet in de cloud en er zijn weinig aanwijzingen dat dit gaat gebeuren.

Het is ook niet zo dat een 10 jaar oude videokaart nu ineens veel meer kan, gezien deze ook niet krachtig genoeg zijn om AI te draaien.
De 3d pipeline is lang en complex en zijn vele stappen. Als je dat rauw verwerkt dus 1080P vs UHD is factor 4 dan moet GPU 4x aan pixels genereren. Binnen 1/framerate target. 4x vereist dus veel meer vermogen. Dan heb je AI hardware die uit groepje pixel 4 voud in paar stappen kan genereren. En daarvoor uiteraard in gespecialiseerd is. En dat efficiënter kan.
Ik denk dat het (nu) technisch niet haalbaar is om games te upscalen als je ai in de cloud moet gebruiken. Je latency zal je verwerking zo vertragen, dat het niet realistisch is.

En wat betreft €1.600 betalen voor een kaart die native niet eens 4K 60fps haalt: dat hangt (ook) af van de grafische instellingen. Hoe hoger de kwaliteit van de textures en dergelijke, hoe lastiger iedere kaart het gaat krijgen. Daar zou upscaling wel mee kunnen helpen, maar dan moet de verwerking wel lokaal gebeuren lijkt me.
In mijn ogen kunnen ze beter Ai gebruiken voor het ontwikkelen van nieuwe chips. Als je de Ai hierop zet dan kun je in een jaar ontwikkelingstijd. Misschien wel 20 jaar progressie maken.
Ik denk dat je AI op dit moment nog heel erg overschat. Als het ingezet zou kunnen worden om 20 jaar progressie te maken in een jaar tijd dan hadden Intel, AMD of Nvidia al lang geld geroken.

Wat je nu ziet in games is dat er gewoon veel meer rekenkracht nodig is dan de huidige GPU's kunnen bieden. We zijn van 1080p60 naar 4k60 gegaan (of zelfs minder dan 1080p60 kijkende naar de consoles), en het liefst nog meer dan dat. Dat betekent sowieso al vier maal het aantal pixels om aan te sturen. Daar komen nog zaken als raytraced reflecties, schaduwen en indirect licht bovenop, inclusief een hoop andere grafische pracht en praal terwijl 'echte' raytracing zonder allerlei trucage nog altijd veel te zwaar is om real time uit te voeren op onze huidige GPU's.

Nou zullen games ongetwijfeld beter geoptimaliseerd kunnen worden, maar native 4K met 60fps in een game met alle moderne toeters en bellen is zelfs dan voor de meeste kaarten gewoon onmogelijk.
Heel scherp gezien chapo
Ik game nu al iets meer dan 10 jaar in native 4k. De games van toen ter tijd waren ook gewoon goed speelbaar in 4k met een high-end GPU van toen ter tijd. Ben toen begonnen met 4k (3840x2160) toen ik nog een HD7970 had. Toen ben ik overgestapt naar een R9 295x en kon gewoon GTA V met hoge settings netjes in 4k spelen. In 2017 ben ik overgestapt naar een GTX 1080 en kon ik toen weer de nieuwste games in 4k spelen. Die kaart heb ik bijna 6 jaar gehad, totdat ik ben overgestapt naar een 4080.

De reden waarom sommige games nu zwaar zijn, komt omdat er nieuwe technieken worden gebruikt. Kijk bijv. naar Cyberpunk 2077 en Alan Wake 2. Beide games die path tracing (full ray tracing) gebruiken, waarbij miljoenen tracers worden gerenderd. Hier is helaas de hardware nog niet helemaal klaar voor, daarom komen ze met softwarematige oplossingen, waaronder DLSS/FSR, Frame Generation, Ray Reconstruction en zelfs nieuwe render technieken zoals ReSTIR, die veel sneller frames kan genereren dan Talbot.

Waneer je games in rasterization lighting draait, kunnen zelfs de lower budget cards games in 4k draaien met wat getweak in de settings. Met een GTX 1080 kon ik nog zelfs de meeste games in 4k spelen, waaronder Cyberpunk 2077 maar dan alleen rasterization lighting.
Klopt, maar dat is natuurlijk niet stoer. GPU's zijn ook status producten voor gamers. Er wordt vaak neer gekeken op mensen die hun settings niet op Ultra hebben staan :+ .

Met software optimalisatie is inderdaad niets mis zolang het geen hele erge artifacts genereert.
Het grootste nadeel is dat de software gebonden zit aan hardware en dat wordt misbruikt door fabrikanten.

Je kan beter games zoals Doom eternal hebben die de optimalisatie in het spel hebben zitten.
Oh, mij maakt het niet zoveel uit welke GPU ik heb, als het maar aan mijn eisen voldoet. Ben wel aan het denken om een RTX 5090 te bestellen, maar vooral door het feit om snellere rendertijden te krijgen in bijv. Daz3D.
Beetje off topic, maar ik vind het echt bizar dat gamers massaal DLSS verdedigen (ik vind het overigens ook een goede techniek, ik ben het helemaal emt je eens), maar tegelijk wel unaniem een hekel zeggen te hebben aan DisplayPort DSC, een lossy compressietechniek die volgens een ISO-standaard visually lossless is waardoor je het verschil letterlijk niet kan zien.
Ik weet niet wie die mensen zijn maar ik heb een hekel aan zowel DLSS/FSR als aan DSC.
Dat DSC visually lossless zou zijn is ook een broodje aap, is gewoon lossy en er zijn genoeg mensen die dat verschil wel degelijk kunnen zien.

DLSS/FSR is handig als je verouderde hardware hebt en net een beetje performance mist om een spel te kunnen spelen, dan is het namelijk niet zo'n probleem als er her en der fouten in het beeld zitten.

Zelf zou ik DLSS/FSR nooit aanzetten omdat ik het er gewoon niet uit vind zien en omdat ik toch altijd voldoende krachtige hardware heb om alles native te renderen, DSC is een lastiger probleem want dat kan je niet zomaar uitzetten helaas.

Ik hoop eigenlijk dat de trend snel weer draait naar ontwikkelingen die native betere performance geven in plaats van zoveel focus op de ontwikkeling van up scaling.
Sorry maar broodje aap?

Lees je alsjeblieft om voor je dit soort onzin spuit.
De standaard ISO/IEC 29170-2 legt vast hoe "visually lossless" wordt gemeten, het is dus geen broodje aap of marketing term, het is een standaard. Eentje die broodnodig is omdat alle objectieve metrieken die we hebben voor beeldkwaliteit hun betekenis verliezen bij near-losless kwaliteit.
Hier kan je de standaard inlezen als je wilt: https://www.iso.org/standard/66094.html
Of je kan de technische presentatie wgraris bekijken, deze duurt 45m en is extreem interessant, maar je kan ook naar het hoofdstuk skippen dat gaat over de subjectieve testen: YouTube: MIPI DevCON - VESA Display Stream Compression (DSC) Standard
Kleine correctie: de frequentie is 5Hz, niet 1Hz. Die frequentie had elke zichtbare fouten extreem duidelijk gemaakt indien het menselijke oog ze zou kunnen waarnemen. Dat is dus niet het geval.
Kleine aanvullen: je vraagt "wat voor mensen": ook dat is in de standaard opgenomen. Het panel moet bestaan uit jonge mensen (max 30j) met goede ogen.

Kortom: iedereen die beweert DSC "slecht" te vinden, die verkoopt pas een broodje aap, net zoals audiofielen die beweren dat een gouden ethernet kabel ervoor zorgt dat hun muziek beter klinkt.
Ik geloof de peer reviewed wetenschappelijke artikelen, niet de klagers op het internet.
Misschien moet je je zelf nog ff beter inlezen?
DSC zal altijd voor verlies zorgen dat is nou eenmaal hoe de techniek werkt.

ISO zelf noemt de techniek ook niet "visually lossless" maar "near visually lossless".
En dat zegt eigenlijk precies alles.

Voor de meeste mensen zal DSC misschien niets uitmaken maar er zijn situaties waarin het belangrijk is dat het beeld gewoon 100% correct is.
Als je mazzel hebt heeft je monitor een optie om het uit te zetten, maar ik vind het zeer vervelend dat je het niet gewoon softwarematig kunt regelen.
Ten eerste: de iso noemt het visually lossless, en deze standaard is er gekomen om uitkomst te bieden voor near lossless compressie. "Nearly visually lossless" is wat jij nu noemt maar is geen officiële term, het is een samenvoegsel van twee aparte termen. Near lossless betekent dat in eender welke objectieve maatstaaf je compressie erg weinig ruis introduceert. Visually losless betekent dat je near lossless compressie geen subjectief zichtbare ruis creëert, gestraft volgens de iso 21970 standaard.

Dsc is gemaakt voor gamers, namelijk situaties waarbij je hoge refresh rates en heel hoge resoluties wilt, zoals 4k 240Hz: daar. Is het gewoon extreem onpraktisch om een ongecompliceerd signaal te gebruiken (4k@240Hz 10b kleuren = 60Gbps). Dit *kan* met DisplayPort 2.0, maar enkel met DP 80 kabels, die veel dikker (en duurder) zijn dan normale DP40 kabels.

Situaties waarbij je gegarandeerd accurate kleuren nodig hebt, dat zijn situaties zoals video en photo editing. Daar wordt net geen hoge refresh rate gebruikt, dat soort schermen zit bijna altijd gewoon op 60Hz.

Kortom: DSC is voor ene bepaald doel gemaakt en daarvoor is het ruimschoots voldoende. Gamers die beweren dat ze het verschil zien geloof ik niet. Nogmaals: dit is net zoals audiofielen die beweren 192kHz geluid te kunnen horen.

Qua aan/uit zetten: in mij ervaring staat het uit tenzij je net een refresh rate selecteert die in combinatie met je gebruikte poort of kabel te hoog is, waarna dsc er ner. Voor zorgt dat jouw gekozen instelling wel mogelijk is. Maar dit kan uiteraard verschillen per merk, en ook afhangen van de drivers van je gpu.

[Reactie gewijzigd door kiang op 15 september 2024 10:28]

DSC is gemaakt omdat de bandbreedte binnen de huidige displayport standaard niet voldoende is voor hoge refresh rates in combinatie met een hoge resolutie.
Gamers zullen inderdaad de grootste groep zijn die daar gebruik van maken.

Ik ben verder overigens helemaal niet tegen het bestaan van DSC hoor, alleen de manier waarop het is geïmplementeerd, dat je zelf niet de keuze hebt om de techniek wel of niet te gebruiken.
Persoonlijk zou ik liever iets meer uitgeven voor een betere kabel, dat is een eenmalige uitgave.
Misschien ga je een verschil zien met 2 schermen naast elkaar en met statisch beeld.
Maar met bewegend beeld, ik betwijfel het.

Maar net als met de ouderwetse Hifi mensen kun je hier een wetenschappelijk dubbel blinde test tegen aangooien, het heeft toch geen zin.

De fabrikanten zijn blij met je.
Bij DSC heb je alle pixels al en verlies je gewoon data, bij dlss krijg je de pixels en dan nog AI spul erbij: je verliest niets.
Dat klopt dus niet, DLSS rendered eerst een frame op een lage resolutie en gebruikt dan o.a. motion vectors en een AI model om het te upscalen naar de gewenste resolutie.

Als je nu DLAA had gezegd dan was het nog te verdedigen.
En dat geeft soms beter beeld dan native.
klopt bij niet realistisch ogende spellen.
Wanneer iets foto realistisch is krijg je een lelijke 'plastic' look dat te scherp is. (is wel helemaal hot tegenwoordig)
Bij DSC heb je alle pixels al en verlies je gewoon data, bij dlss krijg je de pixels en dan nog AI spul erbij: je verliest niets.
Volgens mij begrijp jij echt volstrekt niets van wat DLSS werkelijk doet.

DLSS is een technologie die AI gebruikt om games met een lagere resolutie te renderen en vervolgens de kwaliteit op te schalen naar een hogere resolutie. Hierbij worden AI-modellen gebruikt om ontbrekende details in te vullen en de visuele kwaliteit te verbeteren.

Het doet dus exact het tegenovergestelde van wat jij beweert. Je verliest wel degelijk pixels want je rendert op een lagere resolutie, en hoewel DLSS indrukwekkend kan zijn in het nabootsen van de hoge-resolutie details, kan het nooit exact hetzelfde zijn als een native rendering op die hogere resolutie, omdat de upscale een geïnterpoleerde schatting is. De kwaliteit van deze schatting hangt af van hoe goed het AI-model is getraind en geoptimaliseerd voor specifieke games en scènes.

[Reactie gewijzigd door Anoniem: 302359 op 14 september 2024 18:23]

Lees je ajb even in hoe "visually losless" getest wordt volgens de iso standaard:

Men toont teatpanels twee afbeeldingen naast elkaar:
Een afbeelding is het origineel
De andere afbeelding is een geanimeerde afbeelding die alterneert tussen het origineel, de de gecomprimeerde versie ervan, aan een frequentie van 1Hz

De testpersonen moeten dan aanduiden welke afbeelding welke is. Men wist hoe de teatppstet werkte, en wist dus dat ze gewoon moesten zoeken naar de afbeelding die licht flikkert.

Bij dsc kon het testpanel niet beter scoren dan 50% juist, oftewel: men zag het verschil niet enn gokte gewoon.

Dit alles ok te zeggen: ja, het is technisch lossy, maar. Je ziet het verschil echt niet.
Er breekt een hele discussie uit, maar ik wil even zeggen: mee eens.

Men focust soms op de verkeerde dingen en trekt sommige problemen uit zijn verband. Het bestaan van DisplayPort DSC is super waardevol, net zoals DLSS en andere framerate optimalisatietechnieken, maar waar DLSS en die andere technieken in mijn ervaring al snel leiden tot irritatie vanwege zichtbare artefacten (de technieken zijn nog jong en en er zijn redenen waarom ze telkens met nieuwe versies komen), heb ik nog nooit gedacht op mijn DSC monitor tijdens het gamen, zelfs als ik er naar op zoek ga: "oh, dit zou mogelijk minder mooi kunnen zijn door DSC".

Daarmee zeg ik niet dat het niet zou kunnen. Ik ben een enkel geval (hoewel ook wel iemand die kritisch is op dit soort zaken). Ik geloof vast dat er unieke personen zijn die het verschil nog kunnen waarnemen indien ze 2 schermen met hetzelfde beeld naast elkaar vergelijken (ondanks dat de massa dit niet kan in de tests).

Verder lees ik wat klachten over het feit dat het switchen tussen vensters 2 tot 5 seconden kan duren doordat DSC wordt gebruikt (dus geen beeldkwaliteit klacht). En er zijn mensen die zich zorgen maken over extra latency door DSC, maar dat kan schijnbaar alleen maar komen door slechte implementatie van codecs, drivers, etc.

https://forums.blurbusters.com/viewtopic.php?t=12235
https://www.reddit.com/r/...re_about_dsc_compression/

Als DSC daadwerkelijk zichtbare vermindering van beeldkwaliteit kan opleveren, dan zou je toch diverse voorbeelden online kunnen vinden van foto's (vermoedelijk kan het niet met screenshots) met dergelijke beeldkwaliteitsissues. Na wat zoekwerk heb ik 1 redelijk artikel met 1 goed voorbeeld kunnen vinden, specifiek de verkleuring in de letters van de Heaven 4.0 snelkoppelingen in dit artikel:
https://www.guru3d.com/re...ift-pg43uq-review/page-3/
Blijkbaar is het hier dus redelijk zichtbaar omdat het effen letters zijn op een effen achtergrond. Ik zal binnenkort eens kijken als ik mijn gaming pc weer heb aanstaan of ik dit ook goed kan zien. Mijn monitor is niet de allerbeste monitor om tekst weer te geven, maar dat komt voornamelijk nog door de relatief hoge PPI (Pixels Per Inch), ik ga nog een keer een upgrade doen naar UHD niveau. Maar het probleem is al minder erg dan bijv. de color fringing die plaatsvindt op OLED schermen (voornamelijk op een LG G2 UHD Oled 55" tv getest, waar het probleem natuurlijk heel duidelijk zichtbaar wordt vanwege de grote pixels). Op mijn 13" laptop met circa 3000x2000 pixels met OLED heb ik praktisch nooit last van het probleem, is het voor mij praktisch bijna niet zichtbaar.

(edit: zoals mjtdevries hieronder duidelijk maakt, klopt mijn analyse van dit plaatje dus niet, want het plaatje geeft een Chrome subsampling naar 4:2:2 probleem weer, dus niet een DSC probleem, het is geen DSC weergave).

Dus OK, het probleem is zichtbaar, indien je effen letters hebt op effen achtergronden (edit: deze conclusie is dus toch onjuist, het is dus gewoon niet zichtbaar of op zijn minst bijna/ vrijwel niet zichbaar). Als je veel tekstwerk doet op deze manier (met niet zwarte letters), is dat misschien vervelend en misschien kunnen sommige mensen daar ook gewoon niet aan wennen. Maar wat ik ervan begrijp kun je dit al bijna niet merken met foto's (al zou ik als professionele foto-editor natuurlijk dan een ander scherm gebruiken), laat staan met games. Maar het is niet zoals gaming met technieken als DLSS, waarbij je gewoon regelmatig duidelijk zichtbare artefacten hebt, in de ene game natuurlijk veel meer dan de andere game, ook vanwege de implementatie. O.a. daardoor verschillen de conclusies tussen gamers waarschijnlijk ook.

[Reactie gewijzigd door xtlauke op 16 september 2024 14:33]

Volgens mij ga je hier volledig de mist in met je conclusie.
Dat voorbeeld van guru3d laat NIET het effect van DSC zien bij die effen letters, maar laat het effect van Chroma subsampling zien. Van 4:4:4 naar 4:2:2.
Dat is de alternatieve methode van compressie om zoveel data door de kabel te persen.

En laat zien dat je die artefacten juist NIET hebt met DSC, omdat je dan op 4:4:4 blijft.
De auteur zegt zelf ook dat hij geen verschil kan zien wanneer DSC gebruikt word.
Ik zie het inderdaad. Ik had deze pagina van deze review niet helemaal goed gelezen. Ik was snel op zoek naar een voorbeeld en had verwacht dat het plaatje onder "So what is the deal with Display Stream Compression; DSC?" het probleem (of "the deal") van DSC zou tonen, maar dat is dus niet zo. Ik zie ook allerlei zinsfouten in het artikel. Het is enigszins slecht gestructureerd en onnodig lastig leesbaar, maar goed, my bad.

De daadwerkelijke DSC weergave zou dus in het plaatje daarna moeten staan, met de Far Cry New Dawn en Battlefield V snelkoppelingen. Ook nu ik deze pagina doornam dacht ik dat hij nog steeds een probleem ziet met de witte fonts, vanwege de afbeelding onderschrift "Don't mind the moire effect of the photo, but look at the white font text, DSC at work."

Daarna zegt hij inderdaad: "And admittedly, we have not been able to tell a difference, similar to whnm you are listening to say a 320kbit MP3 file."

Dus hij bedoelt dat die witte tekst in de 2e afbeelding geen problemen heeft door DSC (dus hij bedoelt "DSC at work" in positieve zin i.p.v. negatieve zin). Ik vind het erg onduidelijk geschreven, want je ziet wel degelijk iets wat lijkt op color fringing in die witte tekst. In de overgang van het witte deel van de fonts en de font schaduw is er veel roze en een paar andere kleuren te zien, die daar dus niet horen. Maar goed, dit is dus blijkbaar volgens hem geen DSC probleem, dat is me nu helder en kan ik me goed iets bij voorstellen. Ik ken dit als een monitor/paneel probleem.

Samengevat, ik ging volgens mij voornamelijk de mist in wat betreft de analyse van dit specifieke artikel. Mijn conclusie blijft grotendeels overeind. Ik denk dat ik als foto-editor professional nog steeds DSC zou vermijden, maar de conclusie blijft dat het gewoon (vrijwel) niet zichtbaar is.

En dit was ik het enige dat ik kon vinden nadat ik even heb zitten te zoeken. Mijn vraag is dan ook, is er iemand online die zowel:
- zegt dat hij DSC beeldkwaliteitsproblemen ziet
- en daarbij een afbeelding toont van het probleem dat hij ziet
Vermoedelijk dus niet.
Het gedeelte onder wat DSC doet is inderdaad heel slecht leesbaar. En er staat een komma verkeerd waardoor ik de zin letterlijk 5x heb moeten lezen om te begrijpen wat er staat. (dacht eerst dat er een groot deel mistte)

In de anti-aliasing zien je inderdaad kleuren, maar dat een eigenschap van de anti-aliasing.
In die heaven-benchmark letters zie je dat volledige letters gekleurd zijn. (bv de gele h) en dat is duidelijk geen anti-aliasing effect.

Maar de foto bij DSC is inderdaad een heel slecht voorbeeld. De auteur had gewoon diezelfde heaven-benchmark tekst moeten laten zien met DSC. Dan was het veel duidelijker geweest.

Hierboven legt kiang uit hoe er getest is dat je niks zien. Dat is echt een extreme test. Als mensen daarbij niet eens hoger scoren dan de "gok-kans" dan is het inderdaad onzichtbaar.
Fijn om te horen dat ik niet de enige ben die moeite heeft met die pagina van guru3d :-).

En goede aanvulling. Thanks voor je reactie.

Ik dacht zelf, die officiele DSC tests zijn 1 ding, en voorbeelden uit de praktijk zijn eventueel een ander ding. Dus het is goed om voorbeelden online te vinden van datgene waar mensen daadwerkelijk over klagen.

Soms klopt het niet wat instanties of organisaties beweren n.a.v. hun eigen tests en soms klopt het gewoon. Ik heb VESA en vergelijkbare organisaties hoog zitten en mogelijk testen ze het niet helemaal zelf, maar hebben ze een onafhankelijke organisatie bij betrokken (ik verdiep me hier nu even niet verder in), en ze volgen dus ISO standaarden hiervoor (waar ik me ook even niet verder in verdiep).

Het bevestigt dus dat ze (VESA of wie die testen dan ook heeft gecoordineerd) die testen waarschijnlijk gewoon goed en eerlijk hebben uitgevoerd en dat voorbeelden uit de praktijk dus geen 'ding' zijn, want praktijkvoorbeelden zijn voor mij na enkele zoekpogingen in ieder geval niet vindbaar, en niemand anders post hier ook voorbeelden. Wel klaagt men erover. Dat blijft ergens grappig en irritant (want misleidende informatie) tegelijkertijd :-).

[Reactie gewijzigd door xtlauke op 16 september 2024 14:57]

er zijn geen echte beelden. Er zijn gemaakte landschappen, personages etc met een bepaald creatieve achtergrond. Realistisch, cartoon achtig etc. Er zijn zoveel technieken en bewerkingen die plaatsvinden tijdens het renderen. Alles op een resolutie renderen ziet er totaal niet uit, dus sowieso wordt alles dat je op een afstand ziet anders berekend dan dichjtbij. Het maakt dus ook helemaal geen bal uit visueel of dat ingevuld wordt door een AI of door een andere techniek. Als er fouten worden die de gameplay beincloeden is dat anders, maar daar komt dan weer een oplissing voor. In het egin van de schaduw rendering zag je veel grafische fouten, nu niet of nauwelijks meer, tenzij een game voor optimalisatie op de amrkt gebracht wordt. Games wordenaltjd bemaakt om de maximale hardware van dat moment te gebruiken, voor PC en consoles, enwant dan gaat iedereen weer hardware kopen.
Het punt is dus dat de tolerantie voor fouten niet heel groot is als je doelwit slechts één of een paar pixels groot is en je binnen een seconde moet bepalen of het aangevallen moet worden.
Per definitie loop je altijd achter de feiten aan met de fouten corrigeren. Afgezien nog eens van het feit dat je geen idee hebt _WAAROM_ die fouten ontstaan, omdat het allemaal black box is.
Het geeft mensen met een budget GPU wel de mogelijkheid om spellen te spelen die anderzijds niet speelbaar waren. Ten tweede zoals aangekaart bevordert het de accuduur van handhelds. Ik juich dit alleen maar toe. Wellicht is de tech in de toekomst niet meer te onderscheiden van 'echte' beelden.
Nee hoor. Dit schaalt dalijk gewoon door. Het is niet dat je AI er gratis bij krijgt, de ontwikkelaars gaan hierop ontwikkelen. Dus een budget kaart zal altijd minder performance bieden, deze kan immers de AI ook niet zo snel draaien als een top kaart.
Ik denk dat dlss nog wel verder ontwikkelt. Dat het met een nog lagere resolutie goede resultaten kan bereiken. Of niet 1 maar 2 frames per frame kan generen. Hierdoor zullen bestaande gpu's nog langer meegaan. Terwijl ze al een tweede leven hebben gekregen met de bestaande dlss technieken. Dus het schaalt niet gewoon door. Er komt gratis performance bij. Ontwikkelaars gaan daar niet van uit. Die ontwikkelen nu met de huidige dlss in het achterhoofd, maar nog niet met de volgende versies van dlss.
Eerlijk gezegd die ik met DLSS quality geen verschil met native resoluties. Soms wat kleine artefacten. De techniek zal ook alleen maar beter worden.

Ik vind een mooie techniek
Had zelf een 2070 super die onbetrouwbaar werd. Aangezien ik een high end zonde van het geld voor mijn huige systeem een 4060 gekocht (om tzt een nieuw systeem met een 5xxx te kopen). Vrijwel vergelijkbare rekenkracht als je naar 3dmarkt kijkt maar door DLLS 3 gewoon 2-3 maal sneller. Vooral frame generation is een enorme toevoeging Ik ben er nog elke keer verbaasd over wat een dergelijk beperkte kaart op het scherm weet te toveren.

En het voordeel is dat je geen 400 wat + GPU in je systeem hoeft te zetten met alle warmte en betrouwbaarheidsproblemen. Gewoon zonder zorgen of frame cap alles open zetten met een zacht zoemend pc'jte. Die 2070 (en die is naar huidige maatstaven nog zuinig) was echt een stofzuiger in de kast.

Voor mij geen high end meer maar mid range GPU's met upscaling.
Als purist nee maar voor mensen die niet het geld hebben kaarten van 500+ euro te kopen laat staan 2000 is dit wel een hele goede oplossing zodat ze hun games op goedkopere hardware toch een beetje fatsoenlijk kunnen spelen. Zeker in het geval van FSR2 wat ook op oudere hardware werkt. Dat is echt een uitkomt om het spel speelbaarder te krijgen. Frame gen ben ik nog minder fan van maar ook dat kan in sommige gevallen met low end hardware zorgen voor betere speelbaarheid.
Zelf houd ik het liever bij upscaling. In deadlock gebruik ik zelf ook FSR2 om toch meer richting die 120-165FPS te komen zonder zit ik al rond de 110-120 zonder zware fights. In zo'n spel wat je minder voor visuals speelt vind ik dat wel een uitkomt. Het is mooier dan een veel lagere resolutie maar inderdaad niet zo scherp als native maar dan moet je wel echt goed kijken met stilstaande beelden en dat is in zo'n relatief snelle game niet het geval.

Games zoals Horizon Zero Dawn zou ik dan eerder zonder spelen daar kan je soms echt even genieten van de plaatjes.

Het is fijn dat de opties er zijn je kan dan zelf kiezen of je die wil gebruiken.
120+ FPS zeker op 4K heeft gewoon extreem veel processing power nodig. Als je FPS dan belangrijk vind zijn dit wel opties om het beter haalbaar te maken.
Geen idee welke upscaling tech je gebruikt in welke setting maar nog nooit zoiets gezien.

Dlss Upscaling op quality kan zelfs beter beeld geven door engine artefacts weg te werken. Zet daarbij frame generation en nu betere raytracing en ik kan cyberpunk met een bekachelijk aantal mods draaien met alles opnde hoogste kwaliteit 4k en nog steeds 45-60 fps hebben. Fantastisch anders had ik 2 4090’s noditg.
2 x 490 past niet in je pc kast en volgens mij zal er dan toch echt twee voedingen nodig zijn om die stroom vreters van genoeg energie te voorzien
Ben benieuwd wat die 5090 gaat vreten daar zal nog veel meer power voor nodig zijn dus moeten er of veel zwaardere voedingen komen (server voedingen) of de kasten moeten minimaal twee zeer zware voedingen onder kunnen worden gebracht. Ben benieuwd hoeveel stoppen er gaan klappen met deze wangedrochten.
Ik zelf heb kracht stroom maar die gebruik ik alleen om mijn auto te voeden, en zeker niet ga gebruiken om mijn pc te voeden.
Daarom kies ik voor AMD fantastische performance met steeds minder stroom verbruik
Ik haal met dit medium systeem in veel spellen de krankzinnige fps van ver over de 400 fps met mijn 1440p schermen.
4K ga ik niet aan beginnen want ik ben er niet van onder de indruk.
De meeste gamers komen over het algemeen niet verder dan 1080p en dat is vaak toch echt goed genoeg voor vrijwel alles wat spel heet.
Op 4k is in alle gevallen vaak compleet teleurstellend te noemen behalve als je een 8K TV hebt met formaat krankzinnig wandvullend.
Dan pas heb je er plezier van maar om nu mijn auto te moeten verkopen om zo een ding aan de muur te krijgen om er alleen spellen mee te spelen is werkelijk iets wat ik nooit of te nimmer ga doen.
Want nee ik kijk geen TV daar is ook totaal niets meer te vinden wat enig nut heeft.
Het enige wat ik nog op zoek is enig nuttig nieuws wat de moeite van het lezen waard is.
Maar ook dat is inmiddels voor mij zo saai dat ik daar nog amper echt naar kijk.
Er zijn moederborden waar dat prima gaat lukken, en ook zijn er voedingen van 1600+ Watt.
Een 4090 is (zelfs zonder dlss) een pak zuiniger watt/frame dan gelijke welke high end amd hoor.

En met een 48” oled als monitor is 4k perfect hoor :-)
Ze moeten wel, want AMD heeft al aangegeven geen High-End GPU's meer te willen maken.
Ik lees dit soort reacties een hoop.

Ik denk dat je dit vanuit de verkeerde kant ziet.

Het is typisch een middel om speelbaarheid te rekken.
Dus het is simpelweg een kwestie van speelbaar zijn met evt wat (kleine) artifacts of helemaal niet speelbaar zijn.
Uiteraard onder dezelfde condities.

Dat lijkt mij altijd een winst?
Ik denk dat iedereen liever een game speelt ipv helemaal niet kunnen spelen.
Of het maakt op zijn minst die transitie kleiner.

Ook dingen als latency ed, moeten gezien worden vanuit het originele systeem en performance.
En dus NIET vanuit het perspectief van betere ruwe performance.

Ik zie het dus ook meer als een bonus.
Tov ruwe fps en resolutie is het niet altijd even goed.
Maar tov een lagere resolutie en fps is het in veel gevallen (niet alle) beter.

Je moet het uiteraard niet te extreem gaan maken.

Ik heb zelf heel wat vergelijkings testen gedaan in de woonkamer.
In veel gevallen is het verschil heel moeilijk te zien en/of enkel wanneer je er echt op let (pixel peepen).
Bijkomende voordeel is dat de PC ook minder warm wordt doordat deze een lagere resolutie hoeft te renderen.
Hierdoor is de PC een stuk stiller.

Ik draai om deze redenen bijna niks meer op native 4K
Ik denk dat iedereen liever een game speelt ipv helemaal niet kunnen spelen.
Correct me if i am wrong maar daar FSR en co helpen daar toch niet voor? Ze helpen je om 60fps te behalen zonder de graphics te downscalen in settings. Maar je hebt wel native degelijke fps nodig op een lagere resolutie.

Voor de rest geef ik je gelijk maar een spel niet speelbaar is op 4K stel je uw resolutie wat terug en het is plots wel speelbaar. Maar als het niet speelbaar is op 1080p of 720p ga je met die technologie niet plots een vlot speelbaar spel krijgen.

Een heel goede use case die dat illustreert is VR met 2x4K. Dan kan je 2x renderen op 1080p en via die technieken upscalen tot 2x4K zonder en RTX 4090 te moeten kopen.
Zeker wel, 60fps dat verkregen is met frame interpolatie (frame generation) voelt nog steeds een stuk vloeiender dan 30-45fps native.

Overigens staat FSR voor resolutie upscaling.
(AMD FidelityFX Super Resolution)
Frame generation hoort daar inmiddels ook bij.

Dus in dit geval wordt iets zeker wel meer speelbaar.
Iets op bv 720p of 900p renderen is een stuk makkelijker.

Nu zullen de meeste mensen niet heel blij worden van deze resoluties.
Nog minder wanneer dat 30-45fps is.

Dus met beide technieken kun je ineens een resultaat krijgen dat een stuk beter te pruimen is.
Nogmaals, het is niet perfect, maar een stuk beter dan niks of lagere resoluties.

Een ander scenario is bijvoorbeeld wanneer er een compromis moet worden gemaakt tussen fps or kwaliteit.
In dit geval zou je bv of de kwaliteit kunnen maximaliseren met een lagere fps
Of the kwaliteit kunnen maximaliseren met een lagere fps
Of natuurlijk beiden :)
In sommige gevallen geeft dat een mooiere ervaring dan native resolutie.

Dit effect is nog meer merkbaar met emulators.
Waarbij je toch vaak wel een minimum aantal fps nodig hebt om het een beetje speelbaar te houden.
Zo heb ik bv al mensen gezien die een APU op 30fps cappen, om vervolgens 60 fps te krijgen met frame generation.

Nog een voordeel hierbij is dat sommige console games niet lekker werken op 60fps.
Op deze manier kun je deze game emuleren op de native 30fps, maar toch een vloeiender beeld krijgen.
Het is feitelijk een manier om op hogere resolutie te renderen dan dat de chip aankan. 1080 > 1440 met DLSS ziet er een stuk beter uit dan native 1080p op een 2k monitor.

Het is alleen lelijk als ontwikkelaars de game optimaliseren met een veel te lage interne resolutie in het achterhoofd. 720p naar 4K upscalen is gewoon echt heel lelijk, maar dat is wel wat sommige consolegames doen.

[Reactie gewijzigd door Wolfos op 15 september 2024 10:54]

Ik denk dat je niet goed door hebt wat de gevolgen zijn voor het spelen van het spel. Door een artefact kan je lelijk op het verkeerde been worden gezet, en dat heeft dan gevolgen voor de rest van de missie. Voor mij dus geen AI gegenereerde beelden, zolang artefacten een probleem zijn.
Dat heb ik nog nooit meegemaakt.

Het is alleen niet echt aan te raden voor high fps games, waar lage latency belangrijk kan zijn.

Dat lijkt mij nogal vanzelfsprekend.
Beetje flauw niet? Je haalt idd net een game uit waar hoge native resolutie belangrijk is indien je vijanden op de grond wil spotten. Zeer specifiek scenario. Dan is FSR idd niet aan de orde omdat enkel pixel perfect moet zijn.

In 99% van de gevallen is het wel een meerwaarde. Heel dat anti-sentiment gaat eigenlijk over 0,01% van de gamers die een specifieke situatie opzoeken. Ongenuanceerd dus.
Tja, het is de realiteit voor de spellen die ik speel. ¯\_(ツ)_/¯
Deze aankondiging volgt kort op die van de PS5 pro, is dit dan de AMD benaming van PSSR?
Denk dat je wel een punt hebt.

Ik bedacht me dat FSR AI upscaling ook ging krijgen bij het zien van de ps5 pro trailer. Aangezien ze met amd in zee gaan lijkt PSSR me meer een marketing strategie dan iets wat uit de keuken van PS komt.
De PS5 Pro gebruikt een nieuwe versie van FSR die AMD vóór de aankondiging van de PS5 Pro nog niet wereldkundig had gemaakt, dus @Putwater zou wel eens gelijk kunnen hebben. Het kan goed dat PSSR de Playstation-marketing-term is voor FSR4.
Alleen is PSSR voor een Custom iGPU van een Custom APU voor console wat RDNA 3 tot 4 hybride architectuur is. PSSR is dus voor 1 specifieke gen. AMD zal of kan PSSR samen met Sony ontwikkeld hebben en dus FSR4 eerst voor RDNA huidige gens en ook voor de RDNA4 voor windows PC devs. PSSR is PS5pro devkit iets.
Misschien dat het dezelfde tech is. Maar dan als onderdeel PS5pro dev kit. Andere Windows FSR4 SDK
Top dat werd eens tijd voor AMD, maar zoals met DLSS 1 or FSR 1 zullen er spellen zijn die de nieuwere versie van technieken niet ondersteunen.
Als ik het goed begreep probeert AMD dat op te lossen door FSR3 upgradebaar te maken, dus hopelijk is FSR4 plug-&-play want anders heb je er op zich nog vrij weinig aan.

Hopelijk is het op zijn minst net zo goed als XeSS (DPa4), want dat werkt ook op RDNA2 & RDNA3 gpus.
Precies waarom ik zo veel waarde hecht aan RSR, het werkt op iedere game (vulkan uitgezonderd maar dat word bijna niet gebruikt en draait over het algemeen als een tierelier zonder upscaling).
Daar waar DLSS en FSR hit en mis is of het wel of niet in een game zit en dus wat mij betreft geen waardevolle toevoeging omdat je er niet op kan bouwen. En Nvidia NIS is te lelijk om te gebruiken dus geen valide optie.

Dit tezamen met in driver underclocking en power beheer i s waarom, ik nog niet over ben naar een Nvidia kaart en enorm baal dat AMD geen high end meer gaat produceren.
Wat doen ze nou? Je kan toch niet tussen de frames door een algoritme uitvoeren voor een filter? Is het aan het voorspellen wat er alvast gedaan kan worden voor het volgende frame?
Wel als je het n+1 frame eerst naar een buffer schrijft voordat je het weergeeft, en je dan eerst een beeld interpoleert tussen n en n+1 en dat geinterpoleerde beeld eerst weergeeft.

Als je het op die manier doet introduceer je natuurlijk wel extra latency.
Volgens mij creëren deze upscaling technieken ook altijd een extra latency, waardoor ze niet echt geschikt zijn voor competitieve online games.
Maar die hebben vaak ook een kaart dat native 120fps doet op 1080p, niet de doelgroep.
Volgens mij deden ze dat al bij de 1e 3d consoles. Ik had bij de Xbox al het gevoel dat ze iets deden om informatie te krijgen uit het verschil tussen 2 frames wat ten koste ging van de beeldscherpte.
Motion vectors zijn het ding. Zoals Nvidia het zegt:

The process of AI upscaling involves analyzing images and motion vectors to generate new details not present in the original video. Instead of merely multiplying pixels, it recognizes the patterns of the image and enhances them to provide greater detail and video quality.

Edit: dit kun je natuurlijk ook gebruiken bij het genereren van extra frames.

[Reactie gewijzigd door oef! op 14 september 2024 10:59]

Ik verwacht dat Blackwell van NVIDIA nog goed verkocht wordt. Het is 4 maal sneller dan de H100.
Anders gaan de grote bedrijven niet investeren. Dan moet er wel significante omzet komen.
De klanten kunnen niet 3 a 4 jaar tientallen miljarden blijven investeren zonder noemenswaardig omzet. Dat is een slecht economisch model.
Inmiddels is AI zo’n buzzword dat het overal op geplakt wordt omdat het goed verkoopt. Er bestaan complexe algortimen met tal van parameters die met feedback automatisch getuned kunnen worden. In die zin kun je zoiets een zelflerend systeem noemen terwijl het in feite geen AI is. Het zou kunnen dat ze AI gebruiken om algoritmen te tunen, maar als ze zo vaag doen over de toepassing van AI dan ga ik er van uit dat het vooral wollige marketingpraat is.
Hier zit voor de verandering nu wel eens echt AI in. Bij Nvidia zijn de modellen getraind op ground truth en moeten ze dat bijv bij raytracing goed voorspellen cq aanvullen. Dat is meer dan puur een algoritme bouwen.
AMD heeft al Fluid Motion Frames, is dat niet precies hetzelfde als die Frame Interpolation van FSR4.0?

Heb een tijdje FMF gebruikt om 30fps locked games (of cutscenes) een beetje vloeiender te maken, maar inmiddels weer mee opgehouden omdat ik er niet tevreden mee was. Wel geïnteresseerd in verbeteringen (zelfs als het dan maar met AI gaat :p)
Het idee er achter ja het bij verzinnen van frames die niet gerenderd zijn is hetzelfde. Het verschil zit hem in de uitwerking dat het bij FSR4.0 door een AI getraind model zal gebeuren en dat is bij FSR3.0 niet het geval.
Maar dit is inderdaad weer de marketing afdeling die er iets speciaals van probeert te maken.
Maar zou dit ook werken op oudere videokaarten, of zelfs op de nieuwere 6000 en 7000 series, of moet de kaart weer iets ingebouwd hebben om er mee te werken (oftewel, een volgende generatie kaarten)?
Deze nutteloze hype genaamd AI komt mij de neusgaten uit.
Dit wangedrocht word als de heilige graal gezien maar ik wil er niets mee te maken hebben.
Tot op heden heeft het mij op geen enkele wijze bewezen dat het iets nuttigs is waar ik ooit iets mee te maken wil hebben.
Alles wat AI is word door mij ook uit pc/telefoon gesloopt want ik heb geen behoefte aan dit nutteloos gedoe.
Dat er eindeloos veel ........... daar ontzetttend veel waarde aan hechten is mij een raadsel
Overigens diegene die dit een goede zaak vinden mogen hopen dat ze straks nog een baan hebben, want alle bedrijven zullen heel veel mensen eruit trappen daar mag u nu al rekening mee gaan houden. Het begint al zichtbaar te worden in vrijwel elke industrie waar mensen vervangen worden door zogenaamd slimme middelen.
Oftewel totaal geen support meer op wat dan ook nee een stomme zogenaamde slimme bot die niets maar dan ook helemaal niets anders doet dan jou afschepen en er voor zorgt dat jij gefrustreerd op houd om je recht te halen.

[Reactie gewijzigd door rschwartnld op 14 september 2024 14:00]

Nou, ik wens je veel sterkte want alle hardware is AI ready. Dat word dus terug naar bordspellen, pen en papier en een postduif.
Het heeft volgens jou op geen enkele manier bewezen dat het nut herft, maar tegelijkertijd gaat het wel leiden tot het verlies van veel banen? Dan heeft het toch nut?
Ben wel blij met Framegen draait mooi vloeiend
mij gaat om als het er maar scherp uit ziet en vlot draaid
Technieken worden steeds beter

Op dit item kan niet meer gereageerd worden.