AMD presenteert 'next-gen image-upscaling voor games' tijdens GDC

AMD houdt op 23 maart een 'next-gen image-upscaling'-presentatie tijdens de GDC. Daarin bespreekt het bedrijf zijn meest recente onderzoek naar upscaling en hoe dat kan worden toegepast in games. Mogelijk heeft dat betrekking op FSR, hoewel dat niet wordt bevestigd.

AMD houdt de presentatie tijdens de Game Developers Conference, aldus VideoCardz. De presentatie vindt plaats op woensdag 23 maart om 18.30 uur Nederlandse tijd. De presentatie wordt niet openbaar uitgezonden, net als andere GDC-sessies. Tijdens het evenement zal AMD 'enkele resultaten' presenteren van zijn onderzoek naar 'next-gen upscalingtechnieken' en hoe dergelijke technologieën toegepast kunnen worden om games te verbeteren.

Het bedrijf treedt verder niet in detail. AMD heeft al een upscalingtechniek, genaamd FidelityFX Super Resolution. FSR wordt gebruikt om games te renderen op een lagere resolutie, en deze vervolgens op te schalen naar de native resolutie van een scherm. Dat moet betere framerates opleveren. De term 'next-gen image-upscaling' kan suggereren dat het bedrijf komt met een verbeterde versie van FSR, hoewel dat niet wordt bevestigd. Ook de term Radeon Super Resolution, een variant van FSR die werkt met 'vrijwel alle games' en dit kwartaal uitkomt, wordt niet genoemd.

Het bedrijf bevestigde eerder al dat FSR in de toekomst zal veranderen en dat gebruikers op termijn een nieuwe versie kunnen verwachten, schrijft ook VideoCardz. Het is niet bekend wat dat precies inhoudt. Nvidia zet met de concurrerende technologie DLSS bijvoorbeeld de Tensor-cores van GeForce RTX-gpu's in voor een betere beeldkwaliteit, maar huidige AMD-gpu's beschikken niet over losse cores voor deep learning en de volgende AMD Radeon-videokaarten worden pas eind dit jaar verwacht. Intel komt op zijn beurt dit jaar nog met een eigen opensource-upscalingtechniek, XeSS genaamd.

AMD GDC 2022

Door Daan van Monsjou

Nieuwsredacteur

11-03-2022 • 14:59

37

Lees meer

Reacties (37)

Sorteer op:

Weergave:

Ze zullen ook wel moeten. Leuk dat FSR niet afhankelijk is van hardware maar het loopt ook wel achter bij DLSS als ik het hier vergelijk. Minder beeld met mindere prestaties. Wellicht geen eerlijk vergelijk maar een verbeterde versie zou wel fijn zijn :)
Die mening deel ik niet. Hoewel de details bij DLSS ietsje scherper zijn dan bij FSR, vindt ik FSR er veel natuurlijker uit zien. Die extra scherpte bij DLSS trekt alleen maar mijn aandacht naar het gegeven dat er ongeloofelijk veel kartelrandjes te zien zijn bij DLSS. De performance van FSR doet wel onder voor Nvidia's DLSS maar daar betaal je dan ook heel dik voor. Dan kun je beter een betere tier kaart nemen zonder Tensor-cores voor hetzelfde geld.

Maar betere upscaling is nu zeker wenselijk, met die idiote GPU prijzen. Helemaal wanneer je moet gaan wikken en wegen of je dit jaar je huis verwarmt wilt hebben, of een nieuw spel wil kunnen blijven spelen.

[Reactie gewijzigd door Seth_Chaos op 22 juli 2024 20:45]

Maar betere upscaling is nu zeker wenselijk, met die idiote GPU prijzen. Helemaal wanneer je moet gaan wikken en wegen of je dit jaar je huis verwarmt wilt hebben, of een nieuw spel wil kunnen blijven spelen.
Met de hoeveelheid vermogen dat de GPU's uit de muur trekken kom je een aardig eind in het verwarmen van de kamer waar de PC instaat en met de Nvidia leak ziet er niet naar uit dat ze zuiniger veel worden. :/
Dat valt helaas nog tegen. Of je moet een heel klein kamertje hebben. Ik hoop dan ook dat AMD vooral inzet op het verkleine en zuiniger maken van GPU's. Ik loop nog 2 generaties achter omdat ik weiger meer dan 600 euro neer te tellen voor een GPU. En met mij miljoenen anderen. De kosten staan gewoon totaal niet meer in verhouding tot wat het je opleverd aan vermaak. Het geld wat ik normaal uitgeef aan een GPU daar koop ik dit jaar een Steam Deck voor. En als de trend blijft doorzetten, dan gaat mijn game pc gewoon in zijn geheel van de hand, en neem ik er wel nog een game console bij.
300~350 Watt (peak load) voor een 3080 vind ik behoorlijk veel, helemaal als je daar de rest van de apparatuur en component en het verbruik nog bij moet optellen. CPU, Memory, RGB troep, Peripherals, (Gaming) Monitor of TV... Dat allemaal verwarmt de boel aardig op, zeg niet dat het efficient de boel op warmte, maar je komt er een aardig eind er mee.
Je hebt het tienvoudige nodig om een beetje woonkamer te kunnen verwarmen.
Ik verwarm mijn hele huis met een 6kW warmtepomp (160 m^2), aardig geisoleerd maar niet top. 3500 kW voor een woonkamer klinkt dan aan de hoge kant, zeker in moderne huizen kom je met een flinke gamepc echt wel een heel eind om je huiskamer te verwarmen.
Ik verwarm mijn hele huis met een 6kW warmtepomp (160 m^2), aardig geisoleerd maar niet top. 3500 kW voor een woonkamer klinkt dan aan de hoge kant, zeker in moderne huizen kom je met een flinke gamepc echt wel een heel eind om je huiskamer te verwarmen.
Het probleem is dat huizen niet goed geïsoleerd zijn; en te dunnen muren.
Een goed geïsoleerd huis heeft in NL geen eens CV nodig.
Nederland is een achterlijk land qua isolatie. Ik vroeg een bedrijf die dubbel glas inbouwt bij particulieren om 3-dubbel glas te monteren i.p.v. dubbel glas. Konden ze niet eens leveren, terwijl dit boven in Scandinavië gewoon standaard is.
Volledig off-topic natuurlijk met betrekking tot het artikel, maar 3-dubbel glas heeft in de meeste gevallen nauwelijks voordelen ten opzichte van het in Nederland veel gebruikte en in nieuwbouw standaard gebruikte HR++ glas (dubbel glas met een coating en gevuld met een inert gas). Een derde glaslaag heeft vooral nut als extra geluidsisolatie. Natuurlijk is de warmte-isolatie van 3-dubbel glas ook beter, maar daar staat dan weer tegenover dat het ook minder zonnewarmte binnen laat en er netto dus nauwelijks een positief effect is. Vandaar dat het in Nederland nauwelijks wordt gebruikt en vaak niet eens leverbaar is.

[Reactie gewijzigd door rbr320 op 22 juli 2024 20:45]

Maar dan vergelijk je directe warmte uit de videokaart met een warmtepomp die feitelijk niet verwarmt, maar alleen warmte van buiten verplaatst naar binnen en hierbij een factor 3 tot 5 aan energetische ROI haalt.

Als je dezelfde verwarming wilt halen als jouw warmtepomp, maar dan met directe verwarming moet je dus eigenlijk rekenen met een 25kW verwarmingselement.
Nee de warmtepomp levert 6 kW warmte met 1 tot 1.5 kW elektrisch verbruik
Ah, haha, ik las de 6kW als het elektrisch verbruik.
Is dat 6 kW aan wat hij gebruikt of wat er uitkomt? Bij warmtepompen heb je nog al eens een COP van rond de 3 a 4 dus ram je er 18 a 24 kW aan warmte mee naar binnen terwijl jij maar 6 kW ziet op je energiemetertje.
zoals ik al eerder heb gezegd, hij levert 6kW warmte.
En hoewel AMD hun nieuwe GPUs zuiniger zullen zijn dan die van Nvidia, ook daar word ik er niet blij van als ik de voorspelde verbruik daarvan zie.

Ik zal dus met de volgende Gen eerder naar kaarten zoals de "RX 7700 XT/7800" of "RTX 4070" qua hun verbruik kijken, en dan maar hopen dat dit wat lager (wishfull thinking) ligt.
Geloof niet dat Nvidia of AMD veel focus heeft om zuinig en laag verbruik in het gaming segment.
Bij elke verkleining van de GPU chips, worden ze zuiniger maar ook de mogelijkheid om meer bij elkaar te proppen wat dat zuiniger weer op heft.

Wie weet met de stijgende kosten in de energie markt, leggen ze hier nu ook is de focus op. #WishfullThinkink
Ik vind dat de 6800 de sweet spot heeft in de highend met een verbruik van rond de 240 Watt. Dat is nog prima te koelen en je voelt het niet meteen in de kamer waar je zit.
Mijn huidige 6900 XT is snel, maar gebruikt ook veel. Als ik ga gamen voel ik de warme lucht langs mijn benen omhoog komen. Erg fijn in de winter maar het is zo meteen zomer. Denk dat dit voor mij ook de laatste videokaart zal zijn die zoveel gebruikt. De kaart die ik hiervoor had, een 5700 XT(X) was snel en het gebruik was op hetzelfde niveau als de 6800.
Je kan het max verbruik in de control panel instellen toch?
Enigzins ja. Had ik dit keer nog niet naar gekeken.
DLSS geeft een beter beeld en soms ook een beter beeld dan natieve 4k opmet bepaalde objecten staat in de tekst.

https://www.techpowerup.c...r-dlss-vs-fsr-comparison/

https://www.techpowerup.c...7-dlss-vs-fsr-comparison/

[Reactie gewijzigd door Tincahunter op 22 juli 2024 20:45]

DLSS lijkt meer alisasing te hebben.

Verder vraag ik mij af, als je gewoon aan het gamen bent, of je het echt ziet. Want veel van dit soort dingen zie je alleen als je er heel erg op let.
Tijdens het gamen zie ik eigenlijk 0 verschil, of ik nu met native 4k speel of DLSS op ultra performance speel. Ik verwacht alleen verschil te zien op screenshots. Misschien komt het ook wel omdat ik op een 55 inch tv speel waar ik 2 meter van af zit en daarom geen verschil zie?
Daar hebben in principe alle fabrikanten last van, want immers alle fabrikanten (Intel, AMD en Nvidia) gebruiken upscaling. Er is volgens mij weinig mis met upscaling.
Weet iemand hier hoe DLSS en FSR zich tot elkaar verhouden als het gaat om vergezichten? Bij DLSS (bijv in Cyberpunk) merk je dat objecten in de verte minder goed herkend (en dus minder goed opgeschaald) worden, met een klein wazigheidseffect tot gevolg. Ik heb hier nog weinig online over gevonden, maar misschien zoek ik op de verkeerde plekken.
Ik vraag me af of dat mogelijk het gevolg is van de training van het DLSS 2.0 model. Complexe vergezichten zijn misschien wat lastiger te voorspellen vanuit een nu uniform model (in tegenstelling tot DLSS1.0, dat moest per game getraind worden). FSR werkt anders, dat past een algoritme toe op de frame en is daarin wat uniformer gok ik.
"Next gen" en "upscale" zou je niet enthousiast in één adem moeten noemen. Upscaling is een pleister, je geeft op deze manier toe dat je niet (voor een competitive prijs) in staat bent de hardware die we willen te maken.
Je zou juist kunnen stellen dat pixel-voor-pixel renderen niet meer hoort bij deze (of de komende) tijd. Het klinkt immers best primitief en onnodig tijdrovend. Vanuit die logica is upscaling opeens iets totaal anders dan een pleister.
Of er is een punt waarin het niet te zien is dat iets is geupscsled en kan je dus door resources te besparen op resolutie betere effecten toepassen die wel het menselijk oog opvallen.
Zolang je (praktisch) hetzelfde beeld bereikt met minder resources zou je er juist wél enthousiast van moeten worden. Het 'overschot' aan resources kunnen namelijk dan aan (naar mijn mening) belangrijkere dingen dan een hogere (native)resolutie besteed worden, namelijk bijvoorbeeld belichting. En als je dat niet vindt schakel je DLSS, FSR of NIS toch niet in? Maar zelfs op mijn 3090 gebruik ik de verschillende technologieën waar mogelijk.
Upscaling, image processing en via 'machine learning' zijn allemaal methoden om de huidige (relatief) lage pixel densiteit en lack aan gpu processing te verbloemen.

Zodra we op resoluties komen waar je (ook zonder traditionele) anti aliasing geen pixels meer kan onderscheiden op een gemiddelde kijkafstand kunnen we al deze technieken weer de deur uit gooien.

Maar dan hebben we het op een gemiddelde monitor minimaal over 8K/16K of hoger. Dat is nog wel een paar decennia verwijderd van ons denk ik ;-)

Dan zijn er altijd nog mensen die dan gaan schreeuwen, waarom in godsnaam zo'n hoge resolutie? Nou, uiteindelijk blijft de technologie niet stilstaan en als het kan, waarom niet? VR zal ook vele male hogere resoluties en GPU processing kracht benodigd hebben willen we dat ooit niet meer van 'echt' kunnen onderscheiden.

Ook zijn er mensen die claimen dat bijvoorbeeld op een telefoon (die gemiddeld een veel hogere PPI hebben dan monitoren en TV's) dat je daar al geen pixels meer kan onderscheiden, misschien klopt dat deels, maar dan heb je het niet over bewegende polygonen van een 3D model zonder AA maar over een UI, plaatjes, videos en tekst (Dat ook gewoon anti aliasing technieken toepast).

(De era voor dat we gewoon direct een kabel in ons hoofd pluggen, mochten we ooit dat punt bereiken)

[Reactie gewijzigd door Marctraider op 22 juli 2024 20:45]

Upscaling is een volstrekt logische techniek en gaat alleen maar gangbaarder worden.

Het doel van de GPU is om een scene te renderen die in je hoofd als levensecht wordt ervaren. Niet meer, niet minder. Maar daar zijn compromissen aan verbonden. Het grootste compromis met beeldschermen is de pseudo-diepte; vandaar dat VR zoveel levensechter is.

Het andere belangrijke compromis is dat je niet direct op de oogzenuwen projecteert. Er zit een visuele overdacht in, en die is niet 1 pixel=1 zenuw. Het werkt beter om dit in het spatiële frequentie-domein te beschrijven. Daarin zie je een low-pass filter; er vallen details weg.

Als je erkent dat er een fysiek low-pass filter bestaat, dan is de vraag dus hoe je alsnog zoveel informatie van je GPU naar je hersens krijgt. En dan is het zinloos om te proberen om elke pixel tot de theoretische limiet uit te rekenen, als het optisch toch niet doorkomt. Natuurkunde is hardstikke analoog.
Zouden ze opeens een "moment of clarity" hebben gekregen na het nvidia lek?
Ik vermoed dit al langer geplanned stond. Het zou me overigens niks verbazen dat ze wel even kijken bij de buren hoe die het doen.
Dat zou mij extreem verbazen.
Reken maar dat iemand die wel een blik heeft geworpen op staande voet word ontslagen.

Geen enkel bedrijf wil het risico lopen dat je daarover een rechtzaak aan je broek krijgt.
(behalve natuurlijk als het bedrijf zijn HQ en afzetmarkt in China heeft)
.oisyn Moderator Devschuur® @Ethnic11 maart 2022 18:00
Nou nee hoor, je gaat niet in een paar weken tijd van het leren van informatie naar een volledige in-depth GDC talk ;)
Waarom doen ze alles na is mijn vraag dan :-) geen discussie btw ;-)

[Reactie gewijzigd door pascalnederland op 22 juli 2024 20:45]

Vraag me altijd af waarom VRS niet als alternatief kan gebruikt worden, of een andere methode die (nog) meer geïntegreerd is. VRS kan de 4x4 filter toepassen bij snelle actie om 60 FPS te behouden (je ziet dan toch geen detail), en volle kwaliteit wanneer je stilstaat. Of bepaalde regio's van het scherm meer of minder shaden op basis van waar de gebruiker zich toch zal op focussen (en met motion blur en andere postprocessing dan is 1x1 toch nutteloos denk ik).

Dat gezegd zijnde. Ik wacht op een implementatie van Microsoft voor Xbox, al dan niet op basis van amd haar werk.

[Reactie gewijzigd door ilm op 22 juli 2024 20:45]

Op dit item kan niet meer gereageerd worden.