AMD's DLSS-tegenhanger FidelityFX Super Resolution is beschikbaar vanaf 22 juni

AMD maakt FidelityFX Super Resolution op 22 juni beschikbaar via een driver-update. De feature is bedoeld om framerates in games te verhogen, door ze op een lagere resolutie te renderen en te upscalen. Het gaat om een tegenhanger voor Nvidia's DLSS.

FidelityFX Super Resolution, afgekort als FSR, krijgt vier instellingen: Ultra Quality, Quality, Balanced en Performance. Gebruikers kunnen daarmee kiezen voor meer focus op beeldkwaliteit of een hogere framerate. Details over de techniek en welke interne renderresoluties er gebruikt worden voor de verschillende instellingen, heeft AMD nog niet gegeven.

AMD demonstreerde FSR in combinatie met een RX 6800 XT-videokaart en de game Godfall in een 4k-resolutie met de Epic-preset voor grafische instellingen en raytracing ingeschakeld. Zonder gebruik van FSR zijn die settings goed voor een framerate van gemiddeld 49fps. Met FSR op de hoogste kwaliteit is dat 78fps en in de snelste Performance-modus loopt dat op tot 150fps.

Net als bij Nvidia's DLSS-techniek moeten games aangepast worden om gebruik te kunnen maken van AMD's FSR. Andere games dan Godfall heeft AMD nog niet getoond, maar in een presentatie claimt het bedrijf dat de Performance-modus in 'geselecteerde games' gemiddeld twee keer sneller is dan native 4k.

AMD FidelityFX Super ResolutionAMD FidelityFX Super ResolutionAMD FidelityFX Super Resolution
Godfall (4k-resolutie, Epic-preset, raytracing aan)
FidelityFX Super Resolution-setting Framerate
Uit 49fps
Ultra Quality 78fps
Quality 99fps
Balanced 124fps
Performance 150fps

FidelityFX Super Resolution-benchmarkresultaten van AMD

Werkt ook met Nvidia-gpu's

De techniek werkt in combinatie met videokaarten uit de Radeon RX 6000-, RX 5000- en RX 500-serie, alle Vega-videokaarten en alle Ryzen-apu's. De techniek werkt ook met andere videokaarten, waaronder Nvidia-videokaarten, maar AMD geeft daar geen officiële ondersteuning op.

AMD demonstreert de werking van FSR wel met een Nvidia GeForce GTX 1060-videokaart. In Godfall in een 1440p-resolutie met de Epic-preset haalt die game zonder de techniek gemiddeld 27fps en met Super Resolution op de Quality-instelling is dat volgens AMD 38fps, ofwel een prestatiewinst van 41 procent.

Nvidia's DLSS, wat staat voor deep learning super sampling, werkt alleen op GeForce RTX-videokaarten, omdat de Tensor-cores daarvoor worden gebruikt. AMD gebruikt geen speciale hardware voor zijn alternatief. Hoe de techniek van AMD precies werkt, heeft de fabrikant nog niet duidelijk gemaakt. Daardoor is het ook nog niet duidelijk in hoeverre de techniek vergelijkbaar is met DLSS. Wel spreekt de fabrikant over spatial upscaling-technologie.

Wenslijst voor FSR-ondersteuning

AMD komt met een wenslijst waar gebruikers aan kunnen geven bij welke games ze FSR-ondersteuning willen zien. AMD zal vervolgens ontwikkelaars van veel gekozen games benaderen met het verzoek om ondersteuning voor de techniek toe te voegen.

Volgens AMD zijn er dit jaar 'meer dan tien gamestudios en engines' die FSR gaan ondersteunen, maar concrete details daarover geeft de videokaartenmaker nog niet. Op 22 juni, als de techniek beschikbaar is, zal AMD daar meer duidelijk over maken.

AMD houdt een pagina bij waarop staat welke games FidelityFX ondersteunen. FidelityFX is echter de overkoepelende naam voor verschillende AMD-technieken en games hoeven die niet allemaal te ondersteunen. Per game zal aangegeven worden of er FSR-ondersteuning is.

Potentie voor consoles

AMD's FidelityFX-toolkit is eerder dit jaar al deels beschikbaar gemaakt voor de Xbox Series X en S. Het is de verwachting dat ook FSR beschikbaar komt via deze weg en dan toegepast kan worden voor consolegames. Ook Sony's PlayStation 5 heeft een RDNA 2-gpu van AMD, die de techniek kan ondersteunen.

Er is nog geen concrete informatie over het gebruik van FSR bij consolegames, maar de techniek heeft potentie om ingezet te worden in deze categorie. Consoles gebruiken al dynamische resoluties of upscaletechnieken zoals checkerboarding om de framerate te kunnen prioriteren. Bij consolegames zou FSR bijvoorbeeld toegepast kunnen worden om games van meer raytracingeffecten te voorzien.

Door Julian Huijbregts

Nieuwsredacteur

01-06-2021 • 05:00

85

Lees meer

Reacties (85)

Sorteer op:

Weergave:

Bewegende beelden die misschien wat beter de verschillen in kwaliteit tussen de verschillende modi laten zien: https://youtu.be/eHPmkJzwOFc

Lijkt wat minder blurry dan de screenshots uit de tweede game. Maar het blijft afwachten tot onafhankelijke reviewsites het in handen hebben. Wat met 22 juni al snel kan zijn!
Checkerboarding op de ps4 pro en ps5 ziet er al fantastisch uit. Deze techniek kan alleen maar beter zijn ( en zo niet , lekker blijven checkerboarden)
Checkerboarding is niet zo complex om te upscalen, de algoritmes zijn daar wat eenvoudiger en kan je makkelijker extrapoleren. Om detail aan te brengen waar nog geen detail is, is veel lastiger en complexer. Je zal toch extra contextuele informatie nodig hebben om een bepaalde textuur en detail aan te brengen. Misschien wordt dit gedaan op basis van materiaal en shading eigenschappen, zoals refraction index en glossiness. Dit kan alleen voordat er rasterisation heeft plaatsgevonden, want dan daarna zijn het alleen maar pixels en wordt het post-processing.

[Reactie gewijzigd door Brawler1986 op 22 juli 2024 15:24]

Ik zie wel behoorlijk wat verschil tussen ultra quality en native. Dat heb je met DLSS op Quality mode minder.

Maar goed. Wel mooi dat AMD nu een soort DLSS krijgt en oudere kaarten, inclusief Nvidia kaarten ondersteund worden. Want voor een betaalbare upgrade mogen we nog wel even wachten.
Ik zie het verschil niet meer bij de AMD oplossing dan bij de Nvidia oplossing. Ik heb met mijn 3070 veel spellen met DLSS op quality mode gespeeld en het is bij elk spel duidelijk te zien dat het aan staat, als ik zo naar de beperkte hoeveelheid beelden kijk van AMD doet AMD niet onder voor Nvidia in kwaliteit. Maar goed, we gaan het zien als het er daadwerkelijk is en breed beschikbaar in gangbare spellen die ook DLSS ondersteunen.
Persoonlijk vind ik het native beeld van AMD beter t.o.v Nvidia. Ik heb verschillende kaarten gehad en vergeleken, default settings en zelfde ingame settings ( RX 5700 XT en RTX 2070 Super) en qua kleurechtheid komt AMD er beter uit. Ik heb altijd het idee dat Nvidia er een sausje / beetje blurry overheen gooit en dat AMD meer gefocust is op precisie en kleurechtheid. Nvidia neemt soms wat short-cuts op dat gebied om meer frames te behalen.

[Reactie gewijzigd door Brawler1986 op 22 juli 2024 15:24]

Dat blijf ik zo mooi vinden van AMD in vergelijking met Nvidia. Waarbij AMD toch vaak niet discrimineert welke hardware je gebruikt om van hun features te gebruiken in vergelijking tot nvidia die alles exclusief voor zichzelf wil houden. Denk bijv. aan freesync. Daarnaast heb ik het gevoel dat AMD zijn beloftes met gpu en de leverbaarheid veel beter nakomt dan Nvidia als je hebt over de beschikbaarheid van gpu's voor gamers (ergens ook afhankelijk dat Nvidia gpu's hoger hashrate halen met mining).

DLSS wordt door de fanboys enorm geprezen. Ik ben altijd heel huiverig voor upscaling techniek. Ik heb nu ook super resolution aanstaan om mn tweede monitor van 1080p naar 1440p te verhogen (max. ondersteunt is 1080p) en dit ziet er gewoon niet zo strak uit als mijn hoofdmonitor die native 1440p is.
Dus erg benieuwd! Zal zeker nog een goede 6maanden duren dat beetje mainstream game de optimalisatie hiervan gaat ontvangen.
Elke Tweaker die voor open standaarden is zou Nvidia niet eens moeten overwegen, maarja, we kennen de hypocrisie hier intussen prima. :)
Relevant: plan: Bekijk hier de resultaten van het Tweakers Hardware Onderzoek

Als je nu een nieuwe desktop PC zou kopen / samenstellen, voor welke configuratie zou je dan kiezen?
  • AMD CPU / Nvidia Graphics 55.3%
  • AMD CPU / AMD Graphics 20.6%
  • Intel CPU / Nvidia Graphics 18.4%
  • AMD CPU / Integrated Graphics 2.5%
  • Intel CPU / Integrated Graphics 1.8%
  • Intel CPU / AMD Graphics 1.2%
ja en wat wil je hier precies mee bereiken?

Want wat hij zegt klopt. ben je voor open standaarden kies je niet voor Nvidia maar voor AMD.
Dat wil alleen niet zeggen dat de meeste tweakers voor open standaarden zijn.
ja en wat wil je hier precies mee bereiken?
Bereiken wil ik er niks mee. Ik laat alleen zien hoe de gemiddelde Tweaker blijkbaar denkt over zijn stelling. Ik zeg dan ook niet dat het niet klopt wat hij zegt, en vorm ook geen mening. Ik presenteer alleen de relevante cijfers. Ik snap jouw negatieve invalshoek dan ook niet.
ja en wat wil je hier precies mee bereiken?

Want wat hij zegt klopt. ben je voor open standaarden kies je niet voor Nvidia maar voor AMD.
Dat wil alleen niet zeggen dat de meeste tweakers voor open standaarden zijn.
Alleen maar omdat zij niet de grootse zijn, ik weet zeker als AMD de grootse was met grafische kaarten en niet Nvidia dat was, dat AMD precies het zelfde zou doen, ben geen Nvidia fan, maar ook geen AMD fan, ben een fan van wat ik de beste hardware vind op het moment van kopen, daarom heb ik nu een AMD Ryzen 5 5600X, omdat die verleden jaar de beste optie was, ik wou ook de Radeon RX 6800 XT kopen, maar die zijn er niet, net als de GeForce RTX 3000 series, doe nu al bijna 5 jaar met mijn GeForce GTX 1080, op 24-7-2021 is hij precies 5 jaar oud.
De hoeveelheid “tweakers” hier is ook niet meer van het niveau 2000 😉.
Want innoveren is gratis en leidende bedrijven willen dit weggeven. Nvidia heeft AMD anders mooi gepushed om door middel van Gsync ook Freesync te introduceren. Nu door middel van DLSS is AMD FSR gaan bouwen. Hadden zij dit ook gedaan zonder Nvidia?

Als AMD de leidende partij zou zijn, veranderen zij gewoon in de volgende Nvidia.
Als je niet de marktleider bent wil je zoveel mogelijk gebruikers.

Als je wel de marktleider bent dan timmer je alles dicht.

Xbox / PlayStation met crossplay
Android / iOS met NFC, sideloading etc
Tesla / rest met laadpalen

Etc etc

Komt vaker voor dan je misschien denkt. Jij denkt "aardige gasten" maar het is gewoon zaken doen.
Je hebt zeker een punt, maar AMD heeft dit niet altijd zo gebruikt. Om een voorbeeld te geven (maar dat maakt nog geen patroon). De AMD Radeon 7970 was de snelste kaart in 2012 en de 7950 was beter dan de 580 van Nvidia. Pas met de 780Ti in eind 2013 nam Nvidia het stokje weer over. Mantle is echter halvewege 2013 uitgekomen, toen AMD dus nog de beste kaarten had. Mantle is echt de blauwdruk geweest voor de volgende generatie aan programmeertechniek voor videokaarten en staat aan de wieg van zowel DirectX12 als Vulkan.
Ik denk niet doordat AMD 1 jaar de snelste kaart in een specifiek segment had, er iets veranderd is aan de dominantie van Nvidia.

Niet dat het echt vergelijkbaar is maar ondanks geweldige cpu verkopen van AMD, is een aandeel van Nvidia 8 keer zoveel waard als die van AMD.
Ja die kaarten waren destijds sneller dan NVIDIA alternatieven maar NVIDIA was nog steeds marktleider.
Mantle is de blauwdruk geweest voor Vulkan etc ja (DX12 is twijfelachtig), maar destijds was Mantle ook alleen geschikt voor AMD kaarten. Oftewel een gesloten standaard, dit is toch wel een enorm belangrijk detail in deze discussie.

AMD had heel kort de snelste kaart maar ze waren geen marktleider.

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 15:24]

DirectX12 is volgens wikipedia zeker beinvloed door Mantle. En Mantle was expliciet GPU agnostisch. Het was gewoon Nvidia die het niet wou implementeren voor hun GPUs, omdat ze meer in DirectX zagen.
De wikipedia zegt daar helemaal niets over? Het zeg "The release of Direct3D 12 comes alongside other initiatives for low-overhead graphics APIs including AMD's Mantle for AMD graphics card". Je had rond die tijd ook Apple Metal, het was dus een algehele trend binnen de industrie. Wat wel het geval is, is dat Microsoft naar command list & bundle commands heeft gekeken bij Mantle. Maar Mantle is niet de oorsprong van DX12 geweest.

Mantle was alleen voor AMD en alleen een selectief aantal AMD GPU's (GCN based GPU's). Nvidia heeft nooit de kans gehad uberhaupt om ermee te werken en AMD heeft er zelf ook niet op ingezet long term. Er waren ook maar 7 titels welke er gebruik van maakten waarvan BF4 de meest high profile game is.

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 15:24]

De wikipedia zegt daar helemaal niets over? Het zeg "The release of Direct3D 12 comes alongside other initiatives for low-overhead graphics APIs including AMD's Mantle for AMD graphics card". Je had rond die tijd ook Apple Metal, het was dus een algehele trend binnen de industrie.
Ok, wikipedia is niet duidelijk genoeg. Hier dan nog wat andere bronnen die het explicieter zeggen, of die er nogal naar hinten
Mantle was alleen voor AMD en alleen een selectief aantal AMD GPU's (GCN based GPU's). Nvidia heeft nooit de kans gehad uberhaupt om ermee te werken en AMD heeft er zelf ook niet op ingezet long term. Er waren ook maar 7 titels welke er gebruik van maakten waarvan BF4 de meest high profile game is.
Als je de bronnen leest die ik heb gelinkt over mantle en nvidia, dan kun je lezen dat hoewel het inderdaad ten tijde van de (op dat moment) nieuwe GCN kwam, maar dat het daar niet expliciet voor geschreven was.
Als je de bronnen leest die ik heb gelinkt over mantle en nvidia, dan kun je lezen dat hoewel het inderdaad ten tijde van de (op dat moment) nieuwe GCN kwam, maar dat het daar niet expliciet voor geschreven was.
AMD heeft alleen GCN ondersteund en Mantle is nooit langer geimplementeerd geweest om op[ andere hardware te draaien maar deed het ook niet op oudere AMD hardware. Wat jij zegt is dus een aanname. De bronnen die je linkt zijn opinie stukken met nog meer aannamens betreft hoe belangrijk Mantle was voor de ontwikkeling voor DX12. DX11 liep vooral gewoon heel hard tegen draw call limieten aan in games zoals Assassins Creed Unity welke problematisch werden en dit heeft de push voor closer to metal API's gepushed.

AMD's woordvoerder zei zelf dat het AMD exclusive was https://twitter.com/Thracks/status/383872285351739393

Oh dat plaatje met text uit beide documentation resources. Die komen uit een oudere OpenGL variant.......

Er zijn genoeg opinies geweest die het hele plaatje omdraaien:
https://www.reddit.com/r/...mantlevulkan_clearing_up/
https://forums.anandtech....e-on-vulkan-dx12.2486843/

Inzichten in de politics
https://www.overclockers....2-vulkan-mantle.18659617/

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 15:24]

Als je niet de marktleider bent wil je zoveel mogelijk gebruikers.

Als je wel de marktleider bent dan timmer je alles dicht.
Het kan ook een voordeel zijn om als marktleider dingen 'gratis' weg te geven:
Als deze hierdoor de 'De Facto' standaard worden (en jij de beste implementatie hebt)
kan dit je marktpositie verstevigen.

Werkt natuurlijk niet met alles, maar in een geval zoals DLSS/FSR zou dit bijvoorbeeld wel lukken door jouw GPU te optimaliseren voor de GFX pipeline, terwijl de andere een nieuwe architectuur moet maken.
De andere partij kan dit op termijn wel inhalen, maar ondertussen verstevig jij je positie.
Precies, we hebben ook gezien hoe de eerste generaties AMD Ryzen CPU's waren, kwa prijs/performance toen ze marktaandeel moesten terug winnen in contrast met de huidige generatie waarbij AMD hun processors een stuk hoger geprijst heeft sinds ze aanzienlijk marktaandeel terug hebben gewonnen.
Ik vraag me wel af of dit echt het geval was bij nvidea. Voor de techniek die hun gebruiken heb je gewoon andere cores nodig dan op een normale nvidea kaart. De twee technieken die door de twee bedrijven gebruikt worden zijn echt totaal verschillend. AMD heeft het voordeel dat de hardware voor fidelity FX niet aangepast hoeft geworden. Nvidea heeft mogelijk het voordeel dat de techniek gewoon beter werkt.
Dat zijn natuurlijk gewoon keuzes die je maakt. Nvidia had best kunnen zorgen dat ze dat op standaard hardware konden draaien, maar daar hebben ze niet voor gekozen. Dat is al veel vaker gebeurd, want heel het Nvidia CUDA verhaal, en de voorloper met hun PhysX op de GPU draait exclusief op Nvidia GPU's, maar hardwarematig werkt dat ook prima op andere GPU's. Er zijn gehackte drivers waarmee PhysX op AMD kaarten draaide, en dat werkte net zo goed.

Het is dus maar net hoe je daarin gaat staan. Nvidia heeft altijd al gekozen voor proprietaire technieken, tot op het feit dat je als moederbordfabrikant ooit met alle geweld een aparte Nvidia-chip moest gebruiken om SLI aan de praat te krijgen, ook al deed die chip uiteindelijk effectief niets wat je standaard chipset niet ook al deed.
op het feit dat je als moederbordfabrikant ooit met alle geweld een aparte Nvidia-chip moest gebruiken om SLI aan de praat te krijgen, ook al deed die chip uiteindelijk effectief niets wat je standaard chipset niet ook al deed.
Moederbord had een licentie ervoor nodig niet een chip. Wel een SLI bridge natuurlijk.
Dat hebben ze later inderdaad ingevoerd, vanwege het feit dat geen hond die chip op zijn bord wilde bouwen. Teveel gedoe, teveel kosten en het voegt dus effectief niets toe, behalve dan dat je weer een maffe chip in je ontwerp moet stoppen, waar de tendens net was ingezet dat je steeds minder chips op het moederbord ging zetten.
Nee, Nvidia had niet gewoon kunnen zorgen dat het op standaard hardware kon draaien, aangezien het gebruik maakt van de speciale opties die in standaard hardware gewoonweg niet beschikbaar is. Ja, een mindere softwarematige oplossing had misschien wel gekund, maar heeft dat zoveel toegevoegde waarde als daardoor dus weer andere performance beperkt wordt.

Het gaat echt wel wat verder dan simpel alleen eventjes aanpassen, want met die logica zou je zeggen dat het ook geen probleem moet zijn om bv raytracing op een 970 te doen met dezelfde performance als op een RTX2070.....
Je stuurt een ge-upscaled 1080p->1440p beeld naar een monitor die max 1080p ondersteunt? Begrijp ik het goed? Dat kan toch ook nooit werken?
Ja wel. Eerst upscalen en daarna downscalen geeft als nog een beter beeld als de native resolutie.
Op een hogere resolutie renderen dan native kan voordelen hebben met aliasing als je dan downscaled, of eerst upscalen en dan downscalen echt helpt? Nou ja, ik zou het moeten zien. Maar lijkt me toch duidelijk dat je niet verbaasd kan zijn dat een 1080p monitor niet zo scherp is als een 1440p monitor. Dat heeft meer te maken met dat je gewoon minder pixels hebt als met upscalen technieken.
Uiteraard. Maar Dlss is natuurlijk niet gewoon upscalen.
Een 1080p monitor/televisie kan wel zeker (perceptueel) scherper zijn dan een 1440p of 2160p zelfs, dit komt onder andere door de technologie die gebruikt word. OLED namelijk een hogere contrast modulatie dan reguliere LCD technieken.
Even los ervan dat ik betwijfel of dat een 1080p Oled er scherper uit gaat zien als een 4k LCD, ik zie niet echt in wat contrast daar mee te maken heeft, maar laten we wel wezen. Tweaker komt aan met dat zijn 1440p geupscalede 1080p monitor minder scherp eruit ziet dan een 1440p native monitor. Dan kan je wel heel moeilijk met allerlei theorieën over OLED vs LCD en perceptuele scherpte komen. Maar misschien is gewoon het antwoord dat de 1440p monitor er scherper uit ziet dan de 1080p monitor omdat de 1440p monitor een stuk meer pixels heeft.
Maar misschien is gewoon het antwoord dat de 1440p monitor er scherper uit ziet dan de 1080p monitor omdat de 1440p monitor een stuk meer pixels heeft.
Daar denkt het ICDM al geruim 5 jaar toch echt anders over.
In mijn ervaring werkt het verschillend per res. Zo is 1440p op 1080. Niet zo mooi maar 4k op 1080 weer wel omdat dat een directe 2 op 1 is. Alle tussenliggende resoluties worden gewoon wat wazig. Zelfs 1800p waarvan je toch zou verwachten dat het beter dan 1080p native is is gewoon slechter. Maar 4k op 1080 is veel beter. Je ziet meer details en de randen worden minder kartelig dus een vorm van AA.

In sommige games echter hangt de texture resolutie af van de gebruikte resolutie en dan kan het wel weer voordelen hebben maar dan moet de game wel ingebouwde sharpness sliders hebben of moet je reshade gebruiken.

[Reactie gewijzigd door computerjunky op 22 juli 2024 15:24]

Mijn ervaring is dat 1440p op 1080p gedownsampled toch echt wel voor minder aliasing zorgt. Voor spellen die standaard geen vorm van AA ondersteunen is dit te prefereren boven native. Zeker wanneer blurry AA als FXAA je enige optie is dan is downsampling wel een fijnere optie.
Klopt maar in mijn ervaring gaat dat ten koste van scherpte. En of je dat wil...
Nou ja, een beeldfilter kan natuurlijk aangenamer zijn dan het origineel. Maar dat het slechter is dan native 1440p is niet zo verrassend.
Eerst zien of FSR dezelfde kwaliteit biedt, dan pas conclusies trekken ;)

Als het vergelijkbaar is, zou het inderdaad frapant zijn dat nividia daar tensor cores voor 'nodig' heeft.
Back to the g-sync vs free-sync situatie ;)
En dit is dus hoe gekleurd iemands mening kan zijn.

Freesync kwam pas naar aanleiding nadat Nvidia dedicated technologie ervoor had ontwikkeld om dit te bereiken en AMD daarna de open Vsync standaard ging implementeren. Nu was de launch van DLSS nodig zodat AMD in beweging kwam voor hun variant.
Daarnaast heb ik het gevoel dat AMD zijn beloftes met gpu en de leverbaarheid veel beter nakomt dan Nvidia als je hebt over de beschikbaarheid van gpu's voor gamers (ergens ook afhankelijk dat Nvidia gpu's hoger hashrate halen met mining).
AMD GPU's zijn juist nog veel slechter leverbaar. Ik heb er letterlijk geen 1 in het wild gezien. Heb wel in het wild in mijn omgeving een groot aantal 30XX kaarten gezien.
DLSS wordt door de fanboys enorm geprezen.
Waarom zijn het meteen fanboys? Het is gewoon een erg mooie techniek waarmee je net wat meer uit een gam ekan halen met minimaal kwaliteits verlies. Het is niet bedoeld voor op lagere resoluties te gaan upscalen (kan wel), het is bedoeld voor als je op 4K speelt en wat extra performance wilt.
AMD CAS (Contrast Adaptive Sharpening) was de voorloper van SuperResolution en zat al in het GpuOpen programma. En was al beter dan DLSS1.0. Later dat DLSS 2.0 uitkwam introduceerde AMD SuperResolution.
Sharpening algoritmes zijn/waren beschikbaar in de Nvidia driver package ook, dat is een heel ander dingetje en niet vergelijkbaar met DLSS en FSR. Dat is gewoon sharpening...... Een hele goede sharpening maar nogsteeds puur sharpening.

Wat overigens niet "beter" was dan DLSS, alleen oogt het scherper inclusief alle artifacts dat het veroorzaakt zoals blooming.

Oftewel appels met peren vergelijken. Je kan namelijk sharpening ook toepassen op DLSS output en vermoedelijk ook op FSR output.
Of het beschikbaar was of niet. CAS geeft betere resulaten dan DLSS 1.0. Uitendelijk gaat het toch om het resultaat en niet hoe je voor elkaar krijgt ? En het was juist DLSS die de artifacts had, daarom oogde CAS beter.
Cas geeft helemaal geen betere resultaten, het geeft andere resultaten.

DLSS heeft andere artifacts, maar he tbeeld bij DLSS is stabieler. Naast DLSS is heel snel verbeterd dankzij betere modellen. Datis het mooie van AI assisted, je kan het algoritme trainen.
Ik praat nog steeds over CAS tegenover DLSS1.0. DLSS2.0 is juist gekomen na veel kritiek over 1.0 en was aanzienlijk beter ja. DLSS1.0, was in veel gevallen niet veel beter dan 1080p+TAA.
https://www.techspot.com/article/1712-nvidia-dlss/
https://www.techspot.com/...harpening-vs-nvidia-dlss/

[Reactie gewijzigd door Crp op 22 juli 2024 15:24]

Ook DLSS1 is na verloop van tijd en een aantal driver revisies verbeterd. Je linked nu naar een artikel bij de launch en zelfs dan was CAS niet hetzelfde. Je kon ook DLSS1 draaien voor de performance improvement in combinatie met een meer gunstige anti aliasing met daarboven dan sharpening om wat details weer terug te halen. CAS is puur sharpening, lagere + CAS erboven zorgt voor veel meer aliasing. Oftewel andere oplossing, andere resultaten. Dat je dit blijft aanhalen toont een beetje gemis van kennis. Naast ik zou nog eens je eigen bron doorlezen welke doodleuk dit als conclusie geeft
On face value, you look at the 4K TAA vs DLSS comparisons and it’s hard not to be impressed. DLSS does provide pretty similar visual quality to native 4K, it’s not quite as good, but it’s close, all while giving you around 30 to 35% more performance. And compared to native 1440p, which DLSS uses for its AI-enhanced image reconstruction, this form of upscaling looks like black magic.

But dig a little deeper, and at least using the Infiltrator demo, DLSS is pretty similar in terms of both visual quality and performance, to running the demo at 1800p and then upscaling the image to 4K. Again, it’s just one demo, but pouring over the footage and performance data really tempered my expectations for what to expect when DLSS comes to real world games.
Initiele probleem was dus dat pure upscaling tot hetzelfde resultaat kon komen in sommige gevallen. Zij trekken helemaal niet de conclusie zoals jij die trekt.

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 15:24]

We hadden het toch over het begin of niet dan ? Je claimt zelf dat AMD pas na DLSS2 met deze techniek kwam terwijl ze er al jaren mee bezig zijn in GPUopen programma, onder de naam CAS. En zo als ik al zei, de techniek is anders maar het resultaat wat je er mee wil bereiken is beter.
En gebrek aan kennis? Wie haalt hier dan DLSS vs Super Resolution aan, je vergelijkt zelf 2 verschillende oplossingen :+ Je opmerking laat jammer genoeg blijken dat er geen constructieve discussie met je mogelijk is.

//Edit
Om dan nogmaals in herhaling te vallen. Ja het zijn 2 verschillende technieken, maar ze proberen hetzelfde te bereiken! Net als FSR en DLSS2.0. FSR doet wel meer hetzelfde als DLSS, maar nogmaals het is een andere techniek. Net als FCAS is. Waarom werd FCAS anders tegenover DLSS1.0 gezet toen dat net uit kwam ?
En waarom ze daar niet eerder mee komen, moet je niet aan mij vragen maar aan het vorige bestuur van AMD. Want dan weet je vast ook wel dat de marketing van AMD, voordat Lisa kwam, gewoon bagger was!

[Reactie gewijzigd door Crp op 22 juli 2024 15:24]

Wat betreft de levering is dit van nvidia te zien aan de omzet. Die is bijna verdubbeld sinds de 30 series. En hun eigen gpu verkopen ze MSRP en de rest van de chips zijn contracten voor dus het is niet zo dat ze meer voor hun chips zijn gaan vragen. Sterker nog deze chips kosten voor een Asus of MSI minder dan de voorgaande chips.
Amd sales moesten het vooral hebben van de cpu divisie.
AMD GPU's zijn juist nog veel slechter leverbaar. Ik heb er letterlijk geen 1 in het wild gezien. Heb wel in het wild in mijn omgeving een groot aantal 30XX kaarten gezien.

in welke regio woon je dat er geen internet is en geen levering? :X

https://azerty.nl/search-...ting=15&limit=9&view=grid
https://azerty.nl/search-...grid&Productgroep=RX_6800
en andere sites:
https://www.megekko.nl/Co...lair_pp-50_p-1_d-list_cf-
etc...

prijzen is iets anders natuurlijk, maar dat is voor elk merk en type wacko...
Dat zijn voornamelijk 6700 kaarten. (voor absurde prijzen helaas ook). De 6800 en 6900 varianten zijn toch wel lastiger, zijn verkrijgbaar, maar dat zijn de 3080 en 3090 ook bij Megekko voor krankzinnige prijzen. Dat deze op voorraad zijn is is omdat die niet zo hard lopen natuurlijk. Zo verkopen ze ook 3080RTX kaarten rechtstreeks uit voorraad voor hogere prijzen terwijl mensen zelfs daar nog een preorder open hebben staan uit 2020 maar als smoes geven ze dan aan "ja maar die preorder is bij een andere toeleverancier van ons"/

Maar voor de normalere prijzen zijn deze altijd heel zeldzaam geweest terwijl Nvidia er toch flink een hoop heeft weten te verschepen voor normalere prijzen. Totdat de mining boom er nog eens bij kwam en leveranciers de prijzen omhoog gingen knallen. Die luxe hebben AMD klanten helaas niet gehad dus.

Met in het wild bedoel ik kaarten in de handen van klanten.
Ik heb vorige week donderdag eind van de middag dankzij IOS scriptje vermeld op Tweakers in mijn 1e poging een 6900xt voor MSRP via de AMD website gekocht. Was stomverbaasd dat het (in 1 keer) gelukt was....Ze zijn er wel degelijk die kaarten! :)
Zo ik ook, die 6900xt scoren is niet zo heel ingewikkeld.
Alleen vergeet je even dat Nvidia juist gebruik maakt van speciale opties die alleen in hun kaarten beschikbaar zijn waardoor die opties beter presteren dan puur 'softwarematige' varianten zoals die van AMD. Het is bij AMD helemaal niet te doen om te zorgen dat het ook op andere hardware draait, het is gewoon dat het toevallig ook daarop werkt omdat AMD blijkbaar geen speciale hardware opties benut/heeft.
Tja, en als een AMD kaart niet zo interessant is voor een miner tegenover een Nvidia kaart, dan kun je Nvidia toch niet aankijken op de beschikbaarheid omdat hun kaarten dus 'populairder' zijn dan de AMD kaarten.
De roze bloesem op het screenshot is toch echt flink waziger dan native. Ook de vijanden en de tegel textures. Dit lijkt meer op FidelityFX CAS (contrast adept sharpening) dan op DLSS. De kracht van DLSS ligt juist in het feit dat Quality mode vrijwel hetzelfde als native is.
Inderdaad, maar ook de textures op de pilaar zijn gewoon wazig. Het effect doet me erg denken aan Outer Worlds op de Switch.

De eerste vergelijking met het blauwe landschap is dan wel weer erg goed/scherp.

Misschien omdat die met de bloesem gerenderd is op een gtx1060?

[Reactie gewijzigd door Magic op 22 juli 2024 15:24]

Het is inderdaad niet best. En dat weten ze zelf ook zo te zien aan de screenshot keuze. In de screenshots zijn in links en rechts niet dezelfde dingen te zien waardoor vergelijken moeilijk wordt.
Alleen is daar geen demo/slider van Super Resolution waar het artikel over gaat.
Tja dat is dus het verschil van een software oplossing en een getraind ai systeem met hardware berekeningen. Ik had nooit de illusie dat dit goed ging werken.

Maar misschien hebben ze een Nvidia dlss 2.0 nodig om het nuttig te maken. De eerste versie was immers ook nutteloos.
Laten we het hopen. Iedereen is erbij gebaat als amd en nvidia elkaar sterker beconcurreren. In theorie zorgt dit voor lagere prijzen :)

Maaruh, Nvidia kwam een half jaar na de DLSS introductie uit met 2.0. Aan de andere kant, AMD kondigde ongeveer een jaar geleden aan dat ze met FSR bezig zijn. Als het na een jaar ontwikkeling nog niet goed werkt...
Ik vind het jammer dat ze totaal niet in gaan op hoe het werkt. Van dlss weten we wat het doen en waarom het indrukwekkend is. Hier is niets over bekend en dat doet mij vermoeden dat het niet veel meer is als het glad strijken van edged met dus deze blur als resultaat.
AMD vraagt op feedback welke games ze moeten toevoegen aan de family. Deze is gratis in te vullen.

https://explore.amd.com/e...x-super-resolution/survey

Uiteraard heeft dat geen garantie dat hij ook wordt toegevoegd.
Liever zsm een implementatie in Unity en Unreal, dan neem je al een groot deel van de games mee.
Je bedoelt een groot deel van nieuwe games mee. in iedergeval voor DLSS is dat al wel het geval, en ik neem aan dat dat voor AMD ook wel zal gaan gelden. Gewoon een switch aanzetten en done.
Alle games. Als dit goed werkt wat ik persoonlijk betwist dan valt of staat het bij brede implementatie. Iets dat helaas ook geld voor dlss.

Zolang een handjevol games het ondersteunt koop ik mijn gpu (in een normale markt nu koop ik wat ik kopen kan zucht...) Alsof deze technieken niet bestaan. Bij brede implementatie koop ik wat het beste werkt.

[Reactie gewijzigd door computerjunky op 22 juli 2024 15:24]

Ik ben benieuwd naar de real world resultaten. Ik zie mijzelf dit weldegelijk gaan gebruiken met mijn 6800XT en 4K resolutie in games waar ik nu schommel rond de 60 fps.
Ik hoop dat er op 22 juni een mooie lijst is met launch titles, want die mis ik nu. Ik hoop niet dat Godfall de enigste titel is.

[Reactie gewijzigd door zzzzz op 22 juli 2024 15:24]

wellicht wel de enigste maar als het goed is niet de enige: ze kondigen 10 “game studios and engines” voor 2021 aan
Ik hoop zo nog een jaar te kunnen overbruggen tot crypto weer op zijn gat ligt. Al verwacht ik niet dat dan in eens de prijzen dalen. Het wordt tijd voor een nieuwe concurrentie strijd op GPU gebied. Tijd voor nieuwe spelers.
Opvallend dat de rx 500 series genoemd wordt, maar de 400 series niet. AFAIK is de 500 series (muv de 560 die meer cores heeft dan de 460) gewoon een factory overclock over de vorige generatie.
Ik vermoed hier veel voordeel gehaald kan worden, gezien dit beschikbaar is op consoles. Deels gezien games/studios consoles als baseline gebruiken.
Nvidia heeft wat uit te leggen, waarom amd dit voor 1000 series wel kan uitbrengen maar nvidia niet.
Omdat het gewoon bij lange na niet dezelfde kwaliteit geeft als de techniek van Nvidia die alleen draait op een RTX variant.
We zullen zien als de vergelijkingen uitkomen of nvidia zijn gezicht nog kan laten zien tegenover de 1000 serie gebruikers.
Wat een wazige boel is dat op quality preset bij de 2de foto!
Wat gaat dat geven dan op performance als quality al zo belabberd is.
Dat ziet er zelfs zonder FFX wazig uit. Dat spel lijkt een soort motionblur, orthoblur, bloom, en chromatic abberation te hebben. Hebben steeds meer games, en zeker motionblur gaat altijd als eerste uit voor mij.
Het lijkt om de randen van het scherm te gaan, maar het midden is duidelijk ook een stuk waziger met super resolution.

[Reactie gewijzigd door Wolfos op 22 juli 2024 15:24]

Op dit item kan niet meer gereageerd worden.