Gerucht: AMD's FidelityFX Super Resolution verschijnt in juni

AMD's antwoord op DLSS van Nvidia, FidelityFX Super Resolution, moet volgende maand uitkomen. Dat stelt youtuber Coreteks, die eerder AMD-nieuws vroegtijdig naar buiten bracht. Volgens hem testen gameontwikkelaars FSR nu en is de ontwikkeling bijna klaar.

FidelityFX Super Resolution heeft volgens de youtuber een aantal voordelen op DLSS van Nvidia. Zo zou de technologie vooraf geen training nodig hebben van een generative adversial network, of GAN, en wordt FSR veel vroeger dan DLSS ingezet in het grafische proces. Het is volgens de berichtgeving een algoritmische upscaler die weinig overhead nodig heeft.

In potentie zou FSR daarvoor minder werk vereisen van ontwikkelaars en zou de technologie sneller en makkelijker ingezet kunnen worden. Het is nog onbekend welke prestatievoordelen FSR zou opleveren, omdat er verschillende versies van FSR aan ontwikkelaars geleverd zijn, stelt Corteks.

FSR is onderdeel van de FidelityFX-toolkit en wordt daardoor officieel ondersteund door AMD-gpu's. Volgens Coreteks is FSR daarnaast geschikt voor Nvidia-gpu's, al zou AMD niet per se toestaan dat videokaarten van de concurrent voordeel hebben van de technologie.

Dat AMD vorderingen maakte met FSR, werd een maand geleden bekend. Er werd nog geen datum genoemd voor de release, schreef PCGamer toen, behalve dat de technologie in 2021 naar RDNA2-gpu's moest komen. Wel werd bekend dat ook consoles van de technologie gebruik moeten kunnen maken en dat deze in tegenstelling tot DLSS geen gebruikmaakt van machinelearning. Vooralsnog is de lijst met ondersteunde games niet heel groot, maar hij groeit wel.

Corteks AMD FSR

Door Stephan Vegelien

Redacteur

07-05-2021 • 11:31

111

Reacties (111)

111
109
47
11
0
51

Sorteer op:

Weergave:

Compatible met Nvidia GPU's.

Als dit op termijn een reëele tegenhanger wordt van DLSS kan dat voor Nvidia wel eens problematisch worden. Dan is er voor ontwikkelaars weinig reden om DLSS nog te implementeren, tenzij nvidia ze een zak geld toeschuift.
Het grootste gevaar / risico zit m in de prestaties denk ik.
Nvidia heeft CUDA, AMD heeft OpenCL / ROCm maar CUDA is nog steeds heer en meester omdat het gewoon beter werkt. Ik zou graag zien dat OpenCL / ROCm / VulkanCompute / een andere open oplossing het proprietaire CUDA van de troon zou kunnen stoten, maar vooralsnog lijkt Nvidia het heft stevig in handen te hebben omdat CUDA zo goed werkt.

Datzelfde zie ik mogelijk gebeuren met FSR vs DLSS. Nvidia's DLSS is wat game studios kennen en gebruikt hebben de afgelopen 2 jaar. Gaat FSR werkelijk een verbetering vormen ? Wordt het sneller, heeft het betere beeldkwaliteit, is het makkelijker om voor te programmeren, bespaart het geld ? Zolang FSR geen significant voordeel gaat bieden t.o.v. DLSS anders dan "het is open" zal succes van FSR twijfelachtig zijn. Begrijp me niet verkeerdl ik ben vollediig vóór open / cross-platform systemen en technieken, maar zonder medewerking van 2nd en 3rd parties ( grote game studios, hardware en OS vendors… ) zal het realistisch gezien vechten tegen de bierkaai worden.
Hier eigenaar van Stream HPC, ontwikkelaar van diverse AMD ROCm libraries (o.a. rocThrust, hipCUD, rocRand). Ja, die geporteerde bibliotheken zijn een beetje Nederlands - mijn collega's komen namelijk overal vandaan. We hebben onze handen vol aan diverse software-optimalisaties om het maximale uit AMD GPUs te halen, wat trouwens ook vaak voor (veel) betere prestaties op Nvidia zorgt.

"Gewoon beter werkt"? "vechten tegen de bierkaai"? Het is 2021, geen 2017. Een groot verschil is dat de CPU van AMD nu bij iedereen bekend is - het vertrouwen in de fabrikant is daarmee enorm gestegen. Er wordt een stuk serieuzer naar hun GPUs gekeken, zoals je ook ziet aan de nieuwe supercomputers in Europa, waar vorige jaren alleen Nvidia-spul in zat.
Ik hoop van harte dat je gelijk hebt (of gaat krijgen) !
Open standaarden zijn uiteindelijk beter voor iedereen.
Ik ben heel blij met alle stappen die AMD maakt, maar ik probeer enigszins neutraal te blijven. Gezien AMD's investeringen in open standaarden neig ik af en toe naar AMD-fanboy-ism, maar op het gebied van compute heeft Nvidia voor mijn gevoel nog een behoorlijke voorsprong. Met hoe goed CUDA werkt, Tensor en Optix tech, en nu dus DLSS vs FSR.
Tijd zal het leren maar Nvidia zal het niet zomaar uit handen geven.
Is ergens ook niet zo gek als je met een veel grotere omzet en R&D budgetten meer voor elkaar weet te krijgen. Die technische voorsprong kan mij persoonlijk gestolen worden als deze niet op een eervolle manier bereikt is. En dat is die bij Nvidia zeker niet, die heeft vele smerige spelletjes gespeeld om die voorsprong te krijgen. Is ook zakelijk beter als je een beetje toekomstig gericht bezig gaat om die tijdelijke technische voorsprong te negeren. Als Nvidia daarmee AMD compleet de markt uit weet te drukken, ben je verder van huis. Gezonde concurrentie is beter voor ons allen, behalve voor Nvidia.
Datzelfde zie ik mogelijk gebeuren met FSR vs DLSS. Nvidia's DLSS is wat game studios kennen en gebruikt hebben de afgelopen 2 jaar. Gaat FSR werkelijk een verbetering vormen ? Wordt het sneller, heeft het betere beeldkwaliteit, is het makkelijker om voor te programmeren, bespaart het geld ? Zolang FSR geen significant voordeel gaat bieden t.o.v. DLSS anders dan "het is open" zal succes van FSR twijfelachtig zijn.
Je vergeet dat de Xbox and Playstation consoles nu met AMD GPU's werken. Dus als ze daar FSR toepassen, komt dat ook in de PC port. Waar ze dan extra werk gaan moeten steken om DLSS te ondersteunen. Zeker als FRS ook met Nvidia GPU's zou kunnen werken. Dus het kan goed zijn dat een aantal gamestudios die moeite niet gaan doen, tenzij Nvidia ze geld toesteekt en weigert FRS te ondersteunen.
Probleem is alleen dat image reconstruction technieken zoals checkerboard rendering en temporal upsampling al behoorlijk ingeburgerd zijn bij de consoles. FSR zal dan dus ook hogere kwaliteit moeten bieden of makkelijker te implementeren zijn om bestaansrecht te hebben in de console wereld.

De vraag is dan ook hoe FSR zich gaat onderscheiden van bovenstaande technieken. DLSS2.0 heeft imho een duidelijke kwaliteits voorsprong op beide, maar heeft ook veel meer raw performance nodig (vandaar ook de aanwezigheid van tensor cores).
>omdat het gewoon beter werkt

Dat is eigenlijk niet zo. Het werkt wel beter op nVidia kaarten (vind je het gek, ze hebben er belang bij dat CUDA beter werkt, dus als OpenCL minder werkt vinden ze dat helemaal niet erg; zie ook het feit dat ze nog steeds op OpenCL 1.2 zitten) maar in principe werken OpenCL, ROCm/HIP en Vulkan even goed als CUDA. Het probleem is alleen dat ze moeilijker in gebruik zijn: OpenCL en Vulkan vereisen allebei dat je je GPU-code in een eigen taal (OpenCL C/C++ resp. GLSL) schrijft, terwijl CUDA wat 'directer' C++ gebruikt en van wat ik weet implicieter werkt.

AMD heeft op ROCm trouwens iets genaamd HIP, wat in de praktijk een vrij simpele laag over zowel CUDA als ROCm is. Naar mijn idee is het feit dat men vooral nog CUDA gebruikt in plaats van HIP vooral doordat CUDA de 'standaard' is, en niet omdat het beter is dan HIP.
>omdat het gewoon beter werkt

Dat is eigenlijk niet zo.
Ok, ik was een beetje kort door de bocht, maar het is complexe materie en anders ga ik helemaal een encyclopedie in een comment typen ;)
Het probleem is alleen dat ze moeilijker in gebruik zijn
Dit dus inderdaad. Bedrijven die nu al CUDA gebruiken hebben weinig motivatie om over te stappen op iets anders.
AMD heeft op ROCm trouwens iets genaamd HIP, wat in de praktijk een vrij simpele laag over zowel CUDA als ROCm is. Naar mijn idee is het feit dat men vooral nog CUDA gebruikt in plaats van HIP vooral doordat CUDA de 'standaard' is, en niet omdat het beter is dan HIP.
HIP schijnt trouwens nog aardig wat beperkingen te hebben. Geen dingen die niet opgelost kunnen worden, maar wel dingen die de overstap vanaf CUDA niet vanzelfsprekend maken.
Zal er vooral om gaan hoe goed het eindresultaat is. NVIDIA's upscaling is erg indrukwekkend maar vereist wel de nodig inzet van de developer, mocht dit een tikkeltje slechter zijn dan krijgen we waarschijnlijk dezelfde situatie als bij FreeSync.
NVIDIA negeert het een tijdje omdat de eigen techniek beter is, NVIDIA implementeert hetzelfde maar geeft er een NVIDIA label aan - zelfde techniek, andere naam. En uiteindelijk sterft het een beetje uit (in het geval van g-sync door de kosten van de extra module, in het geval van DLSS extra ontwikkelkosten?)

Wellicht dat dit de derde grote stap (die ik me zo snel kan herinneren) van AMD is waar we allemaal baat bij hebben.
  • Eerst FreeSync wat een leuke bonus is en NVIDIA nu ook ondersteunt alhoewel alle monitor fabrikanten het nu helaas g-sync compatible i.p.v. freesync noemen.
  • AMD Mantle wat min of meer de basis voor Vulkan is en waarschijnlijk aardig wat inspiratie voor DX12 heeft gezorgd
  • Nu AMD's FidelityFX Super Resolution?

[Reactie gewijzigd door Xthemes.us op 22 juli 2024 15:38]

Het vereisen van de nodige inzet valt wel mee. In de ue4 is het implementeren van DLSS heel simpel gemaakt. Unity zal dit ook gaan doen in de komende releases. Hiermee heb je al de 2 grootste engines en daarmee een groot deel van de developers al bereikt.
Bij custum engines is niet heel veel moeilijker. Als er ondersteuning voor motion vectors is (standaard met TAA) ben je al een heel eind.

Alleen nog even LOD bias aanpassen en klaar. (hint hint CDPR).
Je hebt groot gelijk, ik dacht dat DLSS 2.0 op dezelfde manier werkte als DLSS 1.0 maar veel betere resultaten gaf. Blijkbaar is het een stuk makkelijker te implementeren, dat is interessant want dit heeft tot gevolg dat AMD op de één of andere manier meerwaarde moet bieden met FidelityFX Super Resolution en ik dacht dat dit voornamelijk op basis van het gemak van implementatie zou zijn.
Ze moeten hoge ogen gaan scoren met hoe goed het eruitziet dan :).
De vraag is of ze het wel via OpenCL gaan doen, ik vermoed van niet (dat is overigens niet de enige manier om compute shaders aan te spreken); verder had tot voor kort AMD met hun GCN en Vega architecuutr de meeste ruwe compute power. Het grote probleem dat AMD altijd had met die architecturen was om die power ook daadwerkelijk te gebruiken. Je ziet daarom ook soms rare situaties waar een Vega64 gelijk loopt met een GTX 1070 en op andere momenten voorbij een GTX 1080 Ti gaat.
Met Ampere is Nvidia meer de compute richting opgegaan. AMD beweegt weer meer de andere kant op en heeft nu een aparte compute architectuur (CDNA) naast hun gaming architectuur (RDNA).

Vergis je niet, dit gaat waarschijnlijk wel aanslaan. Met de simpele reden dat consoles goed gebruik kunnen maken van zo'n techniek. Gezien AMD zowel de Xbox als de Playstation heeft denk ik dat adoptie wel los gaat lopen.
De vraag is of ze het wel via OpenCL gaan doen
Sorry, mijn vergelijking met CUDA/ OpenCL was meer om aan te geven dat de adoptie van FSR tegen de hindernis gaat aanlopen dat AMD het moet op gaan nemen tegen een (min of meer) gevestigde orde en dat dat lastig is, zoals ook te zien is in CUDA vs ROCm.
Verder heb je absoluut gelijk en ik ben gewoon benieuwd wat de toekomst gaat brengen en of Nvidia gemotiveerd kan worden om wat meer open standaarden te omarmen.
Ah dan heb ik dat niet goed uit je verhaal kunnen halen. Ik hoop dat het eigenlijk een beetje zoals met Freesync gaat en dat de adoptie daardoor sneller is en Nvidia ook dwingt om mee te werken aan meer open standaarden.

Je hebt gelijk dat AMD met OpenCL het gevecht een beetje heeft verloren tegen CUDA. Volgens mij werkt Intel nu aan OneAPI, wat ook een compute API is; wellicht geeft dat meer soelaas.
Het hoeft niet perse sneller te zijn, als het vergelijkbaar presteert is het ook al een hele stap vooruit. Dan is een van de belangrijkste redenen om voor een NVIDIA te gaan al weg.
Het wordt interessant om te zien of AMD op dat gebied samen op gaat trekken met Intel, bijvoorbeeld door de oneAPI te ondersteunen.
Nvidia probeert sales binnen te halen met proprietaire technologie, AMD probeert het door marktadoptie zo hoog mogelijk te krijgen. Het is een strategie die zeer gunstig blijkt te zijn. Niet alleen bijvoorbeeld bij freesync, maar ook met de Mantle API destijds, die uiteindelijk naar DX12 vulcan geëvolueerd is.
Voor game developers is het nu eenmaal een stuk interessanter om de api te gebruiken die op papier door alle gpu's kan ondersteund worden EN een stuk eenvoudiger te implementeren is (ik wist niet eens dat de ML training van DLSS door de developers moest gebeuren, dacht dat dit 1 set van nvidia zelf was)

[Reactie gewijzigd door Krimglas op 22 juli 2024 15:38]

Je haalt ze door elkaar; Mantle is gedoneerd aan de Khronos Group en uiteindelijk Vulkan geworden. Laat niet weg dat dit wel voor een push heeft gezorgd waardoor Microsoft (eerder?) met DX12 kwam.

Ik dacht dat de ML training alleen door devs werd gedaan met DLSS 1.0. Wat er nu wordt gebruikt is een generiek model wat Nvidia wellicht in samenwerking met game developers heeft gemaakt.
Dit is DLSS 2.0 geworden wat er een stuk beter uitziet (DLSS 1.0 was lelijk, het idee was leuk maar verder was het niks).

Laatste edit:
FrankoNL heeft het waarschijnlijk over de implementatie. DLSS heeft als voorwaarde dat een ontwikkelaar temporal anti-aliasing heeft (of eigenlijk exacte eis is vector data van beweging in de scene).
Als een spel als TAA heeft dan is DLSS redelijk makkelijk te implementeren. Heb je dat niet dan moet je nog wat extra werk verzetten; maar niet in de vorm van het trainen van een ML model.

[Reactie gewijzigd door Sp3ci3s8472 op 22 juli 2024 15:38]

Ik denk dat die strategie helemaal niet gunstig is, zeker met een totaal gebrek aan QC in bijv freesyns (waar gsync wel een bepaalde kwaliteit garandeert). Nvidia heeft met DLSS en raytracing echt iets neergezet voor de toekomst, de lijst van afgedankte AMD meuk is net zo lang is die van Google/alphabet.
Wie gebruikt er nog tressfx, mantle of true audio? En hoewel PhysX langzaam aan het sterven is, is dat wel meer dan een decennium toegepast.

DLSS gaat heel de fidelityFX overleven, mark my words.
@Sp3ci3s8472 Volgens mij is de render API Mantle volledig dood. Dat er zaken uit mantle in Vulkan en Dx12 zijn geïmplementeerd is iets heel anders dan zeggen dat Mantle nog bestaat en succesvol is.

Freesync 1 heeft 0 QC vanuit AMD of de allerlaagste standaarden die je kan bedenken. Ik heb nog geen een slecht g-sync scherm gezien en helaas legio freesync. Dat ze dat bij Freesync 2 proberen recht te zetten terwijl freesync 1 de bulk van de verkopen uitmaken doet natuurlijk niets met de perceived value/quality.

[Reactie gewijzigd door eL_Jay op 22 juli 2024 15:38]

de lijst van afgedankte AMD meuk is net zo lang is die van Google/alphabet.
Probleem met je hyperbool ZO groot maken is dat je comment helemaal niet meer serieus genomen wordt ;)
TressFX zit in iedere unreal engine game, mantle technologie is opgenomen in vulcan en de opvolger van true audio wordt gebruikt in xbox en playstation.
En hoewel PhysX langzaam aan het sterven is, is dat wel meer dan een decennium toegepast.
Juist, die physx, die hardware accelerated physics groot ging maken en uiteindelijk haast exclusief in software mode gebruikt werd. Wat een accomplishment was dat. Een physx logo bij een game trailer vertaalde gewoonlijk naar "je hebt een cpu nodig met hoge clocksnelheid per core, of je performance zal altijd ruk zijn".

[Reactie gewijzigd door Krimglas op 22 juli 2024 15:38]

Ik kan mij enigzins vinden in Freesnyc 1 dat er geen kwaliteits controle was. Wat betreft Freesync 2; daar heb je die wel dus wat je zegt is niet waar.
Daarnaast zijn de eisen van GSync ook niet heilig en laatst is de HDR standaard daar nog gedowngrade zodat meer monitoren het premium vinkje kunnen krijgen. Een van de vele bronnen (eerste google hit gepakt):
https://www.guru3d.com/news-story/did-nvidia-silently-downgrade-g-sync-ultimate-hdr-specification.html

TrueAudio, jammer dat het niet is aangeslagen; Het zit overigens nog steeds op de AMD's GPU en tegenwoordig heeft Nvidia ook een audio processor die vergelijkbare functionaliteit biedt. Blijkbaar is hier wel vraag naar anders had Nvidia hier niks mee gedaan.
Grote onzin wat je zegt over Mantle, het zit nu in Vulkan. Daarnaast is elke tripple A release tegenwoordig met of Vulkan of DX12. Denk dat Mantle prima zijn doel daar mee heeft behaald.

We gaan het zien, ik denk eerder dat je net zoals met DLSS 1.0, 1.9 en 2.0 itereaties gaat zien en dat het net zo lang blijft bestaan om die reden.

Edit: Op jouw reactiee op mij :).
Hangt er van af met welk doel AMD Mantle heeft ontworpen; was het om een eigen render API te maken of was het om Microsoft een push te geven om sneller met DX12 te komen en als extra bijeenkomst om de start van Vulkan een grote boost te geven.
Er was vanuit ontwikkelaars vraag naar een low level API. Die heeft AMD niet alleen voor zichzelf zitten maken.Die vraag komt o.a. doordat ontwikkelaars al vaak met een low level API werkten voor de consoles.
Daarmee trek ik persoonlijk de conclussie dat Mantle zijn doel heeft behaald. Het is prima dat jij een andere mening hebt.

[Reactie gewijzigd door Sp3ci3s8472 op 22 juli 2024 15:38]

Ik ben erg benieuwd naar de verschillen in beeldkwaliteit en performance. DLSS gebruikt meer dan alleen de lage-resolutie-invoer zelf; er zit een dieptebeeld bij en bovendien baseert de techniek zich op een schat aan leerdata. Zoals we het van Nvidia begrijpen zorgt dit ervoor dat DLSS delen van de afbeelding, zoals een hekwerk in een scène, kan vergelijken met heel veel soortgelijke beelden wat meer "begrip" oplevert van de objecten in de scène en dus heel intelligente opschaling. Als AMD komt met min of meer een verscherping van alleen de originele invoer, dan kan dat haast niet zo goed worden qua resultaat. Maar misschien komt het toch zo goed in de buurt dat Super Resolution uiteindelijk de voorkeur krijgt. Die techniek lijkt namelijk geen tensor cores nodig te hebben, en als AMD's truc ook sneller is, of eenvoudiger te implementeren, dan wordt het spannend.

De vergelijkende video van Digital Foundry die vast zal verschijnen wordt enorm interessant denk ik.

[Reactie gewijzigd door geert1 op 22 juli 2024 15:38]

Ik zou als ik jou was een zoutvaatje gereed houden bij de beweringen van het Nvidia marketing team, die zijn al vaker onderuit gegaan met Gsync vs. freesync b.v. Kijk nog maar eens na wat Nvidia daarover beweerde. Een hek in een bewegend beeld kan natuurlijk, als het maar wat ingewikkelder wordt b.v hek begroeid met plantjes wordt het als snel lastig. Je kunt misschien bepalen wat dichterbij staat en dat agressiever verscherpen, maar veel meer blijft lastig. Enfin we gaan de vergelijking wel zien.
Je weet dat het niet altijd de beste kwaliteit is die de strijd wint toch? Kijk naar V2000 vs Betamax vs VHS, HD-DVD vs Blu-Ray, etc.
Je hebt m'n reactie gelezen toch? Kijk naar "... dat Super Resolution uiteindelijk de voorkeur krijgt ...", etc.
Ik reageerde denk ik op @FrankoNL , maar kwam bij jou terecht.
Dat is wel een grote als.
Het fascinerende aan DLSS (in ieder geval vanaf versie 2) is dat het zo'n geweldig eind-resultaat geeft. Niet elke upscaling techniek is zomaar gelijk.

Ik ben ook sceptisch omdat je al FidelityFX CAS van AMD hebt, dat is dynamic resolution scaling waarbij de resolutie wordt verlaagd om een bepaalde framerate te kunnen halen, wat op zowel NVidia als AMD kaarten kan werken. Maar dat is mijn ogen echt heel slecht, ja de framerate is stabiel maar dat wordt bereikt door gewoon zo'n beetje altijd de resolutie te halveren (ervaring mee op NVidia kaarten (meervoud) in Cyberpunk 2077).
Het is inderdaad een grote als. Ik denk wel dat dit soort technieken (DLSS, FidelityFX) de rendertoekomst zijn. We gaan afstappen van native 4k of hoger renderen en uiteindelijk wordt dit de vervanger. Nauwelijks verschil in beeldkwaliteit maar wel een groot performance voordeel.
Toch is het grappig.

Vroeguh renderde je juist op 4 of 8 x de resolutie van je monitor om op die manier AA toe te passen.. En nu gaan we het dus soort van het omgekeerd doen..

Men vroeg zich al af of het op een 4K scherm wel nodig was om met AA te werken.

[Reactie gewijzigd door Amorac op 22 juli 2024 15:38]

CAS met resolutie schaling is een andere techniek. Hoeveel FSR hierop gaat lijken is nog de vraag.

DLSS werkt goed zolang je de hoge kwaliteits instellingen gebruikt. De lagere kwaliteits instellingen zijn minder indrukwekkend (aldus HardwareUnboxed).
Zelfde reden dat Freesync aanslaat.
Voordeel van DLSS is dat het op de tensor cores draait daardoor ontlast je de grafische cores en kunnen die worden ingezet voor beter graphics. Om een goede tegenhanger van DLSS te worden zou deze techniek dus niet alleen dezelfde kwaliteit moeten leveren maar ook nog eens zo weinig van de gpu vragen dat je bijna niets inlevert kwa performance. Verder zit DLSS support als in Unity en in Unreal (door een plugin) dus zo'n grote drempel is het niet voor ontwikkelaars om DLSS support te hebben.
Wat ik mij af vraag is wat deze techniek van AMD anders gaat toen dan de huidige TAA oplossingen. Bijna elke AAA-engine heeft namelijk al een eigen TAA-implementatie. Misschien dat deze techniek wel goed is voor indie-developers met een in-house engine (dus niet Unity of Unreal). Die hoeven dan niet meer TAA te implementeren.
hoe gaan ze dat doen?

mensen vergeten dat 30% van de nvidia Die dient voor AI hardware en RTX. waar gaat amd die magische compute power/ die space halen om te upscalen?

zie naar raytracing hetzelfde verhaal. 30-50% trager dan op nvidia omdat de cores ofwel RT ofwel rasterization werk doen. wat gaat dat geven als daar nog eens AI werk aan te pas komt?

Bij nvidia is het allemaal netjes gespreid over de chip en verlies je geen raster power als er moet geray traced worden of als er iets met ai moet gebeuren.

dat is dan ook de enige reden dat amd buurt komt van nvidia in rasterization only games.

en mensen maar bashen op turing (rtx 2000 reeks) omdat ze geen idee hebben wat voor werk ze daar bij nvidia gedaan hebben om die tensor en raytracing cores op hun kaarten te krijgen + een kleine performance increase tov pascal. Bij nvidia was de voorsprong zo groot dat ze die luxe hadden om één gen een hele pak Die area weg tegeven aan rtx en ai hardware.


zie het als een auto die puur op de motor rijd : rijd 100KM/h bij amd maar vanaf je de radio opzet - 10km/h, vanaf je de lichten aanzet, nog eens -10km/h. Bij nvidia is dat zonder performance verlies, want ze hebben een extra batterij in de motorkap zitten die hier voor zorgt. maar door die extra batterij hebben ze wel minder ruimte onder de motorkap voor een zwaardere motor die anders 120km/h zou gaan.

dat is waarom men kan zeggen dat een 6800XT nog steeds een generatie achter zit op een 3080.
RDNA2 is wel een mooie stap in de juiste richting. de achterstand verkleint in ieder geval.

hoe Amd hetzelfde probleem weer met RDNA gaat oplossen is mij een raadsel. Of ze moeten met iets afkomen zoals pixel en vertex shaders in de tijd dat die samen in een gewone gpu core gaan zonder al te veel opofferingen. Maar zoals het nu doen zijn de oppofferingen gigantisch...

[Reactie gewijzigd door zaj op 22 juli 2024 15:38]

Of wat jij verkondigt op een andere manier:

Nvidia is teruggegaan naar fixed-function silicon. Da's sneller voor sommige operaties, maar je betaalt er wel voor bij productie terwijl je het lang niet altijd gebruikt. AMD heeft een implementatie die flexibel aangewend kan worden. Hoe dan ook, je gebruikt de kracht die erin zit.
AMD heeft ook een gigantische on-chip cache die hen toelaat om een kleinere en tragere geheugencontroller te gebruiken samen met een oudere standaard geheugen. Nogmaals: meerdere malen kostenverlaging.

Als het zonder RT is werkt de chip van AMD 100% en die van Nvidia .. nuja, niet 100%. AMD is dan overwegend even snel.
Als het met RT is werkt die van AMD 100% en die van Nvidia.. dichter bij 100%, afhankelijk van welke functies aangeroepen worden. AMD is een beetje trager. Maar alles wordt wel gebruikt. Wie is er nu dom?

Dus je komt uit op een product dat afhankelijk van de plaats in de productrange en de applicatie nagenoeg even snel is of iets trager en 100-500€ goedkoper wordt aangeboden?
Is dat een slecht product? Helemaal niet.
Bij nvidia is het allemaal netjes gespreid over de chip en verlies je geen raster power als er moet geray traced worden of als er iets met ai moet gebeuren.
Ga je dat nu echt met droge ogen beweren?
Duh ?

Hoe moeilijk is het te begrijpen
Amd 1 core die 3 soorten taken kan doen maar maar 1 tegelijk.

Nvidia 3 soorten cores , die allerdie gelijk kunnen werken .

Dat je fps verliest met rtx aan heeft niks met de architectuur van de kaart te maken. Dat amd meer fps verliest dan Nvidia met rtx aan wél . Toch logisch als je resources van ergens anders moet halen in plaats van je dedicated rt hardware.
Verkeerde post.

[Reactie gewijzigd door MacPoedel op 22 juli 2024 15:38]

Klopt helemaal.
DLSS werkt momenteel ook enkel voor RTX-kaarten en niet voor de "oudere" GTX-kaarten zoals bv. de 1000-reeks of 1660-kaarten. Als FSR evengoed is als DLSS en ook beschikbaar zou zijn voor Nvidia-kaarten, dan gaat DLSS het misschien nog moeilijk krijgen. Wat Nvidia dan nog kan proberen is om DLSS ook op de een of andere manier ook beschikbaar te maken voor die "oudere" GTX-kaarten...
FSR+DLSS --> 320x240 beginplaatje gescaled naar 4k - 1000fps :D

Nog een paar jaar en we gaan van 1 pixel naar 16k resolutie via upscaling...
I like it, maar van 1 pixel naar 16k? Nope
Ik denk dat het een grapje was..
Hoezo? DLSS zit al verwerk in UE4 en UE5, Unity, Frostbite, Cryengine etc? Developers hoeven er nu weinig voor te doen nog. Proprietary engines hebben zelfs DLSS als ingebakken onderhand (F1 2020, Metro Exodus etc).
Waarom weinig reden? Wat maakt die tegenhanger beter?
DLSS is een soort "blackbox" vervanger van de andere uitgekauwde en uitgejouwde "blackbox" GameWorks. Niemand behalve close Nvidia mensen weten wat er binnen de DLSS code gebeurd. Misschien werkt DLSS wel op de oudere kaarten maar zoals vaker Nvidia blokkeert het kunstmatig? who knows?

Kies:
Blackbox vs Open Standaard.
Weinig reden inderdaad, maar er weegt altijd 1 reden het zwaarst mee. En dat is het feit dat veel games Nvidia sponsored zijn. En die gaan dit natuurlijk niet toelaten.
Eerlijk gezegd vraag ik me af in hoeverre die “deep learning” “schat aan test data” enz. echt veel betekend. Het toepassen van AI vergt enorm veel input en verwerking, ik geloof er niet al te veel van dat zelfs een krachtige grafische kaart daar veel aan kan doen. Je zou b.v. kunnen proberen te bepalen wat “bomen” zijn en daar een speciaal “bomen” algoritme overheen gooien. Maar als een “bomenpriesteres” een jurk aanhad met een bomen print erop gaat zoiets al vaak automatisch fout. De hoeveelheid data die je zou moeten bewaren om te zeggen: dat is “boom” maar er zit een gezicht boven, aha is dus “bomenpriesteres” => “bomenpriesteresalgoritme” of i.i.g. geen “boomalgoritme” over de jurk is al te hoog gegrepen.
Ik denk dat veel nog op scherpte-algoritmen blijft hangen, daar valt ook nog steeds veel te halen door “simpelweg” veel scènes te analyseren en te zien of de algoritmes wat bij te steen zijn, maar zo intelligent als de nvidia marketing beweert lijkt me simpelweg niet haalbaar, hoe krachtig de huidige kaarten ook zijn. On-the-fly beeld verscherpen is al een enorme uitdaging en dat schijnt de huidige generatie Nvidia kaarten goed te doen.
Toepassen van AI vergt enorm veel input en verwerking om het model op te bouwen, maar het model *toepassen* vergt veel minder rekenkracht.

Da's één van de krachten van Deep Learning, dat je het op voorhand in een datacenter kan doen, ipv on the fly.
De MLP van DLSS is bij lange na niet zo groot dat het echt detail kan hallucineren, het is meer een kwestie van het leren van kanten/lijnen/de-occlusie te herkennen om TAA op te schonen.

Er zijn ook goedkopere manieren om dat te doen, maar dat vergt wel meer R&D en tweaken.
Waar je aan voorbij gaat, is dat Nvidia een algemeen model maakt dat game specifiek getraind wordt. Bij het herkennen van "bomen" zoals uit je voorbeeld, is dat een heel generiek model dat veel meer van de wereld moet "begrijpen" dan een game-specifiek model.

Een upscaling model werkt namelijk, simpel gezegd, als volgt:
Je leert een model met heel veel in-game beelden die op 2 resoluties tegelijk worden gerenderd. Plaatje X heeft een resolutie van 1920x1080 en plaatje Y heeft een resolutie van 3840x2160. Het model leert, na lang "trainen", wat de relatie is tussen een enorme set van plaatjes X en Y. Deze relatie is per game verschillend (want verschillende effecten, kleuren, textures en ga zo maar door). Het model kan nu op basis van enkel plaatje X een plaatje Y genereren.

Het nadeel hiervan is dat dit soort modellen niet generiek genoeg zijn om bij elke game in één keer toegepast te kunnen worden. Het voordeel is dat deze modellen veel betere resultaten zouden moeten geven tijdens upscaling, juist omdat ze specifiek per game werken.

AMD probeert een meer generieke oplossing te maken, die voor ontwikkelaars makkelijker te gebruiken is en meer gamers weet te bereiken, omdat het zowel op consoles werkt, als (oude) videokaarten van beide merken. Dit is dus geen AI oplossing, waarbij een model getraind wordt, maar een oplossing die een slim geschreven algoritme schrijft.

Je kunt dus nu al aardig inschatten (of voorspellen :P ) wat de resultaten gaan zijn:
- Performance verbetering is even groot of groter dan DLSS
- Scherpte en kwaliteit is (veel) minder dan DLSS
- Implementatie voor ontwikkelaars is eenvoudiger
- Game ondersteuning is (potentieel) veel groter (want bovenstaande + consoles)
Zie ik gebeuren, maar dat betekend heel veel training op beelden van elke specifieke game, om daarmee de beelden in die game zo mooi mogelijk weer te geven. Dat kost veel rekenmachine maar kan. Maar dan kan je per driver per game maar zoveel verbeteringen geven, je kan immers op de console niet per beeld de regels gaan optimaliseren. Dus in games die veel “bomen” bevatten kunnen in de driver regels daarop optimaliseren, maar heb veel verschillende dingen dan gaat het lastig worden in een lbehapbarel driver de regels voor alle verschillende dingen te optimaliseren.
Coreteks is niet echt te vertrouwen. 2 maand geleden waren ze nog aan het kijken hoe ze het zouden maken maar het verchijnt volgende maand al?

Zo snel is AMD niet. Verwacht niks van super resolution dit jaar.
Op Reddit staan ook flink wat verhalen dat Coreteks nou niet echt een betrouwbare bron is. Maar we zullen het zien, ik verwachte het pas eind 2021 dus elke maand eerder is mooi meegenomen.
ik verwachte het pas eind 2021 dus elke maand eerder is mooi meegenomen.
En dan komt het uit op 31 december 2021 om 23:59 :D

[Reactie gewijzigd door SilverRST op 22 juli 2024 15:38]

*flashbacks naar mijn studententijd*
Nvidia maakt gebruik van tensor cores om dat te bereiken en amd zonder speciale cores. Ben benieuwd naar de benchmarks van amd vs nvidia.
Als het framework van AMD open-source is, kan potentieel NVIDIA het framework uitbreiden zodat het ook werkt met de tensor cores van NVIDIA.

Evt proprietary spul kan dan in de NVIDIA driver worden gezet om zo eea safe te houden voor beide partijen. (beetje gevalletje FreeSync vs G-sync)
Dat zou kunnen inderdaad. Maar dat gaan ze niet doen. In ieder geval niet meteen. Dat was toen ook met Freesync zo. De implementatie van Feeesync was ook heel simpel voor elkaar te krijgen. Maar toch weigerden ze heel lang om die ondersteuning er in te drukken. Nu hebben ze het wel, maar geven ze het gewoon een andere naam om AMD niet teveel credits te geven.

[Reactie gewijzigd door Crp op 22 juli 2024 15:38]

klopt en dien je standaard een "geteste" versie te hebben, en anders moet je het als eind-gebruiker handmatig activeren.
Ik ben benieuwd hoe dit competitief zal uitspelen tegenover DLSS. Werkt met Nvidia GPUs (=easy adoption door game makers), maar vermoedelijk is de hit op de GPU dan groter (ook al schrijven ze van niet).

Ook bijzonder dat er geen pretrained Gan-modellen gebruikt worden en dat dit "puur algoritmisch" zou werken op basis van de informatie die de GPU dan beschikbaar heeft... Het klinkt te mooi om waar te zijn, but I'd love to be proven wrong!

[Reactie gewijzigd door BramVroy op 22 juli 2024 15:38]

Ook bijzonder dat er geen pretrained Gan-modellen gebruikt worden en dat dit "puur algoritmisch" zou werken op basis van de informatie die de GPU dan beschikbaar heeft... Het klinkt als te mooi om waard te zijn, but I'd love to be proven wrong!
Inderdaad, dat vind ik ook heel raar en het klinkt ook te mooi om waar te zijn. Als het zo goed zou zijn als DLSS en puur algoritmisch zou zijn, waarom is er dan nooit eerder iemand mee afgekomen? Waarom zitten we dan tot en met vandaag met zeer slechte Anti-Aliasing algoritmes zoals FXAA en T(X)AA of zeer zware zoals MSAA en SMAA? Op consoles was er al sprake van checkerboard rendering, maar als ik correct ben heb ik dit nog niet gezien op de PC...
AMD loopt gigantisch achter in ML en dit lijkt me niks meer dan gewoon een standaard upscaling algoritme. Misschien beter dan vorige algoritmes, maar uiteindelijk gaat alles toch wel naar de ML toe omdat het gewoon zoveel parameters kan gebruiken om een rare efficiente "formule" te maken dat mensen daar zelf niet tegenop kunnen.
ML learning is krachtig, maar het verwerken ervan op een manier die in een kaart past is een ander verhaal. Nvidia kan zijn opschalen scherpte algoritmen dus wat beter tunen, maar na een vrij snel bereikt plateau is Herdan denkelijk al snel een kwestie van: als wat deze aanpassing aanbrengen dan wordt deze scène mooier, maar die scène wat overdreven. Kan je met if-then proberen op te vangen, maar dat ontploft al vrij snel… dus ik verwacht aanvankelijk nog een voordeel voor Nvidia dat echter snel verdwijnt in een welles-nietes gevecht waarbij Nvidia de ene scène mooier doet, maar AMD de andere, tenzij je de drijvers per game constant verbetert.
Wel super dat het ook naar de consoles gaat komen :)
Ze hadden al heel veel upscaling technieken op consoles zoals Checkerboard rendering, dat is niets nieuws. DLSS was iets nieuws omdat het hardware matig door middel van een machine learning model werd ingevuld waar data mistte. Dat is toch echt iets anders dan puur upscalen.
DLSS is niet hardware matig. het draait alleen ook deels op de 16bit matrix solvers die nvidia tensor cores noemt. Die zelfde berekening zijn ook zonder maxtrix solvers prima uit te voeren, met alleen een grotere performance hit.

Je kan het hardware accelerated noemen.
Dat is hardwarematig dus, er is geen software matige overhead voor de reconstructie, iets wat andere "upscaling" methodes wel hebben.
nee, dat is niet hardware matig. het is software, waar nvidia 'toevallig' accelerators voor heeft in hun GPU.

Het is general purpose (ML) hardware die door de DLSS software word aangestuurd.
Er wordt geen berekening software matig gedaan. Alles draait op de gpu aangestuurd soor een model vanuit de driver. Het kan bijna niet meer hatdware matig dan dat. Geen overhead en extra belasting voor de cpu.
Geen extra belastig voor de "echte" GPU (videokaart)

Als je het vanuit een CPU (processor) bekijkt, hebben NVIDIA GPU's een "Co-processor" voor "wat meer pracht en praal".
De lijst met games die FidelityFX supporten gaat voornamelijk over FidelityFX CAS (Contrast Adaptive Sharpening) en wat andere features.
Maar er wordt nog helemaal niks vermeld over Super Resolution.
Nu doet het artikel voorkomen alsof dit de lijst is met games die FSR gaan krijgen, terwijl daar helemaal niets over bekend is tot nu toe
Ik hoop dat we niet in de situatie komen waar gebaseerd op je gpu merk je voor de helft van de games een upscaler kunt gebruiken en voor de andere helft niet. Dat zou een flink nadeel zijn voor pc gaming vergeleken met consoles.
Grappig hoe hier zaken door elkaar worden gehaald.
De technieken achter DLSS en FRS zijn al niet te vergelijken.
Laat staan het resultaat zonder eerst concrete voorbeelden.....

Ook hoeft met DLSS 2.0 lang niet meer per game DLSS getraind te worden.
Dat was met 1.0 wel zo.

Op dit item kan niet meer gereageerd worden.