Eerste onafhankelijke AMD FSR 2.0-vergelijking met Nvidia DLSS verschijnt online

De eerste onafhankelijke tests van AMD's FidelityFX Super Resolution 2.0-upscalingtechniek zijn verschenen. TechPowerUp vergelijkt de techniek met DLSS in de game Deathloop. FSR 2.0 lijkt daarin niet onder te doen voor DLSS op het gebied van beeldkwaliteit en prestaties.

TechPowerUp stelt op basis van zijn tests dat FSR 2.0 er vaak 'net zo goed uitziet als DLSS 2.0'. Volgens de website zit FSR 2.0 er soms iets beter uit dan DLSS en soms andersom, maar de twee technieken zouden geen grote onderlinge verschillen tonen. Datzelfde geldt voor de prestaties. Dit geldt vooral voor de Quality-modi van DLSS en FSR 2.0.

De Performance-modus van DLSS, waarbij een grotere upscalingfactor wordt toegepast, is wel iets beter dan die van FSR 2.0, zo zegt TPU. De techniek van Nvidia levert in die modus een iets scherper beeld, zeker bij scènes met veel textures, maar de onderlinge verschillen zijn ook hier niet groot. De prestaties komen ook overeen. De website concludeert verder dat FSR 2.0 goed omgaat met ghosting, wat een probleem kan zijn bij temporal upscalers.

AMD FSR 2.0 naast Nvidia DLSS, via TechPowerUpAMD FSR 2.0 naast Nvidia DLSS, via TechPowerUpAMD FSR 2.0 naast Nvidia DLSS, via TechPowerUp

AMD's FSR 2.0 naast Nvidia DLSS 2.3. Volledige afbeeldingen op hoge resolutie zijn te vinden bij TechPowerUp.

FSR 2.0 is een techniek voor upscaling, waarbij games op een lagere resolutie worden gerenderd en vervolgens worden opgeschaald naar een hogere resolutie. Dat moet voor betere framerates zorgen, zonder grote impact op de beeldkwaliteit. AMD bood al een upscalingtechniek aan met FSR 1.0. Dat was echter een spatial upscaler, wat betekent dat de techniek alleen gebruikmaakt van data uit een enkele frame en op basis daarvan probeert extra pixels in te vullen. FSR 2.0 is een temporal upscaler, waarmee de techniek ook informatie uit voorgaande frames inzet voor een betere beeldkwaliteit.

Daarmee volgt AMD de DLSS 2.0-techniek van Nvidia, die ook een temporal upscaler is. Anders dan DLSS, behoeft FSR 2.0 echter geen losse Tensor-cores voor machinelearning. Bovendien is FSR 2.0 opensource en krijgen ook bepaalde videokaarten van Nvidia ondersteuning voor de techniek. Later dit jaar komt ook Intel met een temporal upscaler, in de vorm van XeSS. Die techniek maakt gebruik van machinelearning, maar heeft daar geen aparte hardware voor nodig en werkt ook op kaarten van Nvidia en AMD.

AMD FSR 2.0 komt op donderdag beschikbaar voor pc's in de game Deathloop. Later komt de techniek ook naar andere titels, waaronder Forspoken en Microsoft Flight Simulator. Tweakers publiceerde eerder een achtergrondartikel over de werking van AMD FSR 2.0, Nvidia DLSS en Intel XeSS.

'Uitgangsniveau' hardware voor AMD FidelityFX Super Resolution 2.0
Targetresolutie AMD Nvidia
3840x2160 pixels Radeon RX 6700 XT​
Radeon RX 5700​
(En hoger)
GeForce RTX 3070​
GeForce RTX 2070​
(En hoger)
2560x1440 pixels Radeon RX 6600​
Radeon RX 5600​
Radeon RX Vega-serie
(En hoger)
GeForce RTX 3060​
GeForce RTX 2060 ​
GeForce GTX 1080
(En hoger)
1920x1080 pixels Radeon RX 6500 XT​
Radeon RX 590​
(En hoger)
GeForce GTX 16-serie
GeForce GTX 1070​
(En hoger)

Door Daan van Monsjou

Nieuwsredacteur

12-05-2022 • 14:31

93

Reacties (93)

93
91
38
6
0
46
Wijzig sortering
Aangezien ik niemand hem zie posten hier, Hardware Unboxed heeft een zeer uitgebreid filmpje (met onder andere bewegende beelden) gepost vandaag: https://www.youtube.com/w...b_channel=HardwareUnboxed

Even samengevat:
Beeldkwaliteit
- Het is oneindig veel beter dan FSR 1.0. DLSS is over het algemeen nog net iets beter.
- In 4k zijn ze nagenoeg gelijk, maar DLSS is beter op lagere resolutie en lagere input resolutie.
- FSR 2.0 heeft sharpening ingebakken en dat is fijn. DLSS is (te) soft en heeft geen sharpening ingebakken.
- FSR 2.0 is (wellicht) iets beter met ghosting
- Op 1080p is DLSS echt beter, zeker in performance mode. Maar wie wil uberhaupt reconstructie van lager dan 540p input
Performance
- DLSS heeft hogere average, maar lagere minima
- Ligt heeel dicht bij elkaar
- FSR 2.0 is maar iets langzamer dan FSR 1.0. Wat insane is want veel betere image quality.
---
Het is maar een sample van 1 game, maar dit beloofd veel goeds. FSR 2.0 kan als het goed is op elke GPU, met elke game.

[Reactie gewijzigd door germania op 23 juli 2024 23:37]

Ook DLSS heeft ingebouwde sharpening. Devs kunnen die zelf instellen op een bepaald nivo, of instelbaar maken. Als DLSS bij Deathloop te weinig sharpening toepast is dat niet een inherent nadeel van DLSS. En natuurlijk is sharpening heel simpel om op andere manieren toe te voegen. Kan bijvoorbeeld via driver instellingen, GFE, of reshade.

Grootse verschil in reconstructie in Deathloop is dat FSR wat minder goed is bij subpixel details zoals bij hekken, voornamelijk bij bewegende beelden. Wanneer iets wel of niet een subpixel detail is, is natuurlijk sterk afhankelijk van input resolutie. En dat is weer afhankelijk van output resolutie en FSR/DLSS settings. Daarom zie je het minder op 4k met de hoogste FSR instelling.
Ik denk dat vele zolangerhand het donkerbruine vermoeden krijgen dat Tensor cores meer hype zijn dan toegevoegde waarde.
Dat gebeurt praktisch altijd wanneer een componentenmaker (bijna altijd een marktleider zoals Nvidia) op de proppen komt met een feature dat enkel op hun eigen hardware werkt: een concurrent komt met hun eigen platformagnostische oplossing en iedereen begint die oplossing te gebruiken omdat die bij meer gebruikers werkt en dus een beter rendement oplevert. Je zag hetzelfde met GSync: dat werkte enkel op Nvidia kaarten, en zelfs dan slechts enkel met monitors met speciale circuits die vaak enkele honderden Euro's meer kostten. AMD bracht dan Freesync uit gebaseerd op de open source Adaptive Sync standaard die met alle monitors werkt, en vervolgens had Nvidia haast geen andere keus dan hun eigen implementatie van Adaptive Sync te maken.
Dat gebeurt praktisch altijd wanneer een componentenmaker (bijna altijd een marktleider zoals Nvidia) op de proppen komt met een feature dat enkel op hun eigen hardware werkt: een concurrent komt met hun eigen platformagnostische oplossing en iedereen begint die oplossing te gebruiken omdat die bij meer gebruikers werkt en dus een beter rendement oplevert. Je zag hetzelfde met GSync: dat werkte enkel op Nvidia kaarten, en zelfs dan slechts enkel met monitors met speciale circuits die vaak enkele honderden Euro's meer kostten. AMD bracht dan Freesync uit gebaseerd op de open source Adaptive Sync standaard die met alle monitors werkt, en vervolgens had Nvidia haast geen andere keus dan hun eigen implementatie van Adaptive Sync te maken.
Alleen in de praktijk moet je eens rondvragen naar kopers van Freesync monitoren. Tot nu toe heeft letterlijk iedereen die ik ken het uitgeschakeld omdat ze problemen kregen zoals flickering. Dan heb ik zowel over Radeon + freesync als Nvidia (adaptive sync) + freesync. De g-sync module kost geld maar is tot heden de enige garantie voor een probleemloze ervaring.
Anoniem: 63072 @sdk198512 mei 2022 18:08
Waar ik me daarbij over verbaas is dat mensen met dezelfde monitor/GPU/Driver combinatie als ik zelf heb klagen over die Freesync problemen, terwijl het bij mij foutloos werkt.

Bij gelijke hardware gaat mijn vermoeden dan toch echt uit naar de driver en niet zo zeer naar de hardware.
En waarom verbaas je je daar over? Zelfde hardware betekent niet per definitie dat het dezelfde prestaties levert. Ze zullen echt wel de opgegeven specs halen, maar net als bij CPU's is de een verder over te clocken dan de andere.

Sterker nog, de ervaring van bijvoorbeeld iPhones is ook voor iedereen anders. En dan doel ik op de mensen die allemaal dezelfde telefoon hebben ofc.
Daarnaast is ook de perceptie van ieder persoon anders, wat sommige mensen als super snel ervaren kan iemand anders als matig of traag ervaren.
Deze discussie hoor ik vaak bij pertinente SSD weigeraars. Nee ik hoef geen SSD, want mijn laptop is al snel genoeg. Voor die persoon dus snel genoeg, voor mij een reden om 5x meer geld ervoor te vragen, want kost me 5x zoveel tijd om te fixen 🤣🤣.
Anoniem: 63072 @jimzz12 mei 2022 18:59
De flickering waar mensen over klagen zijn haperingen in de sync, niet haperingen omdat de CPU te traag is. Die hardware (GPU monitor) combo kan prima syncen. Ik verbaas mij erover dat hier software aan te pas komt.
Schermen kunnen feller zijn op hogere frequenties. Wanneer de LFC erbij komt en vervolgens weer eraf gaat kun je wisselende helderheid krijgen.
Flikkeren is vooral een probleem bij goedkope monitors. Monitors van goede kwaliteit flikkeren totaal niet met Freesync. Nu is die Gsync module inderdaad wel je garantie dat het werkt, maar die ga je niet in goedkope monitors vinden.

[Reactie gewijzigd door Frietsaus op 23 juli 2024 23:37]

Helaas hebben ook de duurdere Samsung monitoren er last van. Voor meer uitleg zie What Is FreeSync Brightness Flickering And Can You Fix It? en sdk1985 in 'Eerste onafhankelijke AMD FSR 2.0-vergelijking met Nvidia DLSS verschijnt online'.

Helemaal in het begin was er natuurlijk helemaal geen LFC (low frame rate compensation). Later is die toegevoegd. Echter waren er schermen reeds op de markt die een te hoge minimum Hz hadden om LFC goed te laten werken; het bereik moet breed genoeg zijn. Maar helaas is ook een scherm met een lagere minimum Hz geen garantie voor een prettige ervaring zonder flickering.

Nvidia heeft overigens een lijst beschikbaar gesteld met gsync compatible monitoren (lees freesync schermen) die het goed zouden moeten doen; https://www.nvidia.com/en...ts/g-sync-monitors/specs/.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 23:37]

Ik heb deze problemen met flickering nooit ervaren als ik freesync gebruik op mijn Dell Alienware AW2518HF, in geen enkele game.
Misschien de goedkope monitoren met een slechte implementatie; Ik heb het op een midend ultra wide en highend ultra wide (van 2 jaar geleden) nog nooit gezien en ik heb het altijd aan staan.
Op mijn laptop met een 3070 en een g-sync scherm heb ik in Diablo 2 Resurrected wel problemen; maar dat is op Linux en Nvidia is daar gewoon niet zo goed in dus dat ligt waarschijnlijk niet aan g-sync.
Mijn ervaring met Freesync op mijn 1070 was dat mijn eerste Freesync monitor (AOC 2590G4) een probleem had met tearing, dus dat er geregeld horizontale lijnen over mijn scherm trokken van boven naar beneden als ik Freesync had aangezet. Bleek dit te komen doordat ik in Windows 10 mijn refresh rate van mijn monitor nog op 60 Hz had staan en niet op 144...
Freesync flickering, het knipperen van je scherm.
FreeSync brightness flickering usually affects high refresh rate VA panels developed by Samsung, but it can also affect displays based on other panel technologies such as IPS, OLED and TN, though it’s not as common.
....
So, let’s say one second you have 48FPS, and therefore, 48Hz, and then, the next second, your FPS drops to 47FPS, and your refresh rate spikes up to 141Hz.

Because your monitor is brighter at higher refresh rates, brightness oscillates.

If your FPS is constantly around 48FPS, LFC rapidly goes on and off — thus causing brightness flickering.

On some monitors, the refresh rate might randomly jump to the maximum value (144Hz, for instance), which can cause brightness flickering too. In this case, you can try limiting the VRR range to three below the maximum (48-141Hz).

FreeSync brightness flickering can also occur with FPS fluctuations even if it’s not near the LFC threshold. This mainly happens in poorly optimized games where your FPS is all over the place.

So, the only way to reduce brightness flickering here is to limit the FPS in that game to whatever framerate you can maintain constantly.

...
When using FreeSync with a compatible NVIDIA graphics card via the G-SYNC Compatible mode, LFC behaves a bit differently than it does with AMD cards.

LFC gets triggered regardless of the monitor’s FreeSync range.

So, if your monitor has a 120-144Hz VRR range, and you’re getting 60FPS, the monitor’s refresh rate will change to 120Hz, whereas with AMD cards — LFC wouldn’t work, and you’d get fixed 144Hz (or 60Hz if VSYNC is enabled).

Further, the LFC threshold is usually different when using an NVIDIA GPU. For instance, with many 48-144Hz FreeSync monitors, LFC kicks in at around 60FPS with NVIDIA cards!

Due to this, FPS fluctuations around the LFC threshold will cause the monitor to rapidly go up and down with refresh rates thus causing brightness flickering.
Het heeft Nvidia de afgelopen jaren geen windeieren gelegd, het was (is) interessante techniek en een USP. Kudos dus dat ze hiermee een nieuw perspectief naar PC gaming hebben gebracht, daar waar voorheen upscaling vooral als iets werd gezien voor inferieure console hardware.

Voor gamers echter een goede zaak dat AMD aantoont dat het ook zonder kan. Nu alleen hopen dat de uitgevers en ontwikkelaars zich niet laten afkopen door Nvidia om geen support voor AMD features in te bouwen. Dat is waar veel AMD features in het verleden gestrand zijn.
fsr 2.0 is niet heel anders dan al bestaande taau (temporal anti aliasing upscaling). fsr 2.0 is een algemene oplossing.
Als we die lijn volgen dan kan je precies hetzelfde over DLSS 2.0+ zeggen. Het is niet meer dan TAAU waar met machine learning de juiste parameters voor upscaling worden gezet.
Beiden technieken doen in de basis temporal upscaling, maar daar is ook alles mee gezegd.

Indien je serieus wilt weten hoe het werkt dan kan ik je de volgende twee videos van AMD en Nvidia aanraden waar ze dieper op DLSS (2.0) en FSR (2.0) ingaan.
DLSS: https://www.youtube.com/watch?v=d5knHzv0IQE
FSR: https://www.youtube.com/watch?v=97JIldpUGE4
Diezelfde inferieure consoles, in ieder geval xbox, ondersteunen ook fsr 2.0. Hierdoor lijkt de toekomst voor fsr er goed uit te zien.
Ik refereer aan de PS4 met z’n checkerboarding techniek, iets waar in de PC community de neus voor op werd gehaald. Uiteraard heeft die techniek z’n nadelen, maar Sony heeft er wel mee aangetoond dat per sé 3840x2160 pure pixels te willen renderen niet altijd de beste besteding van rekencapaciteit is.

Ik ben erg blij met deze technieken want 2160p native is tenzij je met je neus op de pixels zit overkill. Ben verder ook benieuwd hoe het op consoles ingezet gaat worden. Mooie techniek is ‘t :)
Meest nuttige is daarnaast ook de UI en de game render los van elkaar te trekken. Haarscherpe UI elementen, en een game render resolutie die schaalt naar framerate bijvoorbeeld.
Voor gamers echter een goede zaak dat AMD aantoont dat het ook zonder kan. Nu alleen hopen dat de uitgevers en ontwikkelaars zich niet laten afkopen door Nvidia om geen support voor AMD features in te bouwen. Dat is waar veel AMD features in het verleden gestrand zijn.
Dat is natuurlijk onzin. De waarheid is het tegenovergestelde. Nvidia levert support in de vorm van on-site engineers. Ze helpen de ontwikkelaar met het implementeren van technieken. Bij AMD moest men het traditioneel meer zelf uitzoeken (want het was toch open source). Zo ver ik het mee krijg werkt AMD steeds beter samen met de industrie.
Anoniem: 63072 @Jaapjaapers12 mei 2022 18:05
Niet als je de kaarten gebruikt voor neurale netwerken trainen, maar voor gaming zie ik het nu ook niet.

Ik ben onder de indruk van FSR 2, vooral omdat ik in de screenshots waar DLSS wat minder presteert ik de artifacting van DLSS storender vind dan die van FSR waar die minder presteert.

Ze zijn wel beide zo goed dat ik me afvraag of je dat verschil bij bewegende beelden nog ziet. In dat geval zijn de tensor cores voor gaming inderdaad overbodig. Ik vraag mij af hoeveel ontwikkel tijd gamne devs nog in DLSS gaan steken nu ze met FSR 2 een veel grotere markt bedienen en of DLSS daar niet onder gat lijden.
zelfde met G-Sync toen der tijd
Gsync heeft nog altijd voordelen over Freesync. Aleen voor een fikse premium. Zelf geef ik er niets om ik gebruik beide technieken niet. lage inputlag > geen tearing
Ach als ze ooit echt onnodig blijken heeft Nvdia er zo 33 tot 50% prestaties bij als ze die ruimte vullen met andere cores. Ik zeg doen.
Tensor cores doen meer dan alleen dlss. Steeds meer programma's hebben ai componenten.
Ik hoop echt dat FSR nog naar de RX 580 toe komt, dan kan mijn GPU nog vrolijk een paar jaar mee. Hij begint nu een beetje tegen zijn limieten aan te lopen en de GPU prijzen zijn me nog veel te hoog. Een kaart van dezelfde klasse in de huidige gen is honderden euro's duurder.
ja ik ook
Ik was blij verrast door hoe FSR nu al werkt in bijvoorbeeld Senua's Sacrifice waar het icm freesync het spel opeens vloeiend laat draaien ipv rond 40 fps op mijn 580
En dat was nog maar de domme upscaler
Ik dacht vraag het even aan jou. Ik heb een 1440p scherm en een rx6800 kaart. Als ik nou gebruik wil maken van meer frames moet ik dan alleen gewoon FSR 2 aanzetten of ook mijn resolutie tweaken? Snap er eigenlijk niet zo veel van.

Eerder heb ik RSR ofzo gebruikt van AMD en toen moest ik de resolutie van een game naar 1080 schroeven en dan in AMD Adrenaline 1440p aanvinken. Ben nu dus een beetje de weg kwijt :S

Thanks!
RSR is een optie in de driver die je zou moeten kunnen activeren voor elk willekeurig spel, maar geeft niet erg goed resultaat omdat het een simplistische benadering is. Deze gebruik ik niet dus hoe je dit moet inregelen precies weet ik eigenlijk niet.

FSR is een optie in de instellingen in de game zelf (in mijn geval Senua's Sacrifice en Cyberpunk 2077). Ik ken de settings schermen uit die games niet uit mijn hoofd, maar als het goed is en als ik het me goed herinner, was het voldoende om de resolutie gewoon op 1440 te laten staan en dan daar FSR te activeren. Je kiest vervolgens een quality mode die uiteindelijk bepaalt hoeveel % meer FPS je krijgt ten koste van beeldkwaliteit. Voor FSR 1.0 (welke ik gebruikt heb) is alles onder Ultra Quality merkbaar slechter beeld, maar dat zal denk ik erg van het soort spel of jezelf afhangen of je daar erg in hebt.

FSR 2.0 ziet er zo te zien een stuk beter uit dan FSR 1.0 maar zal zo te lezen op soortgelijke manier in het spel zelf ingesteld moeten worden !
Beda je voor je reactie! Ik in het inderdaad gewoon ingame instellen en had hem op quality gezet. Zag er goed uit en kreeg op 1440p ook iets van 30 fps bij in Deathloop. Merci!
Goed om te horen dat het zo eenvoudig werkt. Zelf heb ik Deathloop niet dus het was een beetje gokken!
Ik lees het als "Een 590 of hoger is recommended om 1920x1080 te draaien" dat zou dan niet meteen betekenen dat een 580 het niet mag proberen, hoogstens dat je met hun cocktail van settings hun target framerate niet haalt. Volgens mij zijn de 590 en 580 ook de zelfde architectuur dus dan zouden ze al n software lock er op moeten zetten. Dus mogelijk goed nieuws!
RX 590 is een iets snellere 580. Praktisch dezelfde kaart zviw.

Ik las een bericht dat AMD er over nadenkt om het ook naar die generatie te brengen. Momenteel is het alleen de 6000 serie.
Dit is ook altijd mijn redenering geweest voor deze techniek.

Ik wouw dat dit in combinatie met Freesync, 20 jaar geleden bestond. Toen was om de 2 jaar een nieuwe grafische kaart kopen (Voodoo, TNT, Radeon,...) wat als tiener voor mij niet haalbaar was of het was spelen op 640x480 en alles op low (vaak nog zelfs in *.cfg files extra instellingen inputten om het toch enigszins 30 FPS te halen) Nu ik financieel wat meer vermogend ben zou dit me wel beter lukken nu, Echter merk ik nu dat ik van een 8800GT naar een 760M en nu sinds een 3 jaar een 3060 2060 heb steken. Eerder nu om de 6 jaar upgraden. Spellen draaien toch nog vlot op 5jaar oude hardware.

Ik vind het ergens ook raar dat deze technieken zo hard gepromote worden. Het verlengd de levensduur van de grafische kaarten wat toch niet ten goede zal komen van hun verkoopcijfers.

[Reactie gewijzigd door fleu op 23 juli 2024 23:37]

Het is nog even wachten op bewegende beelden maar stilstaand ziet er goed uit.
Ik merk wel dat ik wat sharpning mis maar zodra ze FSR2.0 + Sharpen gebruiken het soms iets te veel is.
Ik gebruik zelf ook RIS alleen nooit op de default 80% maar op 70%. Er zijn games zoals COD Warzone waar 80 of zelfs 100% wel mooier is maar in de meeste games is het net iets te.

Zo te zien kan je de sharpening met FSR2.0 netjes instellen. Het is mij niet duidelijk waar ze bij Techpowerup voor gegaan zijn wellicht de max setting 10. Maar dan zou 7-8 wellicht een mooier resultaat geven.

Stock FSR2.0 Q vs DLSS Q wint DLSS qua scherpte (wederom stilstaande beelden moet ook bewegende nog zien). Maar met Sharpening aan als je het dan op 7-8 ipv 10 zou zetten is denk ik een Draw. Sommige stukken zijn met FSR net wat mooier andere bv het gaas in de eerste foto bij DLSS iets. Maar als je rond gaat lopen / het spel speelt zie je het verschil denk ik niet. Dit is wel echt pixel peeping.

Ik ben wel benieuwd of FSR2.0 misschien wat sneller draait op RDNA2 hardware (minder overhead doordat de architectuur er voor geoptimaliseerd is).
Dan zou je Native vs FSR2.0 moeten gaan testen op bv een 3070 en 6750XT.

Edit:
ook wat bewegende beelden gekeken. Als je soms in de verte op hekwerk gaat inzoomen is FSR1.0 erg onrustig 2.0 is al een hele verbetering maar daar doet DLSS 2.3 het toch nog weer wat beter en heeft het meest rustige beeld. Dit is vooral bij performance modes erg duidelijk waar DLSS daar ook bij performance modes weinig last van lijkt te hebben.
Nu vind ik zelf vooral de Quality / Ultra Quality settings interessant want ik wil er niet op kwaliteit achteruit gaan. Dan is het wel minder een probleem maar het is niet perfect.

Ik ben benieuwd of ik het tijdens het spelen zou gaan merken / zien maar denk het wel.
Ik ben ook benieuwd of AMD makkelijk met een versie 2.1 kan komen waar ze dat soort zaken nog wat verbeteren. Ik kan mij voorstellen dat er nog wel wat aan het algoritme te tweaken valt.
DLSS was is het verleden ook niet perfect (nog steeds niet) maar heeft grote sprongen gemaakt sinds versie 1.0. En ook sinds 2.0 tot nu.

[Reactie gewijzigd door Astennu op 23 juli 2024 23:37]

Hmm. ik ben geen fan van AMD's sharpening filters. Het wordt er m.i. te korrelig van, niet prettig om naar te kijken. Het is meer een contrast techniek.
Is inderdaad persoonlijk. Ik mis het nu als het uit staat. Vooral wat oudere games met niet zulke scherpte textures worden er erg mooi van. Voorbeelden zijn Mechwarrior Online en Starcraft II. Je kan het ook op een Per game basis in of uitschakelen. Dus je kan het ook alleen voor bepaalde games aan zetten in de driver en default uit laten.
Zoals gezegd vind ik de default sharpness setting niet mooi ik pak dan liever 60-70%.
Sommige games hebben de AMD sharpening filter in hun game opgenomen en kan je niet uitzetten. en is ook los van de videokaart (draait ool op nvidia)
Day klopt maar dan is het een artestieke keizer van de developer dat just er zo uit moet zien.
Tja. In dit geval gaat het om een game waar het op een gegeven moment tussentijds aan is toegevoegd als ‘verbetering’, waar over te twisten valt, helaas zonder te optie het apart uit te kunnen zetten

[Reactie gewijzigd door PjotterP op 23 juli 2024 23:37]

Zodra je de sharpening ziet heb je hem te hoog staan. Het fijne is dat het bij AMD in te stellen is net als op TVs.
Sommige games hebben de AMD sharpening filter in hun game opgenomen en kan je niet uitzetten en is ook los van de videokaart
Geen reden meer om er extra geld en verbruik voor te vragen.
Gaaf om te zien dat ze zulle grote stappen maken.

Gaat Tweakers ook een onafhankelijk vergelijk maken?
Echt prachtig, concurrentie strijd. Later dit jaar RDNA3 met hun mcm een raytracing op niveau. Hier heb ik echt tien jaar op moeten wachten. Wat ben ik Lisa dankbaar om AMD weer zo op de kaart te zetten. Straks hebben we ook weer de strijd tussen AMD en Intel, wanneer AMD zijn AM5 platform uitrolt, dit kan een spectaculair 2023 worden. Laten we hopen dat de prijzen ook eindelijk weer respectabel zijn.
Misschien ben ik 'oud' maar ik vind 'Upscaling' niet echt zo fris. Men probeert gewoon buiten de mogelijke grenzen te presteren (8K 144Hz iemand?) zonder daarvoor de benodigde moeite te nemen. Ik zie dat gewoon niet zitten. Upscaling issues die rare resultaten geven zullen niet veel voorkomend zijn, maar men moet ze wel "maar" voor lief nemen. Verder zie ik upscaling gewoon als een luie truc om zo meer m.i. "neppe" performance te halen (ofja, afweging tussen whatever hier te overwegen valt).

Ik kan daar niet echt mee akkoord gaan.. Doe mij dan maar gewoon een 1440p 120Hz scherm, evt 1080p 60Hz voor raytracing hoor.

Ik blijf wel weg van die hype. Geef mij maar pixel accurate game representatie op een lagere resolutie en met AA aan.

[Reactie gewijzigd door grasmanek94 op 23 juli 2024 23:37]

Als het er goed en accuraat uitziet wat boeit het dan of het native of upscaled is.
Maar dat is het juist, soms werkt het juist niet goed.

Voorbeeld:

https://i.postimg.cc/QdSBYcZf/Untitled.png
Dan zet je het voor die spellen toch uit? Het is nog altijd een optie die je kan gebruiken....
Dat natuurlijk, bij mij staat het ook gewoon uit. Heb het wel eens geprobeerd, maar mijn mening met raytracing is.. tja als de frames naar 40/s gaan dan zet ik raytracing wel uit. Daarvoor ga ik niet op lagere resolutie renderen. Verder heb al veel 4K 1440p en FHD, ultrawides etc kunnen vergelijken en ik moet zeggen dat voor 31.5" 4K m.i. persoonlijk niet nodig is. Op kleinere schermen is voor mij 1080P ook prima, alhoewel aan de kleine kant.
Ik begrijp je niet helemaal. In je eerste post zeg je dat je geen upscaling wil gebruiken omdat het in bepaalde situaties voor slechte resultaten kan zorgen. Maar vervolgens heb je geen probleem met het uitzetten van raytracing om vervolgens naar belichting te moeten kijken die eigenlijk altijd incorrect is en gebaseerd op trucjes.

Dlss etc. zijn hartstikke handig. Ja er zijn gevallen waarin het misschien een minder goed resultaat oplevert maar als het in 99% van de tijd wel beter is dan neem ik hier en daar een artifact wel voor lief. Zeker als je op een tv gamed is het handig als je wel op een hogere resolutie kan spelen maar niet meteen een videokaart van 1000+ euro nodig hebt om een beetje fatsoenlijke performance te halen.
Maar vervolgens heb je geen probleem met het uitzetten van raytracing om vervolgens naar belichting te moeten kijken die eigenlijk altijd incorrect is en gebaseerd op trucjes.
Maar ook met raytracing is het (totaalresultaat) incorrect, dus ik snap niet waarom dit hier van belang is.
Raytracing wordt nog in geen 1 spel op de volledige scenes toegepast voor zover mij bekend. Altijd alleen maar op (kleine) delen / sommige lichtbronnen. Wat ik gewoon niet fris vind is e.e.a. in de wereld pushen (raytracing, 120/144Hz, 4K) maar tegelijkertijd hacks/trucs gebruiken om "soortvan" daaraan te kunnen voldoen, in plaats van de tijd nemen om de technologie te ontwikkelen en om bijvoorbeeld WEL 4k native 120Hz raytracing op alle lichtsources aan te kunnen (bv over 8 jaar?). Zelfs 1080p 60Hz is nog niet met vingers in de neus haalbaar heb ik gemerkt.

Voor de marketing: Noem het dan gewoon wat het is.. Raytracing op 720p 45Hz. Het is geen bedrog om upscaling te gebruiken, maar het voelt wel zo als men het 4K durft te noemen.

[Reactie gewijzigd door grasmanek94 op 23 juli 2024 23:37]

Alleen in demo cases zoals minecraft rtx en quake 2 rtx word een volledige path based raytracer gebruikt voor rendering…. Maar daar heb je dan ook geen complexe geometry in zitten (dus lichter om echt te raytracen). Het geeft mij echt er wel het vertrouwen dat complexere vormen van raytracing in AAA games niet meer lang op zich laten wachten. Zie ook de RT versie van metro Exodus die echt een indrukwekkende global illumination oplossing heeft die echt overtuigend veel beter is dan de reguliere versie (omdat dmv raytracing licht echt meerdere malen door een ruimte kan bouncen). Zie ook: https://youtu.be/NbpZCSf4_Yk

[Reactie gewijzigd door Laurens-R op 23 juli 2024 23:37]

Is dat plaatje niet DLSS 1.0 wat een grote faal was? Lijkt mij totaal niet meer relevant.
Die screenshot zegt niets of de resolute welke stand en hoe de sharpness ingesteld staat terwijl dat wel allemaal impact heeft. Dat softe kan je vaak makkelijk compenseren meet een ruk aan een scherpte schuifje.
wat meer in context zou fijn zijn. Welke DLSS vorm? Hoe ver is er ingezoomed enzo. Ik ben verre van een Nvidia fanboy al heb ik er op het moment wel 1, maar zowel FSR2.0 en DLSS 2.x zijn goeie technieken. Ook tussen DLSS 1 en 2 is er veel verbeterd dus daar heb je nog een mogelijk punt.
Ik vind het inderdaad wel een beetje een 'oude' mening.

Misschien moeten we het verplicht stellen om tientallen procenten stroom te besparen voor de gehele game-wereld. Want mij maak je niet wijs dat jij het verschil gaat zien op 120Hz of 144Hz tussen ge-upscaled 120Hz framerate game content en niet ge-upscalede content.
Voor spelletjes die beelden toch al genereren (dus helemaal niet 'echte foto's tonen') denk ik dat het
slim omgaan dit soort technieken de toekomst is.

We doen het met films ook al --> Compressie in plaats van full-frame, wat op 4K of 8K echt niet lukt
en ook simpelweg te weinig toegevoegde waarde biedt.
Eens! Heb het altijd iets voor low-end of mobiele parts gevonden, maar genoeg duurde het vrij lang tot die er mee mochten beginnen.

Maar voor 4K laptop schermen waar je, gezien de afstand en de grote van het scherm, eindelijk aan 1080p genoeg hebt is het wel een leuke functie om met wat meer scherpte te krijgen zonder een dikker performance impact.
Hype? Heel eerlijk, ik denk dat temporal upscaling technieken de toekomst zijn en dat native rendering op hoge resoluties dood is. Als je nagenoeg dezelfde beeldkwaliteit kan hebben met veel minder performance draw, dan is dat wat mij betreft alleen maar positief. Nog een paar jaar en het verschil is op normale afstand niet meer te zien.
Maar als het menselijk oog:
The limit of detail that human eyes can resolve is about 60 cycles per degree, which helps us make out road signs and recognize faces from afar.
( https://phys.org/news/2018-05-sharp-people-blurry-pets.html )
Under ideal conditions, the human eye has a visual acuity of one line pair per arcminute (or one cycle per 0.017°). This means that it is possible to separate two points that are 0.07 mm apart from 25 cm.
( https://www.researchgate....-arcminute_fig2_328353906 )

Op 25cm komt 0.07mm op een 16:9 31.5" scherm uit op (ja en dan zit je echt dichtbij) 9957x5600 pixels, 10K dus. Misschien dat 20K een limiet is voor "scherpte" ivm aliasing, maar er is een grens.

Als men daadwerkelijk iets kan maken wat geen verschil geeft met native (hint, er is altijd verschil, maar we bedoelen dat niemand het verschil ziet), sure. Nu zie ik nog wel eens een fout ergens en mijn voorkeur is dan om de technologie nog af te wachten. Ik ga niet zeggen dat ik het nooit ga gebruiken, ondanks dat het een cheapo truc in mijn ogen is.
Er is natuurlijk verschil in theorie en praktijk. Als ik cyberpunk 2077 speel op 1440p en 27 inch, zie ik echt het verschil niet tussen native en dlss qualify onder gameplay.

En daar gaat het uiteindelijk om. Niet als je het beeld 300% zoomt.
Als we geen verschil willen maken met native moeten we misschien maar eens vector gebasseerde monitoren introduceren. Misschien een 9957x5600x5600 voxel monitor? Maar zolang onze panelen 2D grids zijn bestaat een concept als een native resolutie niet voor de interne vectors.

Als we bijvoorbeeld een shadowmap uit Unity pakken kan deze bijvoorbeeld uit 4096x4096 textures bestaan. Goed nieuws, het is groter dan de resolutie van onze monitor. Slechts nieuws, we kunnen er dichter op af lopen in de 3D ruimte waardoor de pixel dichtheid ineens lager is. Nog slechter nieuws, als we niet expres de raster filteren krijg je aliasing. Waarom denk je dat schaduws anders soms pixelachtig overkomen in games?

Nog leuker, anti aliasing gaat volkomen tegen je geloof van een native resolutie pixel perfect render in. Door anti aliasing en anisotropic filtering te gebruiken filter je intentioneel je pixel perfect raster voor een mooier beeld. Dit is wenselijk omdat een 2D pixel grid onmogelijk een accurate weergave van 3D vectors kan maken.

Juist door de moeilijkheden bij het rasterizen van een native resolution image is het mogelijk door de beweging, kleur en diepte data mee te nemen een lagere resolutie scene te upscalen naar een bijna, net zo of zelfs mooiere image dan de native resolutie. Je zou upscaling ook kunnen zien als de evolutie van anti aliasing.
Ik kan dan inderdaad bevestigen dat je mening op oude ideeën gebasseerd zijn. Vroeger waren games gemaakt met pixel art en was de 1:1 presentatie belangrijk om de artistische presentatie goed over te brengen. Maar die tijd is voorbij. Tegenwoordig hebben we 3D games die met vector graphics gerepresenteerd worden. Maar omdat we 2D pixel monitoren hebben moeten we doormiddel van rasterization de vectors vertalen naar een 2D plane. De graphics en de representatie van de graphics zijn dus niet meer gelijk aan elkaar.

De reden waarom anti aliasing bestaat is omdat we willen voorkomen dat we een "pixel perfecte" representatie van de graphics te zien krijgen. Juist nu we de vector graphics en de rasterization meer van elkaar loskoppelen kunnen we de kwaliteit van de 3D graphics verhogen zonder de render resolutie te verhogen. Hierdoor is het zelfs mogelijk om upscalers te maken die een hoger kwaliteit eindresultaat bieden dan de native resolutie.
Dit vind ik een beetje naïef van je hoor.
Die rare issues die upscaling geeft is niet anders dan de rare issues die de nieuwe temporale AA technieken geven, zoals ghosting en shimmering van dunne geometrie. Dit bestaat al langer dan upscaling dus je neemt het al langer "maar" voor lief dan je denkt.
Verder worden er vaak sommige effecten intern al op lage resolutie gerenderd en geupscaled. Killzone deed dat al op de eerste PS4. Vaak wordt dit gedaan met wolken of andere vorm van volumetric lightning. Andere spellen doen dit ook met reflecties. Betekend nu dat je deze effecten ook altijd uitschakelt?
Kom maar op met die scaling, als ik op vergelijkbare kwaliteit dezelfde games langer op hogere resoluties kan spelen, vind ik het dikke prima. DLSS is, indien juist toegepast, lastig met het blote oog te ontdekken als je er niet naar op zoek gaat. Je hebt af en toe wat stomme bugs (half-transparante dingen als hekken zijn soms een bende) maar in de praktijk merk ik DLSS eigenlijk niet zo.

Ja, shaders van native kwaliteit doen het beter maar mijn scherm schaalt niet naar 720p zonder dat de pixels niet meer kloppen dus resolutie verlagen wordt een drama. Doe mij naar 720p > 1080p upscaling zodat mijn GPU een paar jaar langer meegaat.
Ik was geen fan van het idee maar ik gebruik RSR nu met al mijn games ondanks dat bepaalde zaken zoals kabels en dunne lijntjes er slechter uit zien.
Scheelt al snel 30% power draw. Money in the pocket en met de zomer op komst lijkt me dat ook geen slecht idee. Het is nu al 25 graden hierboven en het is nog niet eens zomer.
Indien upscaling zou werken zoals jij beschrijft dan zou ik het met je eens zijn. Echter in geval van DLSS in F1 2020 gaf die techniek niet alleen een hogere frame rate maar ook de scherpste witte circuit lijnen, scherper dan TSAA en de alternatieven van AMD.

(Stom genoeg werkte DLSS in F1 2021 overigens dramatisch, bij launch zag je de antenne 7 keer dubbel.)

[Reactie gewijzigd door sdk1985 op 23 juli 2024 23:37]

Ja maar anders moeten de developers hun spellen daadwerkelijk optimaliseren en dat is veeeels te veel moeite /s /s
Even belangrijk om te melden, en wat ik nergens in de comments op jou zie: op dit moment is het zo dat in de meeste games DLSS (en nu dus FSR 2.0) quality mode er beter uitziet dan de native rendering. Dit omdat de TAA oplossing van de meeste games simpelweg slechter is afgesteld dan de moderne upscaling.
Momenteel 'upscale' ik 1080p/1440p games naar 4k via de scaler in mijn monitor. Ziet er doorgaans dikke prima uit.

Als FSR dit kan zonder enige performance loss, met nog mooiere pixels. Why not. Of dat ik mijn trouwe RX 580 nog een paar jaartjes kan blijven gebruiken door op een FSR 1080p>1440/4k te blijven hangen. Graag.

Ik ben al een paar jaar dik tevreden met de graphics van tegenwoordig, maar meer is altijd beter, vooral als ik er niet vele honderden euro's voor hoef uit te geven.
Is maar voor een spelletje te spelen, maakt toch niet uit dat het dan soms eens wat minder accuraat is?
Het is absoluut niet erg, en opties zijn zeker fijn. Maar misschien was mijn preferentie geweest dat in plaats van cheapo trucs zoals upscalen, om geld te investeren in zuinigere GPU's die meer raw performance/watt kunnen leveren, en wel gewoon echte 4K 240Hz raytracing aan kunnen... of whatever de markt wil behalen met upscalers.
Lekker doordacht ook.

1) Je dacht, dat als we met de huidige kaarten al geeneens 1080p op 60hz met volledige raytracing kunnen halen, er door er meer geld in te investeren er opeens "wel gewoon echte 4K 240 hz" uit komt rollen en ook nog eens zuiniger?

Tuurlijk, opeens kunnen we (x)xx keer zo snel raytracen, kwestie van wat geld ergens inpompen?
Er zijn ook verder helemaal geen technische limieten (cpu's die het niet bijhouden, pci-express-sloten die het helemaal niet bijhouden, geheugen dat te langzaam is, gigantische koelingsproblemen) of financiële kanten. Iedere klant die wil natuurlijk graag € 20.000 betalen voor een gpu en een kerncentrale in zijn tuin zetten, geen enkel probleem.

Wat je blijkbaar volstrekt niet snapt is de hoeveelheid gpu-power je daar voor nodig hebt. En dan moeten ze ook nog eens gewoon volledig wachten omdat het niet interessant is als ze er eerder mee komen en geen über-performance halen en moeten ze ook nog eens echte performance geven, want als het voor 99% gesimuleerd kan worden, dan is het niet goed voor grasmanek94.

Stel dat er nu 15% van de data op een 1080p-monitor daadwerkelijk geraytraced kan worden, dan moet het dus 7x zo snel worden voor full 1080p en dan nog eens 16x voor 4K@240hz. Dus grofweg zo'n 100x sneller.

Stel dat ze 40% per jaar zouden kunnen verbeteren, (dat is een revolutie ieder jaar, maar goed), dan zullen ze dus pas over 14 jaar de door jou gewenste performance halen. En dat is met het er van uitgaan dat er geen enkele belemmering zit in het behalen van deze performance.

Succes met wachten.

Want dat gaat er op die manier natuurlijk nooit komen. Er is geen enkele firma die 14 jaar lang zonder enige inkomsten uit deze R&D dit kan of gaat doen.

En dan zijn we nog even vergeten dat we dan nog tig keer zoveel stroom verbruiken dan dat we deden voor 1080p @15%, dus daar zijn we ook nog wel een flink aantal jaren mee bezig om dat te ontwikkelen. Ik hoor je wel weer in 2050.

2) de opmerking over de resolutie van de schermen slaat ook nergens op. Alsof je alleen met 100% geraytracete beelden op 4K @240hz kunt gamen. En monitoren zijn voor heel wat meer dingen bedoeld dan alleen gamen. Daar is een hoge resolutie heel erg handig voor.

Hadden ze voor jou ook nog even 100 jaar moeten doorgaan met paard en wagen omdat de volstrekt subjectieve 400 km/h (net als jouw 4K@240hz) niet door de 1e auto gehaald werd?

Maar jij gaat blijkbaar zitten wachten totdat je van je 320x200-monitor af kunt stappen omdat ze over 30 jaar misschien 4K @240hz realtime kunnen raytracen. En waarom heb je dan überhaupt ooit een monitor gekocht, want het is toch op ieder moment duidelijk dat dat een slap aftreksel is van de werkelijkheid, de scherpte van het menselijk oog?!


Wat een hypocriete onzin.
But why not both? Waarom denk je dat deze upscalers development weg nemen in het meer performance/watt te behalen? Zijn een totaal ander soort engineers mee bezig
Mogelijk wel, maar allebei zitten natuurlijk wel in de prijs, toch?

Hoe men het ook knijpt, wringt, draait, etc.. ik denk zelf dat als men al in lagere resolutie wil renderen.. dat men dan gewoon een scherm op lagere resolutie moet nemen. Het lijkt voor mij een beetje 'de verkeerde kant op gaan', eerst iedereen en alles naar hogere resoluties pushen, meer frames per seconde, om daarna er achter te komen dat men het niet bij kan benen en op half of kwart res te gaan renderen.. om te upscalen.. om aan die hogere resolutie en frames verwachtingen te kunnen voldoen. Dan had ik zoiets.. stop dan met zo hard hogere resoluties pushen, neem je tijd / doe wat rustiger aan? Rome was ook niet in 1 dag gebouwd.

Doet mij een beetje denken aan: "Maarja marketing zou het natuurlijk nooit goed kunnen praten dat we 2e generatie raytracing hebben en niet 4k 60Hz aan kunnen.., dan maar een half oplossing ff snel erin duct-tapen zodat we wel kunnen roepen `raytracing 4k60hz`*".

* - 0.25 renderfactor upscaled

[Reactie gewijzigd door grasmanek94 op 23 juli 2024 23:37]

We hebben het over graphics van computerspelletjes op je monitor, niet de eventuele mission critical output van een rekenmachine
Nja rekenen is ook niet altijd mission critical, fouten zijn toegestaan, maar niet fijn. Net zo als een grote waas zien op een scherm in plaats van een bewegende hand omdat toevallig een scaler slecht werkt. Ik kies liever voor iets dat gewoon altijd werkt.
Die oude upscalers zijn voor mij op de normale kijkafstand doorgaans prima. In sommige gevallen zie ik het wel, maar merk er bar weinig van tijdens het gamen zelf. Terwijl ik op 4k@28inch zonder scaling prima normale tekst kan lezen.

Als FSR het een stuk beter kan doen dan ouderwets scalen, wat er wel naar uit ziet. Ben ik dik tevreden. Ik voel dat de limieten van mijn RX580 benaderd worden voor wat voor mij acceptabel is in pixelkwaliteit. Nieuwe games op low zien er gewoon slechter uit dan oude games op high/ultra, alhoewel ik nog niet onder medium/high hoef te gaan.

Met FSR kan die RX580 wel eens (voor mij) de beste GPU zijn die ik ooit gehad heb. Ik heb er ook geen zin in om meer dan 300 euro uit te geven voor nauwelijks betere pixels of ruim het dubbele voor een mid-high end kaartje uit de huidige generatie.

[Reactie gewijzigd door batjes op 23 juli 2024 23:37]

TV AI upscalers zullen nooit zo goed kunnen werken als DLSS 2.0 of FSR 2.0, de reden is dat ze gewoon niet de juiste data hebben om goed te kunnen upscalen. Je mist motion vectors waardoor dingen zoals ghosting inderdaad niet op te lossen zijn.
Oude pc monitors lopen tegen hetzelfde punt aan, die gebruiken eigenlijk allemaal een spatial filter dat minder goed is dan FSR 1.0. Je zal daar dus ook nooit dezelfde kwaliteit halen als mogelijk is met bijvoorlbeeld FSR 1.0, FSR 2.0 en DLSS.

Ik zie overigens beide technieken als leuke stap om op een goedkopere manier AA toe te passen op mijn scherm middels VSR/DSR. Zie het als een goedkope supersampling.
Waarom niet naar de 6800 (xt) 6900 (xt)?
AuteurAverageNL Nieuwsredacteur @Williams12312 mei 2022 15:08
FSR 2.0 komt ook gewoon naar die kaarten - in de tabel staat dan ook 'en hoger' :)
Ik heb deze vergelijking gezien:
https://www.youtube.com/watch?v=BxW-1LRB80I

En ze liggen echt heel dicht bij elkaar. Toch vind ik FSR2.0 het beter doen met textures. Deze lijken een stuk scherper te zijn dan DLSS. Alleen doet DLSS de fijnere details zoals lijnen/kabels in dit voorbeeld een stuk beter.
AMD gooit er met FSR gewoon een agressiever scherpte filter tegenaan. Iets dat Nvidia ook zou kunnen doen maar kiest om het niet te doen omdat dat juist weer negatieve aspecten kan geven zoals sharpness artifacts.
Je kan het natuurlijk nog altijd zelf doen voor hetzelfde scherpere effect.

Kwestie van smaak ook. waar velen genoegen nemen met een basis luma scherpte slider ben ik nog altijd van van reshade met een combinatie van lumasharpen, adaptivesharpen, en finesharpen op alle 3 net iets mindere settings maar daardoor krijg je een heel mooi gebalanceerd beeld zonder de nadelen van artifacts.

Ik ben wel benieuwd hoe die lijnen en kabels eruit zouden zien als beide softer of beide een zelfde scherpte hadden. zien ze er bij Nvidia beter uit omdat er minder scherpte is en de pixels dus wat meer blurry zijn of weet DLSS echt meer data te genereren waardoor het beter is.

Op dit item kan niet meer gereageerd worden.