Door Reinoud Dik

Redacteur

AMD aan kop in nieuwe Nixxes-port

Ghost of Tsushima Benchmark

07-06-2024 • 06:00

82

Multipage-opmaak

Inleiding

Steeds vaker worden er PlayStation-games geport naar de pc, zoals we gezien hebben bij Horizon: Forbidden West, Ratchet & Clank: Rift Apart en Spider-Man Remastered. Wat deze games gemeen hebben met Ghost of Tsushima, dat kortgeleden voor de pc verscheen, is dat Nixxes Software de ontwikkeling van de pc-versie heeft gedaan.

Ghost of Tsushima kwam vier jaar geleden uit voor de PlayStation 4. Het spel kreeg ruim een jaar later een expansion genaamd Director's Cut, die ook voor de PlayStation 5 beschikbaar kwam. Deze uitgebreide versie is sinds kort ook voor de pc beschikbaar, met enkele extra's zoals DLSS, FSR en XeSS voor upscaling, ondersteuning voor ultrawidemonitors en een unlocked framerate.

Systeemeisen

Om Ghost of Tsushima op de pc te kunnen spelen, heb je volgens de ontwikkelaars niet zulke snelle hardware nodig. Een midrange videokaart van een paar generaties terug zou al voldoende moeten zijn, zelfs als het gaat om de aanbevolen specificaties. De genoemde RTX 2060 en RX 5600 XT beschikken over 6GB videogeheugen. Wat processors betreft zijn de opties minstens zo bescheiden, met zelfs een dualcore als minimale optie. Ook de genoemde hoeveelheid werkgeheugen en de hoeveelheid opslagruimte is alles behalve spannend. Het gebruik van een ssd is slechts een aanbeveling. Voor de hogere settings worden wel snellere en modernere videokaarten aanbevolen, tot een RTX 4080 en RX 7900 XT aan toe.

Pc-specs Ghost of Tsushima Very Low (720p 30fps) Medium (1080p 60fps) High (1440p 60fps) Very High (4K 60fps)
Gpu GeForce GTX 960 of Radeon RX 5500 XT GeForce RTX 2060 of Radeon RX 5600 XT GeForce RTX 3070 of Radeon RX 6800 GeForce RTX 4080 of Radeon RX 7900 XT
Cpu Core i3-7100 of Ryzen 3 1200 Core i5-8600 of Ryzen 5 3600 Core i5-11400 of Ryzen 5 5600
Werkgeheugen 8GB 16GB
Besturingssysteem Windows 10 64bit
Opslag 75GB hdd 75GB ssd

Beeldkwaliteit en testmethode

Ghost of Tsushima biedt op de pc een hele reeks grafische instellingen die per stuk naar wens zijn aan te passen. Ook kun je natuurlijk gebruikmaken van de vijf presets waarmee alle losse instellingen op een gecombineerd vast niveau worden gezet. Op de screenshots hieronder is te zien hoe deze presets zich grafisch tot elkaar verhouden.

Ghost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PC
Ghost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PC
Ghost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PC
Ghost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PCGhost of Tsushima Director's Cut PC

Testmethode

Voor deze losse gamebenchmarks meten we de prestaties met verschillende referentiesystemen. De gebruikte videokaarten zijn gekozen op basis van zoveel mogelijk vergelijkbare gemiddelde prestaties van modellen uit dezelfde generatie. Bij de processorselectie hebben we primair de rekenkracht en gemiddelde gamingprestaties goed laten aansluiten op de overige hardware, in plaats van een uiterst snel model dat pc-gamers met onderstaande videokaarten niet snel in een eigen pc hebben zitten.

De pc-versie van Ghost of Tsushima is getest met gameversie 1053.3.0604.1051, die op 5 juni verscheen en door de ontwikkelaar 'Patch 3' wordt genoemd. Als gpu-drivers hebben we de nieuwste drivers op het moment van testen gebruikt. Voor GeForce-kaarten is dat 555.99 en voor Radeon-kaarten is 24.5.1 gebruikt. Voor Intel Arc is driver 101.5534 gebruikt. Al deze drivers hebben ondersteuning en optimalisaties ingebakken voor het spel. De benchmarks op de volgende pagina's zijn allemaal zonder upscalingtechnieken gedraaid, tenzij anders aangegeven.

De prestaties op de komende pagina's zijn opgedeeld in twee stukken. Eerst bespreken we de gemiddelde framerates en het 99e percentiel van de frametimes, omgerekend naar fps. Voor een uitgebreidere analyse is er vervolgens een percentielgrafiek die een overzicht geeft van de consistentie van deze frametimes.

Testsystemen voor benchmarks pc-games 'Instapgame-pc' (1080p) 'Midrangegame-pc' (1440p) 'High-end game-pc' (2160p)
Cpu AMD Ryzen 5 3600X AMD Ryzen 7 5700X Intel Core i9-13900K (@5,5GHz allcore)
Grafische kaarten
Werkgeheugen 16GB DDR4-3200CL16 16GB DDR4-3600CL16 32GB DDR5-7200CL34
Processorkoeler Noctua NH-U12S Noctua NH-U12S SE-AM4 Alphacool Eisblock XPX, Alphacool XT45 480mm-radiator, Alphacool D5-waterpomp, be quiet Pure Wings 2-ventilators
Moederbord MSI MEG X570 Godlike (Agesa 1.2.0.C) - Resizable BAR ingeschakeld MSI MEG X570 Godlike (Agesa 1.2.0.C) - Resizable BAR ingeschakeld Gigabyte Aorus Z790 Master - Resizable BAR ingeschakeld
Voeding Seasonic Focus GX-650 Seasonic Prime GX-850 Be quiet Dark Power Pro 12 1200W
Opslag Samsung 970 Evo Plus 500GB Samsung 970 Evo Plus 500GB Silicon Power XS70 4TB
Besturingssysteem Windows 11 Pro Windows 11 Pro Windows 11 Pro

Prestaties instapgame-pc

Op onze instapgame-pc testen we op 1080p-resolutie, waarvoor we zowel de GeForce RTX 2070 als de Radeon RX 5700 gebruiken. Dit draaien we in combinatie met een Ryzen 5 3600X en 16GB DDR4-3200-geheugen.

Gemiddelde framerates bij presets

De RTX 2070 wordt in onze test op elke preset verslagen door de RX 5700. In Ghost of Tsushima is de Radeon-kaart consistent ruim 10 procent sneller dan de GeForce-tegenhanger, ongeacht welke preset wordt gekozen. Omdat de RTX 2070 geen ondersteuning heeft voor Resizable BAR, zou dat nog een voordeel kunnen zijn voor AMD. Maar een test op de RX 5700 met ReBar uitgeschakeld, komt op vrijwel dezelfde gemiddelde framerates en frametimes uit.

  • Very High
  • High
  • Medium
Ghost of Tsushima (PC) - 1080p very high
Pc Minimum- / Gemiddelde framerate in fps (hoger is beter)
Radeon RX 5700
51,8 59,0
GeForce RTX 2070
42,8 52,7
Ghost of Tsushima (PC) - 1080p high
Pc Minimum- / Gemiddelde framerate in fps (hoger is beter)
Radeon RX 5700
69,2 77,0
GeForce RTX 2070
60,0 69,0
Ghost of Tsushima (PC) - 1080p medium
Pc Minimum- / Gemiddelde framerate in fps (hoger is beter)
Radeon RX 5700
77,7 86,8
GeForce RTX 2070
66,1 77,5

Frametimes

In de frametimes is te zien dat AMD bij hogere percentielen steeds verder uitloopt op Nvidia. Dat betekent dat de GeForce-kaart meer variatie vertoont in hoe lang het duurt om een volgend frame klaar te hebben. Vooral de zwaarste frames duren langer om te berekenen op de RTX 2070 dan op de RX 5700.

  • Very High
  • High
  • Medium

Prestaties midrangegame-pc

Op onze midrangegame-pc testen we op 1440p-resolutie, waarvoor we de GeForce RTX 3070, Radeon RX 6750 XT en Arc A770 gebruiken. Dit draaien we in combinatie met een Ryzen 7 5700X en 16GB DDR4-3600-geheugen.

Gemiddelde framerates bij presets

Ook op het midrangesysteem zien we AMD de leiding nemen. De RX 6750 XT loopt op Very High-instelling ruim 8 procent voor op de RTX 3070, terwijl op de lagere presets het verschil zelfs ruim 10 procent bedraagt. De achterstand van Intels Arc A770 is in deze game iets minder groot dan we bij andere spellen, waaronder Horizon Forbidden West, hebben gezien. Bovendien is de verhouding ten opzichte van de RTX 3070 niet afhankelijk van de grafische instellingen.

  • Very High
  • High
  • Medium
Ghost of Tsushima (PC) - 1440p very high
Pc Minimum- / Gemiddelde framerate in fps (hoger is beter)
Radeon RX 6750 XT
59,8 67,5
GeForce RTX 3070
55,5 62,3
Arc A770
45,5 51,5
Ghost of Tsushima (PC) - 1440p high
Pc Minimum- / Gemiddelde framerate in fps (hoger is beter)
Radeon RX 6750 XT
77,3 86,2
GeForce RTX 3070
69,5 78,0
Arc A770
57,2 64,8
Ghost of Tsushima (PC) - 1440p medium
Pc Minimum- / Gemiddelde framerate in fps (hoger is beter)
Radeon RX 6750 XT
84,6 95,2
GeForce RTX 3070
76,0 85,8
Arc A770
60,4 70,9

Frametimes

Het verloop van de frametimes is aardig evenredig bij de drie fabrikanten. Alleen bij de hoogste percentielen ziet Intel een veel sterkere toename, iets wat Nvidia en vooral AMD beter onder controle hebben.

  • Very High
  • High
  • Medium

Prestaties high-end game-pc

Op onze high-end game-pc testen we op 4k-resolutie, waarvoor we de GeForce RTX 4080 Super en Radeon RX 7900 XTX gebruiken. Dit draaien we in combinatie met een overgeklokte Intel Core i9 13900K met 32GB DDR5-7200-geheugen.

Gemiddelde framerates bij presets

De voorsprong van AMD op Nvidia is op onze high-end game-pc het grootst. De RX 7900 XT loopt afhankelijk van de grafische instellingen 16 tot 17 procent voor op de RTX 4080 Super in onze test. Dat is nog meer dan we zagen op de langzamere systemen. Toch lukt het beide videokaarten om op de Very High-preset altijd boven de 60fps te blijven, al zit AMD daar dus ruimer boven.

  • Very High
  • High
  • Medium
Ghost of Tsushima (PC) - 2160p very high
Pc Minimum- / Gemiddelde framerate in fps (hoger is beter)
Radeon RX 7900 XTX
75,2 81,2
GeForce RTX 4080 Super
63,6 70,0
Ghost of Tsushima (PC) - 2160p high
Pc Minimum- / Gemiddelde framerate in fps (hoger is beter)
Radeon RX 7900 XTX
89,5 98,2
GeForce RTX 4080 Super
77,2 84,5
Ghost of Tsushima (PC) - 2160p medium
Pc Minimum- / Gemiddelde framerate in fps (hoger is beter)
Radeon RX 7900 XTX
97,3 107,0
GeForce RTX 4080 Super
81,8 91,4

Frametimes

AMD is consistent sneller met het klaarzetten van opvolgende frames. Maar in de hoogste percentielen ziet ook AMD een duidelijke stijging in frametimes, vooral op de High- en Medium-presets.

  • Very High
  • High
  • Medium

Tot slot

Aan de systeemeisen van Ghost of Tsushima voor de pc valt al te zien dat het om een paar jaar oude game gaat. Er is relatief weinig processorkracht nodig om te game goed te laten draaien, en de pc-versie verdeelt dat rekenwerk bovendien goed over de beschikbare cpu-cores. Nixxes Software heeft er goed voor gezorgd dat de videokaart aan het werk kan worden gezet en dus niet op de cpu hoeft te wachten. Alleen bij de eerste keer inladen van het spel wordt de processor volop aan het werk gezet om de shadercompilatie uit te voeren.

De videokaarten van AMD doen het in Ghost of Tsushima consistent beter dan hun directe GeForce-tegenhangers, met prestaties die al gauw tussen de 10 en 15 procent hoger liggen. Dat betekent niet dat de kaarten van Nvidia in onze test geen speelbare framerates neerzetten, maar de vergeleken modellen liggen in een reeks andere games gemiddeld veel dichter bij elkaar dan we in Ghost of Tsushima zien. De Intel Arc-videokaart staat onderaan in de grafieken van het midrangesysteem, maar de achterstand van de A770 is minder groot dan we eerder zagen bij bijvoorbeeld Horizon: Forbidden West.

Gemiddeld 60fps halen in Ghost Tsushima, zal op veel systemen dus wel lukken, met mogelijk hier en daar wat aanpassingen in de grafische instellingen. Aan de kant van de processor loop je waarschijnlijk niet snel tegen problemen aan. Het is primair de videokaart die in dit spel bepaalt hoeveel schilderachtige beelden per seconde op je beeldscherm verschijnen.

Ghost of Tsushima: Director's Cut

Reacties (82)

82
80
39
0
0
37
Wijzig sortering
Er mocht wel even een kanttekening geplaatst worden bij de implementatie van TAA in dit spel. TAA zorgt er namelijk voor dat er toch een soort "waas" over het spel komt. Dit is op te lossen door of geen AA te gebruiken (= ook niet echt mooi), te kiezen voor een upscaler zoals DLSS, FSR, XeSS of (nvidia only) DLAA.

DLAA zal in dit geval het mooiste resultaat opleveren, maar wel de zwaarste impact op de performance hebben. Kijkend naar de upscalers dan is DLSS in de meeste gevallen de beste qua prestatie/beeldkwaliteit.
Wil je dus de beste beeldkwaliteit dan zul je af moeten stappen van TAA waardoor het nog maar de vraag is of de 7900 XTX de snelste is.

Voor een compleet beeld had er dan ook getest moeten worden met DLSS, FSR, etc. Daarnaast is dit 1 van de weinige spellen die het nieuwe FSR Frame Generation ondersteund, iets dat ook compleet buiten beschouwing wordt gelaten in deze test.

@Trygve Wat is de reden dat Tweakers structureel geen DLSS, FSR, etc. EN ray tracing (niet van toepassing bij dit spel) meeneemt in de benchmarks?

[Reactie gewijzigd door MazeWing op 23 juli 2024 14:26]

Uit het artikel: " De benchmarks op de volgende pagina's zijn allemaal zonder upscalingtechnieken gedraaid, tenzij anders aangegeven."

Daaruit haal ik uit dat upscaling niet nodig is om de game te spelen in al z'n pracht en praal. Het is geen e-sport game waardoor ultra hoge frame rates waarschijnlijk niet nodig zijn. Ik ben het eens met deze methode van testen omdat alle vormen van upscaling hoe dan ook leidt tot kwaliteitsverlies. Als het niet nodig is, niet gebruiken.
De tijd dat upscaling per definitie een mindere beeldkwaliteit had ligt al een tijdje achter ons. De huidige technieken verhelpen een boel mankementen die optreden bij TAA. Daarnaast in een wereld met 4K schermen die een refresh rate halen van 240 Hz is een hogere framerate dan 60 fps altijd meegenomen. Natuurlijk is dat bij dit spel minder relevant dan bij een shooter, maar toch blijft 120 fps veel soepeler aanvoelen dan 60 fps.

Ik blijf dan ook bij mijn mening dat het achterhaald is van Tweakers om upscaling niet mee te nemen bij benchmarks. Het is tegenwoordig bijna een "free lunch" en buiten tijdsbesparing vanuit de redactie kan ik dan ook geen andere reden bedenken. Idem met ray tracing. Indien een spel dit ondersteund hoort het gewoon getest te worden ook al scoort AMD daar slechter in....
Als je hardware het toestaat, gebruik je MSAA boven TAA als je voor kwaliteit gaat. En leuk dat upscaling bestaat maar zou nooit default moeten zijn of worden. Het is een pleister voor het probleem dat hardware achterblijft op de mogelijkheden van de game engines. Beetje het Crysis-effect. Dat was toen één game, nu zijn het er tientallen, misschien al honderden.

De topkaarten komen net mee om de hoogste kwaliteit te leveren met hoge framerates. Dat een monitor 240Hz haalt, betekent niet dat het nodig is om een wauw effect te ervaren. 4K hebben is prachtig maar als je upscaling nodig hebt om er enigszins gebruik van te kunnen maken, is er een mismatch tussen videokaart en monitor.

Upscaling meenemen is daarom onjuist om mee te nemen in benchmarks, je vergelijkt er geen hardware mee maar de software en drivers van nVidia, AMD en Intel.
Ik zou nooit meer alleen MSAA kunnen gebruiken, doordat het zich alleen op de randen van polygonen richt heb je zoveel temporele instabiliteit binnen je polygonen. Van die flikkerende specular spikkels, dan heb ik liever een stabieler wat waziger beeld dan haarscherp maar met flikkeringen zoals bij MSAA
Ik denk dat je MSAA niet begrijpt. Van alle varianten van AA is MSAA de zwaarste en levert de minste artifacten op als in geen. Dat komt doordat er gedownsampled wordt ipv geupsampled. MSAAx2 is wat ruwer dan TAA maar er nooit ghosting aanwezig. MSAAx8 levert het mooiste beeld op wat mogelijk is maar de FPS zullen dan flink afnemen. Dit alles in native resolutie natuurlijk. MSAA is geen optie icm met upscaling.
Nee SSAA is het zwaarst. SSAA is de AA techniek die het beeld in een veel hogere resolutie rendered en dan downsampled waardoor alles (incl. textures en shader effecten zoals specular highlights) is ge-anti aliased. MSAA kijkt wel degelijk enkel naar triangle edges. De 2x/4x/8x samples worden alleen genomen wanneer een pixel meerdere triangles overlapt. Bij 2x word er op twee punten in de pixel gekeken of er verschillende triangles zijn, bij 4x op vier etc. Detecteerd elke punt dezelfde triangle dan zit een pixel in het midden van een triangle dan word er maar 1 color en depth sample genomen en word er dus geen AA toegepast dus dan rendered de shader in native resolutie op die pixel. Daarom kan je nog steeds Shader Aliasing en Texture Aliasing bij MSAA zien (dus ja dat kan flikkeringen veroorzaken als enkel een gedeelte van een specular highlight word geAAed en dat gedeelte steeds verschuift) . Bij 8x is Shader Aliasing en Texture Aliasing het minst opvallend omdat door die 8 meet punten op een pixel de kans groter is dat er op een pixel meerdere triangles word gevonden.

TAA heeft dat probleem van shader aliasing en texture aliasing verholpen door net als SSAA alle pixels te multi samplen maar verspreid dat over meerdere frames. En TAA is makkelijker te implementeren in een deferred rendering pipeline dan MSAA

[Reactie gewijzigd door ashwin911 op 23 juli 2024 14:26]

.oisyn Moderator Devschuur® @ashwin9117 juni 2024 13:32
Nou ja, MSAA "kijkt" natuurlijk niet naar meerdere triangles, want het is een techniek die ook gewoon losse triangles tekent. Het verschil met SSAA is vooral dat de pixelshader maar 1x wordt uitgevoerd en het resultaat toegepast wordt op alle subsamples tegelijk, wat een bak performance scheelt, en idd leidt tot de kern van je punt: je krijgt geen shader anti-aliasing.
Hoe zit dat eigenlijk met MSAA in moderne games?
Er was een tijd dat het volledig verdwenen was, vanwege het door jou genoemde deferred rendering. Is men van dat laatste weer afgestapt, of is er dan toch weer een mogelijkheid gevonden?

SSAA zou ik eigenlijk amper nog anti-aliasing kunnen noemen. Het is eerder een brute-force methode door het renderen op een viervoudige resolutie en dit vervolgens weer te downscalen. Een mooie optie voor oudere games op nieuwe hardware omdat het, indien de engine het toelaat, de meest eenvoudige manier is van AA.
Beetje het Crysis-effect. Dat was toen één game, nu zijn het er tientallen, misschien al honderden.
Dat valt behoorlijk mee. Ik kan de games welke niet acceptabel werken op mijn RTX 3060 nog op één vinger tellen. Dat op een 1440p monitor, terwijl mijn tolerantie voor lage framerates ook behoorlijk is vermindert sinds 2007.
Bij Crysis moest je echt niet aankomen met een 4 jaar oude midrange kaart.
Het is een pleister
Het is een stuk gereedschap. 3D rendering is altijd afwegingen maken en nu heb je een extra keuze.

[Reactie gewijzigd door Wolfos op 23 juli 2024 14:26]

Dat is gewoon een algemene trend in pc land. Een 10 jaar oude pc kun je nog prima gebruiken als internet bakkie.
Dochter van een kennis is heel blij met mijn I7 2700K. Met een SSD en wat meer ram, wat tegenwoordig voor echt een habbekrats 2e hands te krijgen is voldoet ie prima.

Haar niet vertellen dat ik stiekem de videokaart vervangen heb voor een GTX1060 zodat roblox fatsoenlijk draait. ;)
Maar ook dat is effectief een niet courante kaart meer van 4 generaties geleden. En lag toch stof te happen op de plank.
Ik ben het met je eens dat de optimalisatie tegenwoordig ver te zoeken is....

Maar los van optimalisatie blijf je vaak last houden van de nadelen van TAA. In veel gevallen is er geen alternatief zoals MSAA beschikbaar. Zelfs volledig uitschakelen is vaak niet mogelijk.

Wat betreft benchmarks en DLSS, etc. DLSS maakt nog steeds gebruik van de tensor cores en zou dus beter moeten draaien op kaarten met meer van deze cores.
Er zijn veel verschillende soorten anti-aliasing technieken, elk met hun eigen voor- en nadelen. Hier is een kort overzicht van de technieken die hier benoemd worden:

SSAA (Super Sampling Anti-Aliasing): Dit is de meest ‘ware’ anti-aliasing methode met de hoogste prestatie-impact. Het draait het spel op een hogere resolutie en verkleint het om op je monitor te passen. Deze methode kan schittering veroorzaken als mip-maps er niet voor geoptimaliseerd zijn1.
MSAA (Multi-Sampling Anti-Aliasing): Dit is hetzelfde als SSAA, behalve dat het een shader-gebaseerde benadering is die alleen delen van het beeld op een hogere resolutie uitvoert, namelijk de randen van objecten. De prestatie-impact van deze methode is over het algemeen aanzienlijk hoger dan FXAA, TAA, DLSS en DLAA1.
TAA (Temporal Anti-Aliasing): Dit is een modernere techniek, met een lage prestatie-impact en over het algemeen superieure kwaliteit ten opzichte van MSAA123.
DLAA (Deep Learning Anti-Aliasing): Dit maakt gebruik van game-engine data zoals de snelheid van gerenderde geometrie, kleur en normale kaart (textuur bump), informatie om het beeld op een manier te reconstrueren die meer samenhangend is over meerdere frames1.
DLSS (Deep Learning Super Sampling): Dit is DLAA, maar begint met renderen op een lagere resolutie en schaalt op om overeen te komen met je scherm. Dit kan vaak een kleine beeldkwaliteit trade-off hebben, maar je krijgt hogere framesnelheden als resultaat1.
FSR (FidelityFX Super Resolution): Dit is een techniek van AMD die vergelijkbaar is met DLSS, maar werkt op een breder scala aan hardware4.
XESS (Xe Super Sampling): Dit is een techniek van Intel die vergelijkbaar is met DLSS en FSR, maar specifiek is ontworpen voor Intel Xe grafische kaarten. Helaas kon ik geen specifieke informatie vinden over XESS.
Wat betreft de beste beeldkwaliteit/graphics, hangt dit sterk af van de specifieke game en de hardware die je gebruikt. Over het algemeen wordt DLSS vaak geprezen om zijn kwaliteit en prestatieverbetering, vooral op RTX-kaarten14. Echter, FSR kan een goed alternatief zijn voor degenen die geen RTX-kaarten hebben4. TAA en DLAA worden ook vaak gebruikt voor hun goede balans tussen kwaliteit en prestatie-impact13. SSAA en MSAA kunnen de hoogste kwaliteit bieden, maar hebben ook de grootste impact op de prestaties1.

-ai bot
(Voor de mensen zoals mij die er onderhand ook niks meer van snappen)
Hardware blijft echt niet achter en upscaling ziet er soms beter uit afhankelijk van de engine en settings. Denk dat je met heel wat nodeloze vooroordelen zit
De tijd dat upscaling per definitie een mindere beeldkwaliteit had ligt al een tijdje achter ons.
Ik heb er vanuit ontwikkelaarsperspectief een flink aantal getest maar iedere implementatie zitten altijd wel wat kleine kanttekeningen aan. DLSS heeft inderdaad de beste anti aliasing (hij kan zelfs overweg met aliasing op schaduwen), maar het beeld is ook duidelijk iets waziger.

Alles in 3D rendering is een compromis tussen kwaliteit en snelheid. Upscalers zijn daar niet anders in. Wat mij betreft is het een goede compromis, omdat de snelheidswinst erg hoog is terwijl de visuele impact relatief klein is.
Ik blijf dan ook bij mijn mening dat het achterhaald is van Tweakers om upscaling niet mee te nemen bij benchmarks
Alleen hoe ga je dat testen? DLSS heeft andere kwaliteit dan FSR of XeSS dus zo 1:1 de prestaties vergelijken is niet persé accuraat. Je zou overal FSR aan kunnen zetten maar Nvidia gebruikers zullen dat niet doen waardoor je nog steeds afwijkt van de werkelijkheid.
Er zit een subjectief element aan dat gewoon niet te meten is. Ook al gebruiken de meeste gebruikers upscaling.
Idem met ray tracing. Indien een spel dit ondersteund hoort het gewoon getest te worden ook al scoort AMD daar slechter in...
Daar ben ik het dan wel weer mee eens. Zeker bij een benchmark op "high" of "ultra" settings moeten gewoon alle instellingen op high of ultra staan. Ray tracing uitzetten is dan vrij selectief in het voordeel van AMD.

En het is ook niet meer zo dat AMD persé slecht is in ray tracing. RDNA3 kan het best hoor, en kan zelfs met ray tracing in sommige gevallen voorlopen op prijs/prestaties.

[Reactie gewijzigd door Wolfos op 23 juli 2024 14:26]

Heeft Nvidia hun AA veranderd in recente versies? Want FSR 2 had doorgaans de betere AA op native (dus zonder upscaling). Met upscaling doet Nvidia het beter (omdat de basis al beter is) en DLAA is dan weer een heel ander verhaal uiteraard :p
In welke spellen is FSR2 AA beter? Ik heb zelf 1 spel gespeeld waar FSR zonder upscaling mogelijk is (Starfield), en daarin zorgde FSR voor allerlei artifacts (voornamelijk shimmering).

Welke betere basis bedoel je?

Waarom is DLAA een heel ander verhaal. DLAA is gewoon DLSS zonder upscaling en een andere (F) preset.

[Reactie gewijzigd door cnieuweboer op 23 juli 2024 14:26]

In welke spellen is FSR2 AA beter? Ik heb zelf 1 spel gespeeld waar FSR zonder upscaling mogelijk is (Starfield), en daarin zorgde FSR voor allerlei artifacts (voornamelijk shimmering).

Welke betere basis bedoel je?
In zo'n beetje elk DX12 spel dat ik gespeeld heb, Talos Principle 2 bijvoorbeeld. Ik heb in dat spel veel gespeeld met de verschillende combinaties op m'n 3080 (en op m'n Deck). FSR Native gaf daar een mooier resultaat dan DLSS Native; beide wel vele malen beter dan TAA(U)/TSR. Zodra je onder native zakte was DLSS echter mooier, omdat het resultaat na upscalen (vóór AA) beter was. Dat gezegd hebbende, UE5's foliage shimmert in dat spel meer met DLSS (5 seconden nadat ik in het spel zat ging DLSS uit, de shimmerende palmboom bladeren waren meteen een afleiding voor mij :p), terwijl FSR juist problemen met reflecties heeft; schaduw geef ik ze een gelijkspel, want dat ging bij allebei af en toe mis. Als ik zou willen upscalen, zou ik op desktop DLSS gebruiken, maar op de Deck met z'n lage resolutie en klein schermpje waren FSR's artifacts geheel niet zichtbaar.
Waarom is DLAA een heel ander verhaal. DLAA is gewoon DLSS zonder upscaling en een andere (F) preset.
Als ik het me goed herinner van de docs en Nvidia's guidelines, sla je met "DLAA" hele stappen van de pipeline over, het is niet simpelweg DLSS met scaling factor 1.0 (sharpening komt er bij DLAA volgens mij niet bij kijken; nogmaals, ik zou terug de docs in moeten duiken om te bevestigen :p). Bij FSR is dat wel het geval.
Je zou in roundups dit mee kunnen nemen met onderlinge benchmarks en screenshots (met sliders) om de verschillen te laten zien. Techpowerup doet dit best goed.
Doen andere websites dat wel? En wat wil je specifiek getest mee hebben? Het betreft namelijk een techniek die toch per spel hetzelfde zou moeten presteren op basis van de gekozen implementatie? En zou niet veel moeten verschillen van een resolutie lager.

De prestaties van de verschillende upscaling technieken moet in mijn optiek breed besproken worden in een achtergrond artikel en dat is ook gebeurd.

FSR Frame Generation had wel mooi besproken kunnen worden in deze review. Omdat er nog weinig over bekend is over de ervaring.

Zelf ga ik altijd wel op zoek naar de beste instellingen en dan zet ik vaak FSR wel aan voor een iets betere framerate. Zeker als ik raytracing wil.
Ik switch altijd in het begin een paar keer tussen native en FSR.
Even zien wat de kwaliteit doet en de ervaring qua FPS. Ook framegeneration is niet zaligmakend.
Heb Pandora en Senua II, bij de eerste staat het uit en de 2e aan. Heeft puur met de wel / niet goede implementatie.
De meeste mensen hebben geen 4K scherm en op lagere resoluties werkt upscaling een stuk minder goed. Daarnaast zijn er wel degelijk visuele nadelen van upscalen, die ook nog eens verschillen met de upscaler. Sommige mensen merken dat niet, terwijl anderen zich heel erg storen aan de visuele problemen.
Dit, karteltjes maken mij niet zoveel uit, maar de ghosting die ik tot nu toe bij elke TAA implementatie (dus ook DLSS en FSR 2+) heb gezien vind ik verschrikkelijk afleiden van het spel.
De meeste mensen hebben geen 4K scherm en op lagere resoluties werkt upscaling een stuk minder goed. Daarnaast zijn er wel degelijk visuele nadelen van upscalen, die ook nog eens verschillen met de upscaler. Sommige mensen merken dat niet, terwijl anderen zich heel erg storen aan de visuele problemen.
Ik vind dat wel een behoorlijk stellig statement. Ik game veel op 1440p op 32" scherm met FSR 2.x upscaling (quality). Ik kan stellig beweren dat je pixel artifacts snel ziet op een 1440p 32" scherm. Ja levert iets in, maar het is vaak zeer beperkt en je kunt daardoor wel hogere framerates halen, raytracing aanzetten of hogere instellingen toepassen. Je levert dan iets in op scherpe, maar dit is vewaarloosbaar voor wat je er voor terug krijgt.

Cyberpunk en Uncharted 4 op mijn Steam Deck, speel ik altijd met FSR 2.x quality. Dat is een 800p schermpje. Ook hier zie je iets van aliasing, maar levert weinig in tov native 800p en ziet er stukken beter uit dan enkel de resolutie verlagen.

Alles lager dan quality bij FSR 2.x zal ik wel afraden tenzij je niet anders kan.

[Reactie gewijzigd door Bliksem B op 23 juli 2024 14:26]

Probleem is, er zijn tegenwoordig nogal wat variabelen en de beoordeling van deze verschillende opties is ook nog grotendeels persoonlijk. Sommigen hebben geen last van een TAA onscherpte. Persoonlijk prefereer ik altijd native (ook met wat jaggies) op m'n 3440x1440 scherm omdat ik de scherpte erg fijn vind, en sharpening artifacts niet. De temporal artifacts zijn voor mij direct een dealbreaker. Zo zet ik ook motion blur altijd uit, en DoF... en meer van die onzin die vooral dient om matige assets en/of framerate te verbergen.

De kwaliteit van de upscale varieert per game.
De featureset die je beschikbaar hebt varieert per game.
De performance impact varieert per game.
Er komen ook mid-gen allerlei updates uit van de featuresets.

Het is niet bij te houden. Het enige dat hier werkt is gefocuste artikelen die een vergelijking doen bijvoorbeeld zoals TechPowerup het doet met DLSS vs FSR comparison per specifieke game. Ga je dat mixen met een GPU review/prestatiereview dan wordt het al snel heel mistig.

Kortom, less is more en standaard testen op native lijkt mij de meest transparante manier van vergelijken. Als je vervolgens meer wil weten over de mogelijkheden van DLAA, DLSS, FSR, enzovoort, dan moet je daarvoor een focus artikel hebben. Combineer de twee en je komt een heel eind met de beeldvorming. Gooi alles bij elkaar en het wordt onbegrijpelijke chaos. Want dat is het feitelijk ook.

Er zijn nu allerlei technieken die de rauwe performance van kaarten bijna een soort black box lijken te maken. Daar moeten we niet naartoe. RT was al erg genoeg in dat opzicht. 'De RT penalty' varieert zo ook heel sterk per game, en dat hangt sterk af van de hoeveelheid/soort RT effecten die worden gebruikt. Nog zoiets dat echt per game bekeken moet worden.

Ik herinner me nog een artikel over The Witcher 3 waarin standaard met Hairworks ON werd gereviewed, daar kwam Tweakers snel van terug en dat werd rechtgezet. Dit is niet veel anders. Proprietary tech? GTFO. Het heeft simpelweg geen plek in een review of vergelijking, het pakt altijd slecht uit.

[Reactie gewijzigd door Vayra op 23 juli 2024 14:26]

Ik ben het eens met deze methode van testen omdat alle vormen van upscaling hoe dan ook leidt tot kwaliteitsverlies.
Dit klopt als je het hebt over dezelfde vorm van TAA maar dat is gewoon niet het geval en dat is waar MazeWing op doelt. Ja, DLAA gaat er beter uitzien dan DLSS (in ieder geval als je hetzelfde profiel gebruikt), maar als je DLSS vergelijkt met TAA dan is dit vaak niet het geval.

Sommige TAA implementaties van devs zijn veel slechter dan wat Nvidia/Intel/AMD doen met hun versie. De winst in kwaliteit van de betere AA implementatie weegt dan sterker door dan het verlies van non-native. Zo simpel als native is altijd beter is het dus niet.

Uiteindelijk zijn TAA en DLSS/FSR/XESS niet zo verschillend in hun doel. Ook TAA heeft gedeeltelijk als doel om de prestaties te maximaliseren met als kost kwaliteit.
Het is geen e-sport game waardoor ultra hoge frame rates waarschijnlijk niet nodig zijn
Dit begrijp ik nooit zo goed want het is toch echt al heel lang bekend dat hoe hoger de framerate hoe hoger de motion clarity. (hoe scherp blijft het beeld als je de camera draait)
Ik zelf streef altijd naar 120fps omdat mijn tv 120hz aan kan. Ook al moet ik een setting lager gaan (meestal shadows of volumetric fog etc) dan doe ik dat zodat ik die 120fps haal.

Voor my is motion clarity echt het belangrijkste in gaming.
Specifiek voor deze game zul je dan goed wegkomen. Kijkend naar de screenshots en deze vergelijkend, zijn de verschillen niet bijster groot als je very low en very high buiten beschouwing laat. Maar dit is het domein van persoonlijke voorkeur. Dat wat iemand als prettig of mooi ervaart kan zeer verschillen met iemand anders. Sommigen geven alles om een zo hoog mogelijk FPS getalletje om wat voor reden dan ook, anderen een zo hoog mogelijke resolutie en weer anderen eye candy. Die balans ligt voor iedereen anders. Daar zouden benchmarks dan ook zich van verre dienen te houden. Alleen harde cijfers tellen zodat iedereen z'n eigen afweging kan maken hoe deze te interpreteren.
Ik begrijp je, ik vind het daarom belangrijk dat de keuze er moet zijn om settings aan of uit te zetten want zoals je al zei een ieder heeft zo zijn eigen voorkeuren.
Dit begrijp ik nooit zo goed want het is toch echt al heel lang bekend dat hoe hoger de framerate hoe hoger de motion clarity. (hoe scherp blijft het beeld als je de camera draait)
Alleen zonder motion blur. En zo zijn er nog een aantal effecten waarvan ik niet begrijp dat ze standaard ingeschakeld zijn.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 14:26]

Ja klopt, motion blur/chromatic aberration/depth of field/film grain gaan bij mij gelijk uit ongeacht of het artistiek zo bedoeld is.
Ik gebruik juist DLSS voor de kwaliteit, ook als ik het native prima kan draaien. Ik ben vrij gevoelig voor aliasing, en in flightsims heb je ook extreem last van temporal aliasing. DLSS doet wat je met 8x MSAA nog niet voor elkaar krijgt. In mijn optiek dan. DLSS is gewoon een van de weinige opties die voor mij en mooier en sneller zijn.
Er mocht wel even een kanttekening geplaatst worden bij de implementatie van TAA in dit spel. TAA zorgt er namelijk voor dat er toch een soort "waas" over het spel komt. Dit is op te lossen door of geen AA te gebruiken (= ook niet echt mooi), te kiezen voor een upscaler zoals DLSS, FSR, XeSS of (nvidia only) DLAA.
Is DLSS niet "Nvidia only" en is XeSS niet "Intel only"?
DLSS is onderdaan Nvidia only, XeSS is bedacht door intel maar werkt ook op de andere merken, hetzelfde als FSR.
Met als aanvulling om het verwarrend te maken: xess op intel arc is beter dan xess op nvidia/amd.
AuteurTrygve Redacteur @MazeWing7 juni 2024 08:49
@Trygve Wat is de reden dat Tweakers structureel geen DLSS, FSR, etc. EN ray tracing (niet van toepassing bij dit spel) meeneemt in de benchmarks?
In dit soort losse gamebenchmarks hebben we upscaling en ray tracing eerder wel meegenomen hoor, zoals bij Horizon Forbidden West, Ratchet & Clank, The Witcher 3 Next-Gen en The Callisto Protocol.
En in onze gpu-reviews gebruiken we benchmarks met en zonder ray tracing, waaruit dan een 'normale' prestatiescore (rasterization) en een DXR prestatiescore (ray tracing) voortkomt.
Je hebt gelijk! Ik vraag me dan wel of waarom dit deze keer dan niet gedaan is.

Mijn punt blijft wel van toepassing in reviews van de videokaarten (of roundups). Daar wordxen nooit de DLSS, FRS, etc. resultaten meegenomen.
Idd game of hardware reviews die niet ook testen met upscaling ea technieken zijn grotendeels nutteloos
Officieel (nog?) niet ondersteund op Steam Deck, maar schijnt alsnog goed te werken met eventueel een paar fixes hier en daar.
Pas als als singleplayer en multiplayer werken krijgt hij Steam Deck verified status. Multiplayer komt omdat deze de die sony overlay meuk nodig is (waarschijnlijk ook anti bot). Die werkt nog niet met Proton, en zal denk ik ook nog wel even duren.

Maar Singleplayer werkt dus prima! Vind het alleen maar goed dat Valve de verified stempel niet heeft want in feite is dat dus correct.
De game heeft helemaal geen stempel en is unsupported. Iets dat duidelijk niet waar is, GOT is absoluut speelbaar zonder de multiplayer mode.

De Steam Deck status zou "Playable" moeten zijn.
Volgens mij kijkt de classificering naar hoe goed een volledig spel speelbaar is. Multiplayer maakt het spel volledig. Als een deel niet speelbaar is op Deck, wordt het meteen unsupported.

Zelf begrijp ik dat wel. Het spel wordt verkocht "met multiplayer", maar die werkt niet op een Deck. Dat zou onhandig zijn voor Valve.
Dat klopt, en daarvan ben ik me bewust. Maar dan nog zou het in mijn optiek "Playable" met als opmerking "No multiplayer support" oid moeten zijn. Met andere woorden, unsupported geeft helemaal geen informatie. Maar deze is er wel, de game werkt namelijk uitstekend single player.

Persoonlijk boeit het me overigens weinig, ik kijk wel op ProtonDB of zoek een ytube filmpje op.
Dat klopt, en daarvan ben ik me bewust. Maar dan nog zou het in mijn optiek "Playable" met als opmerking "No multiplayer support" oid moeten zijn.
Het huidige systeem heeft geen ruimte voor opmerkingen. Dat houdt classificering simpel.
Met andere woorden, unsupported geeft helemaal geen informatie.
Unsupported geeft aan dat het spel niet (volledig) werkt. Mogelijk zijn er workarounds om het wel werkbaar te maken, maar het gebruik daarvan is op eigen risico.
Persoonlijk boeit het me overigens weinig, ik kijk wel op ProtonDB of zoek een ytube filmpje op.
Het boeit je voldoende om erover te posten.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 14:26]

Het huidige systeem heeft geen ruimte voor opmerkingen. Dat houdt classificering simpel.
Het huidige systeem heeft wel degelijk ruimte voor opmerkingen. Er is een hele lap tekst ter verduidelijking in de "playable" categarisatie:
  • Entering some text requires manually invoking the on-screen keyboard
  • This game's launcher/setup tool may require the touchscreen or virtual keyboard, or have difficult to read text
  • Some functionality is not accessible when using the default controller configuration, requiring use of the touchscreen or virtual keyboard, or a community configuration
  • This game sometimes shows mouse, keyboard, or non-Steam-Deck controller icons
  • Some in-game text is small and may be difficult to read
* This game's multiplayer mode is not supported.


https://www.steamdeck.com/en/verified

[Reactie gewijzigd door nullbyte op 23 juli 2024 14:26]

Je vergelijkt appels met peren. De punten die nu gebruikt worden zijn omheen te werken om het "speelbaar" te houden. Multiplayer mode kan niet toegevoegd worden, en betreft dus een vermindering in speelbaarheid. Daarom niet "playable".

[Reactie gewijzigd door The Zep Man op 23 juli 2024 14:26]

Je vergelijkt appels met peren.
Nope, ik vergelijk helemaal niets. Aan de playable lijst kan toegevoegd worden dat de multiplayer niet werkt. Dit heeft niets met vergelijkingen te maken.

De game is namelijk uitstekend speelbaar zonder multiplayer mode. Dit is zelfs een feit, geen mening.
Multiplayer mode kan niet toegevoegd worden, en betreft dus een vermindering in speelbaarheid. Daarom niet "playable".
Deze perfecte classificatie zonder toevoegingen/opmerkingen van Valve waarin alles werkt en geen functionaliteit verminderd is heet "VERIFIED" niet "playable"

Een vermindering van speelbaarheid = nog steeds speelbaarheid

[Reactie gewijzigd door nullbyte op 23 juli 2024 14:26]

AMD heeft veel betere DX12 drivers, dat is pijnlijk duidelijk van de laatste 2-3 jaar aan AAA releases die zeer moeizaam lopen op Nvidia, zeker met zwakkere CPU's. Na mate de CPU load toeneemt, valt de Nvidia DX12 scheduler op z'n gat.

Ook zie ik geen enkele AMD gebruiker klagen op steam forums over CTD's, memory overflow issues of framepacing/frametime stutters.

Ik heb de laatste maand vier AAA titles gekocht (horizon series, ratchet and clanke en hogwarts legacy), omdat ik ze altijd minstens een jaar later koop. En geen van deze gaven me ook maar een klein issue op de 6800XT. Terwijl velen klagen momenteel op alle Nixxes port games over CTD's, slechte framerates en memory problemen op de steam forums. Exclusief Nvidia eigenaren.

Maar AMD is op de een of andere manier nog voor velen de tweede keus.

[Reactie gewijzigd door Majestici op 23 juli 2024 14:26]

het feit dat alle consoles al amd hardware gebruiken zal ook geen nadeel zijn
De Switch gebruikt hardware van Nvidia en heeft in aantallen meer verkocht dan de huidige generatie consoles van Microsoft, Sony en Valve bij elkaar opgeteld.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 14:26]

Aan de systeemeisen van Ghost of Tsushima voor de pc valt al te zien dat het om een paar jaar oude game gaat.
En dan denk ik: dat hoeft niet altijd bij een console port. Zoveel slechte ports die gewoon slecht draaien op de gemiddelde PC. Nixxess lijkt er echt wel werk van te maken om ports goed te laten draaien op een uitgebreide range aan PCs.
Nixxes levert kwaliteit. Ik ben zelf altijd erg blij als ik lees dat Nixxes een poort doet.
damn eerste wat mij opvalt "instap game pc" 3600X / RTX 2070..... kijkt over naar mijn 3900X (dual ccd 3600X) / 2070S....dat begint wel heel dicht bij te komen T.T

mja ghost of tsushima draait met optimized settings nogaltijd makelijk 60+ op high dus it's fine...for now.

[Reactie gewijzigd door anub1s17 op 23 juli 2024 14:26]

Neem het met een flinke korrel zout.
Je kan bijvoorbeeld Gray Zone Warfare met een i7 4770k spelen.

Maar waar zijn de cpu benchmarks in dit geval?
Ik had wel individuele cpu benchmarks verwacht.

[Reactie gewijzigd door HugoBoss1985 op 23 juli 2024 14:26]

Ik begrijp dat het een kwestie van voorkeur is, maar ik ben van mening dat 60fps op 1440p helemaal niet zo fijn is vanwege de "lage" fps. Wat mij betreft moet men voor een prettige ervaring dus een "high-end" game PC hebben en geen "mid-range", die voldoet gewoon niet aan mijn maatstaven. Sowieso heb ik liever meer FPS dan "mooiere" graphics en zelfs resolutie. Na 1440p begint de meerwaarde vaak wel een beetje af fe vlakken, ook afhankelijk van de afstand tot het scherm en de afmetingen daarvan natuurlijk.

Omdat ik "high-end" hardware vaak behoorlijk overpriced vind pak ik het gewoon anders aan. Ik speel gewoon oude spellen waarbij ik hogere fps kan halen op mooiere settings.
Wat mij betreft moet men voor een prettige ervaring dus een "high-end" game PC hebben en geen "mid-range"
Het is natuurlijk niet alleen van voorkeur afhankelijk maar ook van de games.
Ghost of Tsushima is dan nog behoorlijk netjes voor wat de systeemeisen betreft maar het lijkt er de laatste tijd steeds vaker op dat developers de grenzen van de hardware opzoeken waardoor je met een mid-range kaart eigenlijk nooit tevreden bent.
Er zijn verschillende games die mij het gevoel geven dat mijn RTX3080 al een mid-range kaart is.
En daardoor moet je als gamer keuzes maken.

Ik vind het persoonlijk nogal apart dat mensen per definitie de voorkeur geven aan fps ten koste van grafisch detail en resolutie.
Voor games met een competitief element, waar helder zicht op je omgeving bij snel bewegen belangrijk is en microseconden verschil in je reactiesnelheid beslissend kunnen zijn, is dat begrijpelijk.
Persoonlijk speel ik ook veel RPG's en dan geef ik toch echt wel de voorkeur aan betere grafische instellingen, eventueel ten koste van fps. Uiteraard met een ondergrens.
idd vooral zoiets and ghost of tshushima (die ik al uitgespeelt heb op pc) .

het is voor mij de eerste keer in jaren dat ik me af vroeg waarom mijn pc niet aan het smelten was bij de moeie landschappen die er in zitten, toegegeven de vergelijkings screenshots van tweakers laten het gat tussen low en high niet echt zien maar als je op je paard door de wereld aan het hobbelen bent heeft high veeeeeeeel meer WOW momenten.

kheb het dan ook niet uitgespeelt vanwege het verhaal...it's okay maar door de wereld gestuurt worden voor sidequests is gewoon niet echt vervelend als de wereld er prachtig uitziet (en het spel ook nog heel goed loopt).
Zoeken ze de grenzen van de hardware op of optimaliseren ze hun producten relatief slecht? Ik denk dat het minstens beide is. Optimalisatie kost geld en het is nu eenmaal sociaal acceptabel geworden om te zeggen laat ze er maar betere (lees duurdere) hardware tegenaan gooien. Persoonlijk vind ik dat een beetje een zwakte bod en ben van mening dat relatief slecht geoptimaliseerde games minder zouden moeten kosten. Ik vind ook dat hier in reviews rekening mee gehouden dient te worden.
Ik denk dat het minstens beide is.
Het één is natuurlijk soms ook het gevolg van het ander.
Met de wijzigingen op hardware gebied moeten game-engines aangepast worden om met die wijzigingen om te kunnen gaan en ze moeten kunnen schalen in het steeds groter wordende verschil tussen budget hardware (en de mogelijkheden ervan) van 2, zelfs 3 generaties terug en de top of the line hardware van niet alleen nu maar bij voorkeur ook de volgende generatie.
Zeker met alle realisme verhogende toevoegingen die voor een miniem effect, waar je tijdens het spelen soms werkelijk niets van ziet, enorm veel rekenkracht vergen.
Persoonlijk vind ik dat een beetje een zwakte bod
Daar kan ik het gedeeltelijk wel mee eens zijn. Maar dit is wel inherent aan de manier waarop de games-industrie opereert en heeft niet alleen geleid tot slechte optimalisaties maar ook tot lui game development en zelfs onafgewerkte games.
De games-industrie is ook dezelfde arrogantie gaan vertonen als de filmindustrie waar ze doodleuk zeggen 'dit is wat we maken en je hebt het maar goed te vinden'.

Als klant kun je natuurlijk best klagen, maar het is natuurlijk ook niet vreemd dat je door de industrie niet serieus genomen wordt als miljoenen mensen steeds maar weer geld uit blijven geven aan games die er nog niet eens zijn of aan halfbakken games die er wel zijn.
Ik begrijp dat het een kwestie van voorkeur is, maar ik ben van mening dat 60fps op 1440p helemaal niet zo fijn is vanwege de "lage" fps
Wat heeft de resolutie 1440p hiermee te maken? Het zelfde zal gelden op 2160p. Verder inderdaad een kwestie van voorkeur.

Maar goed, 60 fps wordt over het algeheel als prima ervaren. Ik zet alles anders dan FPS shooters of multiplayer altijd op 60 fps. En doe daar nog DLSS bovenop zodat de GPU nooit meer dan 80% Usage heeft voor een uitstekende overhead.

De framerate van vrijwel elke monitor met een verversingssnelheid hoger dan 120 is in te stellen in Windows. Als je framerate daar b.v. op 144Hz staat dan is een game draaien op 60 inderdaad "helemaal niet zo fijn".

[Reactie gewijzigd door nullbyte op 23 juli 2024 14:26]

Op dezelfde hardware zakt je FPS op een hogere resolutie nog harder in elkaar. Ik vind 60 fps persoonlijk te laag om als "prettig" te ervaren. Misschien is dat een beetje verwend, en het is echt niet zo dat ik smelt als ik naar dergelijke beelden kijk, maar ik heb liever toch echt wat meer.
Mooi dat AMD niet stil zit, nvidia heeft de laatste jaren haar gebruikers uitgeperst, kaarten uitgebracht met een mindere bus breedte voor t zelfde geld.

Beetje zelfde verhaal als intel, op hun luie reet gaan zitten alleen het wattage verhogen. Alleen maar goed voor amd, want die kregen de tijd om de concurrentie bij te halen.
Mooi dat AMD niet stil zit, nvidia heeft de laatste jaren haar gebruikers uitgeperst, kaarten uitgebracht met een mindere bus breedte voor t zelfde geld.
Nvidia boeit het niet echt dat AMD niet stil zit. Zolang PC-gamers Nvidia blijven kopen zal die zich niet snel anders gaan gedragen.

De keuze van gamers is niet zo verbazingwekkend. AMD heeft een aantal aspecten waarop ze minder presteren (raytracing, upscalingtechniek) maar besluit om alsnog hun prijzen tegen die van Nvidia aan te plakken. Het gevolg is dat je met iets meer geld een (naar verhouding) veel betere kaart hebt. Spellen zoals Ghost of Tsushima waarbij AMD-kaarten beter presteren dan die van Nvidia lijken een uitzondering.

En uiteraard heeft AMD geen antwoord op de RTX 4090. De strijd wordt echter niet bepaald door de duurste kaart, maar door de kaarten die het meest verkopen. Die zitten in het "midden"-segment. En ook daar heerst Nvidia.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 14:26]

Als je kijkt naar het marktaandeel en de Steam hardware survey dan is het aandeel Nvidia 76,18% en AMD 15,96%
De eerste 15 videokaarten zijn allema Nvidia waarbij het allemaal midrange is.

Nvidia is dus de alleenheerser qua performance op het high-end gebied (4090) en qua midrange met afstand de grootste.
Zie het gelinkte artikel. Nvidia verkoopt 88% in aantallen, AMD 12% en Intel is niet interessant genoeg qua aantallen om te noemen. Dat aandeel wat je op Steam ziet zal op dit tempo langzaamaan steeds verder richting Nvidia schuiven.
Yes en dit is al een tijdje gaande. De keren dat Nvidia een misser maakt weet AMD hier onvoldoende op in te spelen en marktaandeel af te pakken. Inmiddels is Nvidia bijna "onverslaanbaar" groot geworden en kunnen ze AMD op praktisch ieder terrein de baas. Qua ruwe performance maar ook, indien noodzakelijk, op het gebied van prijs.
Maar ik betwijfel of, gezien hoe AMD het op dit moment doet, die noodzaak er überhaupt gaat komen....

Nvidia heeft een hogere omzet dan alle andere partijen (Intel, AMD, Qualcomm, etc.) samen!
hoe zit het dan als we de consoles in de verhouding mee nemen
zowel Xbox als Sony gebruiken AMD.
Want wat de meerderheid kiest is altijd de beste technologische optie.
Niet alleen dat, het stroomverbruik per frame van AMD is flink hoger dan van nvidia. Beetje zoals AMD intel verslaat op efficiency met de cpu's, niet helemaal, daar is t verschil veel groter, maar je begrijpt wat ik bedoel. Toms hardware daarover(de super maar ok):

"In general, even at 1440p and 4K, the 4080 Super ends up being far more efficient than the 7900 XTX: It used on average 92W less power at 1440p, and 65W less power at 4K. (Note that the lower power use at 1080p is mostly because CPU and other system bottlenecks prevent the GPUs from reaching their full potential.)

One of the interesting aspects of power use is that the RX 7900 XTX tends to be more consistent at hitting close to its rated TBP (Total Board Power), with only a modest dip at 1080p medium settings. It pulled 305W on average at 1080p medium, and 333W at 1080p ultra — 86% and 94% of its rated 355W TBP. The 4080 Super by contrast does much better at trimming power use under lighter loads, drawing just 199W at 1080p medium and 230W at 1080p ultra — 62% and 72% of its rated 320W TGP (Total Graphics Power)."

[Reactie gewijzigd door OriginalFlyingdutchman op 23 juli 2024 14:26]

AMD heeft een aantal aspecten waarop ze minder presteren (raytracing, upscalingtechniek)
Er worden voor de PC markt veel minder AMD-kaarten geproduceerd
Het globale marktaandeel wordt ook niet alleen bepaald door de mensen die de mogelijkheid hebben op één van de vele webshops te kiezen uit honderd verschillende uitvoeringen maar ook door enorme aantallen vooraf geassembleerde PC's waar heel lang AMD hardware een uitzondering was.
Afgezien daarvan is de beschikbaarheid van AMD kaarten in het algemeen hele periodes echt waardeloos geweest.

Zoals nu ook heel duidelijk bij de kaarten van Intel te zien is is het ook erg lastig om met de markt mee te kunnen. Om gelijkwaardige prestaties te halen en compatible te blijven met andere hardware zonder de specifieke techniek van de concurrent te gebruiken i.v.m. patenten e.d..
Daarom is het voor Nvidia ook zo belangrijk steeds maar nieuwe dingen te verzinnen en die 'heersende positie' te behouden omdat eigenlijk iedere fabrikant wel steeds krachtiger chips op een kaart kan zetten.
Voor AMD is het daarmee rendabeler om in het middensegment te blijven zitten en 'heerser' te zijn voor de consoles.
Kan zo omwaaien, weet niet of jij de 3DFX tijd heb mee gemaakt maar in 1997 had niemand verwacht dat Nvidia de grootste zou worden.

En in het midrange segment doet AMD het heel goed.

Van mijn mag Intel best wat marktaandeel afsnoepen van team groen dan krijgen we tenminste weer gezonde prijzen.
Lichtelijk off-topic, maar waarom staat de PC uitvoering van deze game niet in de pricewatch? Een verklaring zou kunnen zijn dat deze port redelijk recent is, maar ook 2 van de 3 genoemde ports in de eerste zin van dit artikel is de PC uitvoering nooit in de pricewatch verschenen. Door dit soort artikelen word ik als PC-gamer enthousiast voor deze games. Aangezien ik zo goed als nooit games voor full-price aanschaf, wil ik dan een prijsalert zetten, maar dat is niet mogelijk omdat de games niet in de PW staan. Is hier een verklaring voor?
Wellicht omdat de pricewatch alleen fysieke artikelen toont en de Sony PC ports exclusief op Steam beschikbaar komen?
Dat is niet waar, sommigen staan ook op GOG. Maar anderen weer niet. Ik heb er nog geen peil uit kunnen trekken, wellicht dat de uitgever dat mag bepalen. God Of War, Death Stranding en Uncharted staan bv. op GOG. Spiderman weer niet. Ghosts Of Tsushima staat ook op Epic.
Dat wist ik niet! Het blijven wel digitale artikelen toch? Volgens mij worden er toch echt alleen fysieke games in de Pricewatch getoond.
Waarom wordt er nooit met een 3090 getest ?
Waarom is volgens jou een RTX4080S een "enthousiast" kaart, en een 7900XTX een "high-end" kaart? De RTX4080S kost een ~€1100, en de 7900XTX heeft wat meer variatie in de PW, maar kost rond de €1000 momenteel. Gemiddeld genomen iets goedkoper iig, maar redelijk in de buurt van elkaar. Dan is het toch logisch beide te pakken? Dat er een RTX4090 bestaat veranderd niet dat dit gewoon goed vergelijkbare kaarten zijn qua prijspeil, en dat is waar je ze op uitkiest, niet of er nog een duurdere kaart.
Ik bepaal niet, het internet gooit de 4080S onder 'high-end' en de 7900XTX onder 'enthusiast', ik zou zeggen google it.

Als je een prijs/prestatie vergelijking maakt, dan is dat natuurlijk prima. Maar de titel geeft een race aan en pakt dan niet de beste resultaten van 'team Nvidia', bij een Formule 1 race wordt toch ook niet de tijden van de teams met dezelfde budgetten naast elkaar gezet. Het is de snelste vs de snelste. En zeer zeker ook niet raceresultaten 2018 vs raceresultaten 2019.

Dit kunnen hele relevante resultaten zijn, afhankelijk van de peildatum. Maar jaren na het feit dergelijke oude kaarten naast elkaar zetten zet expres een heel vertekend beeld neer ten voordelen van 'team AMD'... Als ze de hetzelfde trucje hadden uitgehaald met 'team Nvidia' dan had ik ook schande gesproken. Als men een low/med/high/ent race er van maakt, doe dat dan met de huidige kaarten. Mensen hebben die kaarten al en als we gaan kijken over 2e hands aanschaf dan is bv. een 2070 zeldzamer op V&A dan een 2070Ti en die is zelfs weer zeldzamer dan een 3060... De AMD kaarten zijn sowieso relatief zeldzaam op V&A en als men naar 2e hands had willen kijken dat had men voor een 1070 moeten gaan.

Als men zo nodig had gemoeten, pak dan de hele range van beide van de afgelopen drie generatie, plop het in een tabel, maak een aparte tabel van prijs/prestatie en weer een andere tabel met prestatie/watt, laat vervolgens mensen hun eigen conclusies trekken.

Note: Ik heb helemaal geen van de kaarten, ben ook niet van plan deze te halen. Ze slurpen alle twee veel te veel!
Ik bepaal niet, het internet gooit de 4080S onder 'high-end' en de 7900XTX onder 'enthusiast', ik zou zeggen google it.
Oh zelfs andersom. Nou ja de 7900XTX is een beetje goedkoper dus. Maar nu is je klacht dan dat een Nvidia kaart in hogere segment wordt vergeleken met een AMD kaart in een lager segment, en de AMD nog steeds wint? (IIG ik neem aan dat enthousiast een lagere is dan high-end?). Ik zie niet echt in waarom dat oneerlijk voordeel geeft aan AMD. Zou de AMD kaart dan niet vergeleken moeten worden met een RTX4070TI-S ofzo, en dan een nog grotere voorsprong hebben? (Welke Nvidia kaart is "enthousiast" klasse? Ik heb wat gegoogled, maar krijg weinig resultaten).
Alleen zit Nvidia in z'n eentje in de formule 1 met z'n 4090 en AMD met de 7900XTX in de formule 2 ofzo, net zoals de 4080 van Nvidia.

De vergelijkingen zijn volgens mij gebaseerd op wat de uitgever van het spel beschouwt als minimaal nodig voor de volgende settings. Voor een 60 fps ervaring op 1440p heb je een 3070 nodig of een 6800. Er is getest met een 6750 XT, dus nog niet eens een 6800 en daarbij zie je dat AMD op 1440p inderdaad zelfs op very high boven de 60 fps blijft en de 3070 wel rond de 60 fps zit, maar soms net een beetje inkakt. En als je daar gevoelig voor bent kan je dus beter de settings wat lager zetten als je op 1440p speelt en een 3070 hebt, ook al zegt de uitgever dat dat moet lukken.
Of DLSS aanzetten. Dan is het maar net wat je mooier vindt, hogere settings maar DLSS of iets lagere settings maar zonder DLSS.

Er is voor de 4k 60fps minimaal 4080 of 7900 XT nodig en nu is er getest met een 4080 super en een 7900 XTX. Dus of je kan verwachten dat je met wat de uitgever zegt dat je minimaal nodig hebt voor 4k 60 fps weten we nu niet of dat dat waar is, dat klopt. Dus ik had ook graag die vergelijking gezien, ook al is er voor een vergelijking op dezelfde prijscategorie ook wat te zeggen.

Op dit item kan niet meer gereageerd worden.