Door Willem de Moor

Redacteur

Tien maanden gpu-driverupdates getest

Welke winst kun je verwachten?

03-05-2020 • 06:00

256

Multipage-opmaak

Inleiding: fine wine

Een gevleugelde uitspraak rond de videokaarten en meer specifiek de drivers van AMD is dat de techniek rijpt als een goede wijn. Dit zogenoemde fine-winefenomeen zou zich manifesteren in steeds betere prestaties van AMD-videokaarten naarmate ze ouder worden. Met andere woorden: als je een Radeon-kaart koopt, heb je na een jaar hogere framerates in je games dan op de dag dat je de kaart kocht.

Bij Nvidia zou die rijping veel minder spelen. Vanaf de eerste dag presteren de kaarten van het groene kamp zoals je verwacht en veel progressie zit er niet in. Dat zou deels komen doordat Nvidia regelmatig een nieuwe architectuur uitbracht, waaraan behoorlijke veranderingen ten grondslag liggen, terwijl AMD juist veel langer met een architectuur doet en daar steeds meer uit weet te persen.

We hebben om de proef op de som te nemen, twee videokaarten getest: de Radeon 5700 XT van AMD en de RTX 2070 Super van Nvidia. Beide kaarten kwamen in juli 2019 uit en we hebben de prestaties van de twee met maandelijkse driverupdates getest. We kijken naar de resultaten van de zeven geteste games en natuurlijk proberen we de vraag te beantwoorden: welke rijpt beter, AMD of Nvidia?

5700 XT en 2070 Super

Testmethode

We hebben om diverse redenen voor de 2070 Super en 5700 XT gekozen. Ten eerste zijn deze kaarten vrijwel gelijktijdig uitgebracht, wat ons in staat stelt hun prestatieontwikkelingen mooi naast elkaar te leggen. Ten tweede zijn dit redelijk high-end kaarten, waarvoor langere tijd wordt geoptimaliseerd. We realiseren ons dat het mooi zou zijn om verder terug te gaan, met oudere drivers dus, maar de kaarten worden nog niet ondersteund in drivers van voor de introductie. Een oudere kaart kiezen zou dan een alternatief zijn, maar daarvan zijn de prestaties via driverupdates juist weer uitontwikkeld.

We hebben van beide kaarten de launchdriver, soms bekend als de pressdriver, getest en van elke volgende maand de laatste driver van die maand. Vervolgens hebben we een subset van onze vaste gpu-benchmarks gedraaid en de prestaties bijgehouden. In onderstaande tabellen hebben we de gebruikte drivers op een rijtje gezet voor de AMD Radeon RX 5700 XT en de Nvidia RTX 2070 Super. Van beide kaarten hebben we het referentiemodel getest, zoals door de respectievelijke fabrikanten geleverd. Dat betekent dat we voor de 5700 XT het referentiemodel met blowerkoeler hebben gebruikt en voor de 2070 Super de Founders Edition.

Driver AMD Radeon RX 5700 XT Nvidia RTX 2070 Super
launch 19.7.1 431.16
juli 2019 19.7.5 431.60
augustus 2019 19.8.2 436.15
september 2019 19.9.2 436.30
oktober 2019 19.10.1 441.08
november 2019 19.11.3 441.41
december 2019 19.12.2 441.66
januari 2020 20.1.3 441.87
februari 2020 20.2.2 442.50
maart 2020 20.3.1 445.775

Voor de games hebben we de volgende selectie gemaakt. Alle games zijn op 1080p, 1440p en 4k getest, met Medium- en Ultra-presets. Het testsysteem is onze gebruikelijke configuratie voor videokaarten: een 9900k geklokt op 5GHz met hyperthreading uitgeschakeld op een Z390-moederbord met 16GB geheugen en Windows 1903.

Geteste games

  • F1 2019
  • Far Cry: New Dawn
  • Ghost Recon: Breakpoint
  • Metro: Exodus
  • Shadow of the Tomb Raider
  • The Division 2
  • Total War: Three Kingdoms

F1 2019

1920x1080-resultaten

2560x1440-resultaten

4k-resultaten

Far Cry: New Dawn

1920x1080-resultaten

2560x1440-resultaten

4k-resultaten

Ghost Recon: Breakpoint

1920x1080-resultaten

2560x1440-resultaten

4k-resultaten

Metro: Exodus

1920x1080-resultaten

2560x1440-resultaten

4k-resultaten

Shadow of the Tomb Raider

1920x1080-resultaten

2560x1440-resultaten

4k-resultaten

The Division 2

1920x1080-resultaten

2560x1440-resultaten

4k-resultaten

Total War: Three Kingdoms

1920x1080-resultaten

2560x1440-resultaten

4k-resultaten

Analyse

We kunnen op twee manieren naar de variatie in scores kijken. We kunnen kijken naar de absolute spreiding en we kunnen kijken naar de verschillen tussen de launchdriver en de laatstgeteste driver, de evolutie of prestatiewinst na negen maanden drivers optimaliseren dus. Dat doen we voor de individuele games, maar natuurlijk ook als gemiddelde over alle geteste games.

We beginnen met de absolute spreiding, die we berekenen door de laagst genoteerde framerate van de hoogst genoteerde af te trekken en dat verschil te delen door de gemiddelde score van de tien driverversies. Daarnaast kijken we naar de procentuele verschillen tussen de prestaties van de launchdriver en de laatst geteste driver. Dat levert de volgende grafieken op.

F1 2019

Kijken we naar de spreiding, dan is Nvidia in F1 all over the place. Met soms ruim 20 procent prestatieverschil tussen driverversies kan je game-ervaring nogal verschillen. Ook de AMD-drivers zijn niet helemaal constant, maar veel meer dan 4 procent verschil tekenen we niet op. Die spreiding van Nvidia levert wel iets positiefs op. Vergeleken met de launchdriver zijn de 4k-prestaties sterk verbeterd. De overige resoluties zijn maar 1 à 2 procent verbeterd en bij AMD schommelen de prestatieverschillen rond een enkel procentje. Dat is niet echt significant te noemen.

Far Cry: New Dawn

Op 1080p vertonen beide merken een flinke spreiding, maar op 1440p neemt dat aardig af, hoewel de Nvidia-driver op 4k wel weer aardig schommelt. Nvidia levert ook op de lage resoluties aardig wat prestaties in tussen juli vorig jaar en maart dit jaar, terwijl AMD zeker op 1080p en in iets mindere mate op 1440p aardige winst boekt.

Ghost Recon: Breakpoint

Ghost Recon is weer een game waarbij flink wat variatie zit tussen de verschillende driverversies. Bij zowel AMD als Nvidia zijn redelijke verschillen te zien, hoewel Nvidia met uitzondering van 4k Ultra de meeste variatie vertoont. Die variatie is niet altijd bevorderlijk, want met uitzondering van de Nvidia-driver op de 4k-resolutie boeken alle tests verlies tussen juli en maart.

Metro: Exodus

In Metro is AMD redelijk constant en is het weer Nvidia dat flinke zwiepers maakt. Vooral op 4k zitten grote verschillen in de driverversies van team groen. Die verschillen vertalen zich in aanzienlijke prestatiewinst voor Nvidia. AMD is vrij constant, maar laat wel een kleine min zien over vrijwel de hele linie.

Shadow of the Tomb Raider

Ook bij Shadow zijn de prestaties van Nvidia sterk verbeterd. Alle driverversies sinds oktober presteren stukken beter dan daarvoor. Bij AMD zien we nauwelijks verbetering. De winst beperkt zich tot net 1 of 2 procent.

The Division 2

The Division 2 is weer een game waarvan de prestaties sterk afhankelijk zijn van driverupdates. AMD varieert ruwweg 3 tot 5 procent in prestaties, terwijl Nvidia ongeveer 4 tot 8 procent fluctueert. Dat komt de Nvidiakaart overigens lang niet altijd ten goede, getuige de min die we optekenen op 1080p- en 1440p-resoluties. Op 4k haalt de kaart wel flink betere prestaties met de laatste driver. Bij AMD beweegt de pijl op alle resoluties de goede kant op. De 5700 XT haalt kleine plusjes met de laatste driver.

Total War: Three Kingdoms

De prestaties van de AMD-driver fluctueren met ongeveer 3 tot bijna 6 procent en ook Nvidia's gesleutel aan zijn drivers levert ruwweg evenveel variatie op. AMD's driverupdates bewegen echter veel consistenter de goede kant op. Alle resoluties van Total War verbeteren met 1 tot 3 procent, terwijl Nvidia's prestaties alleen op 4k verbeteren.

Frametimes

We hebben de frametimes gemeten met Presentmon, en de 1-procent- en 0,1-procentscores, ofwel de 99e en 99,9e percentielen genoteerd en in grafieken verwerkt. Voorbeeld: een 1-procentscore van 12ms houdt in dat 99 procent van alle frames binnen die 12 milliseconden wordt gegenereerd, en een 0,1-procentscore van 14ms betekent dat 99,9 procent van de gerenderde frames binnen die 14 milliseconden door de gpu is afgeleverd. Een hoge score hier betekent dat de game kan stotteren.

F1 2019

F1 2019 frametimesF1 2019 frametimesF1 2019 frametimesF1 2019 frametimesF1 2019 frametimesF1 2019 frametimes

Nvidia zakt een beetje op 1080p na september, AMD is redelijk stabiel. Dat is vooral op 1080p en 1440p te zien; op 4k is het minder duidelijk.

Far Cry: New Dawn

Far Cry: New Dawn frametimesFar Cry: New Dawn frametimesFar Cry: New Dawn frametimesFar Cry: New Dawn frametimesFar Cry: New Dawn frametimesFar Cry: New Dawn frametimes

De full-hd-resolutie vertoont nogal wat variatie voor beide kampen en ook op 1440p kan het vriezen of dooien met de drivers van beide fabrikanten. De 4k-resultaten zijn veel stabieler, alleen heeft de novemberdriver van Nvidia een piekje in de 0,1-procentscore op 4k Ultra.

Ghost Recon: Breakpoint

Ghost Recon: Breakpoint frametimesGhost Recon: Breakpoint frametimesGhost Recon: Breakpoint frametimesGhost Recon: Breakpoint frametimesGhost Recon: Breakpoint frametimesGhost Recon: Breakpoint frametimes

Op de lage resolutie variëren de scores van beide videokaarten wat en het valt op dat de AMD-driver in het vierde kwartaal wat tegenviel in de 0,1-procentframetimes van 1080p Ultra. Die 0,1-procentscores zijn een groter probleem voor AMD op 1440p, waar ze naartoe geklommen zijn sinds de introductie. Dat geldt ook voor de 4k-scores, waar Nvidia juist nette stabiele frametimes genereert.

Metro: Exodus

Metro: Exodus frametimesMetro: Exodus frametimesMetro: Exodus frametimesMetro: Exodus frametimesMetro: Exodus frametimesMetro: Exodus frametimes

Presentmon werkt niet samen met Metro: Exodus, maar we kunnen wel de 1-procentscores gebruiken die de game rapporteert. Die zijn over de hele linie keurig stabiel, zowel bij AMD als bij Nvidia.

Shadow of the Tomb Raider

Shadow of the Tomb Raider frametimesShadow of the Tomb Raider frametimesShadow of the Tomb Raider frametimesShadow of the Tomb Raider frametimesShadow of the Tomb Raider frametimesShadow of the Tomb Raider frametimes

Op 1080p zijn de 0,1-procentscores van de AMD-driver wat wisselend, maar het laatste half jaar zit er duidelijke verbetering in. Bij Nvidia zien we in de laatste periode juist iets hogere frametimes op 1080p. Op 1440p zijn beide drivers redelijk stabiel, maar op 4k gaat het in het laatste kwartaal van 2019 aardig mis met de AMD-driver op 4k Ultra.

The Division 2

The Division 2 frametimesThe Division 2 frametimesThe Division 2 frametimesThe Division 2 frametimesThe Division 2 frametimesThe Division 2 frametimes

In The Division op 1080p Medium zien we een flinke piek in de 0,1-procentscore van de AMD-driver, terwijl de 1-procentscore stabiel blijft. Bij Nvidia is de decemberdriver wat minder en dat laatste geldt ook voor 1080p Ultra. De rest van de scores vertoont piekjes voor AMD in augustus en voor Nvidia in december.

Total War: Three Kingdoms

Total War: Kingdoms frametimesTotal War: Kingdoms frametimesTotal War: Kingdoms frametimesTotal War: Kingdoms frametimesTotal War: Kingdoms frametimesTotal War: Kingdoms frametimes

Op 1080p zien we weinig noemenswaardigs voor beide drivers, hoewel de 0,1-procentscores van Nvidia flink stijgen met de maartdriver op Medium-settings. Op Ultra fluctueren de scores wat, net als op 1440p Medium. Op 1440p Ultra heeft AMD een aardige piek in de score van de novemberdriver en in dezelfde maand heeft Nvidia een piek in de 0,1-procentscore op 4k Medium. Op 4k Ultra heeft Nvidia behoorlijke afwijkingen naar beneden met de augustus- en januaridriver.

Tot slot

Er zit nogal wat variatie in de prestaties per driver en dan vooral per game. De ene game kan flink betere prestaties krijgen van een driverversie, terwijl die voor een andere game juist prestatieverlies oplevert. Daarbij maakt het ook nog uit naar welke resolutie je kijkt. Driver x kan voor game y op 1080p tot flinke verliezen leiden, maar de prestaties op 4k juist aardig omhoog krikken.

We hebben deze test primair gedraaid om te kijken naar verschillen tussen driverversies die in reviews weleens voorkomen. Immers, als we drie dagen voor de introductie van een videokaartchip een nieuwe launchdriver krijgen, hebben we nauwelijks tijd om die kaart met de nieuwe driver te testen, laat staan om alle kaarten te testen.

Dat gezegd hebbende, per game of per resolutie zitten er soms behoorlijke verschillen tussen de driverversies. Hoewel we zien dat de gemiddelde prestatiewinst over negen maanden driverupdates behoorlijk wordt platgedrukt als we dat per resolutie bekijken, is dat helemaal het geval als we alle prestaties middelen. Bij AMD blijft per resolutie ongeveer 1 tot 2 procent winst over op elke resolutie en over alle tests 1,2 procent.

Bij Nvidia zien we veel meer spreiding, en zijn de resultaten op 1080p negatief en op 1440p vrijwel nul. Op 4k zit juist flinke winst bij Nvidia, reden dat we op krap 2 procent winst komen als we alle resultaten in ogenschouw nemen. Dat ontslaat ons niet van de verplichting om zoveel mogelijk met de nieuwste drivers én met identieke drivers te testen. We blijven de ontwikkelingen van de prestaties van de drivers dan ook uiteraard regelmatig meten en blijven waar haalbaar alle tests met dezelfde driverversie uitvoeren.

Ten slotte hebben we nog de gemiddelden van alle resoluties per driverversie berekend en dat in onderstaande gallery vervat. Zo zie je in één oogopslag dat de verschillen tussen de driverversies erg klein zijn als we het over zeven games middelen. Dat neemt niet weg dat de game die jij speelt natuurlijk nog altijd fikse verschillen in framerates kan zien.

Gemiddelden framerates met verschillende driversGemiddelden framerates met verschillende driversGemiddelden framerates met verschillende driversGemiddelden framerates met verschillende driversGemiddelden framerates met verschillende driversGemiddelden framerates met verschillende drivers

In een laatste poging om al deze data in een of twee grafieken te vatten, hebben we nog alle resultaten per driverversie gemiddeld. Dat levert twee vrij vlakke lijnen op, hoewel Nvidia een kleine dip heeft. Als we dan die gemiddelden nog tegen elkaar afzetten, berekenen we de procentuele verschillen ten opzichte van de launch-driver. Die resultaten hebben we in een staafgrafiek vervat, maar om ze mooier tegenover elkaar te zetten ook in een geïnterpoleerde lijngrafiek. Dan is goed zichtbaar hoe klein de verschillen zijn en hoe het Nvidia is die opkrabbelt na een klein verlies. Het is evenwel AMD die een iets grotere winst na negen maanden realiseert.

Verschillen framerates driverversies, gemiddeldVerschillen framerates driverversies, gemiddeldVerschillen framerates driverversies, gemiddeld

En om de vraag te beantwoorden of het nu waar is dat de prestaties van AMD-videokaarten mettertijd beter worden dankzij het fine-winefenomeen: niet echt. Althans niet met deze kaarten, deze tijdsspanne en deze games. Eigenlijk zou je eerder concluderen dat het Nvidia is dat na verloop van tijd beter wordt, maar dan vooral dankzij de 4k-resultaten.

De conclusie is dus dat je er vooral door proberen, testen en meten achter komt of jouw game, op de resolutie en settings die jij speelt, met de kaart die jij in je pc hebt, betere prestaties krijgt met elke driverupdate, of dat je wellicht op een oudere driver kunt gamen die met jouw specifieke combinatie van hard- en software de optimale prestaties biedt.

Reacties (256)

Sorteer op:

Weergave:

Hoe zit het met de windows updates van de test systemen? Zijn die ook een jaar lang niet gepatched? Ook meltdown patches etc kunnen de totale perforrmance van de pc beinvloeden.
Ch3cker Teamlead Testlab @Tmaster3 mei 2020 13:59
Alle tests zijn gedaan op een systeem met windows update uitgeschakeld. We hebben alle tests in een tijdspanne van ~2 weken gedaan, waardoor alle software / hardware behalve de video drivers exact hetzelfde is.
In de inleiding zegt-ie dat hij voor alle tests Windows 10 1903 gebruikt.
Dat zegt echter weinig over het patch niveau, 1903 is niet het buildnummer maar het algemene versie nummer. Windows 10 1903 kwam algemeen beschikbaar met buildnumber: 18362.116 in mei 2019, inmiddels zitten we op build 18362.815 voor Windows 10 1903 met de updates van april 2020, zie ook https://docs.microsoft.co...dows/release-information/

Voor de performance kan het wel degelijk uitmaken met welk patchlevel getest is, nu testen de meeste reviewers met de laatste updates beschikbaar op moment van testen. Hopelijk doet Tweakers dat ook, dan zou ik verwachten dat er getest is met de maart of april 2020 patch levels.
het lijkt er op dat ze drivers niet optimaliseren, maar een game optimaliseren in de drivers.
Dat is altijd al het geval geweest. Ze proberen het geklungel van de game-devs, die vaak guidelines van nvidia/amd niet volgen op te vangen door de driver aan te passen. Dat is in ieder geval wat mensen uit dat driver team toegaven in een interview jaren terug. Ze zijn echt sterk afhankelijk van hoe goed andere mensen hun werk doen.
En ik heb juist weer exact visa-versa gelezen waarbij een game iets op een manier doet wat juist wel goed is, maar de driver niet mee om kan gaan. :+

Volgens mij is het gewoon zo dat ze met elkaar moeten samenwerken, en dat dit nu soms geforceerd gaat en soms van nature al wel goed. De twee (games + drivers) zijn gewoon heel erg afhankelijk van elkaar. Dus je hebt domweg met elkaar te maken. De gene die iets ontwikkelt zal altijd weer proberen z'n eigen straatje schoon te vegen. Beetje ontwikkelaars eigen.

Zolang ze maar weer de gulle middenweg vinden is het voor ons (consument) prima ;)
De dynamiek tussen games en drivers is natuurlijk iets wat al decennia speelt. Ook hier is het niet veel anders. Zit je dus met deze kaarten op 1440p ultra (de sweet spot voor deze kaarten imho) dan ga je inderdaad de eeuwen-oude discussie krijgen welke drivers voor welke games en welke game het beste is geoptimaliseerd voor welk kamp, de rode of de groene. Uiteindelijk gaat het in de meeste gevallen om misschien <10fps hier en daar, en zal men door de bank genomen eerder gaan kijken naar het prijsverschil tussen de kaarten, dan naar het prestatie-verschil. Ik vermoed dat er op Tweakers ook een aanzienlijke groep mensen is die op voorhand driver-stabiliteit als argument aandraagt om voor een bepaald kamp te gaan, meestal de groene.

Wat ik in ieder geval kan toevoegen is dat ik heb opgemerkt dat derde partijen met de PCB's en drivers van AMD regelmatig de plank misgeslagen hebben. Ik heb een 5700xt van gigabyte en de VBIOS lijkt niet zo lekker samen te werken met de drivers, vooral op het gebied van fancurves en voltage... Alles na versie 20.1.3. verkloot mijn kaart op dat gebied. AMD heeft in de release notes aangegeven dat ze meer ruimte hebben gegeven aan de firmware van de kaarten. In mijn geval heeft dat dus slecht uitgepakt en twijfel ik over een RMA.

En ja dan ga je automatisch toch denken, had ik 70 euro meer neer willen leggen voor het groene kamp?
Inderdaad, dit is toch echt wat werkelijk gebeurt; hierdoor krijgen bijvoorbeeld dx11 games waarschijnlijk nooit meer de gewenste optimalisatie voor de RX5700 architectuur van AMD in de Adrenaline drivers.

Als early adopter van een RX5700 zijn veel oudere (DX11 only) games hierdoor nog steeds moeilijk speelbaar, dit wegens de vele onbehandelde performance issues ( te lage gpu clocks & verbruik, microstuttering, fluctuerende volts en clocks).
Erg frustrerend voor gebruikers als ik die toch ook nog veel "oude" games spelen; Dishonored 2, Far Cry 5, AC Odyssey en zelfs BF:V.

AMD Erkent dit probleem, en het staat al maanden bij de "Known issues" op de patch notes, terwijl het al vanaf Juli (!) een lopend probleem is.

Ontopic:
DX12/Vulkan games hebben dit probleem totaal niet, en lijken inderdaad her en ook zeker profijt te hebben van de nieuwere drivers, maar ik en veel anderen zien graag liever de bekende issues opgelost worden voor deze kaarten.

Paar bronnen:
https://www.reddit.com/r/...lockingpowersaving_issue/
https://www.reddit.com/r/...0_xt_bfv_low_fps_low_gpu/
https://forums.guru3d.com...avior-workarounds.428859/

[Reactie gewijzigd door SpoSword op 22 juli 2024 14:33]

Ik heb een RX5700 en speel BFV op DX12, nou ik kan het soms beter Stutterfield noemen. Ik meende dat DX12 meer problemen geeft dan DX11. Namelijk zag ik vooral extreme gestotter in DX12, waarbij geregeld bij starten van een match/map erg lage resolutie werd weergegeven (inclusief waarschuwingssymbool). Ik heb dagenlang forums en oplossing toegepast en het werkte opeens, zonder te weten wat precies.

De laatste forum die ik gelezen heb, omtrent gestotterd ging over ULPS: sommige zweren dat dit de oplossing is.

Offtopic:
Daarnaast heb laatst de "optimale" grafische instellingen ingeschakeld. Nou, ik weet niet wat er met de game gebeurde en heb spijt dat ik het niet heb opgenomen, want leek verdomt veel op de bugs uit het verleden.

1. Veel textures, zoals van de map, bleven op erg laag staan (stond op ultra)
2. Teamgenoten zagen er PS1-versie uit. Dit zie ik ook buiten dit gebeuren
3. Teamgenoten waren doorzichtig en je zag een schim rondzweven, zonder animaties
4. Mijn character voerde de acties uit, maar zonder animatie; granaat gooien, vloog zonder handgebaar. Reanimeren, met nog het wapen in de hand. Na respawn was mijn primary gun niet te selecteren, de secondary gun deed niks meer.

Na de herstart was alles weer in orde. Wat de reden is, is mij onbekend. Wel verbazend, gezien dat hiermee aantal bugs leken terug te komen.
De profielen die AMD zelf toepast voor de 5700XT zijn helaas ook om te huilen.
Dan kan je zelfs gaan lopen modden in de firmware; Het control center negeert vervolgens gewoon die fancurve en gooit zijn eigen defaults erin...
Die defaults hekel ik omdat die het botweg niet accepteren dat de fan ook maar op fluistersnelheid gaat draaien vóór die gaat throttlen...

Sinds ik mn Sapphire 5700xt Nitro+ via "tuning" lock op 2050 mhz op 1100mV (ipv ca 1150-1180mv), throttlet hij hier een heel stuk minder (ook de fancurve wat omhoog gezet), echter heeft de software er nog steeds een (erg vervelend) handje van om van het een op het andere moment het profiel weer naar defaults terug te stellen... eerder had ik de kaart gelockt met 2100mhz op 1050mV, maar dit leverde o.a. bij Star citizen en MonsterHunter nog instabiliteit op :(

Nu speel ik zelf geen van de games die je hier noemt, maar dit heeft voor mij bij een aantal andere DX11-games de fluctuatie in core-clocks en fps wat vermindert, ik durf echter niet uit te sluiten of de veranderingen in de fancurve daar wat mee te maken kunnen hebben, mij valt op dat de kaart nu over het algemeen koeler blijft met voor mij nagenoeg onmerkbaar meer geluid :) (eig de curve verandert naar 40% op 25c, 50% op 50c, 60% op 75c, 80% op 85c, 85c lijkt ook het punt te zijn waarop de kaart begint met throttlen, mn 100% staat op 90c).
De fan is dan soms wel te horen, maar persoonlijk vind ik het niet storend vergeleken met de stabielere fps voor de getroffen games :)

[Reactie gewijzigd door Annihlator op 22 juli 2024 14:33]

Thanks!
Zal de door jouw geschetste settings ook maar eens uitproberen, kan geen kwaad naast alle tevergeefse pogingen inmiddels :'( . Van een throttlegrens was ik niet eens op de hoogte, goed om dat eens te monitoren aangezien ik die temps vrijwel altijd standaard aantik volgens mij.

[Reactie gewijzigd door SpoSword op 22 juli 2024 14:33]

Zelf merkte ik het nadat ik een tijdje was wezen benchmarken buiten 3dmark op 100% fanspeed, de kaart leek dan wat hogere clockspeeds aan te houden zolang die nog niet op 85c zat :) (bijvoorbeeld 2040-2060Mhz ipv 1960-1990 die ik zag rond 85c. Dit zijn niet de exacte waarden, maar voor het idee is het denk ik duidelijk :) )

[Reactie gewijzigd door Annihlator op 22 juli 2024 14:33]

Precies mij ervaring met AMD drivers en video kaarten, ben over naar NV et voila, geen problemen meer.
Daar doe je het voor.
Inderdaad en persoonlijk vind ik dat als nvidia gebruiker helemaal niet zo geweldig. Zo moet je dus bij iedere game gaan klooien om te kijken wat de beste driver is. Zo die ik dat ik met Division 2 op de slechtste driver gebruikt heb en de fps was dan ook om te huilen.

Ik zie liever de kaart gewoon gemiddeld presteren op alle games.

[Reactie gewijzigd door computerjunky op 22 juli 2024 14:33]

Dat is altijd al een nadeel geweest van PC gaming, geklooi met drivers en settings etc.. Waar een nieuwe driver voor de ene game een verbetering kan brengen kan die voor een andere game juist weer een verslechtering zijn.. Daarom koop ik altijd videokaarten met genoeg overhead in de prestaties zodat ik geen last heb van dit soort variaties tussen drivers etc (nu een RTX 2080 op 2560x1440).. Dus al gaan de prestaties met een nieuwe driver mogelijk iets naar beneden, ik heb genoeg fps over dat ik het niet echt merk.. Maar als je al op het randje zit van wat soepel draait, ja dan wordt het vervelend en zal je steeds moeten gaan uitzoeken welke driver-versies en game-settings het beste werken om de beste prestaties te krijgen voor de games die je speelt..
ja heb ik ook liever..gewoon stabiele goede performance.
Nu komt er een nieuwe driver uit als er een nieuwe game is.
Eigenlijk zou je dan beter niet kunnen upgraden, gezien de uitkomst random is voor andere spellen.
(tenzij er ook iets gefixt wordt natuurlijk)
Ja ik update eigenlijk alleen bij problemen. Dat geld voor alles. Je weet immers nooit wat potentiële problemen zijn. in dit geval dus prestatie verlies als je nog "oudere" games speelt.
AMD's fine wine geld Vooral voorde VLIM5 en 4 en GCN architecturen waar lastiger voor te optimaliseren was. Deed je niets werden niet alle alu's gebruikt.

RDNA heeft daar een hele grote stap voorwaardes gemaakt tov GCN die er voor zorgt dat veel meer shaders van werk voorzien kunnen worden zonder dat je heel erg moet optimaliseren.

Dus het kan kloppen dat het effect van nieuwe drivers bij de 5700 XT inderdaad kleiner is.
Waarom heeft Astennu's reactie maar een +1? Dit is precies de reden waarom AMD kaarten beter werden naar verloop van tijd, driver en spel optimalisaties. De GCN architectuur bood daar veel ruimte voor, de RDNA (Navi / RX5xxx) architectuur is van zichzelf efficienter opgezet voor games en daar is dus minder te optimaliseren.

Versimpelde uitleg:
Een GCN Compute Unit heeft 4 pipelines die tegelijk kunnen starten en tegelijk stoppen.
Een RDNA Compute Unit heeft 2 van dat soort pipelines, maar iedere pipeline is wel 2x zo snel.

In dit scenario zijn de kaarten even snel als alle pipelines altijd aan het werk zijn. Echter is het niet makkelijk om een spel zo te programmeren dat alle pipelines altijd bezig zijn. Stel er is even maar werk voor 1 pipeline, dan is een GCN kaart maar 25% bezig, terwijl een RDNA kaart nog altijd 50% bezig is. Driver en spel updates kunnen ervoor zorgen dat er zoveel mogelijk pipelines tegelijk bezig zijn. Echter is de ruimte om te optimaliseren op oudere AMD kaarten dus een stuk groter, aangezien de efficientie op RDNA door het ontwerp al hoger is.

YouTube uitleg (van Linus Tech Tips):
https://www.youtube.com/watch?v=3bmQPx9EJLA&t=2m18s

Relevante afbeeldingen:
https://static.techspot.c...ages/2019-08-03-image.png
https://static.techspot.c...ages/2019-08-03-image.jpg

[Reactie gewijzigd door job_h op 22 juli 2024 14:33]

Ik denk dat mensen het niet snappen omdat ze de architecturen niet kennen.
Bedankt voor het verder toelichten dat had ik eigenlijk meteen even moeten doen :)
Leuke test. AMD lijkt stabieler, en Nvidia optimaliseert agressiever (voor populaire games).

Dat gezegd hebbende: de verschillen op de hoge settings (4k ultra) zijn dan gemiddeld 7%. Maar in daadwerkelijke FPS is dat nog altijd niet heel veel. De meeste games draaien dan rond de 60 FPS met geluk. En dan ga je van 60 naar 65....

Dat KAN net het verschil maken. Maar met gsync/freesync verwacht ik dat eigenlijk niet.

Maar IMHO wordt dit verhaal van "fine wine" pas interessant ná de release van een nieuwe videokaart. Want er zijn maar weinig mensen die een GTX 2080 kopen en dat grapje jaarlijks herhalen. Wat gebeurt er na 2 jaar? 3 jaar? 4 jaar? Zeg maar de levensduur van een videokaart....

Ik heb alleen ervaring met Nvidia, maar weet wel dat support vroeger gewoon hard gedropped werd, en dat vergelijkbare AMD kaarten nog wel optimalisaties kregen. Hoe dat nu is weet ik niet.

Want een goede wijn laat je niet (korter dan) 1 rijpen O-)

[Reactie gewijzigd door Waah op 22 juli 2024 14:33]

Ik heb alleen ervaring met Nvidia, maar weet wel dat support vroeger gewoon hard gedropped werd, en dat vergelijkbare AMD kaarten nog wel optimalisaties kregen. Hoe dat nu is weet ik niet.
Het is niet zozeer dat oude AMD kaarten nog optimalisaties kregen, maar dat nieuwe games steeds GCN-vriendelijker werden geprogrammeerd. De architectuur was wat dat betreft z'n tijd vooruit, en de DX12/Vulkan support zat bij vrijwel alle AMD GCN chips gewoon goed. Nvidia beloofde ondertussen ook ondersteuning voor de nieuwe APIs, maar bij Fermi, Kepler en tot op zekere hoogte Maxwell werkte dat in de praktijk niet zo mooi als de PR liet geloven.
Precies wat je zegt! Dit is dus de reden dat +/- 8 jaar oude AMD kaarten zoals de HD7950/HD7970 (de eerste GCN generatie) in (voornamelijk) DX12/Vulkan titels nu compleet gehakt maken van hun nVidia tegenhangers uit die tijd, zoals de GTX6xx en zelfs de GTX7xx series, tot de 780Ti aan toe. Dit is dan ook voornamelijk de reden dat de zogenaamde 'Fine Wine Technology' deze naam heeft gekregen, iets waar ik vreemd genoeg niets over lees in deze (verder prima informatieve) Tweakers test.

Zie: https://www.techradar.com...-it-comes-to-doom-eternal
De title van het artikel had moeten zijn:

Driver prestatie winst bij de 5700 XT vs 2070 super en het fine-wine fenomeen is niet echt van toepassing op de 5700 XT.

Terwijl ik dit type besef ik me dat het gewoon een slecht artikel is.

[Reactie gewijzigd door Knijpoog op 22 juli 2024 14:33]

Fine Wine gaat over kaarten die al jaren oud zijn en zich nog steeds goed staande houden. Navi is daar nog niet oud genoeg voor. En wat maakt precies dat dit artikel slecht is in jouw ogen?
"En om de vraag te beantwoorden of het nu waar is dat de prestaties van AMD-videokaarten mettertijd beter worden dankzij het fine-winefenomeen: niet echt."

Omdat ze dit concluderen na een onderzoek op één AMD kaart.
Boe het artikel ondersteunt je eigen hypothese niet, dus dan knip je het stuk dat de uitspraak nuanceert er uit zonder context. Het staat gewoon in de conclusie dat "Fine Wine" niet opgaat voor deze kaarten en deze tijdspanne.
En om de vraag te beantwoorden of het nu waar is dat de prestaties van AMD-videokaarten mettertijd beter worden dankzij het fine-winefenomeen: niet echt. Althans niet met deze kaarten, deze tijdsspanne en deze games.
En dat laatste stuk stond er ook al toen jij je reactie postte.
Mooi stuk, thx for sharing.
Doet me denken aan de HD5850 serie van AMD, dat waren nog eens GPU's denk ik!
Ik ben ook zeer geinteresseerd hoe de RX580 in dit plaatje past. Hij's al wat ouder en volgens mij de meest doorgaanse AMD kaart.
Verwijderd @Waah3 mei 2020 12:08
Het kan dipjes in ieder geval opvangen. Ook met g/free merk je het wel als je van 60 naar 55 gaat.
Het belangrijkste van het hele artikel is dat het laat zien hoe veel dichter DX11 en 12 zitten op hardware. Bij zulke testen met DirectX 9 kon je nog rustig 20-30% winst halen.
Volgens de meest recente Steam Survey gebruiken op dit moment 63.83% van de ondervraagde 1920x1080. Dus ik denk dat je je vergist hierover..

https://store.steampowere...e-Survey-Welcome-to-Steam
Steam survey, dat is mondiaal, in Europa of specifiek Nederland zal het percentage sterk afwijken aangezien NL een van de rijkste landen in de wereld is. Mensen die nu een systeem kopen en een AMD of Nv kaart kopen rond de 5700/2070 (geteste systemen) gaan deze niet gebruiken voor 1080p (enkeling daar gelaten) want dan is een 2070 gewoon overkill.
Ik zie frame-rates op 1080p-ultra voorbij komen van soms dik onder de 100fps. De minimum frame-rate zal dus nog veel lager liggen, dus zulke kaarten zijn voor continu 1080p op 60fps ultra-settings geen overbodige luxe. In ieder geval is het bij veel spellen lang niet genoeg om een 120 of 144hz monitor volledig te benutten.

Je houdt ook geen rekening met toekomstige spellen die grafisch veel meer zullen vragen. Mensen die zo'n kaart kopen zullen toch verwachten dat ze daar een tijd vooruit mee kunnen.

[Reactie gewijzigd door sampoo op 22 juli 2024 14:33]

Geen enkele videokaart gaat 144 fps ultra trekken op 1440p. Afgezien van een paar games. Echter is het verschil tussen 100 fps op ewn free of gsync scherm vs een standaard 60 fps/60hz scherm enorm.

Daarnaast zijn ultra settings vaak enorm overrated en niet geoptimaliseerd. Een simpele setting van ultra naar high kan je al 20% extra fps geven terwijl je het grafisch gezien amper merkt.
Waarom zou je een 144hz monitor kopen om vervolgens op een resolutie te gaan gamen waar je GPU nooit zulke hoge framenrates kan halen op high / ultra settings? Dan kies ik liever voor 1080p maar dan wel op 144fps+ op high / ultra settings.
Wellicht omdat sommigen ook andere zaken doen op een pc naast gaming, en dan wel graag gebruik maken van een hogere refresh rate...
Waarom zou ik bij bijvoorbeeld 3d modelleren of photo editing een hogere refresh rate willen? Heb dan toch echt liever een hogere resolutie... Gaming is juist een van de weinige zaken waarbij een hogere refresh rate belangrijker zou kunnen zijn (afhankelijk van de persoon) dan een hogere resolutie
Waarom zou je een 144hz monitor kopen om vervolgens op een resolutie te gaan gamen waar je GPU nooit zulke hoge framenrates kan halen op high / ultra settings?
Freekers heeft het dus over een hoge resolutie 144Hz monitor,

Gewoon beide dus: https://tweakers.net/moni...UC8VTXaz0DsbNyjZdpHhxKKX8

[Reactie gewijzigd door Zer0 op 22 juli 2024 14:33]

Maar 144 FPS ga je niet halen in AAA games op 4k met high/ultra settings
Kijk naar mijn eerdere reactie.... er worden ook andere zaken op pc's gedaan naast gaming...
Omdat een hogere refresh rate veel beter voor je ogen is. Je raakt minder snel vermoeid en daarnaast beweegt je muis ook nog eens veel vloeiender. Kan me niet voorstellen dat je bij 3d modelleren met minder doet..
Ik wel. Widescreen-schermen met hoge resolutie zijn al relatief duur, laat staan met een hoge refreshrate. Of kun je je ook niet voorstellen dat een hoge resolutie widescreen bij 3d modelleren belangrijker is dan de refreshrate?
Ja, maar kan jij je niet voorstellen dat sommigen beide belangrijk vinden en daar bereidt zijn voor te betalen?
Wie zegt iets over 144hz? dat is misschien jou keuze, mijn monitor kan alleen 60hz maar is 4k, mijn keuze is anders. Heb je 144hz nodig voor een potje civ6 of anno1800 of gta/rdr2 volgens mij is 60+ en een 1440p monitor dan eerder gewenst zeker als je meer doet dan alleen gamen. Een game als anno is mooier op 4k dan 1080p en 144hz. Daarnaast heb ik liever HDR en alle eye candy aan.

Kijk 3 sec. naar pricewatch en dan zie je (wat een volgorde is van meest gekeken) dat er vooral 1440p monitoren staan. Eerste 30 monitoren staan er meer 4k schermen in dan 1080p.
Wat je even vergeet is dat dat mensen zijn die een nieuw scherm zoeken.
De reviews zijn ook voor mensen die al (jaren) een scherm hebben.

Daarbij zijn er ook mensen met twee (of drie) schermen omdat de 16:9 verhouding voor productiviteit niet altijd handig is, die hoeven voorlopig niet te upgraden. Deze gamen op 1080, of met geluk 1440 na een recente upgrade.
Twee 1080 schermen (€200) is al tijden goedkoper dan een widescreen met vergelijkbare resolutie (€350). Bij een widescreen van 2560x1080 voor dezelfde prijs lever je 30% van de breedte in.
Voor twee 4k of 1440 schermen leg je minstens €500 neer.

[Reactie gewijzigd door discy op 22 juli 2024 14:33]

Misschien interessant om eens hiernaar te kijken: https://youtu.be/ehvz3iN8pp4 En er zijn nog meer videos gemaakt oer dit onderwerp. Het punt is gewoon dat in de praktijk het gamen vaak fijner is met een hogere framerate en de lagere resolutie niet echt heel erg opvalt.
Zelf vind ik het jammer dat je bij een snellere kaart ook gelijk moet betalen voor extra geheugen terwijl je dit op lagere resoluties helemaal niet gebruikt. Hier zou best wel eens een fabrikant in dit gat mogen stappen.
Onzin, ik heb een philips bdm4065uc in 2015 gekocht voor een 600 euro.
Betaalbaar dus en 4k/40" . Als je die zet op 1080p of 1440p dan zie je dat gewoon op normale afstand.

De games die ik speel hangen niet af van hoge refreshrates, framerate >75hz (waar die nu op staat) is dus onnodig. Zoals steeds hangt het dus af wat je ermee doet, en ik denk dat de meerderheid die effectief nut hebben van een ultra hige refresh rate op een handvol te tellen zijn. De casual non pro gamer gaat echt niet beter zijn in CS op 144fps dan op 75 fps.

Iets zoals de witcher kan ik gerust op 40-50 fps spelen nadat mods en alles eroverheen gaat op 4k. Geen haar die eraan denkt om terug te vallen op 1440p laat staan 1080p om wat hogere fps te krijgen.
Heel leuk dat je een beeldscherm aanhaalt met dezelfde pixel density als een 20" full hd scherm. Het feit dat je zelf aangeeft op dat scherm te gamen bevestigd dus dat pixel density niet zo belangrijk is.
Daarnaast ben je sowieso waarschijnlijk niet heel erg kritisch aangezien dat scherm sowieso wat steken laat vallen als dedicated gaming scherm zoals ook in deze conclusie wordt onderschreven: https://nl.hardware.info/...cht-groot-beeld-conclusie

Zoals ik al zei, kijk de andere videos in de serie ook eens zoals https://www.youtube.com/watch?v=OX31kZbAXsA
Verder is het altijd nog per persoon anders, maar alles wat ik wil zeggen is, staar je niet blind op de resolutie en probeer het zelf eens. Seeing is in veel gevallen toch echt believing hierbij. Ik geloofde er vroeger ook niet in totdat ik er zelf een keer achter zat.
?
De responstijden zijn 'net aan' voor games, maar zolang je geen zeer veeleisende speler van snelle FPS games bent (en dan raden we je sowieso een 144Hz scherm aan in plaats van een Ultra HD-monitor) kan je er prima mee uit de voeten. Op alle andere vlakken hebben we eigenlijk geen kritiekpunten.
Wat ik dus zei: zolang je geen "pro gamer" bent is een scherm zoals dit meer dan genoeg. Dat bevestigd dus gewoon wat ik zei: refresh rate maakt weinig uit voor de meeste gamers . Gemiddeld 60 fps voor een scherm zoals dit is genoeg . iets wat je (ind e tijd al) op AAA titles zonder super hoge kaart gewoon kon halen.

Ik zie dus niet waar dit scherm steken zou laten vallen; VA paneel, hoge resolutie en grootte en betaalbaar. Die hype van hoge refreshrates is meer om schermen te kunnen verkopen dan echt nuttig imho.
Dus je hebt niet de moeite genomen om even op het filmpje te klikken? Erg jammer dat je niet gewoon een discussie hier over kan voeren op basis van inhoud en onderbouwing. Maar misschien had ik dat al aan moeten zien komen toen je, je eerste reactie begon met het woord "Onzin" en daarna alleen maar voortborduurt op iets wat jij hebt en wat jouw mening is hier over. Dus dan zal het wel waar zijn....

Voor alle andere mensen, probeer je horizon eens te verruimen.
Omdat het antwoord gewoon: neen is. Nogmaal de doelgroep waar ik over sprak(aka een grote meerderheid van gamers) heeft weinig/niks aan 144/240hz gaming . Je geeft een filmpje over iets waar ik het niet over had.
En ja, het is inderdaad spijtig dat je dit precies persoonlijk neemt, die onzin ging over dat filmpje niet over jou. Mijn argumenten staan er als je ze effectief leest zal je wel inzien dat ik daar gewoon een punt heb.
In beide filmpjes wordt het effect van de refresh rates en high fps getest op normale mensen. In het 2e filmpje zitten ook pro games en streamers, maar daarnaast ook normale casual gamers. Ook bij hun is vooral de sprong naar 144hz zeer duidelijk aanwezig en verbeterd het gewoon hun performance.

En je mag je eigen mening hier over hebben, maar iemand anders zijn mening (of het nou de mijne is of die van een content creator) afdoen als onzin of neen, getuigd van weinig respect.
Zeker als je de onderbouwing van de ander dus niet eens goed hebt bekeken hebt en zelf buiten je eigen mening en ervaring helemaal geen onderbouwing levert. En zonder onderbouwing, zijn argumenten gewoon lege stukjes tekst.
Nogmaals je leest gewoonweg niet wat ik schrijf, ze testen het door mensen een halve minuut op even grootte schermen een "fast paced shooter" te laten spelen. Sorry dat zegt gewoonweg niks .

Ik speel geregeld PUBG, en iemand zien is een heel stuk gemakkelijker op een 40" 2160p scherm dan op een 27"/1440p scherm dat 144hz heeft. Ik heb beide en als mijn vaste game computer door 1 van de kinderen bezet ik speel ik op de oudere en zelfs in die battle royal fps is het duidelijk wat beter is.
Nogmaals moest ik misschien een die hard counter strike speler zijn dacht ik daar anders over maar dat is toch wel echt een heel kleine minderheid.

En ja zijn conclusie is gebaseerd op een heel beperkte range van gamers en dus is die uitspraak gewoonweg onzin. Ik ben het niet die e titel "4k gaming is dumb) gebruikt als klickbait maar als je dat doet wees dan correct en niet zoals hij het daar doet want dat slaat gewoon nergens op .

Het 2e filmpje is trouwens noch belachelijker: gesponserd door nvidia die natuurlijk willen doen alsof hoge fps=beter want dat verkoopt en met shroud een ex pro gamer die beter is dan 99.99% van de gamers in een fps.

Kijk de vraag is simpel: denk je nu echt dat je de witcher 3 beter zal spelen op een 1080p scherm tegen 240hz? Als je eerlijk bent dan weet je dat dit niet zo is en dat bepaalde games en bepaalde gamers (zoals ik al enkele malen aanhaalde) gewoon leuker/beter zijn op 4k/groter scherm dan hogere resolutie.
Het is sowieso vloeiender en voelt daardoor er prettig aan. Dat het verder misschien minder belangrijk is dat je beter presteert in een single player game lijkt me logisch. Echter in het eerste filmpje oordelen mensen zelf gewoon over wat ze er beter uit vinden zien. En de conclusie is dus dat, dat helemaal niet automatisch het 4K scherm is.
https://youtu.be/tV8P6T5tTYs
Hierbij ook nog het filmpje wat er voor kwam. Waarin ze juist de claim van Nvidia gaan testen omdat die niet op erg veel info gebaseerd is.

Verder lijkt het er vooral op dat jij zelf beledigd bent door de mening van een ander omdat die niet strookt met jouw eigen mening.
Verschil is wel dat die andere mening is onderbouwd door experimenten onder meerdere personen, in meerdere games. Je klaagt over de beperkte setting en onderbouwd daarna je eigen mening met sample size=1. Daarna draai je alle argumenten dusdanig zodat het lijkt alsof ze je eigen mening ondersteunen.
"net aan" != goed
"zeer veeleisende speler van snelle FPS games" != pro gamer
En geloof het of niet, maar de meeste mensen die online gamen vinden het leuker om te winnen dan te verliezen. Dus dan is het ook wel fijn als je hardware je hier in ieder geval nog een beetje bij helpt.

Betreft het 2e filmpje. Zoals ik al zei zitten er ook pro gamers bij en ik vroeg je specifiek om te kijken naar de resultaten van de casual gamers. Vervolgens reageer je wederom alleen maar verwijzend naar de pro gamers..... Hoe krijg je dit richting jezelf in je hoofd in godsnaam allemaal recht gelult?
Nogmaals, jouw mening is jouw mening. Die mag je hebben, net zoals andere mensen die ook mogen hebben.
Maar dat jij dit prettiger vind betekent niet dat dit voor anderen ook zo is. Zeker als er cijfers en experimenten zijn die dit aantonen. En dat is echt geen refresh rate kartel ofzo.
Steam survey, dat is mondiaal, in Europa of specifiek Nederland zal het percentage sterk afwijken aangezien NL een van de rijkste landen in de wereld is. Mensen die nu een systeem kopen en een AMD of Nv kaart kopen rond de 5700/2070 (geteste systemen) gaan deze niet gebruiken voor 1080p (enkeling daar gelaten) want dan is een 2070 gewoon overkill.
aantal fps kan een reden zijn. Full HD ultra ziet er ook prima uit.
Verwijderd @D0gtag3 mei 2020 12:10
Daar vergis je je denk ik sterk in. Van de gamende collega's en vrienden ben ik toch een van de weinigen met 4K en een high-end videokaart. De meesten zitten op 1920x1080, een enkeling op 4K en een aantal op 1440p. 4K op de PC gamen is een dure hobby, je zit minstens aan een 1080 TI als je leuke framerates wilt halen en niet iedereen wil 1.5K+ steken in een PC + Monitor.
Of je hebt een 1080p schermpje maar hebt zulke kaart vooral omdat je VR performance nodig hebt.
Persoonlijk vind ik 1080p nog steeds voldoende voor gaming. Het feit dat ik alle pancake spellen op hogere instellingen op 1080p kan draaien is mooi meegenomen voor die ene keer dat ik nog op een monitor game.
Het is weliswaar n=15, maar de meeste mensen die ik ken en gamen hebben geen 4K-schermen, laat staan 1440p. 1080p is ook in Nederland gewoon de meestgebruikte resolutie.
Ik heb hier gewoon nog een 1080p60 scherm staan als primaire monitor. Toch draai ik met een behoorlijk dikke RTX kaart. Waarom? Omdat die RT en Tensor cores ook andere dingen kunnen. Renderen in mijn raytracing software gaat sneller met RT cores en bepaalde instructies (complexe 3d matrix berekeningen) gaan echt veel sneller op een Tensor core dan een CPU core. Zelfde geldt voor bepaalde CFD simulaties.

GPGPU instructies zijn echt een heel mooi iets.

En natuurlijk is het niet vervelend dat ik eigenlijk alle games die ik speel gewoon ongestrafd op ultra kan zetten met V-sync aan en alles draait gewoon strak op 60fps.
Dit is ook maar uit je duim gezogen en nergens op gebaseerd.
Is ook niet zo gek. 1920x1080 is stuk goedkoper in aanschaf. Niet iedereen kan zich een 1440p systeem veroorloven.
De scherpte tussen 1080p en 1440p is niet heel groot. Het is scherpte van ongeveer 133%. Bij 4K is er wel verdubbeling van scherpte, dus 200%. En 4K is veel zwaarder waardoor je de Ultra settings in veel gevallen kan vergeten als je pc niet krachtig genoeg is.
(Tussen 720p en 1080p is ook niet groot verschil, iets van 25% meer scherpte. De scherpte is meestal gunstig voor teksten in de game, die worden beter leesbaar, maar voor game zelf is dat niet de belangrijkste. Tenzij je shooter games speelt waar je graag goed in de verte wil zien.)

Voor snelle games zoals shooters is 4K niet echt aanbevolen omdat het vaak minder FPS mogelijk is, terwijl 1080p wel sneller en soepel kan weergeven.

Bovendien biedt 1080p nog altijd voldoende details voor veel mensen, maakt Ultra settings mogelijk en met Super Sampling Anti-Aliasing kan het ook iets beter met minder ruwe kantjes.
Daarom is er gewoon niks mis mee met 1080p. Het kost voor veel mensen minder geld en dure monitor voor 1440 of 4K is niet nodig. Ik speel nog op 1080p en ik heb nog lang geen behoefte aan 4K.
Het is veel makkelijker met 1080p om met 2 of 3 monitoren te werken voor dezelfde geld dan met 4K monitor, voor sommigen maar 1 monitor kan vanwege hogere kosten.
177 Euro voor 1440p is nog wel goed te doen, no?
https://maxict.nl/gearlab...flat-zwart-p11079693.html

Ja, niet zo goedkoop (75 EUR) voor 1080p, maar nog wel redelijk te doen.
pricewatch: Philips 223V5LSB Zwart
En dan vergeet je de rest van de pc erbij. Voor 600 euro heb je een pc die makkelijk full hd kan draaien met bijna alle settings op maximaal.
Jup, ik ben momenteel een vriend van me aan het helpen met een PC samenstellen/bouwen met dat bedrag als budget. Uiteindelijk zijn we bijna precies op dezelfde specs uitgekomen als mijn eigen PC, de zijne wordt net ietsjes beter.

Ik kan tot nu toe alles wat ik speel op ultra draaien op 1080p, minstens 60 fps (of een very high/ultra mix omdat ultra vaak onnodig veel performance vraagt en weinig grafisch verschil maakt. Dat doe ik met een videokaart die ik tweedehands voor 100 euro heb gekocht. Om datzelfde te doen op 1440p ben je een veel duurdere kaart nodig.
Een systeem is meer dan alleen het monitor maar ook de apparatuur die er beeld heen stuurt. Het is een stuk goedkoper om een 1080p systeem te bouwen dan een 1440p systeem vermoed ik zo. Vergeet niet dat als iemand het al (relatief) niet zo breed heeft elke euro evengoed mee telt, laat staan die paar honderd euro die het verschil tussen 1440p en 1080p schelen.
Ik zou niet iets van maxict (en maar 2 prijzen) gebruiken als een voorbeeld.
1080p zal nog lang een veel gebruikte standaard blijven zolang GPUs voor 1440p en 4K 1000 Euro en meer kosten.
Zo overdreven zijn de kosten nu ook weer niet (wel afhankelijk van de games die je speelt).
Ik speel zelf al jaren op 1440p, maar laten we vooral geen elite dingetje van gaan maken en het ook interessant houden voor elke doelgroep. Er is ook nog zoiets als jonge mensen/studenten met een veel krapper budget dan mensen met een fulltime baan. Ik denk dat je het een beetje teveel vanuit je eigen perspectief ziet. 1080p is ook anno 2020 nog zeer interessant, zeker ook omdat high refresh rate gamen steeds meer terrein wint. En dat laatste komt JUIST omdat daar meer ruimte voor komt op lagere resoluties door huidige hardware.
Ik denk dat die focus op high refresh rates vooral marketing is.
Bedoel in de meeste games heb je er weinig aan en zelfs al heb je er iets aan dan is het verschil zo klein dat het vooral om bijna die hards/pro gamer gaat die er effectief nut van hebben. Echter als je het kan verkopen dat je dan hetzelfde games als gelijk welke favoriet in die game omdat die dat ook gebruikt kan je wel mensen lokken.

Wat anders kan men aandacht op zetten? Grootte? Is een beperking voor velen die niet willen of kunnen. Resolutie? 4k is al lang in goedkope schermen ingebouwd 8k nog belachelijk duur, schiet dus niet veel over dan : 240 hz wauw "be even better in CS"
Nou even los van alle claims die fabrikanten maken, 144hz display is wel degelijk een groot verschil ten opzichte van een 60hz scherm. Nee het maakt je niet beter maar het 'voelt' fantastisch. Ik speel zelf veel hearthstone en dat is fantastisch op 144hz.
Mag ik hieraan toevoegen de doelgroep jonge ouders, die niet meer zoveel tijd hebben om te gamen en dus ook niet per se investeren in hele dure nieuwe hardware?
En de working poor... Niet iedereen heeft een even hoog loon. Er zijn tal van mensen die hard en veel werken en daar minder voor krijgen. Denk maar aan de vele hedendaagse helden in essentiële jobs.
Ik had de keuze, mijn ouwe krakkemikkerige CPU van 10 jaar oud (eerste gen i7 4820k), te vervangen of de 2 jaar oude GX kaart en met 12 jaar oud scherm te vervangen.
Ik had nu al last dat de CPU traag was met moderne multicore games en DX11/12, dus zou ik nog hoger gaan op die ouwe CPU was het alleen maar erger geworden. Zelfs met een GTX1080ti op Medium settings had ie al moeite mee op 1080p met nieuwere games.

Dus nu heb ik dus gekozen voor de PC (Ryzen9 3900x), omdat Intel me veels te duur is in hoger sigment CPU's waar je wat langer mee kan doen, en gebruik nog steeds mijn oude Gigabyte GTX1080Ti op een nog veel ouder beeldscherm.

Maar kan nu wel alles helemaal opdraaien met constante 60FPS iets wat niet kon op de oude CPU
En ja, het scherm is de limiteerde factor absoluut op dit moment, mijn Huidige PC kan veel hogere FPS aan op hogere Resolutie als mijn scherm kan weergeven, en ben ook aan het sparen, helaas zijn zulke hoge uitgaven voor mij maar 1x per jaar mogelijk dus moet keuzes maken.
Hoop dit jaar echt een Knap scherm te kunnen kopen, en mag aannemen mijn "oude" GTX1080Ti zeker nog wel een jaar en hopelijk iets langer nog mee kan.

Nu heb ik niet eens een zo'n slecht betaalde baan, maar heb ook nog andere lasten die betaald moeten worden, helaas kosten een kinderen een godsvermogen, en een eigen huis is ook een aardige moneypit, blijft er voor dure PC hobbies toch iets minder geld over.

En vermoed dit geld voor meer gamers onder ons die wat ouder zijn en werken.
Keuzes, keuzes keuzes ;-)
Tegen die tijd zullen de prijzen ook wel weer stevig zijn gedropt voor 2080 kaarten mag ik hopen.

[Reactie gewijzigd door ArranChace op 22 juli 2024 14:33]

Volgens mij ga je ook even voorbij aan het feit dat het overgrote deel van de high refresh rate schermen (die juist voor gaming worden gebruikt) een Full HD-resolutie hebben. Specifiek als je een hoge refresh rate wil kiezen veel mensen juist voor een lagere resolutie, want om dusdanig hoge framerates te halen op hogere resoluties heb je al snel een videokaart nodig die (ook in de Westerse wereld) voor veel mensen ver buiten budget ligt. Neem bijvoorbeeld een 1080p / 240Hz monitor, om dit volledig te benutten moeten iedere seconde net zoveel pixels worden aangestuurd als op een Ultra HD / 60Hz monitor (1920 x 1080 x 240 = 497.664.000‬ en 3840 x 2160x60 = 497.664.000). In sommige titels ga je dit zelfs met een RTX 2080 Ti niet halen, dus ik vind je statement veel te kort door de bocht.
De resultaten zijn in framerates, de refresh rate van een monitor is niets meer dan hoeveel beelden per seconde hij weer kan geven. Op het moment dat je een 1080p / 240Hz scherm volledig wil benutten moet de videokaart op 1080p dus 240 frames per seconde halen, dat hangt dus direct met elkaar samen. Of je het daadwerkelijk op een high refresh rate monitor test is compleet irrelevant, want ook als je op een huis-tuin-en-keuken 1080p / 60Hz monitor test kan je videokaart gewoon hogere framerates halen. Nog steeds zijn de resultaten dan relevant voor mensen die wél een high refresh rate monitor hebben, want die kunnen dan zien of de desbetreffende videokaart in een bepaald spel een framerate kan halen die toereikend is voor de refresh rate van hun monitor.

Edit, kleine aanvulling na de wijziging van je bericht: Je ziet mij nergens zeggen dat het hetzelfde is, je hoort mij alleen zeggen dat je systeem per seconde net zoveel pixels aan moet sturen op 1080p240 en 2160p60, namelijk 497.664.000. Logisch, want je resolutie is vier keer zo laag maar je refresh rate vier keer zo hoog. Dat wil niet zeggen dat dit hetzelfde is, er zijn namelijk meer variabelen die hierin een rol spelen. Onder meer driveroptimalisatie richting een bepaalde resolutie (wat ook één van de uitkomsten van deze review is), maar ook tot in hoeverre de prestaties op bijvoorbeeld de GPU of juist de CPU gaan leunen.

[Reactie gewijzigd door MiBe op 22 juli 2024 14:33]

Het is absoluut niet hetzelfde. Bij 4K kun je af zonder anti aliasing en dat vreet normaal ontzettend veel rekenkracht.

Daarnaast worden er hogere resolutie assets gebruikt waardoor je weer meer vram nodig hebt.

Ja er worden net zoveel pixels door de pijplijn heen getrokken, maar dat zegt niks over input resources en nabewerking als AA, AF en MSAA.
Bij 4K kun je af zonder anti aliasing en dat vreet normaal ontzettend veel rekenkracht.
Moderne software AA - zoals de TAA van Bethesda bij Skyrim SE en Fallout 4 en ID software bij Doom 2016 (om een paar voorbeelden te noemen) vreten helemaal niet zoveel rekenkracht (ongeveer 1-2 FPS) en behalen toch een zeer goed AA resultaat. Dus AA hoeft niet veel rekenkracht te vergen.
Hoeft niet nee, maar doet het vaak wel. Uiteraard zijn er fikse stappen gezet met dergelijke technieken. Neemt niet weg dat je 1080p@240 niet 1-op-1 kan vergelijken met 4K@60. Dat was meer het punt.
En 34% van de bezoekers op Tweakers op PC/Laptop gebruiken een 1920x1080p resolutie om de site te bezoeken, gevolgd door 11% op 2560x1440.
De mensen hier op tweakers bestaan voor een groot gedeelte ook uit mensen welke ook Steam gebruiken. Het is niet het een of het ander.
Dat jij niks aan steam hebt, is jou eigen probleem.

Ik heb een 5700XT en draai/game ook op 1920x1080. Mijn monitor doet het nog uitstekend dus ik zie nog geen reden om die te vervangen op 144hz.

Waarom denk je dat tweakers meer geld hebben dan de rest van Nederland of de rest van de wereld? De meeste van mijn gamende vrienden doet dat nog op fullHD of 1440.
De meeste mensen hier op Tweakers zijn het fundamenteel oneens met je visie hier op. Accepteer dat gewoon, negeer 1080p en zoek de resoluties waar jij mee gamed op.

[Reactie gewijzigd door sampoo op 22 juli 2024 14:33]

Zeker, een terechte -1 voor mij.
Ik zou het in elk geval jammer vinden als tweakers dat deed. Ik game op 1920x1200 dan, maar full-hd zit hier het dichtste bij. Van mij hoeft het niet hoger. Ik speel op een 24 inch.
Misschien ben ik dan geen "liefhebber" volgens jou. Maar ik gebruik mijn PC voor andere dingen als alleen gamen.
Maar ik speel wel graag zo nu en dan een game. Ik verdom het echter om 4 a 500 euro aan een videokaart te besteden. Daarom is 1080p voor mij (nu) genoeg, het is niet dat het spel opeens leuker word door een hogere resolutie.

Edit: Je word al gauw naar -1 gemod, Er zijn dus meer mensen die nog graag 1080p zien.

[Reactie gewijzigd door Xer0X op 22 juli 2024 14:33]

Juist omdat ik vooral andere dingen doe dan gamen heb ik een UHD-monitor. Maar dat terzijde. ;)
En hoe bevalt dat? Ik heb m'n 24" (1920x1200) monitoren vooral voor foto bewerking. Ik zit nu te kijken naar een 27" model met 2560x1440 resolutie, omdat die ppi het dichtst bij m'n huidige zit. Met 4k is de ppi aanzienlijk hoger, zeker op 27" maar ook op 32", pas vanaf 42" komt het in de buurt, maar dat is veel te groot. Waar ik bang voor ben is dat letters en menu's niet goed schalen en daardoor of onleesbaar zijn, of niet scherp. De schaling in Windows is ook maar beperkt van wat ik er van begrijp.
Ik heb een 25 inch met 2560x1440 juist omdat het een hogere PPI heeft ziet alles er veel beter uit. Ik kan écht niet meer terug naar 1080p.

Een vriend van me kocht onlangs een 1080p 144hz monitor in 27 inch en dat vind ik persoonlijk om van te huilen. That said, ik gebruik m'n schermen voor véél meer dan alleen games, hij niet. Elk z'n ding :)
@LA-384 ^ Ik heb daar verder weinig aan toe te voegen. Alles is veel mooier en scherper. Bij statische tekst en afbeeldingen merk je dat enorm veel meer dan bij iets dat beweegt.

Of de specifieke programma's die je gebruikt goed schalen kun je eenvoudig uitproberen. Gewoon Windows even op bv. 150% zetten. Het kan wel zijn dat je die programma's en/of Windows zelf beter eerst even kunt herstarten, niet alle programma's schalen mooi "live".

Eigenlijk zijn het vooral oudere games die tegenstribbelen, en vreemd genoeg vooral als ze niet indie zijn. Ik ben momenteel bv. Deus Ex: Human Revolution aan het spelen. Ziet er prima uit in 4k met alles erop en eraan, trekt m'n pc ook zonder dat de fan op m'n gpu überhaupt aangaat, maar de UI in dat spel schaalt voor geen meter en is voor 720p gemaakt. Zelfs op 1080p is dat al wat minder.

Maar als je iets moderns speelt, zoals Life is Strange 2 bijvoorbeeld, kun je lekker de UI in 4k doen voor de scherpe letters en het spel zelf op een lagere resolutie. Naja, of alles in 4k maar m.i. is het op medium toch net wat lelijker dan op een lagere resolutie met alles lekker hoog. :)

Voor statische tekst en afbeeldingen zou ik iig zeggen: doen!
Voor een Video, Foto en grafisch werk. Raad ik echt iedereen hoge resolutie schermen aan en een IPS.
Haha echte gamer ben je als je niet eens weet dat competitive er heel veel op lage resolutie en gfx gespeeld wordt op schermen met hoge verversingssnelheid die bijna altijd max. 1080p zijn.
idd heel veel pro's (de enige echte pc liefhebbers denk ik...) spellen nu op 1080p/240hz
Dat heeft ook te maken met het feit dat hogere fps / lagere frametimes een lagere inputlag geeft. Input lag wil je niet als pro gamer. Echter zal een normale gamer zoals iedereen hier het verschil echt niet merken tussen 144 hz of 240 hz.
Dus 0.0001% van gamers? De rest heeft weinig aan die heel hoge refreshrates.
Bijna iedereen gebruikt nog 1080p hoor, scherp zat en je hebt geen gpu van 600 euro nodig.
Joh ik game nog gewoon op een 1080p VGA-ONLY scherm. Ja, wat bleeding hier en daar, en het kan beter, maar meh. Ik word nog steeds de game in gezogen. 4k is mooi, ja, zeker als ik factorio speel op mn macbook pro bijvoorbeeld. Maar ik draag niet altijd een bril terwijl ik wel redelijk slecht zicht heb, dus ik heb er niet zo veel aan. Als ik weer 'ns ga upgraden gaat t me meer om dat ik nieuwere games kan spelen. 1080p is voldoende voor nu.
Los van het onderwerp en waarschijnlijk totaal overbodig de comment die ik nu ga typen: Het is medisch gezien wel beter een bril of lenzen te dragen, het schijnt, als ik het mij goed herinner, dat je ogen sneller verder achteruit kunnen gaan bij moeten inspannen bij het kijken (dus zonder bril). #spuitelfsigningoff
Ik las dan weer dat je ogen nog luier worden als je ze niet meer inspant. Misschien moet ik het maar opzoeken.. Ben erg lui op het moment, haha. Dank je voor je concern, though! :)
Inderdaad, hier ook 2x 1080p, maar dan als 2e & 3e schem, hoofdmonitor is 3440/1440, allen 60hz.
Een RX5700 kost minder als 350 euro...
Misschien eens een polletje aan wagen? Ik denk dat er juist nog vrij veel mensen op die resolutie gamen/werken. De pc is natuurlijk niet voorbehouden voor "pc liefhebbers".
Ik heb hier anders nog 2x een 1080p schermpje aangesloten staan, dus wat voor jou misschien niet interessant is kan dat voor een ander wel zo zijn. Ik ben dan ook blij dat 1080p nog steeds in de testen aanwezig is :)
1080p is super relevant en populair, vanwege:

- Beeldkwaliteit is goed genoeg voor de meeste mensen, zeker met de goede, moderne AA en texture filtering technieken.
- Makkelijker 60+ FPS halen voor hoge FPS schermen op hoge of ultra kwaliteitsinstellingen met een degelijke tot erg snelle GraKa.
- Veel (gaming) laptops met 1080p scherm.
- 1080p/60FPS is veel goedkoper in aanschaf dan 4k/60FPS.

...Er zullen vast nog wel wat redenen zijn. Zoals fleros aangeeft in zijn post met link naar de Steam Survey, gamed bijna 2/3 op 1080p. Dat is geen kattenpis...

Ik zie mijzelf nog niet op 4k gamen. Pas wanneer mijn 11 jaar oude 43" 1080p Sony TV - waar mijn desktop aanhangt - komt te overlijden, ga ik het misschien overwegen - mits de GraKa prijzen voor 4k in prijs gedaald zijn. Voor mij en vele mensen is het dus wel degelijk relevant dat 1080p prestaties toenemen na driver updates ipv afnemen.
Ding is ook dat Fullhd (1920x1080) eigenlijk de consumentenvariant is van 2k (2048x1080). Net als dat UHD (3840x2160) de consumentenversie van 4k (4096x2160) is.
1080p is voor het consumeren van media echt wel een sterke middenweg tussen prijs en kwaliteit. Bioscopen blazen 2k ook nog steeds op maar 20 meter brede schermen zonder dat hetmensen grootschaals opvalt.

De kwaliteit van de pixels (en voor gamen is de refreshrate ook een grote factor hierin) is veel belangrijker dan de hoeveelheid. Dit geld voor de gehele chain.
Het is gewoon veel makkelijker een heel mooi plaatje op 1080p te renderen en dus ook goedkoper.
Aangezien laptop en desktop GPU's vaak gelijk getrokken zijn is het juist perfect om te zien hoe een spel op je laptop zou presteren.
<sarcasm mode>
Dan kunnen we het testen op 2D beter helemaal laten varen, want welke zichzelf respecterende gamer speelt er nou nog op een plat scherm anno 2020? VR all the way! ;)
</sarcasm mode>
De meeste monitoren die een beetje betaalbaar zijn doen toch echt "maar" 1920 x 1080 hoor.
Dus deze resolutie is wel degelijk belangrijk om te testen.
Vreemde uitspraak, zat gamers (waaronder mezelf) die nog op 1080p spelen. Oa omdat ik geen plaats heb voor een grotere monitor dan 24" en omdat ik zo ook een stuk langer met mijn videokaart kan doen(gtx 1060 al bijna 4 jaar oud en kan nog steeds bijna alles maxen op 1080p)
Innovatie is natuurlijk prachtig, maar realisme is denk ik verstandiger met name als het om persoonlijke voorkeuren gaan. Ik heb het idee dat Skelleniels juist in de toekomst kijkt, want hij houdt blijkbaar, en terecht, rekening met de duurzaamheid van zijn aankoop en het gebruik daarvan.

Is er iets mis met een keuze voor 1080p dan wel jouw keuze voor hogere resoluties, lijkt me niet. Het is niet een onderwerp dat zich leent voor een uniforme invulling, verschillende mensen hebben verschillende voorkeuren. Dit kan zijn in doelgebruik, budget, wereldbeeld en noem maar op.
Voor elk wat wils toch? Snap ook niet waarom je er een probleem van maakt dat er nog op 1080p wordt getest? Er wordt toch evenveel in 4k getest, dus heb je toch alle resultaten die je nodig hebt?

Los van de resultaten van Steam ben ik vrij zeker dat er in België/Nederland nog steeds meer in 1080p wordt gegamed dan 4k. Zeker met 144 hz monitoren en hoger, lijkt me dat lager reso gamen terug wat populairder is geworden en dan met name voor shooters.

Wat maakt het uit dat full hd intussen al 2 decennia oud is? Sommige technieken geraken nu eenmaal op den duur op de limiet van wat voor vele mensen voldoende is.
Maar goed, evenwel bedankt om me er aan te herinneren dat ik nog in het stenen tijdperk leef

[Reactie gewijzigd door skelleniels op 22 juli 2024 14:33]

Eerlijk is eerlijk, ik had de verschillen precies andersom bedacht. Wat interessant zou zijn, is om deze test met een custom model te doen, waarvan de 5700xt en 2070s dezelfde koeling hebben. Bijvoorbeeld de asus rog en tuf versies. Dan zou je een koelingvoordeel kunnen uitsluiten.
Of net creëeren. Als je de referentiemodellen neemt, dan test je de kaart zoals deze bedoeld is geweest door de fabrikant van de chip, zonder eventuele aanpassingen van fabrikanten die mogelijks een voordeel kunnen geven maar daardoor ook minder representatief zijn voor de gemiddelde kaart.
Het gaat toch om de verkoop per kaart? Dan maakt koeling niet zoveel uit. Welke kaart maakt niet eens echt uit...

Wordt het beter na verloop van tijd? Of slechter? Dat is het interessantste. De onderlinge daadwerkelijke FPS maakt niet zoveel uit IMHO.
precies! het gaat om verschil van het merk over de tijd maar door het in de zelfde grafiek te zetten verwacht ik dat sommige mensen nu performance vs de merken gaat vergelijken ipv performance over time per merk door de driver updates.
Dit is sowieso een lastige met zulke (nog aan verandering onderhevige) games. Ook in de games zelf en optimalisaties voor die games wordt nog van alles gesleuteld. Eigenlijk zou je met benches of wat oudere games moeten testen om de prestaties en de invloed van de drivers te kunnen meten. Counterstrike, 3d mark, etc. Of in ieder geval ernaast om een vaste leidraad te hebben. Wel een enorme inspanning om tot deze data te komen, maar niet heel erg representatief, of iets om conclusies aan te kunnen verbinden. Er zijn te veel variabelen in mijn optiek.
Ch3cker Teamlead Testlab @Somoghi3 mei 2020 13:41
Het idee van deze test is juist dat we vanaf de launch van een kaart eventuele verbeteringen in de performance in beeld wilden brengen. Op moment dat je hier hele oude games voor zou gebruiken, is er minder te optimaliseren, dit is immers al gedaan voor vorige kaarten die uit zijn gekomen ten tijde van die game. Ook zal de focus van de fabrikanten niet bij deze games liggen.

Wat natuurlijk wel nog interessant is om eens te testen wat de invloed van een oude driver op een nieuwe game is. Dan zou je een driver van een aantal jaar geleden kunnen pakken, de driver die uitkwam bij de release van de game, en nog een driver van een paar maanden later.

Dat is alleen wel echt een andere test dan wat we nu hebben gedaan, maar zeker interessant om in een andere test nog eens naar te kijken!
De casus nu was; door driverupdates veranderen prestaties in games.
Nu zijn er door de tijd invloeden van; driverupdates, windows updates, game updates, hardware driverupdates, etc etc. Zelfs de temperatuur in het lab, de stroom op het net, noem het maar op.
Niet enkel de invloed van de driver is gemeten, het zegt mij dat jullie er erg veel werk hebben ingestoken, maar een antwoord op je vraag krijg je er niet mee.
Inderdaad wat je zegt klopt, meet nu, met alle andere zaken up to date, dus iedere keer dezelfde variabelen, de invloed op een game door het installeren van een oude driver, dan en enkel dan krijg je antwoord op je onderzoeksvraag.

Dat game devs ook optimaliseren, prima, dan voor een goed vergelijk, de laatste game versie nemen, ook voor de oude driver.

Moet eerlijk zeggen dat ik dit op zich qua diepgang een prima artikel vind, kudos!
Ch3cker Teamlead Testlab @Somoghi3 mei 2020 14:41
Dat is dan ook precies wat we gedaan hebben! Alle hardware / software is exact gelijk gehouden, behalve de video drivers. De tests zijn in een tijdspanne van ~2 weken gedaan, waardoor ook de game versies exact gelijk zijn bij alle tests.
Dan zet dit bij testmethode, want ik lees het niet :)
Mee eens. Ik denk inderdaad dat een belangrijk punt wat je aanhaalt het updaten van de games is. De ontwikkelaars van de drivers en de games reageren op elkaar en proberen zo samen een game te optimaliseren. Uit de gegevens van deze test kan ik niet halen welke testmethode ze gebruikt hebben (met of zonder game-updates). Ik denk dat het goed zou zijn om de tests twee keer uit te voeren met:
- geupdate games
- zonder geupdate games
Alleen zo kun je zien wat de effecten zijn van een driver op de gameprestaties lijkt me. Maar... Wat een werk! haha.
Ch3cker Teamlead Testlab @peetgate3 mei 2020 13:43
Dat zou zeker een interessante test zijn! Helaas zijn heel veel games niet meer te spelen zonder dat de laatste updates geïnstalleerd zijn. Sinds praktisch alle games ook een actieve internetverbinding nodig hebben om deze te spelen wordt het wel heel lastig om dit uit te voeren...
De meeste gebruikers hebben een non-referentie model en dan de vergelijk van 2 dezelfde lijkt mij minstens zo interessant, het was geen commentaar op deze test hoor 8-)
"Dezelfde" is niet helemaal terecht. Een 2070S en 5700XT hebben niet dezelfde koeler als het allebei ROG Strix's (oid) zijn. De koelers worden nog steeds per chip ontworpen en hier win je dus weinig mee wat betreft "level playing field"

Op beide dezelfde aftermarket koeler gebruiken zou nog wel interessant zijn. Een raijintek morpheus of een arctic accelero. Maar dat is een hele andere test

[Reactie gewijzigd door youridv1 op 22 juli 2024 14:33]

Dat wist ik niet, van buiten ogen ze hetzelfde. Met een exact dezelfde koeler zou ik Interssant vinden. Maar goed dat is weer een hele andere test.
Dan creëer je weer variaties in boostclocks e.d.

Maar er valt wat voor te zeggen. Echter denk ik niet dat ze altijd de juiste uitvoeringen van kaarten op de plank hebben liggen voor deze tests. En wellicht wel een plank vol referencemodellen hebben.
Het maakt opzich niet uit welke modellen we hadden gepakt. We vergelijken de modellen namelijk niet onderling - alleen met zichzelf. De kaart koelt dus in elke benchmark precies hetzelfde :)
Zijn de games en het OS wel onaangetast als het om updates gaat?
Ik vroeg me dit ook af. Is de test van elke game snel achter elkaar gedaan of is het elke maand gedaan? Zoals je al vraagt voor os en game update (en virusscanner kan er ook nog bij zitten). Maar dan ook nog andere software die ondertussen geïnstalleerd zou kunnen zijn die op de achtergrond draait. Of stof in de cooler / kleine gebruik slijtage na zolang dan?

Edit: ook nog eens de vraag welke versie van het spel hebben ze getest? Want de eerste versie drivers zal ook niet geoptimaliseerd zijn voor de laatste versie van het spel. Tenzij die versie al uit was toen de eerste drivers geschreven werd.

[Reactie gewijzigd door Daoka op 22 juli 2024 14:33]

Er wordt niet gesproken over het OS updates of de game versies zelf (of zelfs driver updates van andere hardware). Ik vermoed dat ze hier een uptodate test opstelling hebben genomen en daar alleen de drivers hebben aangepast. Dat geeft imho een slecht beeld van de 'kwaliteit' van een driver op een specifiek moment in het afgelopen jaar. Wellicht dat het spel NU wel heel wat slechter interacteert met een driver van 6 maanden geleden (of vice versa). Dit voelt aan als een test waarbij lezers lekker zelf conclusies mogen trekken, maar waarbij de testmethode niet op orde is...
Ch3cker Teamlead Testlab @WokeBroke3 mei 2020 13:50
Alle tests zijn gedaan in een tijdspanne van ~2 weken, op een systeem met windows update uitgeschakeld. Doordat de tests zo snel mogelijk achter elkaar zijn uitgevoerd hebben we eventuele game-updates uitgesloten.
Wat zeggen deze resultaten nu eigenlijk? Dat ze mettertijd echt het uiterste uit de kaart weten te halen? Of dat ze bij release een brakke driver leveren? Wellicht een beetje van beide.
En om de vraag te beantwoorden of het nu waar is dat de prestaties van AMD-videokaarten mettertijd beter worden dankzij het fine-winefenomeen: niet echt
Bij AMD weten ze mettertijd niet het uiterste uit de kaart te halen, misschien omdat ze bij de release al goeie drivers leveren.
Misschien goede drivers qua performance, maar ik denk dat de meeste early-adopters van Navi-kaarten zich niet helemaal in het statement 'goede drivers' in z'n algemeenheid kunnen vinden. Vooral kort na release hadden die videokaarten de nodige driver issues en liet de stabiliteit behoorlijk te wensen over.

Dat is iets waar ik graag een in-depth review over zou zien. Ik kijk al een tijdje met een schuin oog naar AMD omdat ze qua prijs/prestatie indrukwekkend werk leveren met Navi. Toch durf ik het nog niet aan om over te stappen vanaf Nvidia vanwege de genoemde problemen (en mogelijk is dat nu dus veel beter, maar door alle problemen direct na release ben ik toch terughoudend). Voor mij is een stabiele driver van groter belang dan een paar procent performancewinst of -verlies.
op techspot gaan zij er dieper op in
https://www.techspot.com/...s-over-driver-issues.html
en bieden zij een oplossing....
Ik heb echter nooit problemen gehad met amd drivers
klopt. het amd driver beleid is enigzins een reden om een gpu van hun niet te overwegen. Er waren echt veel mensen die problemen hadden met die kaart na aanschaf en dan is de lol van de aankoop ervan af, het is dan toch +/-300 weggegooid geld als Nvidia out of the box wel goed werkt.

[Reactie gewijzigd door govie op 22 juli 2024 14:33]

Je word weggemod maar het is gewoon de keiharde waarheid dat het internet bol staat rond x570, navi, zen2 launch problemen en dat helpt niet in de verkopen en creëert al helemaal geen vertrouwen na 7 a 8 jaar belabberde producten.
Het is ook de deels de reden dat ik de bittere pil geslikt heb en een 9900k genomen heb. En big navi moet of heel veel goedkoper zijn of heel veel sneller voor hetzelfde geld wil ik het überhaupt overwegen.
Een mooi voorbeeld is ook die 5600xt ofzoiets waar men om boven nvidia uit te komen een update geeft waarna je niet meer kunt overklokken en zelfs de garantie vervalt ofzoiets als je het zelf doet. Dat is appels met peren vergelijken natuurlijk, maargoed Nvidia doet hetzelfde met bepaalde zaken. Dat RTX is ook veels te vroeg gelaunched en is op dit moment nauwelijks speelbaar. leuke verkoop gimmick dus maar vertrouwen krijg ik er niet van. Ik heb ook een amd cpu waar ik blij mee ben, maar heb wel heel goed uitgezocht welk geheugen enzo en dat kostte een week tijd. Terugkijkend kun je dat mensen die out of the box willen kopen gewoon niet aanraden om zelf iets samen te stellen op basis van best buy guides van her en der ofzo.

[Reactie gewijzigd door govie op 22 juli 2024 14:33]

Ja de 5600XT was een ook een zelf gecreëerd drama. Ze hadden gewoon het prijspunt moeten laten zakken en hun verlies moeten nemen ipv en de consument en de fabrikanten een oor aan naaien.

RTX is niet te vroeg gelaunched wat mij betreft maar wel te hard gepushed. Het is een toffe feature maar voor veel gameplay is het gewoon niet krachtig genoeg. Maar het is wel een pracht showcase van wat ons te wachten staat (al vind ik persoonlijk sommige gamer er beter uit zien zonder doordat donker echt donker word).
Physx was ook zo'n showcase die bij de eerste launches echt belabberd was. Kijk maar naar borderlands destijds. niet vooruit te branden met physx op max nu is het een eitjes voor de huidige kaarten en cpu's. Nu is physx niet meer weg te denken. Het is zelfs zo geintergreerd dat velen denken dat het uitgestorven is en niet meer gebruikt word.
Ooit moet je beginnen met nieuwe features en ik snap Nvidia ook wel het is de grootste grafische verandering in 10 jaar daar wil je van profiteren en je honderden miljoenen aan research mee terug verdienen maar voor de consument is de meerwaarde niet groot geweest. Tegelijkertijd vraag ik me af of het slim is nu 500 euro aan een gpu uit te geven wetende dat er geen RTX in zit. Maar ik ben dan ook die gamer die games pas speelt als ik het op ultra kan spelen zodat ik het in volle glorie zie.

En ja ik heb afgelopen jaar een nieuw systeem gebouwd en het is lang niet meer zo simpel als plug en play wil je het meeste uit je geld halen. en zelfs al geld geen probleem is is het lastig. Duurder is namelijk niet vanzelfsprekend beter. Ik heb zelf 4266 mhz geheugen maar of de intel of waarschijnlijker het moederbord slikt dit net niet omdat er 1 letter verschilt in het typenummer waarvan ik dacht dat dit alleen voor de kleur van de dim was. Z voor zwart en de rode was R en de witte was W maar blijkbaar werkt de rode wel op dit vord maar de andere 2 niet. erg vreemd maar helaas. Het draait nu dus op 4000 cl16 en voor geheugen van 220 euro is dat best een domper.
Met geheugen is het altijd opletten. Altijd checken bij de geheugenfabrikant of het compatibel is met de cpu/chipset. Sinds ik vroeger Geil ram had gekocht dat opeens bsod's gaf na de recentste bios update te installeren check ik het altijd. Mijn Corsair geheugen heeft geen problemen gegeven toen ik veranderde van mb en cpu. Maar Corsair is wel een vd betere fabrikanten natuurlijk. Nog nooit problemen mee gehad.
Verwijderd @MiBe3 mei 2020 10:55
Maarja, ik heb net navi juist geen problemen gehad terwijl mijn radeon vii (die ik had gekocht in maart vorig jaar enkele maanden voordat navi uitkwam 8)7 ) juist veel blackscreen problemen had.

Wel zijn Farming Sim 2019, Dirt 4 en Ark behoorlijk instabiel, masr dat ligt meer aan de spellen dan de drivers vermoed ik :D

Ik heb een 5700xt evoke OC trouwens (die in mijn pc niet luid is of heet wordt, maar vrm temp kan ik nergens vinden dus die kan wel wat hoog zijn, maar ik heb zoveel airflow dat ik me daar geen zorgen over maak).
Vond ze erg beroerd met de 5700xt, ben daarom weer direct naar nvidia gegaan
Driver issues zijn inmiddels volledig opgelost kan ik stellen uit eigen ervaring.
Neemt niet weg dat ze in het begin echt bagger waren. Heb menig keer mijn PC moeten hard-rebooten omdat de GPU drivers zodanig gecrasht waren dat ik een onherstelbaar zwart scherm had. Sommige driver releases waren stabieler dan andere, maar ik had problemen iig t/m 19.11.3. 19.9.2 was redelijk goed, die heb ik gehouden totdat Witcher 3 opeens begon te crashen, toen overgestapt op 20.2.2 en sindsdien geen problemen meer.

Waar het op leek dat de problemen vandaan kwamen is dat de drivers de kaart standaard proberen over te clocken. Dat lukt bij de ene kaart ook beter dan de andere (mijn eerste 5700 XT heb ik in moeten ruilen).
Volgens AMD eigen changelog zijn er nog steeds problemen.
Dat is fijn voor jou, maar anderen hebben nog steeds problemen..
Ik weet niet maar ik heb sinds december 0 problemen. Eigenlijk hoor ik ook niemand meer met problemen met een 5700 XT. Maar waar zijn die mensen dan met problemen?
Nou hier bijvoorbeeld: AMD Navi Ervaringen Topic

Problemen zijn er voor sommige mensen nog steeds. Onacceptabel wat mij betreft.
Mensen met problemen houdt je altijd. Die zijn er bij nvidia ook.
Mensen zonder problemen posten niet
Maar waar zijn die mensen dan met problemen?
Met een RX 5500 XT heb ik soms meerdere crashes per uur.. gerelateerd aan video playback en multi-monitor.
Vervelend, die problemen heb ik ook gehad. Ik heb zelf ook een 5500 XT. Sinds de bugfix driver release van afgelopen februari zijn de problemen bij mij opgelost.

Toen ik nog wel issues had viel mij het volgende op:
- HDMI is stabieler als Displayport
- Moederbord updaten naar laatste BIOS versie hielp ook (Zen2, B450). Bij mij was er een update voor het verbeteren van die PCI-E compatibiliteit.
- Edge (Chrome editie) is stabieler als Firefox

Off-topic: heb jij ooit een patch gemaakt voor C&C: The First Decade?
- HDMI is stabieler als Displayport
Helaas heeft mijn monitor (ZR2740w) geen HDMI.
Off-topic: heb jij ooit een patch gemaakt voor C&C: The First Decade?
Zoiets..
https://xhp.xwis.net/
https://xwis.net/

[Reactie gewijzigd door Olaf van der Spek op 22 juli 2024 14:33]

Helaas heeft mijn monitor (ZR2740w) geen HDMI.
Jammer, dat je monitor geen HDMI heeft. Als ik het mij goed herinner maakte dit voor mij een redelijk groot verschil. Misschien dat het volgende nog helpt: In de instellingen van mijn Dell monitor kan ik configureren welke Displayport versie mijn monitor gebruikt. Wellicht dat het veranderen van deze instelling nog een positief effect heeft?

Sterkte in ieder geval!
Het stond mij meer bij als een grote patch... ik dacht iets in de trant van Unoffical First Decade patch 1.03.
Ik ben er vrij zeker van dat ik jou naam in de copyright heb zien staan. Hoe dan ook, ik heb er veel plezier aan beleefd! Dank!
Dat is zuur voor jou, maar voor het overgrote deel zijn alle problemen opgelost.
Fijn, maar wat wil je daar mee zeggen?
Ik kan stellen uit mijn ervaring en 2 RX 5700 XT kaarten verder, dat de drivers nog steeds bagger zijn. Ik heb de hoop opgegeven na zeker 50 uur klooien, verschillende driver installs en clean installs. AMD Radeon Group kan nog steeds niet consistente driver software creëren. Zelfs oude GPU's zoals Polaris en Vega kaarten hebben issues, zoals in hun changelogs staat door de nieuwe drivers die bedoeld zijn voor Navi. Ik heb zelf een Vega64 kaart en die draait gelukkig prima.

Ik wacht nu op Nvidia's nieuwe GPU die waarschijnlijk volgende week of over 2 weken wordt aangekondigd. AMD mag wel goedkoop zijn wat betreft prijs/performance, maar tot nu toe was voor mij het duurkoop.
Dit zegt vooral dat men bij het uitkomen van populaire games men de drivers probeert te optimaliseren voor die games. En daarom zie je bij sommige games een dip, en bij andere een stijging. Want soms gaat de ene optimalisatie ten koste van de ander.
Wat is brak? Is een auto brak als die 15% meer brandstof verbruikt als dat die zou doen na een onderhoudsbeurt beurt? Is de auto brak als die net nieuw gekocht is maar met een betere motor toch sneller of voordeliger kan rijden? Of is de auto pas brak als je de auto zelf moet duwen om vooruit te komen?

Ik denk dat het vooral is dat met er meer uit kan halen. Al zal het soms ook zijn dat er te veel tijdnood bij zit. Of dat er andere omstandigheden zijn waardoor dingen veranderen. Dingen zoals een game update waardoor er meer uitgeperst kan worden in de volgende patch. Of Windows update die meer of minder mogelijkheden bied.
Dar je je drivers alleen moet updaten bij problemen, je weet nooit of de optimalisaties ook werken voor jou huidige game.
Ik snap iets niet, bij farcry , lijkt dat een aantal keer, dat op het zelfde moment NVIDIA beter word en AMD slechter, netjes gesynchroniseerd, hoe kan dat , Het is zelfs zo dat ze een versie later ze beide weer op de oude framerate zitten
Ja, dat viel mij ook op! Het lijkt wel of ze hebben afgesproken dat Far Cry in juli 2019, oktober 2019 en januari 2020 langzaam moet lijken op AMD hardware en sneller op Nvidia hardware. Zijn dat soms maanden waarin AMD vaak nieuwe kaarten aankondigt/verspreidt aan reviewers of zo? Het is hoe dan ook verdacht...
[/aluhoedje]

[Reactie gewijzigd door Jerrythafast op 22 juli 2024 14:33]

Ik vermoed dat het eerder door game updates zelf komt. Een game update kan grafisch iets veranderen/toevoegen en kan daarbij positief voor het ene en/of negatief voor het andere kamp uitpakken ( of andersom ). Dit geldt ook voor het gebruikte platform ( Steam? ) Helaas wordt er in het artikel niet aangegeven of er tussendoor game of platform updates zijn gedaan of niet.
Als tussen de testen door ook de games steeds zijn geüpdatet naar de laatste versie van de betreffende maand is dat inderdaad een hele goede verklaring. Dan hebben de Far Cry devs duidelijk iets gevonden dat heel goed werkt op Nvidia, maar funest is voor performance op de AMD kaarten.

Maar in het artikel staan de driver versies er heel duidelijk bij, terwijl er niets staat over game updates, dus ik verwacht van niet. Misschien kan @willemdemoor dit toelichten?
>Dan hebben de Far Cry devs duidelijk iets gevonden dat heel goed werkt op Nvidia,
en vervolgens die wijziging 3 maal terug draaien, omdat een maand later iedere keer Nvidea en AMD weer aan elkaar gewaagt zijn. Het is niet dat Nvidia dat voordeel houd en dat AMD terug vecht, nee Nvidia verlies zijn voordeel weer en AMD krijgt zijn performance verlies weer terug.
Ik denk dat we hier gewoon resultaten van ander testsystemen zien.
Voor deze test zijn alle drivers achter elkaar getest, geen game-updates tussendoor. Testlab heeft dik twee weken achter elkaar die drivers zitten testen. De gameversies zijn van eind maart/begin april.
Top, dat sluit inderdaad een hoop uit! Bedankt voor de verduidelijking, ook aan @Ch3cker. Het blijft een heel verrassend resultaat, waarschijnlijk zullen we er nooit écht achter komen wat hier nu aan de hand is. Biedt wel een mooi inzicht in de variatie zo!
Zoals ik hierboven ook post : De tests zijn gedaan in een tijdspanne van ~2 weken, waarin we dus eventuele game-updates hebben uitgesloten. Windows update stond ook uitgeschakeld, alle kaarten zijn dus op exact dezelfde hardware / software getest behalve dus de video drivers.
Dit. Ten tijde van de release van elke driver is er een actuele versie van een spel. Daarin zitten aanpassingen die irt drivers van dat moment het beste waren, of werden geadviseerd door devs/engineers. Wij kijken nu met een wat grove bril naar dat verleden want het is zeer onwaarschijnlijk dat men exact is nagegaan welke game build ten tijde van elke driverversie beschikbaar was. Dit vertekent de resultaten behoorlijk, zeker als het om dat zigzaggen gaat.

De meest plausibele verklaring is hoe dan ook dat er tussen game devs en gpu engineers enkele oplossingen zijn geprobeerd met wisselend succes. Dat zie je ook terug bij Nvidias balanceertruc met resolutie. Het lijkt daar een afweging tussen meer 4K performance ten koste van 1080p. Dat laat weer zien dat een launch driver eigenlijk al dikke prima was, en elke aanpassing toch ook iets kost.

[Reactie gewijzigd door Vayra op 22 juli 2024 14:33]

Het kan ook zijn dat er een soort kat en muis spelletje was tussen farcry devs en NVIdia AMD, dat amd het net voor elkaar had en dat farcry toen voor nvidia optimalisaties ging doen waardoor amd slechter werd waardoor amd optimalisaties ging doen terwijl farcry devs daar ook mee bezig waren waardoor nvidias fix weer kapot ging en zo verder. Oftewel hele slechte communicatie tussen de devs en driver makers.
En dit een paar keer achter elkaar, kijk eens naar de eerste grafiek, het is echt niet logisch
Nee klopt, viel mij ook al op,

Het zou echter wel raar zijn aangezien ze niet dezelfde patches per datum van de games hebben gebruikt.

De test is dus sws een beetje flawed aangezien je wel met de game van nu test. Tussentijdse optimalisaties in het spel (die er echt zijn) worden dus niet meegenomen en kleuren daarmee de resultaten.
Maar als alleen de grafisch drivers anders zouden moeten zijn, is er toch veranderd buiten de grafisch drivers. En omdat hij bij de volgende update dat beide kaarten terug gaat verwacht ik eigenlijk dat er anders getest is voor beide kaarten
Ch3cker Teamlead Testlab @amigob23 mei 2020 13:52
Beide kaarten zijn op exact hetzelfde systeem getest, met exact dezelfde hardware / software, behalve dus de drivers. Hoe de genoemde verschillen dan wél te verklaren zijn kan ik je ook niet vertellen, maar interessant is het inderdaad wel..
Mooie test! Misschien goed deze extra info in het artikel te zetten?
Het hele idee van een driver optimaliseren voor een game vind ik echt een beetje de omgekeerde wereld. Je zou denken dat de GPU een API implementeert: Vulkan, DX etc en deze zo snel mogelijk uitvoert. De engine praat tegen deze API aan en dat is dat.

Wat ik me dan afvraag: als deze codepaths in de engine via specifieke drivers zoveel geoptimaliseerd kunnen worden zijn de APIs dan brak? Of misbruikt de engine ze en kun je beter tegen de developers zeggen: dit moet anders.

Op deze manier maak je voor elke game uitzonderingen, lijkt me niet een slimme manier. Of zijn de drivers door de bank genomen gewoon slecht?

[Reactie gewijzigd door Sandor_Clegane op 22 juli 2024 14:33]

Beetje van beide werelden, zowel AMD als Nvidia bieden advies aan developers over hun code. Soms worden ze ook betaald betrokken bij het ontwikkeltraject. Vaak wordt daarmee de game geoptimaliseerd, maar soms ontdekken ze ook verbeteringen in hun eigen code. Dergelijke aanpassingen hebben vaak voordeel in meerdere games maar kunnen ook negatief zijn.
Ik heb (lang geleden) een interview gezien met iemand die aan drivers werkte waarin dit gevraagd werd. Waar het op neer kwam is dat veel games heel slecht zijn in de APIs volgen.

En als de nieuwe triple A flagship titel driekwart van de API/protocollen negeerd heb je maar beperkte opties als AMD/NVIDIA: negeren en dan op elke website een rits artikelen dat spel X niet werkt op jouw kaarten (en wel bij NVIDIA/AMD, dus duidelijk jouw schuld), of een driverupdate zodat je voor spel X een speciale versie van de API hebt.

Op dit item kan niet meer gereageerd worden.