Door Willem de Moor

Redacteur

AMD RX 590-videokaart Review

Een goedkope, opgevoerde RX 580?

15-11-2018 • 15:00

160

Multipage-opmaak

Inleiding: opvoeren

Er gingen al geruime tijd geruchten over een nieuwe videokaart van AMD. De meest optimistische en weinig realistische hoop was een Navi-kaart op 7nm, maar naarmate meer details bekend werden, zoals de naam van de kaart, kwam een realistischer beeld naar voren. Volgens een van die realistischere geruchten, of wensen zo je wilt, zou de RX 590 een kaart met een Polaris-architectuur worden, maar dan geoptimaliseerd, die zuiniger zou zijn en bovendien meer streamprocessors zou bevatten.

Die geruchten blijken ten dele waar. Nee, de RX 590 heeft niet meer streamprocessors gekregen dan de RX 580; het zijn er nog steeds 2304, verdeeld over 36 compute-units. De RX 590-gpu wordt op het verbeterde 12nm-procedé gebakken en heeft de vierde generatie GCN-architechuur aan boord. Dat zou een snellere en zuinigere gpu opleveren, maar of dat lukt moet nog blijken. Gezien de identieke chipafmetingen van 232 vierkante millimeter als de 580 lijkt het 12nm-procedé vooral een finfet-optimalisatie en geen die-shrink, net als we bij Zen en Zen+ zagen.

AMD heeft echter wel kans gezien om de kloksnelheden van de RX 590-gpu flink op te schroeven. Waar de clocks van de RX 580 stock nog op 1257MHz met een boost naar 1340MHz tikken, is dat bij de RX 590 opgekrikt naar respectievelijk 1469 en 1545MHz.

RX 590 RX 580 GTX 1060 GTX 1070
Codenaam Polaris 30 (12nm) Polaris 20 (14nm) Pascal GP106 (16nm) Pascal GP104 (16nm)
Compute units 36 36 10 15
Streamprocessors / cuda cores 2304 2304 1280 1920
Kloksnelheid/boost 1469/1545MHz 1257/1340MHz 1506/1708MHz 1506/1683MHz
Rekenkracht (fp32) 7,1Tflops 6,2Tflops 4,4Tflops 6,5Tflops
Geheugengrootte 8GB gddr5 8GB gddr5 6GB gddr5 8GB gddr5
Geheugenbus 256bit 256bit 192bit 256bit
Geheugenbandbreedte 256GB/s 256GB/s 192GB/s 256GB/s
Geheugenkloksnelheid 2000MHz 2000MHz 2000MHz 2000MHz
Texture units 144 144 80 120
Board power 225W 185W 120W 150W

De overige specificaties zijn nog onveranderd; er is 8GB gddr5-geheugen beschikbaar, dat over een 256bit brede bus wordt aangesproken, goed voor een geheugenbandbreedte van 256GB/s. AMD heeft de kaart dan ook vooral ontwikkeld om het prestatiegat tussen de RX 580 en de Vega-kaarten op te vullen, zonder een heel dure kaart in dat segment te brengen.

De adviesprijs van de kaart bedraagt dan ook 279 dollar en onder meer Asus, Sapphire, XFX en Powercolor moeten kaarten bij introductie beschikbaar hebben. AMD positioneert de RX 590 vooral als mainstreamgamingkaart, voor 1080p-schermen, liefst met AMD's Freesync-technologie. We gaan kijken hoe deze mainstreamkaart presteert.

Testmethode

Van AMD ontvingen we een Powercolor Red Devil RX590, een Sapphire Nitro+ Special Edition en een Black Edition-kaart van XFX. We hebben de kaarten op standaardkloksnelheden ingesteld en als referencemodel getest. De gebruikte driver daarvoor, en voor de overige AMD-kaarten, is 18.6.11 en voor de Nvidia-kaarten hebben we versie 398.11 gebruikt. We hebben getest op een X299-moederbord met Intels Core i9-7900X op 4,5GHz en met 16GB geheugen.

Testsysteem
Moederbord Asus Strix X299-E Gaming
Processor Intel Core i9-7900X @ 4,5GHz
Geheugen G.Skill Trident Z 32GB DDR4-3200 CL14
Ssd 2x Samsung 850 Evo 1TB
Voeding Superflower Leadex 1600W Platinum
Behuizing CoolerMaster Test Bench
Besturingssysteem Windows 10 Pro

We testen de onderstaande games op drie resoluties: 1080p, 1440p en 4k. Dat doen we met medium- en ultra-instellingen. Voor de RX590 zijn vooral de 1080p-benchmarks relevant; 4k is met deze kaart weinig zinvol, zeker op hoge settings. Verder draaien we de synthetische benchmarks 3DMark en Unigine Superposition. Ten slotte testen we de geluidsproductie idle en onder load op 10cm afstand van de kaart en meten we het opgenomen vermogen van de videokaart onder load en idle.

Games Verschijningsdatum DirectX-versie Engine
Assassin's Creed: Origins Oktober 2017 DX11 Anvil Next 2.0
Battlefield 1 Oktober 2016 DX12 Frostbite
F1 2018 Augustus 2018 DX11 EGO Engine 4.0
Far Cry 5 Maart 2018 DX11 Dunia
Forza Motorsport 7 Oktober 2017 DX12 Forza Tech
Ghost Recon: Wildlands Maart 2017 DX11 Anvil Next
GTA V April 2015 DX11 Rage
Rise of the Tomb Raider Januari 2016 DX12 Foundation
Total War Warhammer II September 2017 DX12 Warscape
The Witcher 3: Blood and Wine Mei 2015 DX11 Red Engine 3
Wolfenstein II: The New Colossus Oktober 2017 Vulkan Id Tech 6

Synthetische benchmarks

We beginnen met 3DMarks Fire Strike en Time Spy, en Superposition van Unigine. Fire Strike is een DX11-benchmark, terwijl Time Spy een DX12-benchmark is. Superposition is een zware benchmark die ook een 4k-versie heeft. We draaien Superposition in 1080p en in 4k.

Fire Strike

  • 3DMark Fire Strike (graphics)
  • 3DMark Fire Strike Extreme (totaal)
  • Fire Strike Ultra
3DMark Fire Strike (graphics)
Videokaart Gemiddelde score in punten (hoger is beter)
GTX 1070
17.710
RX 590
16.473
RX 580
15.095
GTX 1060
12.872
3DMark Fire Strike Extreme (totaal)
Videokaart Gemiddelde score in punten (hoger is beter)
GTX 1070
8.123
RX 590
6.985
RX 580
6.457
GTX 1060
5.950
Fire Strike Ultra
Videokaart Gemiddelde futuremark 3DMark-punten in 3DMarks (hoger is beter)
GTX 1070
4.267
RX 590
3.663
RX 580
3.377
GTX 1060
3.061

Time Spy

3DMark Time Spy - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
GTX 1070
5.806
RX 590
4.832
RX 580
4.398
GTX 1060
4.147

Superposition

  • Unigine Superposition - 1080p - High
  • Unigine Superposition - 4k - Optimized
Unigine Superposition - 1080p - High
Videokaart Gemiddelde in punten (hoger is beter)
GTX 1070
8.485
RX 590
6.661
GTX 1060
6.407
RX 580
6.066
Unigine Superposition - 4k - Optimized
Videokaart Gemiddelde in punten (hoger is beter)
GTX 1070
5.256
RX 590
3.873
GTX 1060
3.744
RX 580
3.584

De RX 590 is steeds acht tot tien procent sneller dan de RX 580, maar de 1070 is uiteraard stukken sneller.

Assassin's Creed: Origins

We gaan verder met games. We publiceren alle resultaten, maar 4k-gaming is met deze kaart natuurlijk wat optimistisch; we richten ons voornamelijk op 1080p-gaming.

  • AC: Origins 1080p - Medium
  • AC: Origins 1080p - Ultra
AC: Origins 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
90,0
RX 590
72,0
GTX 1060
72,0
RX 580
66,0
AC: Origins 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
70,0
RX 590
57,0
RX 580
55,0
GTX 1060
55,0
  • AC: Origins 1440p - Medium
  • AC: Origins 1440p - Ultra
AC: Origins 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
68,0
RX 590
55,0
GTX 1060
53,0
RX 580
51,0
AC: Origins 1440p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
53,0
RX 590
42,0
RX 580
40,0
GTX 1060
40,0
  • AC: Origins 4k - Medium
  • AC: Origins - 4k - Ultra
AC: Origins 4k - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
41,0
RX 590
33,0
GTX 1060
31,0
RX 580
30,0
AC: Origins - 4k - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
31,0
RX 590
25,0
RX 580
23,0
GTX 1060
23,0

In Assassin's Creed is de RX590 maar marginaal sneller dan de 580, zeker als de details worden opgeschroefd. Op 1080p is de game goed te spelen met aardige framerates, hoewel we met de ultra-preset al onder de 60fps duiken. Op hogere resoluties zitten we op medium al onder de 60fps en bij 4k halen we de 30fps ternauwernood.

Battlefield 1

  • Battlefield 1 DX12 - 1080p - Medium
  • Battlefield 1 DX12 - 1080p - Ultra
Battlefield 1 DX12 - 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
136,9
RX 590
133,1
RX 580
122,4
GTX 1060
115,4
Battlefield 1 DX12 - 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
112,7
RX 590
100,5
RX 580
96,5
GTX 1060
86,0
  • Battlefield 1 DX12 - 1440p - Medium
  • Battlefield 1 DX12 - 1440p - Ultra
Battlefield 1 DX12 - 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
103,9
RX 590
102,3
RX 580
92,9
GTX 1060
82,8
Battlefield 1 DX12 - 1440p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
83,4
RX 590
73,7
RX 580
71,0
GTX 1060
61,2
  • Battlefield 1 DX12 - 4k - Medium
  • Battlefield 1 DX12 - 4k - Ultra
Battlefield 1 DX12 - 4k - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
56,4
RX 590
53,0
RX 580
50,3
GTX 1060
43,0
Battlefield 1 DX12 - 4k- Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
47,2
RX 590
39,9
RX 580
39,0
GTX 1060
32,5

Op 1080p met medium-settings is de 590 in Battlefield bijna net zo snel als de 1070, maar op ultra loopt die laatste flink uit. Datzelfde beeld zien we op 1440p en pas op 4k zakken we onder de 60fps met de kaarten.

F1 2018

  • F1 2018 - 1080p - Medium
  • F1 2018 - 1080p - Ultra
F1 2018 - 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
192,5
RX 590
164,3
RX 580
157,2
GTX 1060
149,0
F1 2018 - 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
101,6
RX 590
92,8
RX 580
84,7
GTX 1060
77,3
  • F1 2018 - 1440p - Medium
  • F1 2018 - 1440p - Ultra
F1 2018 - 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
140,5
RX 590
118,8
RX 580
113,7
GTX 1060
106,0
F1 2018 - 1440p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
79,2
RX 590
69,5
RX 580
63,3
GTX 1060
58,4
  • F1 2018 - 4k - Medium
  • F1 2018 - 4k - Ultra
F1 2018 - 4k - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
80,0
RX 590
66,4
RX 580
60,6
GTX 1060
58,4
F1 2018 - 4k - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
46,5
RX 590
38,4
RX 580
35,2
GTX 1060
33,6

In F1 2018 is de RX590 weer een paar procent sneller dan de RX580 op de medium-preset in 1080p en 1440p. In 4k is het verschil wat groter en ook als we de preset op ultra zetten, is de 590 een stuk sneller dan de 580. Overigens is 4k-gaming op medium nog net te doen met de 590 in F1, maar ultra is een brug te ver.

Far Cry 5

  • Far Cry 5 - 1080p - Normal
  • Far Cry 5 - 1080p - Ultra
Far Cry 5 - 1920x1080 - Normal
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
113,0
RX 590
96,0
RX 580
87,0
GTX 1060
81,0
Far Cry 5 - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
93,0
RX 590
79,0
RX 580
73,0
GTX 1060
69,0
  • Far Cry 5 - 1440p - Normal
  • Far Cry 5 - 1440p - Ultra
Far Cry 5 - 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
79,0
RX 590
66,0
RX 580
60,0
GTX 1060
54,0
Far Cry 5 - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
65,0
RX 590
55,0
RX 580
52,0
GTX 1060
47,0
  • Far Cry 5 - 4k - Normal
  • Far Cry 5 - 4k - Ultra
Far Cry 5 - 3840x2160 - Normal
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
40,0
RX 590
34,0
RX 580
30,0
GTX 1060
27,0
Far Cry 5 - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
33,0
RX 590
29,0
RX 580
27,0
GTX 1060
24,0

In Far Cry 5 is de RX590 een gezonde tien procent sneller dan de 580 op normal-detail, maar op ultra wordt het verschil wat kleiner. Aan de framerates van de 1070 kan de kaart niet tippen, maar de 1060 wordt weer op alle vlakken verslagen.

Forza Motorsport 7

  • Forza 7 - 1080p - Medium
  • Forza 7 - 1080p - Ultra
Forza 7 - 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
RX 590
242,7
RX 580
220,7
GTX 1070
216,9
GTX 1060
199,4
Forza 7 - 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
94,4
GTX 1060
86,5
RX 590
85,3
RX 580
78,5
  • Forza 7 - 1440p - Medium
  • Forza 7 - 2560x1440 - Ultra
Forza 7 - 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
RX 590
193,4
GTX 1070
184,1
RX 580
178,3
GTX 1060
158,0
Forza 7 - 1440p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
80,2
GTX 1060
67,4
RX 590
66,8
RX 580
61,3
  • Forza 7 - 4k - Medium
  • Forza 7 - 4k - Ultra
Forza 7 - 4k - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
129,1
RX 590
119,3
RX 580
117,1
GTX 1060
103,6
Forza 7 - 4k - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
58,1
GTX 1060
48,1
RX 590
42,1
RX 580
40,7

In Forza zien we vaker afwijkende resultaten en dat is hier niet anders; de RX590 is in 1080p en 1440p met medium-preset de snelste kaart en de 1070 van Nvidia wordt ruim voorbijgestreefd. Op ultra-settings zijn beide Nvidia-kaarten echter sneller en is de 590 alleen sneller dan de RX580. Forza op 4k met medium-settings is echter nog erg goed te doen, met framerates boven de 100fps.

Ghost Recon: Wildlands

  • Ghost Recon Wildlands - 1080p - Medium
  • Ghost Recon Wildlands - 1080p - Ultra
Ghost Recon Wildlands - 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
98,4
RX 590
82,8
RX 580
76,5
GTX 1060
76,4
Ghost Recon Wildlands - 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
50,5
RX 590
41,9
GTX 1060
39,7
RX 580
38,9
  • Ghost Recon Wildlands - 1440p - Medium
  • Ghost Recon Wildlands - 1440p - Ultra
Ghost Recon Wildlands - 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
72,4
RX 590
59,0
RX 580
55,7
GTX 1060
54,9
Ghost Recon Wildlands - 1440p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
39,1
RX 590
32,5
GTX 1060
29,9
RX 580
29,8
  • Ghost Recon Wildlands - 4k - Medium
  • Ghost Recon Wildlands - 4k - Ultra
Ghost Recon Wildlands - 4k - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
41,1
RX 590
32,5
RX 580
30,4
GTX 1060
30,1
Ghost Recon Wildlands - 4k - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
23,4
RX 590
19,6
RX 580
18,1
GTX 1060
16,9

In Wildlands is de RX590 zes tot negen procent sneller dan de RX580 in de drie geteste resoluties, maar maar het verschil met de 1070 bedraagt steeds zo'n twintig procent. De 1060 zit steeds op het niveau van de RX580.

GTA V

  • GTA V - 1080p - Medium
  • GTA V - 1080p - Ultra
GTA V - 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
132,1
GTX 1060
129,6
RX 590
114,3
RX 580
105,3
GTA V - 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
89,9
GTX 1060
70,4
RX 590
63,5
RX 580
56,3
  • GTA V - 1440p - Medium
  • GTA V - 1440p - Ultra
GTA V - 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
120,6
GTX 1060
92,9
RX 590
83,1
RX 580
75,8
GTA V - 1440p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
67,6
GTX 1060
50,2
RX 590
46,2
RX 580
42,2
  • GTA V - 4k - Medium
  • GTA V - 4k - Ultra
GTA V - 4k - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
65,6
GTX 1060
46,9
RX 590
43,7
RX 580
40,4
GTA V - 4k - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
35,0
GTX 1060
25,2
RX 590
23,6
RX 580
21,9

Voor GTA 5 kun je beter een Geforce-kaart kopen, want niet alleen de 1070 is flink sneller dan de RX590, ook de 1060 is stukken sneller. De 590 is wel veel sneller dan de 580.

Rise of the Tomb Raider

  • Rise of the Tomb Raider - 1080p - Medium
  • Rise of the Tomb Raider - 1080p - Ultra
Rise of the Tomb Raider - 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
148,1
RX 590
131,4
RX 580
119,7
GTX 1060
108,6
Rise of the Tomb Raider - 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
93,7
RX 590
80,3
RX 580
72,7
GTX 1060
70,2
  • Rise of the Tomb Raider - 1440p - Medium
  • Rise of the Tomb Raider - 1440p - Ultra
Rise of the Tomb Raider - 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
96,4
RX 590
87,1
RX 580
79,3
GTX 1060
70,8
Rise of the Tomb Raider - 1440p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
63,2
RX 590
55,1
RX 580
50,1
GTX 1060
46,0
  • Rise of the Tomb Raider - 4k - Medium
  • Rise of the Tomb Raider - 4k - Ultra
Rise of the Tomb Raider - 4k - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
49,9
RX 590
43,9
RX 580
40,1
GTX 1060
35,4
Rise of the Tomb Raider - 4k - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
31,4
RX 590
28,6
RX 580
26,0
GTX 1060
22,8

De RX590 is steeds tien procent sneller in Tomb Raider dan de RX580, ongeacht de resolutie of kwaliteit. De achterstand op de 1070 is minstens zo groot als de voorsprong op de 580 en de 1060 wordt door alle kaarten achtergelaten. Tomb Raider is tot 1440p speelbaar met de RX590; 4k is te hoog gegrepen.

Total War Warhammer II

  • Total War: Warhammer II - 1080p - Medium
  • Total War: Warhammer II - 1080p - Ultra
Total War: Warhammer II - 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
112,3
RX 590
92,9
RX 580
88,0
GTX 1060
84,8
Total War: Warhammer II - 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
69,2
RX 590
55,2
RX 580
53,3
GTX 1060
50,9
  • Total War: Warhammer II - 1440p - Medium
  • Total War: Warhammer II - 1440p - Ultra
Total War: Warhammer II - 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
75,1
RX 590
61,2
RX 580
58,1
GTX 1060
54,4
Total War: Warhammer II - 1440p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
50,2
RX 590
40,2
RX 580
38,4
GTX 1060
35,7
  • Total War: Warhammer II - 4k - Medium
  • Total War: Warhammer II - 4k - Ultra
Total War: Warhammer II - 4k - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
37,7
RX 590
31,0
RX 580
29,4
GTX 1060
26,5
Total War: Warhammer II - 4k - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
27,3
RX 590
22,8
RX 580
21,3
GTX 1060
19,3

In Warhammer zien we een kleine winst van de 590 ten opzichte van de 580. Daarbij is 1440p op medium-instellingen wel het maximaal haalbare met de nieuwe kaart. De 1070 is overal een stuk sneller, maar haalt ook geen speelbare framerates op 1440p met ultra-preset.

The Witcher 3: Blood and Wine

  • The Witcher 3 B&W - 1080p - Medium
  • The Witcher 3 B&W - 1080p - Ultra
The Witcher 3 B&W - 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
142,0
RX 590
113,6
RX 580
104,2
GTX 1060
103,9
The Witcher 3 B&W - 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
72,1
RX 590
61,0
RX 580
56,3
GTX 1060
52,2
  • The Witcher 3 B&W - 1440p - Medium
  • The Witcher 3 B&W - 1440p - Ultra
The Witcher 3 B&W - 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
95,6
RX 590
76,1
RX 580
69,5
GTX 1060
68,6
The Witcher 3 B&W - 1440p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
53,1
RX 590
45,0
RX 580
42,1
GTX 1060
38,4
  • The Witcher 3 B&W - 4k - Medium
  • The Witcher 3 B&W - 4k - Ultra
The Witcher 3 B&W - 4k - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
47,2
RX 590
37,5
RX 580
34,2
GTX 1060
33,6
The Witcher 3 B&W - 4k - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
31,3
RX 590
26,0
RX 580
23,9
GTX 1060
22,4

In The Witcher is de 590 steeds een procent of tien sneller dan de 580, waarbij 1440p op medium weer de maximale resolutie voor dit segment is.

Wolfenstein II: The New Colossus

  • Wolfenstein II - 1080p - Medium
  • Wolfenstein II - 1080p - Ultra
Wolfenstein II - 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
162,8
RX 590
145,8
RX 580
144,5
GTX 1060
121,9
Wolfenstein II - 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
123,5
RX 580
110,4
RX 590
110,2
GTX 1060
89,7
  • Wolfenstein II - 1440p - Medium
  • Wolfenstein II - 1440p - Ultra
Wolfenstein II - 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
113,6
RX 590
95,8
RX 580
93,9
GTX 1060
81,1
Wolfenstein II - 1440p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
85,7
RX 590
73,7
RX 580
72,6
GTX 1060
52,3
  • Wolfenstein II - 4k - Medium
  • Wolfenstein II - 4k - Ultra
Wolfenstein II - 4k - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
58,4
RX 590
47,3
RX 580
45,8
GTX 1060
42,0
Wolfenstein II - 4k - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
49,7
RX 580
40,5
RX 590
40,3
GTX 1060
32,0

In Wolfenstein II ten slotte scoren de 580 en 590 in alle tests vrijwel identiek. De 1070 is een stuk rapper in alle tests, met een voorsprong tot ruim 25 procent.

Opgenomen vermogen en overklokken

We meten het vermogen van de videokaarten met behulp van een riserkaart tussen het pcie-slot en de kaart, en natuurlijk door de peg-connectors af te tappen, volledig geïsoleerd van de rest van het systeem. Zo meten we enkel de videokaart en niet het opgenomen vermogen van het complete systeem. Dat moet een beter beeld opleveren van de tdp's van de kaarten.

Opgenomen vermogen idle
Videokaart Gemiddelde vermogen in watt (lager is beter)
GTX 1060
6,6
GTX 1070
8,3
RX 590
13,8
RX 580
17,0
Opgenomen vermogen ingame
Videokaart Gemiddelde vermogen in watt (lager is beter)
GTX 1060
115,3
GTX 1070
147,4
RX 580
197,1
RX 590
223,8

De Nvidia-kaarten zijn zowel idle als onder belasting tijdens het gamen een stuk zuiniger dan AMD's aanbod. Het gat tussen de 580 en de 1060 en 1070 is al groot, maar om de hogere clocks mogelijk te maken, is de 590 nog een stuk minder zuinig.

Overklokken

We hebben de Sapphire-kaart overgeklokt en daarbij kon de gpu stabiel op 1690MHz tikken. Daarvoor was in Afterburner een extra spanning van 100mV nodig. Dat leverde een Time Spy-score van 5755 punten op, een bijna negen procent hoger dan de 5300 punten van de stock kaart. Het geheugen tikte daarbij op 2250MHz in plaats van de stock 2100MHz.

  • F1 2018 - 1080p - Medium
  • F1 2018 - 1080p - Ultra
F1 2018 - 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
192,5
RX 590 overklok
174,9
RX 590 stock
164,3
RX 580
157,2
GTX 1060
149,0
F1 2018 - 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
101,6
RX 590 overklok
97,1
RX 590 stock
92,8
RX 580
84,7
GTX 1060
77,3

We hebben F1 ook nog even gedraaid op 1080p Medium en Ultra en delen die resultaten even. De overgeklokte kaart komt iets beter in de buurt van de 1070, maar helemaal inhalen lukt niet.

AMD RX 590 overgeklokt

Conclusie

Na de introductie van de Vega-kaarten, niet 's werelds succesvolste videokaartintroductie, is het een tijd stil geweest rond AMD's Radeon-divisie. Het wachten is op de nieuwe generatie kaarten met de Navi-architectuur aan boord, maar dat gaat nog wel even duren. Om toch iets nieuws, en dat woord gebruiken we in ruime zin, in het lagere middensegment te bieden, heeft AMD de RX 590 uitgebracht.

Feitelijk is de 590 weinig meer dan een opgevoerde 580, maar of dat heel erg is, mag je zelf beslissen. Het opkrikken van de kloksnelheid heeft twee effecten. Enerzijds is de kaart een stukje sneller dan de 580; door de bank genomen schelen de twee kaarten zo'n acht procent op alle resoluties met medium-settings, en 7 procent op de ultra-settings. De hogere clocks brengen wel een hoger verbruik met zich mee en als we naar de concurrentie kijken, was een lager verbruik juist bijzonder welkom geweest.

En over concurrentie gesproken: het is wat onduidelijk waartegenover AMD de 590 nu positioneert. De 580 was al sneller dan de 1060 en aan de 1070 kon de 580 niet tippen. De 590 kan dat, ondanks de betere prestaties, nog steeds niet, en zit een beetje alleen tussen de instappers en het echte middensegment. Wat dat betreft is het wel een interessante kaart, maar het blijft een echte 1080p-kaart, hoewel je met conservatieve instellingen ook wel 1440p kunt spelen.

Zoals gebruikelijk komt het weer neer op prijzen. Als AMD de prijzen schappelijk houdt, en inderdaad ruim onder de 300 euro blijft, dan is het een leuke kaart. Als de straatprijs van 590-kaarten echter boven die 300 euro uitstijgt, kom je aardig in de buurt van een 1070, die vanaf 380 euro verkrijgbaar is en stukken sneller is. Kortom, als 580-alternatief en 1060-concurrent moet de 590 onder de 300 euro blijven om interessant te zijn.

Reacties (160)

160
158
84
8
0
46
Wijzig sortering
Zelf undervolt ik altijd, dus eigenlijk wel benieuwd naar het stroomverbruik en performance van deze kaart als je hem gelijk klokt aan de RX580. Geeft een beter zicht op wat de stap naar 12 nm nu precies brengt.
Jammer genoeg ligt het heel erg aan de die of deze ver under-gevolt kan worden, en je weet nooit of het 100% stabiel is, ook al test je urenlang. Dit is dan ook waarom AMD de voltage veel hoger doet dan nodig is, en zo'n beetje elke chipfabrikant dit doet.

[Reactie gewijzigd door MrFax op 22 juli 2024 13:25]

Met een stress-test van een aantal uren kun je al vrij goed beoordelen of iets stabiel draait hoor. Ben je een beetje bang, dan geef je hem net een beetje extra nadat je een stabiele stress test hebt kunnen draaien. Als stabiliteit zo belangrijk is, dan kun je net zo goed op fabrieksinstellingen blijven.
Wat ik altijd aan houdt bij het OC'en van mijn hardware is een stress test van 24 uur, als ik 24 uur lang op de beoogde OC kan draaien terwijl ik mijn CPU/GPU stress test (nadat hij het al een paar uur vol heeft gehouden), dan laat ik het daarop staan, als het faalt core multiplier/OC/voltage verhogen/verlagen
Oh ok? Nou als ik kombuster uren draai dan kan het zo zijn dat mijn kaart stabiel draait. Ik krijg m met 1 game na 15 min aan het crashen. Dus zelfs zo’n duurtest zegt niet alles.
Ik heb hetzelfde gehad. Bij het overclocken van mn RAM (Ryzen 1700, RAM naar 3200mhz) kon ik Unigine Heaven GPU compleet cappen en keihard mn GPU erbij overclocken, maar bij het spelen van Overwatch daarna bleef ik om het half uur crashen. Na lang niet begrepen te hebben wat er aan de hand was (gebeurde alleen bij Overwatch) updatete ik mijn Bios ooit (wat CPU en RAM overclock reset), en plots crashde Overwatch niet meer. Toen ik alleen de CPU overclockte daarna gebeurde het niet meer.

Benchmarks gebruiken vaak niet dezelfde resources als games en soms kan een game gigantisch hard een type resource hoggen. Ik moet wel zeggen dat mijn geval een uitzondering is, want dat is de enige keer geweest dat ik niet stabiel liep ondanks de benchmark stress tests.

[Reactie gewijzigd door Osiummaster op 22 juli 2024 13:25]

Inderdaad. Als een "burn in" test de kaart over alle componenten tegen de limiet belast dan kan een game een bepaalde hotspot creëren waarbij de kaart wel ineens vatbaar wordt voor een hang-up bij een bepaalde overclock. Ik heb dat met name dan met Company of Heroes 2 in 4K / Ultra.
Dat je Unigine Heaven stabiel kunt draaien terwijl een game als Overwatch crashed door een instabiele RAM overclock is niet geheel onlogisch. Heaven veroorzaakt namelijk slechts een relatief minimale load op de memory controller, en veroorzaakt een relatief minimaal geheugenverbruik. Heaven is dan ook totaal niet geschikt om RAM stabiliteit te bepalen.

Heaven is een GPU benchmark, die niet meer dan een indicatie kan geven van de stabiliteit van de GPU. Of het nuttig is als stabiliteits test van de GPU is afhankelijk van hoe je Heaven gebruikt, en in hoeverre Heaven in staat is alle functionaliteit van je GPU te belasten op de manier waarop je het gebruikt. En dan nog geldt dat Heaven zeer beperkt is in de functionaliteit die het aanspreekt op de GPU waardoor het nut van heaven als stabiliteits test behoorlijk beperkt is.
Waar bij mijn RX580 1080mv prima werkt in games laat op Radeon Relive bij het opnemen van ingame video direct het zaakje crashen. Undervolten is leuk maar het werkt niet voor alle mogelijke scenario's. Ik moet dan gewoon inperken met een 1090mv wat ansich niet verkeerd is ten opzichte van de stock 1150mv.

Ik denk dat AMD ook met het vrij lage fanprofiel bewust kiest voor een hoger voltage. Als een GPU immers 'heet' loopt is er een hoger voltage nodig om goed te blijven werken dan wanneer je een koelere GPU hebt. Kijk maar naar LN2. Daar is het benodigde voltage vaak veel lager op LN2 / stock dan wanneer je op luchtkoeling zit ofzo.
Vrij goed, totdat je een game tegenkomt die meer delen van de GPU hoger kan belasten en dan valt het allemaal in duigen en kun je opnieuw beginnen.

Hoe dan ook, de RX590 valt eigenlijk precies tussen de 1060 en de 1070, wat uitschieters daargelaten, en dat is helemaal niet verkeerd. Alleen jammer dat het DUBBEL zoveel energie kost als een 1060 nodig heeft. Dat is echt een enorm gat, zelfs na een undervolt... Een GTX 1080 is nog zuiniger. 220W is een high-end TDP budget.

Verder vwb de shrink, dat stelt weinig voor. 12nm is geen geweldige node, dat liet Turing al zien.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:25]

Niet noodzakelijk! Het heeft ook te maken met dat je die extreme applicaties hebt waarbij een kaart net niet stabiel kan zijn en het is prima mogelijk dat AMD veel conservatiever is dan Intel (op meerdere manieren). Een hoop speculatie, zeker is dat je gemiddeld op ongeveer 0,1 V uitkomt dat je de spanning kan verlagen. Serieus, wat maakt het uit als het niet 100% stabiel zou zijn? Je computer ontploft niet. :)
Je krijgt 1 crash, in het ergste geval moet je je computer opnieuw opstarten en je verhoogt de spanning 5 mV of zo. Big deal!

[Reactie gewijzigd door Verwijderd op 22 juli 2024 13:25]

Ik ben ook benieuwd naar hoe het verbruik zal zijn wanneer je gewoon een beetje browst (wat ik toch het grootste gedeelte van de tijd doe), en idle. Zo te zien is deze 590 idle wel zuiniger dan de 580.
Deze 50W is dan wel een undervolted 590 vs een stock 580, ik betwijfel ten zeerste of dit verschil nog significant is als de 580 ook undervolted was.
Waarom? Waar baseer je dat op? Aangezien de 590 op een ander procedé gebakken is, kan je dat niet zomaar vergelijken.
Tegen de 80W zelfs. ;) Je ziet ook dat de scores consequent iets lager zijn dan bij de RX580. Of dat nu komt door het undervolten of door verschillen in de gebruikte hardware / videokaart is niet duidelijk. Er is geen test waarbij de kloks en het voltage gelijk zijn aan de RX580.
Geen idee wat undervolten inhield dus ben ff gaan googlen en kwam op Wikipedia dit artikel tegen https://nl.wikipedia.org/wiki/Ondervolten maar de laatste update is alweer ruim 5,5 jaar geleden. Iemand die deze pagina aan zou willen passen? bvd :)
Eigenlijk zegt de naam het al, een lager voltage. Om hitte/energie te besparen.
Daar hoef je de Wiki niet voor te updaten
Ik blijf het bij de Battlefield benchmarks het maar vreemd vinden dat DirectX 12 gebruikt wordt om mee te benchmarken. Het is sinds Battlefield 1 (die gebruikt is om te benchmarken) alombekend dat DirectX 12 ruk presteert (en het grafisch geen verschil maakt!) en dat daarom 90% van de spelers op DirectX 11 speelt. Waarom dan toch met DirectX 12 benchmarken? @willemdemoor Dit viel mij bij de RTX roundup ook heel erg op.

[Reactie gewijzigd door CH4OS op 22 juli 2024 13:25]

Het is een test van de GPU, niet van de game. De benchmark dient om prestaties met andere GPU's te vergelijken, niet louter om een zo representatief mogelijk beeld van de gameprestaties te bieden. Als die met Dx11 altijd pakweg 10% hoger liggen, is het simpel zat om dat als lezer mee te wegen - als dat prestatieverschil inderdaad in de game/API zit, kan dat nooit op een specifieke videokaart opeens anders uitpakken.

Als er dan een keuze is tussen een oudere en een nieuwere API, begrijp ik de keuze voor de modernere, die immers ook degene is waarvoor de videokaart primair is ontwikkeld en die in de toekomst vermoedelijk meer en meer wordt toegepast. Er zijn andere games met DirectX 11 getest om daar een beeld van te krijgen.
Wat betreft DX12, dat is tot nu toe slecht, maar tot nu toe gaat het vooral om halfslachtige DX12-patches, niet om spellen die vanaf het begin en enkel DX12 gebruiken. Ik vrees dat dat nog lang zo zal blijven want MS gebruikt DX12 als pressiemiddel om gamers te dwingen om W10 te gebruiken. Als de developers nu eens Vulkan zouden gebruiken, daarvan is gebleken dat het uitstekend werkt en het is platform-agnostisch.
Vraag is natuurlijk wel hoe interessant benchmarks zijn van een scenario dat in de praktijk niet gebruikt zal worden. Het lijkt mij juist van belang, als klant zijnde die mogelijke zijn aankopen zal baseren op reviews, dat reviews zoveel mogelijk praktijk situaties testen. Ook een reden waarom ik synthetische benchmarks eigenlijk vaak volledig oninteressant vind. Leuk dat een kaart A in 3Dmark versie x 10000 punten haalt, terwijl de concurrent kaart B 9000 punten haalt. Mij als consument zegt dat weinig, ik kan er bijv niet uithalen dat Game Y op kaart A dan 100FPS heelft en op kaart B 90 FPS. Want het kan best dat wanneer kaart A meer punten haalt in 3DMark, in Spel Y kaart B juist meer FPS haalt en dus de betere koop al zijn als je als consument voornemens bent voornamelijk game Y te gaan spelen.

Ik ben het zeker met je eens dat benchmarks er voor moeten dienen om de consument een leidraad te geven om prestaties van verschillende GPU's te vergelijken, echter zal het dan ook belangrijk zijn dat de benchmark suite aansluit op wat de consument wil gaan doen en dus realistische scenario's test. Als dan voor Battlefield blijkt dat bijna iedereen op DX11 speelt omdat de DX12 schijnbaar te wensen over laat, zou ik het juist niet logisch vinden om DX12 te testen over DX11.

Een leuke zou dan wel worden Total War: Warhammer 2. In mijn ervaring speelt namelijk iedereen met een Nvidia kaart die game op DX11 (want betere prestaties dan op DX12) en terwijl je met AMD kaarten in ieder geval soms beter uit bent op DX12.

@willemdemoor misschien is bovenstaande ook iets om mee te nemen in het overleg met je collega's :)
Ik zal het met m'n collega's bespreken... Kijken of dat veranderd moet worden...
DirectX 11 vs 12 heeft toch net een andere workload voor zowel CPU als GPU. Dus als je in het verleden altijd DX12 hebt getest, dan kun je dat het beste nu ook blijven doen. DX12 met DX11 vergelijken, zelfs als de performance in de buurt ligt, geeft een vertekend beeld.

Het verschil tussen DX11 en DX12 is irrelevant als je op zoek bent naar het verschil tussen meerdere kaarten. Natuurlijk zijn beide interessant om te testen, maar niet onderling op dezelfde GPU met elkaar te vergelijken.
De vraag is welke combi van games en settings een goede mix vormt. Je wil dus verschillende soorten games, verschillende engineer en een mix van DX11, DX11 en wat Vulkan. Het moet representatief zijn voor de games die zoal gespeeld worden, niet voor een individuele game.

[Reactie gewijzigd door PizzaMan79 op 22 juli 2024 13:25]

daarom hebben we (zie lijstje hier) een mix van 4* DX12, 6* DX11 en 1* Vulkan, met allemaal verschillende game-engines (en dito genres)
Precies. En dat is belangrijker dat per game de settings kiezen die het populairst zijn voor die game :)
Eens. Aan de andere kant heb je nu de DXR componenten en als je die naast niet-DXR content wil leggen is DX12 wel handig. Anders is er geen pijl meer op te trekken.
Ook @willemdemoor
Het beste is natuurlijk om met beide te benchmarken maar dan komt de review later en ze zijn bang daardoor minder clicks (=inkomsten) te krijgen. Gezien hoe verschillend de micro-architecturen van Ryzen en Intel en Nvidia en AMD zijn moet je altijd alle 4 de combinaties testen en gezien hoe verschillend ze omgaan met diverse features van Vulkan en DX12 moet dat beide worden getest. Enkel dan krijg je een genuanceerd beeld over hoe goed de hardware presteert.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 13:25]

Dus de XFX kaart die eigenlijk een overklokte 590 heeft, hebben jullie teruggeklokt tot reference waarden?
225 Watt voor deze performance mag je ook best milieuvervuiling noemen.
Valt mee. Als je toch niet hoger dan de refreshrate aan frames wilt halen dan zet je Radeon Chill aan. Dan presteert de GPU ook niet meer dan dat het toveren moet in frames op beeld en dan bespaar je een hoop aan (onnodige) GPU cycles.

Zo blijft de GPU namelijk ook lekker koel (hier ruim 20 graden verschil) en je merkt er niets van qua Frametimes.
Jip! Zelf gebruik ik op dit moment RX 570. Radeon WattMan en Chill maakt het zo makkelijk in paar muisklikken.

GPU Overclock op 1320mHz, Undervolt op 1.010v,
Memory Overclock op 1950mHz, Underclock op 0.920v
= 150W naar 95W.

= Minder Watt verbruik maar veel meer FPS.
Naast wat @Verwijderd zegt, een heel erg belangrijk punt, je kan ook de spanning met pak hem beet 0,1 V verlagen en het vermogen is prima. Vraag mij niet waarom AMD standaard die spanning te hoog zet, ze doen het en je kan het gemakkelijk zelf verlagen.

Dat gezegd hebbende, ik zou op dit moment een Vega56-kaart bij Caseking (altijd lagere prijzen dan in Nederland voor AMD-kaarten, je kan met IDEAL betalen als je dat wil) of Overclockers (lage koers Pond, momenteel kan je voor €340 een Sapphire Pulse Vega56 kopen). Die kaart haalt met hetzelfde vermogen als de GTX 1070 een FPS die dichter bij die van de 1070 Ti dan bij de 1070 ligt als je wat speelt met de spanning en zo. :Y)
Een prima reactie!
Wie kan mij uitleggen dat een GTX1070 met:

- 58% minder compute units
- 17% minder steamprocessors/cuda cores
- 2,5% meer kloksnelheid
- 8,5% minder rekenkracht
- 17% minder texture units
- 33% minder energieverbruik

Gehakt maakt van een RX590?
Natuurlijk zeggen specs niet alles maar het is wel een enorm verschil.
Dat komt omdat je als consument niet merkt dat Nvidia al jaren lang een enorme voorsprong op Radeon heeft opgebouwd. Dit doet Nvidia door nieuwe kaarten fysiek te simuleren (kamer van 10 bij 10 meter) en zo kunnen ze voor elk prijspunt de prestatie doelen behalen en daarna de chip zo klein mogelijk maken. (Is ergens een video van op YouTube, als iemand hem kan vinden graag!).

TLDR: Hoe beter de architectuur, des te 'simpeler' de chip en des te groter de winst van Nvidia.

Het verschil is zo groot dat op reddit al twee jaar geleden werd gespeculeerd dat een RX 480 van $199 dollar even duur is om te maken als een GTX 1080 van $499. Dat klinkt absurd maar waar Nvidia vroeger op Geforce nauwelijks winst maakte en al het geld van Quadro kwam halen ze tegenwoordig honderden miljoenen uit Geforce. Sterker nog de netto winst was het afgelopen kwartaal 90%(!) hoger dan het jaar ervoor. We praten over 1210 miljoen per kwartaal. Dit ná het mining tijdperk. Voor de Geforce 6 serie was Nvidia blij met 500 miljoen in een jaar.

Als je naar de TFLOPS kijkt dan zie je dat Nvidia niet alleen meer prestatie per euro uit de hardware haalt, maar ook minder ruwe kracht nodig heeft om dat prestatie niveau te bereiken.

Als consument betalen we nu simpelweg veel te veel voor zo'n GTX 1070. Helaas zijn we voorlopig volledig afhankelijk van AMD Radeon om dit probleem op te lossen. Binnenkort zegt Intel echter ook met een videokaart te komen, dus wie weet schudden die de markt op.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:25]

Maar in principe halen ze dus die winst er uit omdat hun software beter is?
Want hoe zit dat? Heeft iemand ooit hierover een goed review over gegeven?
Nou nee, aan de software kant heeft Nvidia overigens wel de naam om in DX11 minder cpu overhead te vereisen. Maar dat is niet de verklaring voor de hierboven besproken verschillen. Dat volgt uit de architectuur. Wat ze verbeteren kun je bij elke architectuur lezen.
New Streaming Multiprocessor (SM)
Turing introduces a new processor architecture, the Turing SM, that delivers a dramatic boost in shading efficiency, achieving 50% improvement in delivered performance per CUDA Core compared to the Pascal generation. These improvements are enabled by two key architectural changes. First, the Turing SM adds a new independent integer datapath that can execute instructions concurrently with the floating-point math datapath. In previous generations, executing these instructions would have blocked floating-point instructions from issuing. Second, the SM memory path has been redesigned to unify shared memory, texture caching, and memory load caching into one unit. This translates to 2x more bandwidth and more than 2x more capacity available for L1 cache for common workloads.
In de bron staan de meeste de architecturale veranderingen. De prestaties per Mhz, per core, enz kunnen toenemen. Verder neemt ook vaak de 'lossless memory compression' toe waarmee de effectieve bandbreedte stijgt.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:25]

dank je, ik zal er even rustig door heen kijken :)
Hier is de link naar de video van de door jou genoemde simulatie kamer:

https://youtu.be/HslwXd67CEY
Bedankt, maar ik had een nieuwere ruimte gezien waarbij het allemaal wat slordiger was :P.
wat ik raar vind is... frame tearing met Nvidia in vergelijking met AMD Radeon. GTX 1060 kaartje > CS:GO (simpel spel toch? 110 fps ~ 300 fps.. en springt behoorlijk heen en weer.

heb ik de R9 390, heb ik 270~300 fps, en daar springt het wat tussen heen en weer. (klopt beetje off topic) maar daarin vind ik dat de Radeon kaart een stabielere kaart is.
Hoe kom je daar bij? Eeen GTX 1070 heeft een veel hogere boostclock (makkelijk 1900mhz met GPU boost 3.0).
Daarnaast kan je CUDA cores en streamprocessors niet 1:1 vergelijken.
Natuurlijk zeggen specs niet alles maar het is wel een enorm verschil.
Specs zeggen wel alles, maar je vergelijkt nu appels met peren en dat werkt niet.
Ok groenteboer leg het uit dan{ de specs zijn ? }
De compute units/cores kan je vergeten, die zijn niet 1 op 1 te vergelijken. Ik ben het wel met je eens dat AMD altijd wat grover is, vaak zie je dat over de jaren de AMD kaarten steeds beter worden omdat drivers steeds beter worden.
Misschien omdat de RX 590 NIET concurreert met de GTX 1070? Maar positioneert tussen RX 580 en GTX 1070?

8.5% minder rekenkracht?
GTX 1070 = 6.5 TFLOPs
RX 590 = 7.1 TFLOPs

En sowieso kun je CUDA cores en Streamprocessors niet 1:1 vergelijken.
Beide engines hebben voor en nadelen. Met DirectX11 is GTX 1070 zeer efficiënt. Met DirectX12/Vulkan komen de Streamprocessors weer meer tot z'n recht.
De rx580(90) maakt weer gehakt van Nvidia kaarten in SPECviewperf bench bijvoorbeeld. Cad/cam/simulatie gericht.
De rx580 presteert nagenoeg gelijk aan een 1080ti in dat geval.

Lijkt erop dat AMD hun kaarten iets te breed in wil zetten, hetzelfde verhaal bij vega. Beter dat ze een 'pro' serie en een 'gamer' serie in de markt zetten. Of er iig daadwerkelijk werk van maken. Focus AMD!

[Reactie gewijzigd door Verwijderd op 22 juli 2024 13:25]

De rx590 is niet de 1070 tegenstander, maar de rx vega 56, die maakt gehakt van een 1070. Heb je een freesync scherm maak je helemaal winst.
Nvidia heeft efficientie op de eerste plaats gezet in hun architectuur vanaf Kepler. De doorontwikkeling vanaf dat moment had een focus op:

- zo smal mogelijke VRAM bus (liever sneller geheugen dan een bredere bus, zie Kepler Refresh 7xx)
- hogere kloksnelheden (liever snellere shaders dan méér shaders, eerste grote sprong met Maxwell, en de tweede met Pascal + het uitstekende 16nm TSMC procede)
- efficient geheugengebruik (delta compressie met Maxwell, dat had AMD pas met Polaris voor elkaar. Pascal deed er nog een schepje bovenop)
- specialisatie. Nvidia heeft alles uit Geforce gesneden dat niet puur voor Geforce van belang is. De gaming GPUs doen ook echt alleen dat, andere workloads zijn zwaar gehandicapped. AMD had lange tijd veel beter GPGPU prestaties bijvoorbeeld, en Vega is primair een pro GPU, geen gaming GPU.

Het klopt overigens niet helemaal wat je zegt, Nvidia heeft namelijk wel zo'n 20-30% hogere clocks vanaf Pascal. GPU Boost 3.0 brengt de meeste GPUs naar 1800+ mhz en met goede koeling kom je over de 1950mhz. Bij AMD mag je in je handjes knijpen als je er 1600 uit trekt met het volume op 11.

AMD gebruikt één versie van GCN en verbeterde die mondjesmaat sinds 2012, en moest blijven opschalen (meer cores, bredere bus, meer shaders) tot het niet meer ging. Er zijn verkeerde keuzes gemaakt, waaronder het toepassen van HBM vóórdat ze met delta compressie aan de gang gingen (Polaris bewijst dat het prima kon op GDDR5, Fury X was helemaal niet nodig geweest). Ze hebben GCN onvoldoende doorontwikkeld en daar betalen we nu de prijs voor.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:25]

Ha, was net hetzelfde aan het denken ;)
Is idd vreemd. Nvidia maakt efficiëntere kaarten blijkbaar. beetje zoals het verschil in IPC tussen AMD en Intel.

[Reactie gewijzigd door bgttje op 22 juli 2024 13:25]

Het is moeilijk te vergelijken, maar de chip van de 1070 is wel 35% groter.
Zoals ik het begrijp hebben AMD kaarten een veel simpelere opbouw, waardoor ze meer cores op een chip kwijt kunnen maar de cores zelf wat simpeler zijn uitgevoerd. Nvidia heeft gekozen voor minder cores die per stuk net wat sneller complexe berekeningen kunnen doen, waarschijnlijk met een instructieset die geoptimaliseerd is voor grafische berekeningen.

Het resultaat is dat Nvidia momenteel koploper is op grafisch gebied terwijl AMD juist in bepaalde andere toepassingen meer rekenkracht uit hun kaarten haalt. Het is niet puur een kwestie dat één van de twee oplossingen altijd sneller is dan de andere; het hangt erg van de workload af.
Als de conclusie, die bij deze kaart staat, ook bij elke processor gebruikt zou worden, was praktische elke upgrade van Intel in de afgelopen jaren (behalve het laatste jaar) amper interessant. Ook de 2xxx serie van AMD kun je dan onder het kopje interessant? plaatsen.

Deze kaart is 7 a 8% sneller, fijn toch?
Het is dus een snellere kaart dan de 580 en daardoor interessant.
Dat de 590 met de 580 concurreert is niet erg, die gaat er waarschijnlijk alleen maar goedkoper van worden.

Verder lijkt er een stuk van het idle verbruik afgesnoept te zijn. Ook niet erg, want dat is een staat waar een kaart zich toch redelijk vaak bevindt. Jammer alleen van het meerverbruik bij volle snelheid.

[Reactie gewijzigd door misterbennie op 22 juli 2024 13:25]

De 580 is al enigzins outdated aan het raken en wordt gemeten met kaarten die al ruim 2 jaar op de markt zijn. Dus je kan wel stellen dat dit een telleurstellende relese is weer. De prijs is opzich wel okay maar dat is ook niet gek voor performance wat al 2 jaar oud is en toen was het al midrange performance.
Ik denk toch dat je de doorsnee gamer overschat. Het overgrote deel van alle gamers heeft echt nog geen 1440p monitor thuis staan en dus ook weinig/geen behoefte aan een dure kaart die 1440p aankan.

De markt voor pakweg een 1070 en hoger is nog steeds relatief klein, dat zijn al kaarten voor het iets meer hardcore publiek.
1070GTX is nu nog net acceptabel voor 1440P maar bij bijvoorbeeld Hitman 2 zou deze ook al naar 1080P gezet meoten worden om ten allertijden 60fps minimaal vast te kunnen houden. Games worden zwaarder, normaal groeien midrange kaarten hier in mee.Met hardcore publiek denk ik aan kaarten vanaf de 1080TI tot de 2080TI nu.
Hardcore zal in ieders ogen wel iets anders zijn natuurlijk, bij AMD mag je er vanuit gaan dat ze een heel duidelijke blik hebben op welk prijspunt ideaal is binnen de markt, daar ontwikkelen ze natuurlijk naar.

High end kaarten is mooi maar het moet uiteindelijk geld opbrengen.

300 Euro is voor mij persoonlijk de grens tussen mainstream gamen<> hardcore gamen, zelf geef ik meer uit dan dat maar ik kan me gerust voorstellen dat heel veel mensen 300 euro al heel veel geld vinden voor één component, je moet ook denken dat een ps4 maar iets meer kost dan dat en kant en klaar is.
Mwa, ik neem aan dat je dan wel als eis hebt alles op ultra te zetten?
Ik heb Hitman 2 niet gespeeld, maar ik kan met mijn 1060 tot nu toe nog goed meekomen op QHD (1440p). Persoonlijk zie ik tijdens het spelen het verschil vaak niet tussen high en ultra, soms ziet zelfs medium er nog bijna hetzelfde uit. De resolutie maakt voor mij veel meer uit.
Ik zie genoeg games al moeite heb om 60fps op 1440P met de 1070GTX. Dus denk niet dat de 1060 ook maar 80% van dit presteerd gezien de benchmarks.

Hitman 2 heb ik op high staan niet op ultra. Ultra duikt regelmatig onder de 40.

FF15, Far Cry 5, Assassins Creed Origins & odyssey, Hitman 2, BF5 etc laten allemaal zien dat het voor de mainstream kaarten wel hoog tijd wordt om ook wat upgrades te ontvangen. Dit staat nu een paar jaar stil.
Tja, inderdaad. Voor 1440 had ik aanvankelijk m'n 1080 gekocht. Dat ging wel ok. Als ik nu kijk bij m'n neefje, dan is eigenlijk een GTX1080 soms al niet echt meer afdoende. Wel rekenend, dat ik die kaart alweer 3 jaar geleden had gekocht. Toen voor 3440x1440 100hz een 1080Ti erbij gehaald. En dat ging prima, maar toch niet altijd meer soepel. En nu daarvoor dus een 2080Ti erin gezet. En dan zakt Hitman 2 in sommige maps / settings nog steeds naar de 40fps. Maar goed, daar hebben alle resoluties / kaarten last van, het is waarschijnlijk eerder iets in de renderpipeline / engine wat niet helemaal wil dan dat het aan de hardware ligt.

Tegelijkertijd zijn een aantal van de andere game die je noemt ook gewoon heel erg zwaar. En ik zou persoonlijk onder een GTX1080 kaart niet weten wat je hiervoor zou moeten kopen. Hoog tijd dat Nvidia met een GTX2050 / 2060 komt, maar dan hopelijk met een beetje normale prijzen. Maar goed, even wachten tot Feb dus nog, ze gaan em pas volgende maand aankondigen.

AMD mag eigenlijk wel zakken met z'n Vega prijzen, dan zijn ze opeens wel wat competetief. Maar ze zijn erg duur om te fabriceren, dus tja... En dat je er een enorme voeding voor nodig hebt omdat ze behoorlijk stroom lusten, helpt ook voor een kleiner budget niet mee...
Dit is dan ook een midrange kaart.
Waarom zou die niet dan niet als midrange voldoen?
Je kunt de meeste spellen meer dan prima op 1080p spelen, en dat voor een prijs van ~€285,-
Voor heel veel mensen zal dit een leuke instapkaart zijn. Snel genoeg en betaalbaar.
Het is volgens mij ook niet zo dat er in DX12/Vulkan heel veel dingen bijgekomen zijn waardoor deze kaart niet meer voldoet.

Zolang de prijsstelling prima is, is er mijn inziens weinig reden tot klagen.
Omdat dit stilstand is. Dit is maar een marginaal sneller kaart 2 jaar na dato toen dit al de benchmark voor midrange prestaties was. Moderne games BF5, Hitman 2 etc draaien niet meer op 60fps in 2080P op deze kaart hoor. Helpt ook niet mee dat Nvidia qua upgrades ook meteen fors in de prijs omhoog is gegaan. Maar normaal gesproken had nu de Vega 56 midrange moeten zijn qua prestaties.
Als je zo denkt dan kunnen we de RX 550, 560, 570, GTX 1030 GTX 1050 en 1060 ook wel van de markt halen.
De RX590 is geen stilstand, geen innovatie, maar gewoon een evolutie.
Niet indrukwekkend, maar verder prima, zeker voor de aangegeven prijs.
Nee ze verschuiven gewoon naar het lagere segment. Voor veel zal de prijs even goedkoper lijken maar dan vergeet je denk ik dat de mining boom even de prijzen flink hoger liet uitvallen maar de 480 was oorspronkelijk voor die prijs verkocht 2 jaar geleden en is maar iets langzamer. DIt is gewoon een iets efficientere versie van diezelfde GPU weer.
Dus, sneller voor hetzelfde geld is verkeerd?
Niets mis mee toch?
Positioneert zich met zijn prijs prima tussen de tragere en snellere kaarten.
Precies waar deze kaart hoort te zijn.
Het is een practisch overgelockte 580 en jij bent daar na 2 jaar tevreden mee. Normaal gesproken mocht je na 2 jaar een generational leap verwachten van 25% tot 30%.
Nee, eigenlijk niet. Het is alleen wel "weinig" sneller. Maar dat is een gegeven paard in de bek kijken.

De timing van deze refresh vind ik eigenlijk heel raar. Een jaar geleden had ik er meer van gesnapt.

Waar dit een mainstream kaart was, net als de 1060 dat was, komt het nu amper nog mee in recente 2018 titels. Als je deze kaart nu als budget mainstream kaart koopt denk ik dat je volgend jaar al de drang te upgraden gaat voelen. Terwijl als je de 580 kocht twee jaar terug, je er jaren perfecte 1080P gaming voor terug kreeg.


De kaart kan bijna 3 jaar oude 1060 en 1070 kaarten niet significant overstijgen relatief tot het vorige model. Een 580 valt tussen beide Nvidia modellen in, en de 590 ook, maar dan iets dichter bij de 1070. Hoe moet je dat nou weer uitleggen in de retail.


Wat er dus mis mee is, is dat het wel een heel kleine boost is, die ook nog meer stroom benodigd, het product niet anders concurrerend is met de competitie en voor een refresh wel erg laat komt. Ik kan deze kaart eigenlijk moeilijk aan iemand aanraden die er langer dan ter overbrugging mee wil gaan doen en wel moderne games wil gaan spelen. Maar datzelfde heb ik met de 1060 ook eigenlijk al.
Maar dat is onzin. Ik kan met mijn RX480 prima moderne games spelen, waarom zou dat op een RX590 dan ineens niet meer kunnen?
AMD zou gewoon nu een mid-range kaart moeten hebben die net zo snel is als minimaal een Fury X, dit is natuurlijk gewoon bs. Een HD 7850 was sneller dan een HD 6970. Een RX 580/90 is gewoon duurder dan een een R9 290 uit 2013, die 3 jaar geleden €250 was en marginaal sneller.
Als de conclusie die bij deze kaart ook bij elke processor gebruikt zou worden, was praktische elke upgrade van Intel in de afgelopen jaren (behalve het laatste jaar) amper interessant.
Dat waren ze toch ook? Ik heb weleens het idee dat AMD aanhangers last hebben van calimero syndroom.

Laat ik bijvoorbeeld eens quoten van de i7-7700 review: reviews: Kaby Lake voor de desktop: de kleine stap van 6700K naar 7700K
Daarmee is Kaby Lake geen directe upgrade voor een Skylake-systeem. Voor de desktop is de winst veel te klein en de sterke punten van Kaby Lake, zoals energiegebruik en 4k-playback en -encoding, zijn doorgaans van minder belang of worden door de losse videokaart verzorgd.
Als je een RX580 hebt is de upgrade naar een RX590 totaal niet interessant. Zit je nog een stuk daaronder, en wil je gaan upgraden naar iets in deze richting, dan kan het interessant worden afhankelijk van het prijspunt.
"Ik heb weleens het idee dat AMD aanhangers last hebben van calimero syndroom"?

Wat de kaby lake review betreft.
Er staat: "De beloofde prestatieverbereringen van maximaal twaalf procent zien we in de benchmarks echter niet terug, noch op de desktop, noch op laptops."

Hier hebben we het over 7 a 8%.
Dat is zeker niet niks (maar ook niet heel bijzonder).

En iedereen die zijn RX580 (480) voor een RX590 om gaat ruilen is mesjogge.
Maar als upgrade van iets dat daaronder zit zeker niet verkeerd.
TIP: Upgrade gratis je RX 580 naar een RX 590 door hem simpleweg over te klokken. De enige kanttekening is dat je niet kan garanderen dat je dezelfde kloksnelheden haalt als de RX 590 en dat hij ook meer zal verbruiken. En voor 6 à 7 % betere prestaties mag de winkelprijs ook niet meer dan 6 à 7 % hoger liggen dan de RX 580.

Ze hadden deze kaart eerder een RX 585 moeten heten zodat iedereen weet dat het gewoon een efficiëntere versie is van de RX 580, zoals ze ook deden met de HD 285. Consumentenbedrog? Imho toch een beetje...
Een RX580 kun je overklokken en hem (hopelijk) naar stock RX590 snelheid krijgen.
Een RX590 kun je overklokken en hem sneller dan de stock RX590 snelheid krijgen.
Maar bedankt voor de tip ;-)

[Reactie gewijzigd door misterbennie op 22 juli 2024 13:25]

Een hoop RX580's halen de 1500Mhz mark al niet zonder waterkoeling. En dan nog is het de vraag of je zo'n OC wel wilt met een TDP van 220W. Dan kan je net zogoed een Vega 56 halen, undervolten en 40% meer performance eruit halen.
Alleen heeft deze kaart een hogere MSRP dan de 580 8GB, in plaats van als vervanger voor hetzelfde bedrag.
Als de conclusie die bij deze kaart ook bij elke processor gebruikt zou worden, was praktische elke upgrade van Intel in de afgelopen jaren (behalve het laatste jaar) amper interessant. Ook de 2xxx serie van AMD kun je dan onder het kopje interessant? plaatsen.

Deze kaart is 7 a 8% sneller, fijn toch?
Het is dus een snellere kaart dan de 580 en daardoor interessant.
Dat de 590 met de 580 concurreert is niet erg, die gaat er waarschijnlijk alleen maar goedkoper van worden.

Verder lijkt er een stuk van het idle verbruik afgesnoept te zijn. Ook niet erg, want dat is een staat waar een kaart zich toch redelijk vaak bevindt. Jammer alleen van het meerverbruik bij volle snelheid.
Probleem is in dit geval dat het geen vervanger is van de RX580, het is een 50 dollar duurdere uitvoering. Aldus de advies prijs van $279 vs $229. Was dit eens 680 geweest van $229 dan was die beperkte stijging mooi meegenomen, nu betaal je hem uit eigen zak.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:25]

Wat ik niet goed snap is waarom ze niet andere componenten hebben verbeterd buiten de clock snelheid.
Denk bij voorbeeld aan een 384 bit geheugen bus of meer geheugen?
Omdat ze dan een nieuwe chip hadden moeten ontwikkelen. Dit is dezelfde chip (zelfs als de 480 als ik me niet vergis) maar op kleiner procedé gemaakt waardoor de kloksnelheden wat omhoog kunnen. Extra brede geheugenbus maken is vergelijkbaar met van je 4 cilinder auto een 6 cilinder maken, nogal een klus. Deze 590 kan vooral meer toeren maken.
Oke duidelijk, misschien een leek vraag maar is de bus interface niet gewoon een interface en dit de weg naar de gpu is dus we hebben nu een 4baans weg maar we maken er een 6 baans weg van. Maar de opbouw van de chip blijft het zelfde.

bedoel mijn oude r9 280x heeft al een 384bit interface.
Het is heel simpel. AMD heeft een contract met globalfoundries en die hebben op hun beurt de procede van 14nm verbeterd naar nu 12nm. Die bieden gewoon een gratis upgrade aan naar 12nm voor AMD en AMD neemt dat gewoon op hun beurt weer af.
Als je met de gtx 1060 of 1070 vergelijkt moet je wel freesync meenemen. Een gsync monitor kost zo 150 a 200 euro meer.

Games worden niet alleen vloeiender met meer frames per seconde maar ook met de manier waarop die frames worden weergegeven.
Waarom moet je dat mee nemen? Wat als je al een G-Sync of FreeSync monitor hebt? Dan is de keuze waarschijnlijk toch al snel gemaakt?

En wat als je niet van plan bent een nieuwe monitor te kopen? Of je wilt een 4K monitor kopen?

Allemaal irrelevant voor deze review.
Eens hoor maar het is wel interessante informatie voor mensen die gaan kiezen tussen AMD of NVidea die bijvoorbeeld een nieuwe build maken en ook een scherm gaan kopen.. Ik heb mijn broertje AMD geadviseerd omdat gsync monitoren een stuk duurder zijn en een freesync 144hz scherm behoort tot de wenzen :-)
Je kan de monitoren niet 1 op 1 vergelijken. Want 9 van de 10 keer zijn de Freesync monitoren in het algemeen goedkoper uitgevoerd. Bij Asus bijvoorbeeld bij de Gsync monitoren een deftige metalen stand en bij freesync zijn deze stands plastic etc en zo zijn er meer verschillen.
Want 9 van de 10 keer zijn de Freesync monitoren in het algemeen goedkoper uitgevoerd.
Het prijsverschil zit m vooral in het feit dat bij Gsync veel moet worden betaald voor licentie, en bij Freesync niet. Bij budget monitors scheelt dat zomaar de helft vd prijs.
Dat Gsync meer kost is een feit, mensen vergeten alleen te kijken naar het feit dat goede Freesync monitoren een vrij kleine range hebben waarin Freesync daadwerkelijk zijn werk doet. Bijvoorbeeld 50 tot 75hz bij de aller goedkoopste Freesync monitoren. Waarbij alle Gsync monitoren direct in het hoge segment zitten met een bereik van 45hz tot en met 165hz waarbij syncing wordt toegepast. Mooie is dat Freesync dan wel toegankelijk is op goedkopere monitoren, maar de experience is niet gelijk aan Freesync op dure monitoren en dat ligt bij Gsync een heel stuk dichter bij elkaar. Daarbij betreft het hie reen hardware scaler die een stuk mooiere resultaten geeft wanneer je reolution scaling toepast. De helft boeit het niet maar het zit er wel in. Dat en dan wat ik eerder noemde de vaak iets meer luze uitvoeringen van de behuizing en monitor stand rechtvaardigd toch echt wel het prijsverschil. Het is alleen jammer dat Nvidia kaarten bijvoorbeeld niet beiden ondersteunen of andersom.
Ik snap je punt maar juist bij Asus is dit niet zo (XG258Q vs PG258Q).
Ook daarbij zie je kwaliteit verschillen in de afwerking, vooral de achterkant van het scherm (minder belangrijk, maar toch).
Wat is precies het verschil aan de achterkant? De PG heeft een metalen ring en de XG een plastic ring met daarin RGB verlichting. Het is anders, maar niet per se een mindere afwerking.
Ik zie dat ze 'm aangepast hebben. De Gsync variant had eerst een zilvere gladde coating op de achterkant en op de metalen voet. Nu niet meer
Daar ben ik het zeker mee eens! Net zoals ze ook naar de prijs van het moederbord/CPU combi moeten kijken náást de individuele onderdelen.

Maar goed. Iedereen weet inmiddels dat je de beste prijs/prestatieverhouding bij AMD krijgt en als geld je niet uit maakt, je voor de beste prestaties een Gsync, Intel en nivea kaart moet komen.
Ik heb geen van beide en ben niet van plan om een nieuwe monitor voorlopig aan te schaffen, dus waarom zou ik dan freesync meenemen?
Ik ben meer benieuwd of ze ooit nog met een kaart komen die de performance van de RTX2080Ti kan evenaren (minus de hoge prijs)
Komen ze ook, maar pas in 2019 (Q2 dacht ik), namelijk Navi. https://tweakers.net/zoeken/?keyword=Navi
De eerste Navi-gpu voor 2019 werd meer een mainstream-concurrent dacht ik... Pas in 2020 ofzo een echte high-end Navi, volgens de geruchtenmolen allemaal...
Maar de 2060/2070's van AMD (AKA Navi) komen dus wel in 2019, toch?
via AMD niks gehoord, alleen geruchtencircuit, maar ja, 1ste helft zou dat moeten gebeuren...
Volgens UDF Tech zal de Navi-architectuur tegenvallen voor de enthusiast market, omdat ze denken dat Navi vooral voor de Playstation 5 en Xbox 2(?) wordt ontworpen. Ikzelf verwacht daarom een Navi GPU voor de pc die niet beter presteert dan wat in 2019 zal worden aangenomen als mainstream.

Bron: https://www.youtube.com/watch?v=Hdqt0FGRak8
high end navi komt pas later. de eerste 7nm navi gaat weer een mid range kaart zijn, maar wel een mid range voor 7nm, dus gtx1080-gtx2080 performance ergens, voor een 200-300 euro prijs.
Zo, gewaagde aanname. RTX 2080 performance voor €200-300,-?
Als we RTX 2080 performance krijgen voor 200-300 euro dan is de GPU market volledig omgegooid. en dat gaat dus nooit gebeuren.

AMD variant zal dan rond 600 euro zitten tegenover de RTX 2080 800-900 variant. dat zou nog wel eens kunnen. En dan zal het wel spannend zijn voor de mid-high end gamers.
Dat klinkt inderdaad iets geloofwaardiger maar alsnog ga ik daar niet vanuit. Dat is €300,- goedkoper dan de RTX 2080. Als we er voor het gemak vanuit gaan dat de aankomende Navi kaart deze performance daadwerkelijk gaat halen.
hij gaat zeer zeker geen 600 euro kosten want zeg 6-9 maanden later moeten er nog high end navi's boven geplaatst worden.

en dat soort dingen gebeuren elke keer als we een nieuwe node gaan gebruiker. zeker als we (opnieuw) 2 nodes tegelijk krijgen. de rx480 was ook gelijk aan de 390x.
Naja zo werd dat ook verteld over Vega dat het high end moet zijn. bleek toch wat anders te zijn:p.

We zullen zien zou ik zeggen.
vega is high end, 1080 is ook high end.

Maar Vega heeft het probleem dat het zowel een professionele als een gamer GPU moest zijn (door tijd en geld gebrek doordat de prio bij Navi lag). Daarom heeft Vega 1/2 FP64 performance (dus FP64 Tflops is de helft van de FP32 Tflops) wat enorme hoeveelheden transistors en stroom kost, maar voor gaming totaal niet nuttig is.

In vergelijking nvidia's verhouding bij de 1000 serie is 1/32.

Navi heeft dat probleem niet. dat is een GPU puur voor gaming, en zal dus 1/16 (net als Polaris) of misschien ook wel 1/32 FP64 verhouding hebben.

[Reactie gewijzigd door Countess op 22 juli 2024 13:25]

HOHO, ik zeg ergens tussen de 1080 en 2080. wel goed lezen, en niet gelijk de helft overboord gooien.
Nou okey, ergens volgend jaar GTX 1080 performance voor 200-300 euro is geen hele gekke gedachte. RTX 2080 voor 200-300 natuurlijk wel :)
Dat is zeer nice (maar die prijs is wel erg laag :P). Die moet ik hebben. Maar ja, eerst maar eens zien of die 144hz/fps kan halen..

[Reactie gewijzigd door Anonymoussaurus op 22 juli 2024 13:25]

Ik had graag een vergelijking gezien met de RX 480. Ik zit na 2,5 jaar nog altijd op het reference model en wil graag wat meer performance en een stillere koeler. Overclocken is haast onmogelijk met het reference model en Vega blijft gewoon te duur. Is deze dan de moeite waard?
toch genoeg vergelijkingen met de 1060? dus dan kun je daar nu ook je conclusies mee trekken..

Op dit item kan niet meer gereageerd worden.