Door Willem de Moor

Redacteur

AMD's RX Vega Liquid getest

De Vega-lineup compleet

07-09-2017 • 06:00

196

Multipage-opmaak

Inleiding

Medio augustus hebben we de eerste review van de AMD RX Vega-kaarten gepubliceerd. In eerste instantie leverde AMD ons een Vega 64-kaart, op de valreep voor de review aangevuld met de Vega 56. Later die week konden we een preview geven van de Asus Vega 64 Strix-kaart, de eerste Vega-kaart met een custom design.

Dankzij medetweaker Blaat, die zo vriendelijk was een van zijn Sapphire-kaarten uit te lenen, kunnen we nu ook de derde Vega-variant, de Vega 64 Liquid, testen en de cijfers publiceren. Zoals bekend is de Liquid-versie watergekoeld en hij heeft daarom een iets hogere kloksnelheid voor de gpu gekregen. Het geheugen tikt net als bij de Vega 64 en Vega 56 op 945MHz, maar de gpu is met 1677MHz in de Liquid-kaart wat sneller dan de 1546MHz van de luchtgekoelde Vega 64 en de 1471MHz van de Vega 56.

De gpu-kloksnelheid van de Liquid-kaart is niet het enige dat hoger is dan bij de luchtgekoelde versies, ook de tdp is aanzienlijk hoger, namelijk 345W tegen de 295W en 210W van respectievelijk de luchtgekoelde RX Vega 64 en 56. Het concept van een watergekoelde AMD-kaart is natuurlijk niet nieuw, want de vorige generatie high-end-kaarten had met de Fury X ook een watergekoelde versie.

Anders dan de Fury X en gewone Fury, waar de eerste, watergekoelde versie hoger geklokt was en over meer streamprocessors beschikte maar de tdp gelijk hield, is de watergekoelde Vega weliswaar hoger geklokt, maar beschikt deze over dezelfde hoeveelheid streamprocessors. Dat verhoogt de tdp aanzienlijk. Samen met een hogere prijs mag dat dus wel zorgen voor flink hogere prestaties, iets wat we op de volgende pagina's zullen bekijken.

Sapphire Radeon RX Vega Liquid

Testsystemen en benchmarks

Intel bracht onlangs zijn nieuwe high-end-desktopprocessors uit, samen met een nieuw platform: socket 2066. We hebben ons testplatform daarom geüpgraded met een Core i9-processor die is overgeklokt naar 4,5GHz, 32GB ddr4-geheugen op 3200MT/s en twee Samsung-ssd's van 1TB voor de opslag van games. Voor een enkele videokaart is de 1600-wattvoeding te veel van het goede, maar voor het testen met twee of meer videokaarten konden we dat vermogen goed gebruiken.

Testsysteem
Moederbord Asus Strix X299-E Gaming
Processor Intel Core i9-7900X @ 4,5GHz
Geheugen G.Skill Trident Z 32GB DDR4-3200 CL14
Ssd 2x Samsung 850 EVO 1TB
Voeding Superflower Leadex 1600W Platinum
Behuizing CoolerMaster Test Bench
Besturingssysteem Windows 10 Pro

De kaarten in de tests op de volgende pagina's zijn met recente drivers getest. De Nvidia-kaarten zijn met de 384.76- of 384.94-driver getest. Tussen beide drivers zit weinig verschil; de nieuwste bevat alleen optimalisaties voor games die we voor deze review niet hebben gedraaid. De AMD-kaarten zijn getest met de 17.8.1-driver. De videokaarten die we hebben gebruikt, zijn voor zover mogelijk de referentie-exemplaren die we van de fabrikant hebben ontvangen. Als dat niet het geval is, omdat er bijvoorbeeld geen referentie-exemplaar beschikbaar was, hebben we de kaarten teruggeklokt naar de standaardsnelheden.

Naast 3DMark en Unigine benchmarken we de volgende games. De games testen we op drie resoluties, 1920x1080 pixels, 2560x1440 pixels en 3840x2160 pixels, en met medium- en ultra-instellingen als preset voor de grafische details en kwaliteit. Waar mogelijk hebben we naast de gemiddelde framerates ook de 99e percentiel frametimes weergegeven.

Game Presets Engine Api
Dragon Age: Inquisition Medium & Ultra Frostbite 3 DirectX 11
Prey Medium & Ultra CryEngine 5 DirectX 11
Grand Theft Auto V Medium & Ultra RAGE DirectX 11
Project Cars Medium & Ultra Madness DirectX 11
The Witcher Medium & Ultra REDengine 3 DirectX 11
Doom Medium & Ultra Id Tech 6 Vulkan
Rise of the Tomb Raider Medium & very high Foundation DirectX 12
Hitman (2016) Medium & Ultra Glacier DirectX 12
Total War: Warhammer Medium & Ultra Warscape DirectX 12
Battlefield 1 Medium & Ultra Frostbite 3 DirectX 12

3DMark en Unigine

We draaien Futuremarks 3DMark-tests en de Superposition-benchmark op basis van de Unigine-engine

  • 3DMark Fire Strike
  • 3DMark Time Spy
  • 3DMark Fire Strike Extreme
3DMark Fire Strike (graphics)
Videokaart Gemiddelde score in punten (hoger is beter)
Vega 64 Liquid
22.166
Vega 64
21.700
GTX 1080
20.946
Vega 56
18.340
GTX 1070
17.255
R9 Fury X
15.977
RX 580 8GB
13.628
3DMark Time Spy - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
Vega 64 Liquid
7.453
Strix Vega 64
7.217
GTX 1080
7.097
Vega 64
7.014
Vega 56
5.969
GTX 1070
5.722
R9 Fury X
5.212
RX 580 8GB
4.058
3DMark Fire Strike Extreme (totaal)
Videokaart Gemiddelde score in punten (hoger is beter)
Vega 64 OC
10.804
Vega 64 Liquid
10.145
Vega 64
9.911
GTX 1080
9.749
Vega 56
8.501
GTX 1070
8.044
R9 Fury X
7.494
RX 580 8GB
6.038

In de synthetische benchmarks staan de 'overgeklokte' Vega-kaarten bovenaan, met het verschil tussen de Vega 64 Liquid en de GTX 1080 zo'n vijf tot tien procent.

  • Unigine 1080p
  • Unigine 4k
Unigine Superposition - 1080p - High
Videokaart Gemiddelde in punten (hoger is beter)
GTX 1080
10.924
Vega 64 Liquid
10.495
Vega 64
9.423
GTX 1070
8.769
Vega 56
8.348
R9 Fury X
7.584
RX 580 8GB
5.626
Unigine Superposition - 4k - Optimized
Videokaart Gemiddelde in punten (hoger is beter)
GTX 1080
6.448
Vega 64 Liquid
6.161
Vega 64
5.639
GTX 1070
5.200
Vega 56
5.009
R9 Fury X
4.613
RX 580 8GB
3.369

In Unigine zijn de rollen omgedraaid en is de GTX 1080 sneller dan elke Vega-kaart die we getest hebben.

Dragon Age: Inquisition: medium en ultra

De eerste DX11-game in de line-up is Dragon Age: Inquisition met de Frostbite 3-engine. We testen in de medium-preset en ultra-preset op drie resoluties.

  • 1080p - Medium
  • 1440p - Medium
  • 4k - Medium
Dragon Age: Inquisition - 1920x1080 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
247,0
Vega 64
223,8
Vega 64 Liquid
223,8
GTX 1070
214,9
Vega 56
204,7
R9 Fury X
203,9
RX 580 8GB
180,6
Dragon Age: Inquisition - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
194,9
Vega 64 Liquid
176,6
Vega 64
170,9
R9 Fury X
151,5
GTX 1070
151,1
Vega 56
149,4
RX 580 8GB
118,3
Dragon Age: Inquisition - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
101,5
Vega 64 Liquid
100,0
Vega 64
93,5
Vega 56
80,3
R9 Fury X
80,1
GTX 1070
76,6
RX 580 8GB
57,9
  • 1080p - Ultra
  • 1440p - Ultra
  • 4k - Ultra
Dragon Age: Inquisition - 1920x1080 - Ultra - 2xMSAA
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
114,6
Vega 64 Liquid
94,2
Vega 64
93,7
GTX 1070
90,3
Vega 56
79,5
R9 Fury X
73,4
RX 580 8GB
64,9
Dragon Age: Inquisition - 2560x1440 - Ultra - 2xMSAA
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
73,5
Vega 64 Liquid
61,6
Vega 64
60,5
GTX 1070
57,7
Vega 56
51,5
R9 Fury X
49,6
RX 580 8GB
41,4
Dragon Age: Inquisition - 3840x2160 - Ultra - 2xMSAA
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
37,7
Vega 64 Liquid
34,8
Strix Vega 64
34,7
Vega 64
32,3
GTX 1070
29,5
Vega 56
27,6
R9 Fury X
26,9
RX 580 8GB
20,6

In Dragon Age met medium settings zijn de gewone Vega 64 en de Liquid-variant exact even snel op 1080p, maar op hogere resoluties is de Liquid wat sneller. Alleen op 4k komt de Vega-kaart in de buurt van de GTX 1080; op lagere resoluties is die kaart tien procent sneller.

Met de Ultra-settings zijn de verschillen tussen de AMD Vega-kaarten en de 1080 nog groter en houdt zelfs de 1070 de Vega-kaarten aardig bij.

Prey: medium en ultra

Prey draait op de CryEngine 5 en maakt gebruik van de DX11-api. We testen weer op medium- en ultra-presets met drie resoluties. Bij Prey meten we naast de framerates in fps ook het 99ste percentiel van de frametimes, weergegeven als 99p.

  • 1080p - Medium
  • 1440k - Medium
  • 4k - Medium
  • 1080p - Medium (99p)
  • 1440p - Medium (99p)
  • 4k - Medium (99p)
Prey - 1920x1080 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
221,2
Vega 64 Liquid
217,9
Vega 64
205,6
GTX 1070
198,5
R9 Fury X
181,3
Vega 56
173,9
RX 580 8GB
140,2
Prey - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
158,0
Vega 64 Liquid
145,0
GTX 1070
124,9
Vega 64
124,9
R9 Fury X
116,0
Vega 56
104,7
RX 580 8GB
84,3
Prey - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
77,5
Vega 64 Liquid
68,0
GTX 1070
61,4
Vega 64
58,2
R9 Fury X
56,5
Vega 56
50,1
RX 580 8GB
38,7
Prey - 1920x1080 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
6,20
Vega 64 Liquid
6,40
Vega 64
6,41
GTX 1070
6,70
R9 Fury X
6,80
Vega 56
6,83
RX 580 8GB
8,20
Prey - 2560x1440 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
7,60
Vega 64 Liquid
8,00
GTX 1070
9,00
Vega 64
9,04
R9 Fury X
10,30
Vega 56
10,80
RX 580 8GB
13,60
Prey - 3840x2160 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
14,50
Vega 64 Liquid
16,90
GTX 1070
18,00
Vega 64
19,40
R9 Fury X
20,70
Vega 56
22,60
RX 580 8GB
29,70
  • 1080p - Ultra
  • 1440p - Ultra
  • 4k - Ultra
  • 1080p - Ultra (99p)
  • 1440p - Ultra (99p)
  • 4k - Ultra (99p)
Prey - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
191,5
Vega 64 Liquid
183,7
Vega 64
162,6
GTX 1070
156,3
R9 Fury X
142,0
Vega 56
139,0
RX 580 8GB
105,0
Prey - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
117,7
Vega 64 Liquid
109,7
Vega 64
98,5
GTX 1070
93,5
R9 Fury X
88,0
Vega 56
81,6
RX 580 8GB
61,4
Prey - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
53,0
Vega 64 Liquid
52,0
Vega 64
45,2
GTX 1070
43,0
R9 Fury X
41,8
Vega 56
38,0
RX 580 8GB
28,1
Prey - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
6,70
Vega 64 Liquid
7,10
GTX 1070
7,20
Vega 64
7,66
Vega 56
8,89
R9 Fury X
9,60
RX 580 8GB
11,30
Prey - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
9,30
Vega 64 Liquid
11,00
GTX 1070
11,50
Vega 64
11,90
R9 Fury X
13,10
Vega 56
14,40
RX 580 8GB
18,50
Prey - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
20,50
Vega 64 Liquid
22,70
Vega 64
25,00
GTX 1070
25,20
R9 Fury X
27,00
Vega 56
29,90
RX 580 8GB
39,60

Op de Medium-instelling op 1080p zit er weinig verschil tussen de framerates van de GTX 1080 en de snelste Vega-kaart, maar op hogere resoluties loopt Nvidia snel uit. Op de Ultra-instelling houdt de Vega 64 Liquid de GTX 1080 alleen op 4k aardig bij.

Grand Theft Auto V medium en ultra

Grand Theft Auto V draait op de toepasselijk genoemde RAGE-engine, oftewel de Rockstar Advanced Game Engine. De game maakt gebruik van de DX11-api. Bij GTA meten we naast de framerates in fps ook het 99ste percentiel van de frametimes, weergegeven als 99p.

  • 1080p - Medium
  • 1440p - Medium
  • 4k - Medium
  • 1080p - Medium (99p)
  • 1440p - Medium (99p)
  • 4k - Medium (99p)
GTA V - 1920x1080 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
141,1
GTX 1080
140,1
Vega 64 Liquid
117,2
R9 Fury X
117,1
Vega 64
115,3
RX 580 8GB
115,0
GTA:V - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
142,6
GTX 1070
140,7
Vega 64 Liquid
116,8
R9 Fury X
115,7
Vega 64
114,5
RX 580 8GB
113,8
GTA:V - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
143,5
GTX 1070
135,0
Vega 64 Liquid
113,2
Vega 64
112,3
R9 Fury X
110,8
RX 580 8GB
89,6
GTA V - 1920x1080 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1070
12,00
GTX 1080
12,00
R9 Fury X
14,00
RX 580 8GB
14,00
Vega 64
15,00
Vega 64 Liquid
15,00
GTA:V - 2560x1440 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
11,00
GTX 1070
12,00
Vega 64 Liquid
14,00
R9 Fury X
15,00
RX 580 8GB
15,00
Vega 64
15,00
GTA:V - 3840x2160 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
11,00
R9 Fury X
12,00
GTX 1070
12,00
RX 580 8GB
15,00
Vega 64
16,00
Vega 64 Liquid
16,00
  • 1080p - Ultra
  • 1440p - Ultra
  • 4k - Ultra
  • 1080p - Ultra (99p)
  • 1440p - Ultra (99p)
  • 4k - Ultra (99p)
GTA V - 1920x1080 - Ultra - 2xMSAA
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
105,8
GTX 1080
104,2
Vega 64
86,0
R9 Fury X
85,9
Vega 56
85,9
Vega 64 Liquid
84,6
RX 580 8GB
80,6
GTA:V - 2560x1440 - Ultra - 2xMSAA
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
101,2
GTX 1070
91,3
Vega 64 Liquid
80,6
Vega 64
79,9
R9 Fury X
73,7
Vega 56
73,7
RX 580 8GB
61,5
GTA:V - 3840x2160 - Ultra - 2xMSAA
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
58,9
GTX 1070
47,0
Vega 64 Liquid
46,6
Vega 64
44,5
Vega 56
37,8
R9 Fury X
37,1
RX 580 8GB
30,7
GTA V - 1920x1080 - Ultra - 2xMSAA (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1070
13,00
GTX 1080
15,00
Vega 64
17,00
Vega 64 Liquid
17,00
R9 Fury X
18,00
RX 580 8GB
18,00
Vega 56
19,00
GTA:V - 2560x1440 - Ultra - 2xMSAA (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1070
14,00
GTX 1080
15,00
Vega 64
17,00
Vega 64 Liquid
17,00
R9 Fury X
18,00
Vega 56
18,00
RX 580 8GB
21,00
GTA:V - 3840x2160 - Ultra - 2xMSAA (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
22,00
Vega 64 Liquid
27,00
GTX 1070
28,00
Vega 64
29,00
Vega 56
33,00
R9 Fury X
40,00
RX 580 8GB
43,00

GTA V en de Vega-kaarten zijn geen beste combinatie in onze benchmarks. Dat was zo met de launch-drivers van AMD en dat blijft zo met de nieuwste driver. De verschillen van twintig tot dertig procent in framerates zijn weinig representabel voor de Vega-kaarten.

Project Cars medium en ultra

Project Cars maakt gebruik van de DX11-api en draait op de Madness-engine van Slightly Mad Studios. Bij Project Cars meten we naast de framerates in fps ook het 99ste percentiel van de frametimes, weergegeven als 99p.

  • 1080p - Medium
  • 1440p - Medium
  • 4k - Medium
  • 1080p - Medium (99p)
  • 1440p - Medium (99p)
  • 4k - Medium (99p)
Project Cars 1 - 1920x1080 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
282,0
Vega 64 Liquid
250,0
Vega 64
249,4
Vega 56
240,9
GTX 1070
236,6
R9 Fury X
229,2
RX 580 8GB
211,3
Project Cars 1 - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
247,4
Vega 64 Liquid
231,1
Vega 64
229,7
Vega 56
204,4
GTX 1070
189,5
R9 Fury X
180,2
RX 580 8GB
151,6
Project Cars 1 - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
161,0
Vega 64 Liquid
141,5
Vega 64
138,8
Vega 56
119,6
GTX 1070
119,0
R9 Fury X
112,6
RX 580 8GB
84,4
Project Cars 1 - 1920x1080 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
4,20
Vega 64
4,77
Vega 64 Liquid
4,90
Vega 56
4,95
R9 Fury X
5,20
GTX 1070
5,40
RX 580 8GB
5,70
Project Cars 1 - 2560x1440 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
5,10
Vega 64 Liquid
5,10
Vega 64
5,18
Vega 56
5,83
R9 Fury X
6,50
GTX 1070
6,60
RX 580 8GB
7,80
Project Cars 1 - 3840x2160 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
4,30
Vega 64 Liquid
8,20
Vega 64
8,52
Vega 56
9,79
GTX 1070
10,00
R9 Fury X
10,30
RX 580 8GB
13,80
  • 1080p - Ultra
  • 1440p - Ultra
  • 4k - Ultra
  • 1080p - Ultra (99p)
  • 1440p - Ultra (99p)
  • 4k - Ultra (99p)
Project Cars 1 - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
174,9
Vega 64
166,3
Vega 64 Liquid
165,6
Vega 56
162,6
R9 Fury X
141,3
RX 580 8GB
132,6
GTX 1070
128,9
Project Cars 1 - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
163,0
Vega 64
156,6
GTX 1080
142,0
Vega 56
141,3
GTX 1070
117,0
R9 Fury X
116,7
RX 580 8GB
110,9
Project Cars 1 - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
112,5
Vega 64
104,0
GTX 1080
94,4
Vega 56
91,8
GTX 1070
81,0
R9 Fury X
80,5
RX 580 8GB
62,8
Project Cars 1 - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
7,40
Vega 64
7,55
Vega 64 Liquid
7,60
Vega 56
7,65
R9 Fury X
8,90
RX 580 8GB
9,90
GTX 1070
10,60
Project Cars 1 - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64 Liquid
7,50
Vega 64
7,86
Vega 56
8,87
GTX 1080
9,00
R9 Fury X
10,50
GTX 1070
11,50
RX 580 8GB
11,60
Project Cars 1 - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64 Liquid
10,70
Vega 64
11,70
GTX 1080
13,10
Vega 56
13,20
R9 Fury X
14,90
GTX 1070
15,40
RX 580 8GB
19,50

In Project Cars loopt de GTX 1080 weer duidelijk voorop, maar gek genoeg zien we tussen de luchtgekoelde Vega 64 en de Liquid-variant vrijwel geen verschil in de Medium-settings. Op Ultra lijkt zich dat te herhalen, maar op hogere resoluties is de Liquid flink sneller dan de gewone kaart en zijn beide Vega-kaarten flink sneller dan de concurrent van Nvidia.

The Witcher 3: medium en ultra

Onze laatste DX11-game is The Witcher 3 en deze game draait op de REDengine 3 en combineert moderne features met een wat oudere api. Zo draait de game alleen op 64bit-systemen. Bij The Witcher 3 meten we naast de framerates in fps ook het 99ste percentiel van de frametimes, weergegeven als 99p.

  • 1080p - Medium
  • 1440p - Medium
  • 4k - Medium
  • 1080p - Medium (99p)
  • 1440p - Medium (99p)
  • 4k - Medium (99p)
The Witcher 3 - 1920x1080 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
205,0
Vega 64 Liquid
179,7
Vega 64
170,1
GTX 1070
156,0
Vega 56
146,9
R9 Fury X
132,5
RX 580 8GB
110,6
The Witcher 3 - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
129,0
Vega 64 Liquid
120,3
Vega 64
115,7
GTX 1070
103,0
Vega 56
99,3
R9 Fury X
93,1
RX 580 8GB
72,5
The Witcher 3 - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
65,6
Vega 64 Liquid
62,5
Vega 64
59,0
GTX 1070
52,6
Vega 56
51,4
R9 Fury X
50,8
RX 580 8GB
36,0
The Witcher 3 - 1920x1080 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
5,80
Vega 64
6,79
Vega 64 Liquid
7,10
GTX 1070
7,50
Vega 56
7,83
R9 Fury X
8,60
RX 580 8GB
10,40
The Witcher 3 - 2560x1440 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
9,10
Vega 64 Liquid
9,60
Vega 64
10,00
GTX 1070
11,40
Vega 56
11,70
R9 Fury X
12,20
RX 580 8GB
16,10
The Witcher 3 - 3840x2160 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
17,90
Vega 64 Liquid
18,60
Vega 64
20,00
GTX 1070
22,40
Vega 56
23,00
R9 Fury X
23,90
RX 580 8GB
32,90
  • 1080p - Ultra
  • 1440p - Ultra
  • 4k - Ultra
  • 1080p - Ultra (99p)
  • 1440p - Ultra (99p)
  • 4k - Ultra (99p)
The Witcher 3 - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
103,0
Vega 64 Liquid
102,0
Vega 64
97,3
Vega 56
85,2
GTX 1070
82,3
R9 Fury X
66,7
RX 580 8GB
59,7
The Witcher 3 - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
76,5
Vega 64 Liquid
75,2
Vega 64
70,5
Vega 56
62,3
GTX 1070
60,0
R9 Fury X
53,3
RX 580 8GB
43,9
The Witcher 3 - 3840x2160 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
44,0
Vega 64 Liquid
43,3
Vega 64
38,8
Vega 56
35,7
GTX 1070
34,8
R9 Fury X
33,0
RX 580 8GB
24,7
The Witcher 3 - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64 Liquid
12,00
GTX 1080
12,30
Vega 64
12,40
Vega 56
14,20
GTX 1070
15,60
R9 Fury X
18,70
RX 580 8GB
20,40
The Witcher 3 - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64 Liquid
15,70
GTX 1080
16,10
Vega 64
16,70
Vega 56
18,80
GTX 1070
20,60
R9 Fury X
22,90
RX 580 8GB
27,40
The Witcher 3 - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64 Liquid
26,60
GTX 1080
27,40
GTX 1070
34,60
R9 Fury X
35,40
Vega 64
39,60
Vega 56
40,10
RX 580 8GB
47,20

In alle gevallen is de GTX 1080 de Vega-kaarten de baas, maar dat verschil wordt met Medium-instellingen steeds kleiner naarmate de resolutie toeneem. In de Ultra-instellingen zit er zelfs nog maar heel weinig verschil tussen de Nvidia-kaart en de Vega Liquid.

Doom: medium en ultra

De enige game met AMD's Vulkan-api is Doom, dat op de Id Tech 6-engine draait. Bij Doom meten we naast de framerates in fps ook het 99ste percentiel van de frametimes, weergegeven als 99p.

  • 1080p - Medium
  • 1440p - Medium
  • 4k- Medium
  • 1080p - Medium (99p)
  • 1440p - Medium (99p)
  • 4k - Medium (99p)
Doom (2016) - 1920x1080 - Medium - Vulkan
Videokaart Gemiddelde framerate in fps (hoger is beter)
R9 Fury X
200,0
GTX 1070
199,9
GTX 1080
199,9
Vega 64
199,9
Vega 64 Liquid
199,9
Vega 56
199,8
RX 580 8GB
196,2
Doom (2016) - 2560x1440 - Medium - Vulkan
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
199,6
Vega 64
192,2
GTX 1080
184,4
Vega 56
171,4
R9 Fury X
157,6
GTX 1070
145,0
RX 580 8GB
123,4
Doom (2016) - 3840x2160 - Medium - Vulkan
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
104,7
Vega 64
94,3
GTX 1080
92,2
Vega 56
84,3
R9 Fury X
78,2
GTX 1070
71,5
RX 580 8GB
57,4
Doom (2016) - 1920x1080 - Medium - Vulkan (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1070
5,60
GTX 1080
5,60
Vega 64
5,60
Vega 64 Liquid
5,60
R9 Fury X
5,70
Vega 56
5,70
RX 580 8GB
5,90
Doom (2016) - 2560x1440 - Medium - Vulkan (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64 Liquid
5,80
Vega 64
6,20
GTX 1080
6,50
Vega 56
7,10
R9 Fury X
7,60
GTX 1070
8,30
RX 580 8GB
9,30
Doom (2016) - 3840x2160 - Medium - Vulkan (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64 Liquid
11,60
Vega 64
12,60
GTX 1080
12,90
Vega 56
14,40
R9 Fury X
14,70
GTX 1070
16,50
RX 580 8GB
20,70
  • 1080p - Ultra
  • 1440p- Ultra
  • 4k - Ultra
  • 1080p - Ultra (99p)
  • 1440p - Ultra (99p)
  • 4k - Ultra (99p)
Doom (2016) - 1920x1080 - Ultra - Vulkan
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
200,0
Vega 64
200,0
R9 Fury X
199,9
Vega 64 Liquid
199,9
Vega 56
199,2
GTX 1070
195,4
RX 580 8GB
184,6
Doom (2016) - 2560x1440 - Ultra - Vulkan
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
192,3
Vega 64
174,9
GTX 1080
167,0
Vega 56
153,5
R9 Fury X
145,0
GTX 1070
130,4
RX 580 8GB
114,1
Doom (2016) - 3840x2160 - Ultra - Vulkan
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
97,8
Vega 64
86,0
GTX 1080
83,9
Vega 56
75,8
GTX 1070
64,7
RX 580 8GB
53,6
R9 Fury X
53,0
Doom (2016) - 1920x1080 - Ultra - Vulkan (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
5,60
Vega 64
5,60
Vega 64 Liquid
5,60
R9 Fury X
5,70
Vega 56
5,80
GTX 1070
5,90
RX 580 8GB
6,50
Doom (2016) - 2560x1440 - Ultra - Vulkan (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64 Liquid
6,20
Vega 64
6,90
GTX 1080
7,20
Vega 56
7,90
R9 Fury X
8,40
GTX 1070
9,00
RX 580 8GB
10,50
Doom (2016) - 3840x2160 - Ultra - Vulkan (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64 Liquid
12,50
GTX 1080
13,80
Vega 64
14,60
Vega 56
16,30
GTX 1070
18,00
R9 Fury X
22,30
RX 580 8GB
22,60

De medium-instellingen op 1080p kunnen we negeren, maar op hogere resoluties prefereert de game duidelijk de AMD-kaarten. Precies hetzelfde beeld zien we bij de Ultra-preset.

Rise of the Tomb Raider: medium en very high

Rise of the Tomb Raider is gebaseerd op de Foundation-engine en maakt gebruik van de DirectX 12-api.

  • 1080p - Medium
  • 1440p- Medium
  • 4k - Medium
Rise of the TR - DX12 - 1920x1080 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
175,1
GTX 1080
173,6
Vega 64
168,7
GTX 1070
149,3
Vega 56
149,0
R9 Fury X
126,1
RX 580 8GB
116,5
Rise of the TR - DX12 - 2560x1440 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
122,8
GTX 1080
120,9
Vega 64
116,0
Vega 56
101,4
GTX 1070
97,4
R9 Fury X
90,3
RX 580 8GB
69,1
Rise of the TR - DX12 - 3840x2160 - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
63,5
GTX 1080
62,0
Vega 64
61,1
Vega 56
52,5
R9 Fury X
49,5
GTX 1070
49,5
RX 580 8GB
39,4
  • 1080p - Very high
  • 1440p - Very high
  • 4k - Very high
Rise of the TR - DX12 - 1920x1080 - Very high
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
125,0
Vega 64 Liquid
119,1
Vega 64
114,3
GTX 1070
98,9
Vega 56
98,1
R9 Fury X
81,4
RX 580 8GB
70,8
Rise of the TR - DX12 - 2560x1440 - Very high
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
83,0
Vega 64
80,5
GTX 1080
79,9
Vega 56
67,8
GTX 1070
66,0
R9 Fury X
58,1
RX 580 8GB
48,7
Rise of the TR - DX12 - 3840x2160 - Very high
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
47,3
Strix Vega 64
43,8
GTX 1080
43,5
Vega 64
43,1
Vega 56
35,9
GTX 1070
33,9
R9 Fury X
33,1
RX 580 8GB
25,5

Bij de medium-instellingen zijn de verschillen tussen de Vega 64 Liquid en zijn grootste concurrent, de GTX 1080, gering, maar de AMD-kaart komt als eerste over de streep. Met de very high-instellingen lijkt de GTX 1080 zich te revancheren, maar kan dat alleen op full-hd-resolutie: bij hogere resoluties wint de Vega-kaart weer.

Hitman (2016): medium en ultra

Hitman (2016) is gebaseerd op de Glacier-engine en kan in zowel DX11- als DX12-modus draaien. Wij maken gebruik van de DX12-api voor deze benchmark.

  • 1080p - Medium
  • 1440p - Medium
  • 4k - Medium
Hitman (2016) - 1920x1080 - Medium - DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
179,9
GTX 1070
174,9
Vega 64 Liquid
171,4
Vega 64
171,2
Vega 56
166,5
R9 Fury X
155,7
RX 580 8GB
139,4
Hitman (2016) - 2560x1440 - Medium - DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
162,8
Vega 64 Liquid
157,6
Vega 64
154,1
Vega 56
134,0
GTX 1070
133,9
R9 Fury X
119,9
RX 580 8GB
98,9
Hitman (2016) - 3840x2160 - Medium - DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 OC
97,0
GTX 1080
92,3
Strix Vega 64
92,1
Vega 64 Liquid
91,9
Vega 64
89,2
Vega 56
75,8
GTX 1070
73,4
R9 Fury X
71,3
RX 580 8GB
53,0
  • 1080p - Ultra
  • 1440p - Ultra
  • 4k - Ultra
Hitman (2016) - 1920x1080 - Ultra - DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
142,7
Vega 64 Liquid
141,2
Vega 64
137,5
Vega 56
119,8
GTX 1070
114,9
R9 Fury X
103,1
RX 580 8GB
87,3
Hitman (2016) - 2560x1440 - Ultra - DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
108,3
GTX 1080
107,7
Vega 64
104,7
Vega 56
89,1
GTX 1070
85,9
R9 Fury X
79,9
RX 580 8GB
63,4
Hitman (2016) - 3840x2160 - Ultra - DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 OC
66,6
GTX 1080
63,0
Vega 64 Liquid
62,7
Strix Vega 64
62,3
Vega 64
60,5
Vega 56
51,7
GTX 1070
49,9
R9 Fury X
48,0
RX 580 8GB
35,6

Hitman lijkt een sterke voorkeur voor Nvidia-kaarten te hebben als we alleen naar 1080p en de medium-instelling kijken. Bij hogere resoluties komen de Vega-kaarten beter tot hun recht en is de overgeklokte, luchtgekoelde Vega 64 zelfs de snelste. Op de ultra-setting is de GTX 1080 alleen op zijn gelijknamige resolutie de snelste, op 1440p en 4k is het Vega die de lijst aanvoert.

Total War: Warhammer: medium en ultra

Total War: Warhammer is opnieuw een DX12-game en draait op de Warscape-engine. Ook deze game is op medium- en ultra-presets gedraaid.

  • 1080p - Medium
  • 1440p - Medium
  • 4k - Medium
Total War: Warhammer - 1920x1080 - Medium DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1070
137,9
R9 Fury X
137,2
Vega 64 Liquid
135,7
Vega 64
127,5
RX 580 8GB
120,3
Vega 56
111,3
GTX 1080
103,7
Total War: Warhammer - 2560x1440 - Medium DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
123,6
Vega 64
118,7
GTX 1080
110,4
GTX 1070
110,2
Vega 56
108,5
R9 Fury X
101,7
RX 580 8GB
83,6
Total War: Warhammer - 3840x2160 - Medium DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
74,0
GTX 1080
73,5
Vega 64
65,3
GTX 1070
58,4
Vega 56
57,6
R9 Fury X
55,5
RX 580 8GB
43,0
  • 1080p - Ultra
  • 1440p - Ultra
  • 4k - Ultra
Total War: Warhammer - 1920x1080 - Ultra DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
R9 Fury X
93,9
GTX 1070
91,7
Vega 56
88,9
Vega 64
88,2
RX 580 8GB
82,7
Vega 64 Liquid
73,6
GTX 1080
72,2
Total War: Warhammer - 2560x1440 - Ultra DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64
85,2
Vega 56
78,1
GTX 1080
76,7
Vega 64 Liquid
76,2
R9 Fury X
69,5
GTX 1070
68,6
RX 580 8GB
57,3
Total War: Warhammer - 3840x2160 - Ultra DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Strix Vega 64
50,8
Vega 64
48,4
Vega 64 Liquid
47,7
GTX 1080
46,5
Vega 56
42,3
R9 Fury X
38,5
GTX 1070
37,8
RX 580 8GB
30,0

In Warhammer is de Nvidia-kaart op 1080p weer nipt de snellere kaart, maar op hogere resoluties wint de Vega-kaart het opnieuw. Op de Ultra-resolutie had de Liquid er geen zin meer in, ook bij hertesten bleef de kaart ondermaats presteren in deze game.

Battlefield 1: medium en ultra

Battlefield 1 is de laatste DX12-game die we benchmarken en draait net als Dragon Age op de Frostbite 3-engine. Bij Prey meten we naast de framerates in fps ook het 99ste percentiel van de frametimes, weergegeven als 99p.

  • 1080p - Medium
  • 1440p - Medium
  • 4k - Medium
  • 1080p - Medium (99p)
  • 1440p - Medium (99p)
  • 4k - Medium (99p)
Battlefield 1 DX12 - 1080p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
174,7
Vega 64
169,2
GTX 1080
162,1
Vega 56
148,1
GTX 1070
136,9
RX 580 8GB
122,4
R9 Fury X
121,1
Battlefield 1 DX12 - 1440p - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
141,2
Vega 64
134,7
GTX 1080
129,5
Vega 56
120,1
R9 Fury X
114,4
GTX 1070
103,9
RX 580 8GB
92,9
Battlefield 1 DX12 - 4k - Medium
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
86,3
Vega 64
77,4
GTX 1080
68,0
Vega 56
67,7
R9 Fury X
64,4
GTX 1070
56,4
RX 580 8GB
50,3
Battlefield 1 DX12 - 1920x1080 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
GTX 1080
7,40
GTX 1070
8,30
Vega 64
8,50
Vega 64 Liquid
9,20
Vega 56
9,30
RX 580 8GB
11,20
R9 Fury X
16,00
Battlefield 1 DX12 - 2560x1440 - Medium (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64 Liquid
8,70
GTX 1080
9,10
Vega 64
9,50
Vega 56
10,20
R9 Fury X
10,90
GTX 1070
11,10
RX 580 8GB
13,80
Battlefield 1 (DX12) - 3840x2160 - Medium (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Vega 64 Liquid
14,60
Vega 64
15,90
GTX 1080
16,50
Vega 56
17,20
R9 Fury X
19,00
GTX 1070
19,80
RX 580 8GB
23,80
  • 1080p - Ultra
  • 1440p - Ultra
  • 4k - Ultra
  • 1080p - Ultra (99p)
  • 1440p - Ultra (99p)
  • 4k - Ultra (99p)
Battlefield 1 DX12 - 1080p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
129,5
Vega 64
123,2
GTX 1080
121,5
Vega 56
111,2
GTX 1070
98,0
RX 580 8GB
93,7
R9 Fury X
93,6
Battlefield 1 DX12 - 1440p - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
103,1
Vega 64
95,6
Vega 56
86,8
GTX 1080
86,3
R9 Fury X
74,1
GTX 1070
72,3
RX 580 8GB
68,0
Battlefield 1 DX12 - 4k- Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Vega 64 Liquid
64,3
Vega 64
54,9
GTX 1080
48,6
Vega 56
48,3
R9 Fury X
39,0
GTX 1070
39,0
RX 580 8GB
36,6
Battlefield 1 DX12 - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64
9,60
Vega 64 Liquid
9,70
GTX 1080
9,90
GTX 1070
12,30
Vega 56
12,30
RX 580 8GB
12,80
R9 Fury X
14,70
Battlefield 1 DX12 - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Vega 64 Liquid
11,50
Vega 64
12,40
Vega 56
13,70
GTX 1080
14,00
GTX 1070
16,50
RX 580 8GB
17,30
R9 Fury X
18,10
Battlefield 1 (DX12) - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Vega 64 Liquid
18,30
Vega 64
21,60
Vega 56
23,40
GTX 1080
27,20
R9 Fury X
29,60
GTX 1070
29,60
RX 580 8GB
36,80

Battlefield 1 lijkt voor de Vega-generatie geschreven want het gemak waarmee Nvidia's GTX 1080 hier verslagen wordt is bovengemiddeld. De verschillen worden op hogere resoluties alleen maar groter tot ruim dertig procent.

Opgenomen vermogen en geluidsproductie

We hebben het opgenomen vermogen van alleen de videokaart gemeten met behulp van een riser-kaartje die tussen het pci-e-slot en de videokaart wordt geïnstalleerd. Daarop worden ook de twee peg-connectors doorgelust, zodat we alle stroom en spanning richting de videokaart meten.

  • Opgenomen vermogen idle
  • Opgenomen vermogen ingame
Opgenomen vermogen idle
Videokaart Gemiddelde vermogen in watt (lager is beter)
GTX 1080
8,0
GTX 1070
8,3
Vega 56
13,2
Vega 64
14,2
Strix Vega 64
16,1
RX 580 8GB
17,0
Vega 64 Liquid
18,7
R9 Fury X
26,5
Opgenomen vermogen ingame
Videokaart Gemiddelde vermogen in watt (lager is beter)
GTX 1070
147,4
GTX 1080
181,1
RX 580 8GB
197,1
Vega 56
223,0
R9 Fury X
249,0
Vega 64
301,2
Strix Vega 64
328,5
Vega 64 Liquid
360,5

De gewone luchtgekoelde Vega-kaarten vragen idle al een stuk minder vermogen dan de watergekoelde kaart, waarbij het verschil waarschijnlijk in het extra vermogen voor de waterpomp gaat zitten. Onder belasting is de Liquid-kaart echter bizar hongerig naar stroom dankzij de hogere powerlimit. Op één watt na vraagt de Liquid het dubbele vermogen van de GTX 1080, terwijl de prestaties dat allesbehalve zijn.

  • Geluidsdruk idle 10cm
  • Geluidsdruk load 10cm
Geluidsdruk idle (10cm)
Videokaart Gemiddelde geluidsdruk in dB(A) (lager is beter)
Strix Vega 64
18,2
Vega 56
27,4
Vega 64
28,5
R9 Fury X
36,4
GTX 1080
37,7
GTX 1070
38,1
Vega 64 Liquid
41,2
Geluidsdruk load ingame (10cm)
Videokaart Gemiddelde geluidsdruk in dB(A) (lager is beter)
R9 Fury X
38,7
Vega 64 Liquid
43,1
Strix Vega 64
45,5
GTX 1080
50,4
GTX 1070
52,3
Vega 56
54,3
Vega 64
60,4

De meeste ventilators zijn tegenwoordig bij geen of geringe belasting uitgeschakeld of bijna uit, maar de waterkoeling blijft ingeschakeld, waardoor de geluidsproductie idle flink hoger ligt. Onder belasting maakt de waterkoeling echter nauwelijks meer geluid dan onbelast en is alleen de andere waterkoeling, die van de Fury X, iets stiller.

Prestatieindexen

We hebben gewogen gemiddelden van de scores op de drie resoluties en met de medium en hogere settings berekend. De resultaten daarvan zie je in onderstaande grafieken.

  • 1920x1080 Medium-index
  • 1920x1080 Ultra-index
Prestatie-index 1080p medium
Gemiddelde punten in punten (hoger is beter)
Prestatie-index 1080p ultra
Gemiddelde punten in punten (hoger is beter)

De GTX 1080 is duidelijk sneller dan de Vega-kaarten in lage resoluties met weinig detail. Bij zwaardere instellingen trekt Vega wat bij, maar blijft de Nvidia-kaart sneller.

  • 2560x1440 Medium-index
  • 2560x1440 Ultra-index
Prestatie-index 1440p medium
Gemiddelde punten in punten (hoger is beter)
Prestatie-index 1440p ultra
Videokaart Gemiddelde punten in punten (hoger is beter)
Vega 64 Liquid
42
GTX 1080
42
Vega 64
40
Vega 56
35
GTX 1070
34

Op de hogere resolutie is de 1080 nog steeds iets sneller met lage instellingen, maar bij de ultra-settings is de Liquid-uitvoering even snel. De gewone Vega 64-kaart wordt nog wel voorgebleven door de GTX 1080.

  • 3840x2160 Medium-index
  • 3840x2160 Ultra-index
Prestatie-index 4k medium
Gemiddelde punten in punten (hoger is beter)
Prestatie-index 4k ultra
Videokaart Gemiddelde punten in punten (hoger is beter)
Vega 64 Liquid
48
GTX 1080
47
Vega 64
44
Vega 56
39
GTX 1070
37

Ook op de 4k-resolutie is de GTX 1080 sneller met medium-settings dan de Vega-kaarten, maar op de ultra-presets van de games wint de Liquid-editie het van de GTX 1080.

We zouden dus kunnen zeggen dat de Vega Liquid vooral op Ultra-settings beter presteert dan de GTX 1080. Dat is een beetje kort door de bocht, want als we turven, blijkt de Vega 64 Liquid de GTX 1080 in de helft van de 1440p-benchmarks met ultra-settings te verslaan en in 30 procent van de 4k-tests met ultra-instellingen. De verschillen zijn, met name in Project Cars en Battlefield, echter zo groot dat het beeld wat vertekend wordt.

Feit blijft wel dat de Liquid-versie ontegenzeggelijk sneller is dan de gewone luchtgekoelde Vega 64, maar als je die goedkopere versie wat overklokt, presteert hij ook beter dan de GTX 1080 in sommige benchmarks én is hij dan sneller dan de Liquid.

Conclusie

De Vega 64 Liquid-kaart van Sapphire die we van Blaat leenden, is duidelijk een stuk sneller dan de gewone, luchtgekoelde Vega 64. Die gewone Vega 64 is een redelijke concurrent voor de GTX 1080 van Nvidia met hogere scores in ongeveer 25 procent van de games. De Liquid-versie is in 35 procent van de games sneller en net als bij de gewone Vega-kaart zijn dat vooral de hogere resoluties waarin AMD Nvidia aftroeft. In 40 procent van de 1440p- en 4k-games met medium-settings wint de Vega Liquid het van de 1080 en dat stijgt tot 50 procent voor die resoluties met ultra-settings.

De grote achilleshiel van de Vega-kaarten blijft echter het opgenomen vermogen. In onze benchmark, waarbij we alleen het vermogen van de videokaart meten, verstookt de Liquid-kaart het dubbele vermogen van de GTX 1080. Daarbij is de kaart wel stiller, maar dat is een schrale troost: Nvidia blijft stukken zuiniger.

Dan hebben we het nog niet over het tweede grote struikelblok gehad: de verkrijgbaarheid en daarmee samenhangend, de prijs. De Vega-kaarten zijn in Nederland nog vrijwel niet te krijgen. Op het moment van schrijven is alleen de kaart van Gigabyte in Nederlandse webwinkels te krijgen, voor een prijs van afgerond 700 euro. De Liquid-kaart kost in Nederland al snel een kleine duizend euro, maar in Duitsland is dat 750 euro. Een GTX 1080 is vanaf ongeveer 550 euro goed verkrijgbaar. Daarmee koop je dus een snellere kaart die zuiniger is en ook nog eens een stuk minder kost. Sterker nog, voor ruim 700 euro kun je ook een 1080 Ti kopen, die nog een stuk sneller is.

Nu AMD een week of drie de tijd heeft gehad sinds de introductie van de RX Vega-kaarten, is het beeld dat zich langzaam aftekent voor het rode kamp niet best. De kaarten zijn nog altijd slecht verkrijgbaar en zijn veel te duur door die slechte verkrijgbaarheid en dankzij crypto-miners. Het enige pluspunt dat we kunnen bedenken is de overklokbaarheid van de kaarten. Mocht je een RX Vega-kaart kunnen bemachtigen, dan kun je die eenvoudig overklokken om dezelfde of betere prestaties als de Liquid-variant te realiseren. Dan heb je dezelfde prestaties voor minder, maar nog altijd te veel geld. En over het opgenomen vermogen zullen we het bij overklokken maar niet hebben.

Kortom, de watergekoelde RX Vega-kaart is een stuk rapper dan de luchtgekoelde versie, maar dat is niks wat je met een overgeklokte, luchtgekoelde kaart niet voor een dikke honderd euro minder kunt realiseren. Dan nog ben je maar in een deel van de games sneller dan een GTX 1080, die een stuk zuiniger en goedkoper is. Wil je RX Vega-geld kwijt, dan kun je beter een GTX 1080 Ti kopen.

Reacties (196)

196
186
101
18
3
63
Wijzig sortering
Ik vind het jammer dat er niet naar Undervolten gekeken is bij de 56 en 64 Air reviews. Met deze kaart snap ik het omdat hij van een Tweaker is.
Maar je kan extreem goede resultaten halen door de Vega kaarten iets te undervolten. De performance per watt stijft gigantisch en de grote nadelen: Hoog stroom verbruik en geluid productie pak je flink aan. Als je extreem bezig gaat kan je de max fan speed van 2400 naar 2000 verlagen waar na je hem helemaal niet meer zo duidelijk hoort. Het verbruik daalt al snel 80watt terwijl de prestaties in verhouding niet ver omlaag gaan.

Het echte overclocken van Vega kaarten is totaal niet interessant sterker nog de lucht gekoelde versies verliezen prestaties bij gelijke fan speed en de stock voltages laat staan hogere voltages. Als je de voltages verlaagt zie je de prestaties al omhoog gaan. Ook zonder overclocks maar gewoon standaard instellingen gaan de prestaties omhoog omdat de kaart minder throtteled.

Ik snap dat de kaart beoordeeld moet worden op zijn out of the box prestaties. Maar in mijn ogen heeft AMD hier geen gigantische steek laten vallen ik heb geen idee waarom AMD voor 1150 en 1200mv gekozen heeft voor deze kaarten. Ik heb inmiddels 4 Vega 64's getest en 3 Vega 56's en allemaal halen ze super goede resultaten met lagere voltages.

Ik heb een heel klein deel online staan in het RX Vega Ervaringen topic.
Ik heb er al dagen aan test werk in zitten binnenkort ga ik alle resultaten samen voegen om een beeld te vormen maar hier een indicatie:

Card - Score - Min FPS - Avg FPS - Max FPS - Points Per watt - GPU-Z MHz - GPU Power Peak W (GPU-Z)
RX Vega 56P - 3300 - 20.35 - 24.69 - 28.36 - 22.00 - 1275MHz - 150Watt
RX Vega 56B - 3451 - 20.93 - 25.81 - 31.84 - 20.79 - 1335MHz - 166Watt
RX Vega 56P - 3562 - 21.89 - 26.65 - 31.37 - 18.55 - 1381MHz - 192Watt
RX Vega 56C - 3900 - 23.86 - 29.17 - 34.01 - 22.29 - 1505MHz - 175watt
RX Vega 56C - 4176 - 25.40 - 31.24 - 36.11 - 15.76 - 1623MHz - 265Watt
RX V56@ 64B - 3739 - 22.84 - 27.97 - 32.75 - 16.92 - 1453MHz - 221Watt
RX V56@ 64P - 3857 - 23.38 - 28.85 - 33.68 - 15.13 - 1503MHz - 255Watt

P = PowerSave, B= Balanced, T= Turbo, C= Custom

Let op ook de hoge score is al een geoptimaliseerde undervolt! stock Vega 64 haalt de kaart iets van 3950-4050 punten met een iets hoger verbruik. Ik heb de stock scores even niet bij de hand deze kon ik nog wel terug vinden ik zal deze later ook toe voegen.

Ondanks dat de clocks wat lager zijn valt het verschil in prestaties reuze mee. Het verbruik is wel aanzienlijk lager namelijk 90watt performance per watt is ruim 40% hoger met de extra undervolt en de hoge vega score is al een stuk beter qua performance per watt dan de standaard kaart! (De 56C modes zijn de geoptimaliseerde standen een voor performance en een voor performance per watt.)

Voor mensen die het interessant vinden wordt er veel getest en besproken in het: AMD RX Vega Evaringen topic

Edit: Extra Stock Vega 56 Scores toegevoegd + een Vega 56 met 64 Bios ik zal later echte 64 cores toevoegen. Maar die zitten er heel dicht op.

Voor meer resultaten kan je hier terecht:
RX Vega UV/OC Results - Unigine SuperPosition

Mocht je een Vega kaart hebben vul gerust ook je eigen scores in :)

[Reactie gewijzigd door Astennu op 24 juli 2024 06:03]

Heel simpel, undervolten is een aanpassing aan de videokaart die niet standaard is, en producten wil je reviewen zoals ze uit de doos komen. Dan weet je als koper tenminste wat je krijgt zonder dat je er eerst allerlei dingen aan moet veranderen.

Dat undervolten is leuk voor een tweaker, maar de gewone gamer/consument gaat daar natuurlijk niet aan beginnen. Die wil gewoon een kaart uit de schappen halen (of een kant en klare PC met AMD Vega 64) en er direct de beste prestaties uithalen, zonder eerst te moeten undervolten.

En trouwens, als alle kaarten zo makkelijk te undervolten zijn en 40% beter performance per watt kunnen halen, waarom heeft AMD dat dan zelf niet gedaan?
Dat is met overclocken ook en dat wordt ook getest. In dit geval niet want het is geen review sample maar een kaart van een gebruiker maar in het geval van Vega is Undervolten interessanter dan Overclocken.

Bijna alle grote review sites testen OC sommige hebben ook UV getest. En we zitten op tweakers.net dus mensen hier hebben daar wel interesse in.

Ja waarom AMD het niet gedaan heeft is een hele goede vraag.
Zodra ik alle gegevens heb ga ik kijken of ik met AMD in contact kan komen al vrees ik dat dat moeilijk gaat worden.
Het kan natuurlijk zijn dat ze geen stabiele undervolt met significante resultaten hebben kunnen bereiken. Ik heb destijds namelijk ook veel gelezen over het undervolten van een Fury (non-X) welke ik in plaats van een 480 heb gekocht. Ondanks vele pogingen is het me nog altijd niet gelukt om een stabiele undervolt te krijgen terwijl er online velen zijn met resultaten van -70mV bij stock speeds.

Daarnaast heeft AMD wellicht gekozen om de doelstelling zuinig te zijn volledig te laten varen, omdat ze toch niet bij de 1070/1080 in de buurt kunnen komen, en vervolgens dan tenminste wél de gewenste prestatie te behalen. Anders Vega over de gehele linie als een teleurstelling worden gezien.

ps. Bedankt voor het uitvoerlijke testen van undervolts, ik ga me er toch nog maar weer eens in verdiepen om te kijken of ik jouw ervaring kan gebruiken om toch nog tot goede resultaten te komen.
-70 is even wat anders dan -300 wat ik hier aan het doen ben.
Bij Fury kaarten was dat ook lastiger als je de clocks niet wilde verlagen. Dan was er maar weinig mogelijk. Met het verlagen van de clocks was er meer winst te halen. Bij Vega is dat anders. Ik heb 4 Fury kaarten getest ook met UV maar daar moest ik al snel clocks verlagen. Bij Vega niet en na 7 kaarten die het redelijk vergelijkbaar doen kan ik toch wel zeggen dat -100mv en -100-150MHz een betere balans zou zijn.

Ja heel jammer want Vega heeft dus wel een goede performance per watt mits je dus geen hoge voltages gebruikt 1.2v is gewoon erg veel. nVidia gebruikt ook lagere voltages. Ik moet nog meer tests doen maar ik denk dat de performance per watt bij de sweet spots beter is dan Polaris en ook beter dan Fiji maar dat ga ik nog testen. Heb nog te weinig tijd gehad om alles te doen. Zitten nu al heel wat uren in ben al een week of 2 bezig. Dus er nog niet aan toe gekomen om oude kaarten weer opnieuw te testen. Staat wel op de planning.

[Reactie gewijzigd door Astennu op 24 juli 2024 06:03]

idd spijtig dat ze default 1.2V aanhouden.

Met de oudere HD 7xxx reeks kon je ook al wat bereiken met UnderVolt.

Wat zou de reden zijn? gemak bij de productie? moeilijk te testen?

Zouden ze bij productietesten een waarde kunnen bepalen, en ergens neerschrijven? Dan zou je betere/slechtere kaarten hebben...

[Reactie gewijzigd door bjp op 24 juli 2024 06:03]

Klopt ik heb met de 7970 ook wel leuke resultaten gehaald.

Ik zou denken Yields zodat meer chips in aanmerking komen maar tot nu toe kunnen alle chips wel aardig undervolten. Ik blijf op zoek naar heb nog geen slechte gevonden welke die voltages echt nodig zou hebben. Ook niet bij andere op het internet. Wellicht bij bepaalde compute load dat het nodig is? dat ze hem getest hebben met 100% chip load datacenter werk? maar dat is speculatie en niet iets wat ik zelf kan testen.

Lijkt mij wel wordt ook wel gedaan om bv cutdown versies te maken zoals de Vega 56 en bij nVidia de 1070. Als een deel defect is of ze de clock targets niet kunnen halen gaan die chips naar een lager model.
Al lijkt het er op dat ze weinig moeite hebben gedaan om deze chips echt goed te binnen.

Met geheugen modulen gebeurd dit heel goed. Vooral bij die hele snelle OC repen. Die hebben dezelfde memory chips alleen zijn deze speciaal uitgezocht en samen gebracht zodat de reep die 4000MHz kan halen. Als een chip het niet aan kan heb je problemen. Chips die dat niet halen zie je dan terug op een 3600 model. Is natuurlijk wel kostbaar werk. Die snelste modules zijn mede daardoor ook aanzienlijk duurder.

Maar AMD laat met Ryzen zien dat ze het wel kunnen. De turbo speeds daar zijn hoger dan de all core OC's die mensen zelf halen. En je ziet ook dat de 1800X gemiddeld wel 100MHz hoger clockt dan de 1700X en die weer 100 hoger dan de 1700. (weet zo even niet meer waar maar er is ergens een lijst met resultaten en de analyse er van)

[Reactie gewijzigd door Astennu op 24 juli 2024 06:03]

ondertussen, door die 'slechtere' binning van Fury/Vega heb je wel een heethoofd, en iedere website zegt gewoon "Vega verbruikt heel veel".

Performance is ook gewoon slechter door die hogere voltage (thermisch beperkt -> downclocking / niet aanhouden van maximale frequentie).

Ik weet wel dat "tester-tijd" een duur ding is... maar zouden ze in hun chips een goeie self-test kunnen inbouwen, dan kunnen ze gemakkelijk de laagste bruikbare voltage vinden, wat een win-win situatie is.

Hoe moeilijk kan het zijn, om wat je nu doet (zelf undervolt bepalen) te automatiseren en in het productieprocess te verwerken?
Een kaart (net zoals een auto) moet theoretisch onder alle omstandigheden kunnen werken. Dus zo ook de GPU en HBM2 chips die op de interposer met elkaar verbonden zitten. De trade-off is als je een te laag voltage hebt is dat er de kans bestaat dat er rekenfouten optreden. Weet je hoeveel RMA zaken dat wereldwijd op gaat leveren? Ze spelen gewoon liever op safe heb ik het idee.

Ja je kunt wat winnen, net zoals de 9570 AM3+ CPU van AMD welk met 60W aan het stopcontact 'bespaard' kon worden door de chip te undervolten. Denk gewoon niet dat ze alle tijd van de wereld hebben gehad de kaart op een goede manier te kunnen testen. Iedere chip presteert net even iets anders weer en vaak heeft dat een one-size-fits-all approach nodig.
ja uiteraard. En idd, werkt hier in huidige omstandigheid... maar de kaarten gaan ook naar warme en koude landen. Goeie en slechte voedingen. En wat werkt onder bepaalde games/benchmarks is misschien niet de worst-worst-case.
Uit de doos is natuurlijk mooi, maar ik ben het er zeker mee eens dat dit voor de gemiddelde Tweaker geen probleem moet zijn. Ik prefereer AMD altijd boven Intel/NVIDIA, mits er iets van te maken is. Nou, dat kun je met die kaart dus al doen.
Als je de doelgroep voor deze kaarten apart neemt, dan heb je een groep mensen die wel meer kunnen dan een schroefje in en uit draaien.

En probeer zeker contact op te nemen, want wie niet schiet raakt sowieso niet he ;)
Dat undervolten is leuk voor een tweaker, maar de gewone gamer/consument gaat daar natuurlijk niet aan beginnen.
Dat vind ik een slecht argument, MeltedForest. Dat zou een argument kunnen zijn om ook de out of the box performance te testen, het is geen valide argument om niet daarnaast de undervolted performance te testen. Je hoeft niet wekenlang of zelfs urenlang erop te studeren om te weten hoe je moet ondervolten. Als reviewers hun werk doen dan weten de gebruikers dat je gemiddeld bijvoorbeeld rond de 0,1 V uitkomt (dat lijkt gebruikelijk te zijn), je opent AMD Settings/Wattman, je stelt de spanning 0,1 V lager in, je draait Firestrike, je speelt een spelletje en als het stabiel is dan verlaag je de spanning met stappen van 0,005 V verder totdat het crasht. Als het niet stabiel is dan verhoog je de spanning met stappen van 0,005 0,01 V totdat het wel stabiel is en vanaf daar kan je weer beetje bij beetje omlaag.
Zo moeilijk is dat toch niet? Als ik echter jouw reactie lees - en jij bent bij lange na niet de enige die zo denkt (ook veel reviewers denken zo) - dan moet je 10 jaar wiskunde, natuurkunde en techniek hebben gestudeerd om je kaart te kunnnen ondervolten. Ik gebruik in de laatste zin natuurlijk een hyperbool om het punt te maken.

Wat betreft jouw laatste vraag, het is bevorderlijk voor een discussie als we de beide kwesties/vragen van elkaar scheiden:
- het vaststellen in welke mate er ondervolt kan worden en voor welk percentage van de kaarten dit goed kan
- waarom AMD bij de default instellingen de spanning wat verhoogt
Beide vragen/discussies zijn interessant en relevant maar het werkt beter om die gescheiden te voeren. Er zijn een aantal mogelijke oorzaken:
- een zeer klein deel van de kaarten (1%, 0,1%, 0,001%...?) is niet stabiel bij de lagere spanning
- een zeer klein deel van de applicaties (die bijna niemand gebruikt) is niet stabiel bij de lagere spanning
Dit hoeft nog niet eens met de GPU zelf te maken te hebben, het kan door een combinatie van de GPU en het powerregelmechanisme (hardware + software in het geval van AMD) komen. Dat is echter allemaal niet zo belangrijk voor de doorsnee klant, de doorsnee klant moet weten dat hij een zeer grote kans heeft dat hij de kaart met ongeveer 0,1V kan onvervolten. Merk op dat dit niets nieuws is, dit was voor Polaris en Fury ook al bekend bij het grote publiek, alleen besteedden de meeste reviewers er geen aandacht aan (Tomshardware is een positieve uitzondering).


@Astennu
Succes met het contact leggen met AMD. Advies: houd het beknopt en meld zoveel mogelijk harde feiten: aantal kaarten + modellen + spanningen + klokfrequenties... zodat ze in 1 oogopslag zien dat jij niet een gewone gebruiker bent maar iemand die flink wat ervaring heeft met de hardware en flink wat data heeft verzameld.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 06:03]

Bedankt voor de tip. Ben dat ook van plan maar heb eerst nog heel wat uren test werk voor de boeg om alles compleet te maken. En dan even kijken hoe ik het slim kan verpakken dat het inderdaad beknopt is.
Ik wil best helpen met het opstellen van de tekst en het goed verpakken. Ik zou er in ieder geval grafieken en staafdiagrammen voor gebruiken. Grote stukken tekst lezen ze minder snel maar zo'n grafiek/staafdiagram trekt direct de aandacht en laat zien dat je niet over 1 nacht ijs gaat .Het geven van referenties (Tomshardware, GamersNexus, AdoredTV, mogelijk mensen op Reddit of zo die hier veel data over hebben gedeeld) waarbij succesvol werd ondervolt helpt wellicht ook.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 06:03]

Iets alleen standaard testen, en dan jezelf tweakers.net noemen. En gebruikers die het normaal vinden dat kaarten niet getweakt worden. Tjonge, wat is de site en haar doelgroep toch veranderd door de jaren heen.
Heel simpel, undervolten is een aanpassing aan de videokaart die niet standaard is
Dit is toch Tweakers.net? Zijn we die roots inmiddels al vergeten?

[Reactie gewijzigd door Laloeka op 24 juli 2024 06:03]

Dan hadden ze ook niet moeten overklokken. Dat zorgt zelfs nog voor meer warmte en powerdraw. Undervolten juist minder....
Oké allemaal goed en wel, maar als je het verbruik van een vega64 met 90 watt kunt verminderen verbruikt ie nog steeds veel meer dan een 1080. Plus dat de prestaties dan nog slechter worden t.o.v. de 1080.

Bovendien wil ik gewoon een kaart kopen, die in mijn pc prikken en dan gamen. Niet eerst allemaal moeten duiken in de voltages en dagen testen naar de optimale prestaties.

We kunnen allemaal wel eromheen draaien maar ik denk dat we het wel met elkaar eens zijn dat de algemene tendens op tweakers is: Intel/Nvidia zijn de evil multinationals die ons opzadelen met 0 innovatie en AMD is de redder in nood, de prins op het witte paard die de draak Intel/Nvidia een lesje gaat leren. Same als met Microsoft/Linux.

Dat we op Tweakers zo van AMD houden is omdat zij in het verleden kaarten en procs met een betere prijs/prestatieverhouding maakten. Wij hoopten allemaal dat deze vervlogen tijden weer terug kwamen. Nu AMD een mietje van een ridder heeft afgeleverd waar de prinses niets aan heeft, en Nvidia wel een ferme ridder in huis heeft, proberen sommige Tweakers toch de AMD ridder te verdedigen, met "ja maar hij zal goed voor je zorgen en Nvidia ridder is een bad boy, o.d."

Anyway, dit stoot heel veel Tweakers tegen hun tenen, maar don 't shoot the messenger. Zolang de Vega kaarten niet een stuk goedkoper zijn dan hun Nvidia tegenhangers is er geen reden om als gamer voor AMD te gaan, zeker niet met dat belachelijke verbruik.
Zo denk ik er dus niet over. Ja ik ben het niet eens met de manier van bedrijfsvoering van Intel en nVidia maar dat is een andere discussie.
Er zijn ook genoeg mensen die zonder goede rede ook in de tijden dat AMD de betere keuze was toch blind voor nVidia en Intel gaan voor die mensen is dat merk heilig en ook zonder meer het beste en is AMD altijd troep zonder dat ze dan goed kunnen onderbouwen waarom enige argument is dan: dat is gewoon zo punt. Dus merk trouwe fans heb je altijd zul je ook altijd houden.

Qua verbruik kan vega denk ik gelijk zijn aan de 1080 maar dan wel wat lagere prestaties leveren. Was in mijn ogen een betere keuzen geweest dat is mijn persoonlijke voorkeur. Ik heb dat nu ook makkelijk voor elkaar gekregen.

Ik snap dat de meeste mensen gewoon de kaart kopen er in prikken en dan gaan gamen.
Vega is in dat opzich met de huidige prijzen gewoon totaal niet interessant dus daar ben ik het helemaal mee eens.

Het was meer om aan te geven dat AMD in mijn ogen gewoon een steekje heeft laten vallen en het verbruik niet zo hoog had hoeven zijn. Dat had lager gekund zonder te veel op prestaties in te leveren. In mijn ogen dus een gemiste kans.

Deze ronde heeft AMD het gewoon niet goed gedaan. Mag hopen dat ze dit met Navi toch echt anders gaan doen anders doen ze voorlopig even niet meer meer in het High end CPU segment.
Wel jammer want de CPU afdeling doet het nu net goed gaat het weer niet goed met de GPU afdeling.

[Reactie gewijzigd door Astennu op 24 juli 2024 06:03]

Oh ik hoop ook dat ze de volgende ronde weer competitief zijn. Even de mining gekte buiten beschouwing gelaten zal concurrentie er alleen maar voor zorgen dat wij onze spulletjes goedkoper kunnen krijgen, of dat dit nu Nvidia of AMD is. Niet alleen in de high end maar ook in de lagere klassen heeft Nvidia niet echt concurrentie helaas.

Ben het ook met je eens dat het verbruik bizar is zeker als jij met wat tweaken en finetunen 90 watt vanaf krijgt. 90 watt, dat is echt bizar veel! Wat bezielde AMD eigenlijk? Wilden ze koste wat het koste een paar procent prestatiewinst toen ze zagen dat hun processor niet de ridder werd die ze dachten dat ze maar alle power erin pompten die ze erin konden pompen? Of dachten ze dat het toch niks uitmaakt of je gamebak 250 of 350 watt verbruikt?

Deze ronde kan AMD praten als brugman maar ze hebben het gewoon verloren en ze gaan het ook met optimalisaties niet eens gelijk spelen. Het spijt mij voor alle AMD fans maar het is zoals het is.
Misschien is de mining gekte wel de reden waarom ze hogere voltage draaien.
Dan is het voor de miners niet interresant, en dat zou de beschikbaarheid evt ten geode moeten komen.
Lijkt me sterk, verkopen is verkopen. of nou miners je kaarten kopen of gamers, voor AMD is elk geld wat ze binnen kunnen krijgen zonder lange termijn grote schade op te lopen nogal belangrjik.
Miners hebben al uitgevonden dat: met undervolten en andere optimalisaties de VEGA beter presteert dan verwacht.

Dus ook daar is het "KOPEN KOPEN KOPEN! EN IN DE FARM DRUKKEN RAAAAAAH!" geworden.

Moraal van het verhaal: Consoles zijn ineens weer aantrekkelijk geworden :(.

Sigh, je zou maar een PC only gamer zijn (zelf PC en Nintendo consoles).
Enigszins snap ik je redenatie wel hoor, AMD had met een lager voltage wellicht mindere prestaties gehad, maar wel een beter gebalanceerd product. Echter, jij kijkt naar verbruik en warmte e.d. De gemiddelde consument, en dus niet alle tweakers die hier reageren, kijken gewoon naar welke kaart het snelst is, en dus is de keuze van AMD om boven de 1070 en 1080 proberen uit te komen begrijpelijk. Sneller dan 1070 of sneller dan 1080 doet marketingtechnisch nou eenmaal meer dan "lager verbruik".

Kaarten moet je gewoon vergelijken zoals ze uit de doos komen, met dezelfde reden als hiervoor. 90% van de gebruikers gaat die kaarten niet undervolten, overclocken, etc. Tevens de grootste reden voor veel van de discussies hier, bedrijven baseren hun beslissingen op de grootste gemene deler. En veel tweakers hebben nogal eens het idee dat zij tot die groep horen...terwijl dat echt niet zo is.

Daarnaast kan ik mijn 1080 ook undervolten...

[Reactie gewijzigd door OriginalFlyingdutchman op 24 juli 2024 06:03]

Ik snap eerlijk gezegd ook niet waarom iedereen zo valt over verbruik bij een high end graphics kaart. Electriciteit is helemaal niet duur en een 2x zo hoog verbruik betekent niet dat je honderden euro's per jaar meer electriciteit verbruikt.

Bovendien kan je hoog verbruik prima koelen met een goede case. En in gameland geilt iedereen op rgb fans en extravagante koelingsoplossingen waar dat makkelijk mee opgevangen kan worden
Het gaat mij persoonlijk niet om de stroomrekening (die extra kosten kunnen met gemak gedragen worden), maar om het grotere plaatje: ik ben van mening dat je vandaag de dag simpelweg niet meer kan aan komen zetten met een alternatief product dat 50-100% meer energie verbruik bij - op zijn best - gelijkwaardige prestaties.
Die mening staat helemaal los van merk: nu is het AMD, maar was nVidia de energie-slurper geweest, dan had zij in mijn verdomhoekje gezeten. Ik gun AMD het beste (want de consumentenmarkt heeft het hard nodig), maar dan zullen ze toch met iets beters op de markt moeten komen: niet vanwege de prestaties, maar vanwege het energie-verbruik, welke dermate veel hoger is dan de concurrentie dat het (imho.) bijna gênant is om daar anno 2017 nog mee op de proppen te komen. En daarvoor ga ik mijn principes niet opzij zetten, hoe spijtig dat ook is voor AMD.

[Reactie gewijzigd door w00t00w op 24 juli 2024 06:03]

Reken het eerst nou even na. Het prijsverschil tussen een high end amd en Nvidia kaart zal in de eerste 5 jaar niet in het voordeel van Nvidia wanneer je dat ding heel het jaar aanlaat. Dan is het toch te gek voor woorden dat je voor Nvidia kiest? Want je bent in principe een dief van je portomonee.
Mijn oordeel hierin is neutraal want een game pc heb ik al 10 jaar niet meer en mijn laptops gebruiken alle Intel graphics, omdat ik er toch niet op game

Energie verbruik kan enkel maar de doorslaggevende factor zijn als de prijzen dicht bij elkaar liggen (wat absoluut niet zo is!)
Je moet wel goed lezen, beste mikesmit, want dan had je gezien dat het gaat mij niet om de centen gaat, zowel qua aankoopprijs als de energiekosten. Het gaat mij om het energie-verbruik. En zolang AMD in de hoek van de onnodig zware energie-verbruikers zit, komt het er bij mij niet in. Zodra ze nVidia qua zuinigheid en performance/watt voorbij weten te streven, dan staat AMD weer bovenaan mijn lijstje, maar eerlijk gezegd zie ik dat - helaas - niet zo snel gebeuren (ik zie AMD liever nVidia liever beconcurreren op efficiency in plaats van ruwe kracht).

Erg cru gesteld is een Vega kaart kopen is vergelijkbaar met een energie-label F huishoudelijk apparaat kopen: nauwelijks te rechtvaardigen als duurzaamheid je een beetje aan het hart gaat. En er is geen enkele mate van merkenliefde dat dat in mijn optiek kan recht-praten.

[Reactie gewijzigd door w00t00w op 24 juli 2024 06:03]

Zo had ik het niet bekeken. Ik dacht dat wij Nederlanders beroemd waren om onze kosten/baten mentaliteit. Je behoord tot de zeldzame groep die meer uitgeeft enkel voor de harten van Greenpeace en soortgelijke.

Ik wens je dan veel succes in je missie!
Vergeet niet dat een hoger energieverbruik ook meer warmte betekent.
Veel mensen hebben een game PC op hun kleine (studenten/of studie, dan wel zolder) kamer, als die warmte in je kamer blijft hangen dan is dat niet prettig.

Voor mij was dit een rede om over te stappen naar een NVIDIA1080, terwijl ik eigenlijk een hekel heb aan de bedrijfsvoering van NVIDIA en voorheen altijd AMD GPU's kocht.
Aanbevolen door linustechtips:
http://www.calyos-tm.com/calyos-fanless-pc-workstation/

Edit: kijk de video op zijn kanaal. Hij heeft er een gamepc build in gemaakt

[Reactie gewijzigd door mikesmit op 24 juli 2024 06:03]

Een fanloze kast? Ik volg even niet hoe dit relevant is aangezien de hardware nog steeds warmte genereert en dus in de kamer terecht komt.

[Reactie gewijzigd door Gijs007 op 24 juli 2024 06:03]

Heb je een kamer zonder raam dan? Warmte betekent herrie van de fans, die herrie kan ontnomen worden van je.
Laten we het hier maar bij houden dan...

Ps: jouw punt vliegt inderdaad zo langs me omdat ik gewoon geen logica zie in jouw gedachtegang.
Ehm, dat gaat hem ook niet worden. Alleen de kast weegt al dik 28 kilo en zal al snel 600 tot 1000,- euro kosten. Dan ben je nog beter af met een VEGA, de extra kosten van de stroom wegen totaal niet op tegen
zo'n lompe, dure kast. Of, zoals Gijs al zegt; koop gewoon een Nvidia 1080.

Wel, Mike. De logica van jouw gedachte kan ik idd wél volgen maar dat is helaas een niet zo'n bijster slimme.

[Reactie gewijzigd door Madrox op 24 juli 2024 06:03]

Het komt erop neer dat Nvidia totaal geen last heeft van AMD
en AMD echt ver en ver achter op ligt
Stel je eens voor dat Nvidia ook een kaar uitbracht met hetzelfde verbruik als de AMD kaarten.
Die met de huidige Nvidia techniek dan echt NOG een keer zo snel is als de kaarten die Nvidia nu al heeft.
Het is ongetwijfeld voor sommigen geen issue.
Maar persoonlijk geil ik niet op die extravagante koeloplossingen en wil ik een zo compact en stil mogelijke game-pc.
Voor mij is die 100W wel belangrijk omdat dit 100W meer warmte betekend maar ook dat de voeding harder moet werken waardoor die ook weer harder moet gaan blazen.

Laat ik het zo zeggen, als het niet hoeft (zie Nvidia) waarom wel dan :-)
Ik snap dat de kaart beoordeeld moet worden op zijn out of the box prestaties. Maar in mijn ogen heeft AMD hier geen gigantische steek laten vallen ik heb geen idee waarom AMD voor 1150 en 1200mv gekozen heeft voor deze kaarten. Ik heb inmiddels 4 Vega 64's getest en 3 Vega 56's en allemaal halen ze super goede resultaten met lagere voltages.
Het is ongetwijfeld geen gemakzucht van AMD, dat kost ze te veel. Wellicht hebben ze geen tijd en resources gehad om dit fatsoenlijk te finetunen, of wellicht verschillen de samples individueel te veel om standaard voor die 1150mV te kiezen. Dat je er 7 getest hebt wil niet zeggen dat 1 op de 100 het gewoon niet zal halen en artefacten toont of misschien zelfs wel crashes.

Hoe dan ook, bij nVidia kun je natuurlijk ook per sample gaan undervolten en de grenzen opzoeken. Wellicht boek je hier bij AMD dan wat meer winst bij, en als je uitgaat van jouw 80W voordeel, en er bij nVidia maar 30W op vooruit gaat door te undervolten, zit je nog steeds op een verschil in verbruik van 100W tussen een GTX1080 en een Vega 64, terwijl de eerste sneller is. Het is absoluut interessant om eens met beide kaarten te gaan tweaken als een vervolgartikel, maar we dan wel een kaart van beide kampen, op dit moment is het koffiedik kijken.
Als ik dat in een paar dagen voor elkaar krijg kan AMD het ook. Ik zou het graag als vrijwilligers werk voor ze willen doen want dit is gewoon zonde.
AMD heeft allemaal binning methodes om chips te sorteren en controleren of ze goed genoeg zijn voor de 56 of d 64. Dus lijkt mij dat dit geen enkel probleem is.
Voor Ryzen CPU's hebben ze dit heel goed onder controle. De Max turbo speeds van die CPU's zijn hoger dan de max all core snelheden die je kan halen. Dus dat geeft wel aan dat AMD's cpu afdeling in ieder geval weet hoe je moet binnen.
Die 50mv moet echt geen issue zijn. nVidia draait ook lagere voltages zal denk ik een goede rede voor zijn. En wat ik al zij beter 50mv er af en dan de clocks ook 50-100MHz omlaag is nog steeds beter. En alle chips die ik getest hebben kunnen ook werken op 1300MHz of hoger op slechts 900mv meeste zitten dan tegen de 1400MHz aan. 900 of 1200 is een gigantisch verschil. Qua max clocks niet want max halen ze op 1200mv maar iets van 1650-1750 even uit het hoofd allemaal want ik heb mijn gegevens niet bij de hand.

Ik zou ook heel graag nVidia kaarten willen testen maar heb er nog geen voor een goede 2e hands prijs kunnen krijgen. Ik wil er niet verlies op maken aangezien ik toch weet dat ik ze niet ga houden. Maar wellicht komen die resultaten ook nog wel.

Wat je ook zegt elke chip haalt winst bij UV de een gewoon meer dan de ander en bij Vega scheelt het meer dan bij Polaris.
A Lurker
Hoe dan ook, bij nVidia kun je natuurlijk ook per sample gaan undervolten en de grenzen opzoeken. Wellicht boek je hier bij AMD dan wat meer winst bij,
Dit zouden revierws die de naam waardig zijn nu moeten uitzoeken!
Het is prima uit te leggen dat AMD niet naar de undervolt optie gekeken heeft: al maanden was het duidelijk dat Vega een mega-probleem had als het ging om de harde cijfers/prestaties. Ik bedoel kijk naar de review, hoe slecht (en laat!) die ook is, en wat Vega nu doet ten opzichte van de Fury X.

Er is gewoon bijna niets veranderd. Precies zoals voorspeld, ondanks alle triomfantelijke powerpoint slides van AMD over de radicaal vernieuwde GCN in Vega, is dit gewoon Fury X v2, met een verhoogd power target om het gebrek aan verbetering te maskeren. AMD kon niet anders, want Fury X zomaar even rebranden was ook niet uit te leggen.

Dat er een low-power variant van gemaakt kan worden is natuurlijk leuk voor het minen, maar perf/dollar gaat dan wel zo hard onderuit voor gaming dat het de moeite niet waard is. Of je gaat voor de middenweg (stock Vega 56) maar dan had je net zo goed een Fury X kunnen kopen, of een 980ti of een 1070, allemaal kaarten die al een jaar of langer uit zijn op een gelijk of lager prijspunt. Ga je voluit, dan heb je een 300w kaart in je case die met moeite een 1080 bijhoudt op stock, 120w TDP verschil ertussen. Dat is gewoon te bizar voor woorden.

Kortom, het is gewoon pure bagger, en IMO niet eens de moeite van al dit onderzoek waard. AMD kan zich maar beter snel heel hard gaan toeleggen op Navi, al vraag ik me sterk af hoe levensvatbaar dat is met een GCN dat na al die jaren nog steeds een te lompe jack of all trades wil zijn. Dat lampje moet echt heel snel gaan branden. Verder mist AMD ook nog steeds een flexibele GPU Boost zoals Nvidia die heeft, want daar haalt NV een groot deel van de efficientie vandaan - let wel, dit is een essentiele feature die al sinds 2012 bestaat, en pas met Polaris is er een bescheiden vorm van te vinden op een AMD GPU. Ze komen met houtje-touwtje oplossingen als Radeon Chill maar dat is gewoon een vreemde vorm van FPS capping waar weer ondersteuning voor moet zijn, belachelijk dus. AMD loopt achter de feiten aan, en Vega is het bewijs.

En dan is er nog het zakelijk aspect: HBM2 op een Vega 56 die moet concurreren met een GTX 1070 met gewoon el cheapo GDDR5. Een enorme bult shaders, een AIO erop zelfs, het kost allemaal geld. Interposertje ertussen, ook niet gratis. Dus dan moet je wel gaan goochelen met je propositie en dat is dus ook gebeurd; gevolg totale verwarring over het werkelijk prijspunt. Het is bijna alsof AMD Vega helemaal niet WIL verkopen, en ik snap goed waarom als je ziet wat het aan prestaties oplevert.

Ten tijde van Fury X was er dan nog de Nano, lekker compact, dat was een USP te noemen. Maar daarvoor is ook geen HBM nodig; er zijn nu zelfs ITX versies van een GTX 1080, gewoon met 8GB aan memory op het PCB. Als je dan ook nog ziet dat HBM vrijwel niets doet voor het energieverbruik (sterker: het is een grote verbruiker en één van de punten waarop veel winst te boeken valt met tweaks) dan vraag je je echt af wat ze daar bij RTG aan het roken zijn.

Tot slot, mbt de review: waarom worden games die niet DX12-native zijn, wél in DX12 getest? Zoals TW: Warhammer. Doe het dan allebei, want zo heb je er niets aan, die game is in DX12 totaal niet stabiel te noemen en zegt dus ook niets over werkelijke prestatie verhoudingen tussen de geteste kaarten. Verder: geleend kaartje, drie weken te laat, oude drivers, en we testen Medium ?! en Ultra ?! maar niet de High setting dat vaak het beste van twee werelden is? Geen temperaturen? Geen OC?
Geen verkenning van de architectuur en geen inzichten over de effecten van over-en undervolten?
Waren jullie dronken op de redactie? Of gewoon volledig clueless...

Hou het in het vervolg anders maar gewoon bij mobieltjes en televisies, dit is zinloos.

[Reactie gewijzigd door Vayra op 24 juli 2024 06:03]

Ik ga er een andere keer beter op in maar Vega =! Fiji.
Ja het is nog steeds GCN met toevoegingen. Er zijn meer aanpassingen dan in Polaris.

Dus om te zeggen dat Vega gewoon Fiji is is niet waar.
Vega is een Compute architectuur gericht op datacenters (Instinct MI25). Schaalt inderdaad niet lekker met gaming en kan dus qua IPC op gelijke clocks tegenvallen tov Fiji. AMD heeft wel transistors besteed zodat Vega hoger kan clocken en dat zie je ook. Polaris doet met moeite 1400. Vega doet dat met lage voltages prima.

AMD heeft niet de resources om zoals nVidia een Datacenter chip + gaming chip te maken. Dus dat Vega het dan aflegt tegen een gaming Chip (GP104 en GP102) is imo niet raar. (even heel kort door de bocht)

Ik ben het er wel mee eens dat het er op lijkt (ik heb het bewijs nog niet) dat een aantal nadelen die Fiji in z'n frondend had zitten nog steeds aanwezig zijn en de troughput daar niet goed is.

[Reactie gewijzigd door Astennu op 24 juli 2024 06:03]

Klopt hoor, ik snap dat gaming absoluut niet de prioriteit heeft bij deze GCN iteratie, maar we gaan het nu in zowel prestatie, warmte, verbruik én prijs terugzien. Dat trucje kun je niet blijven herhalen en eigenlijk was het met de Fury X en Hawaii al gedaan.

Het lijkt erop, vwb die throughput, dat het bij de ROPs zit, een vermoeden dat er ook al was bij de Fury.

[Reactie gewijzigd door Vayra op 24 juli 2024 06:03]

Dat vermoeden heb ik ook. Fiji schaalde al niet echt lekker qua shader aantallen Vega heeft er nog even wat meer last van. Fiji was het maximale wat mogelijk was met de GCN. Die limieten lijken niet opgeheven. Nu hopen dat AMD de boel met Navi wel flink op de schop gooit.
Hoezo "ik snap het omdat de kaart van een tweaker is"?
Undervolten kan geen schade aanrichten.

En blijkbaar zijn er wel kaarten die niet stabiel zijn op 1150mv, anders hadden ze wel 1150mz gezet.

[Reactie gewijzigd door DoubleYouPee op 24 juli 2024 06:03]

Ik snap dat je er dan gewoon niet te veel mee wilt klooien. Het kan niet veel kwaad nee maar goed het is netter om de kaart dan gewoon stock out of the box te testen.

Dat dacht ik ook dus daarom heb ik inmiddels 7 kaarten getest maar ze halen allemaal top prestaties.
7 is natuurlijk niet genoeg maar als ik kijk naar de max clocks op verschillende voltages zijn de verschillen heel klein. Ook dat ga ik nog in mijn rapport op nemen maar tot nu toe zijn de verschillen tussen de slechtste en de beste maar iets van 60MHz. Dat is heel erg weinig.

Ik ben ook informatie aan het verzamelen van andere tweakers en dat in een sheet aan het samen voegen om een beter beeld te krijgen van wat de chips kunnen. Tot nu toe heb ik nog geen kaarten gezien die die lagere voltages niet aan kunnen bij behoud van stock clocks en allemaal hebben ze dan nog wel ruimte over.

Maar dan nog steeds had AMD in mijn ogen beter voor lagere voltages + lagere clocks kunnen gaan. Aangezien de kaarten toch vaak throttelen had je amper prestatie verlies gehad wel een veel lager verbruik en minder herrie. Het was toch al stuivertje wisselen met de nVidia kaarten. Iets langzamer maar qua performance per watt wel in de buurt zitten en qua geluid productie ook was in mijn ogen een betere keuze geweest.

[Reactie gewijzigd door Astennu op 24 juli 2024 06:03]

Maar wel overklokken maar niet undervolten? dan is overklokken nog "gevaarlijker"...
Ze hebben het gewoon niet gedaan omdat ze geen tijd hadden of omdat Tweakers al jaren niet echt "Tweakers" meer is.

Wat AMD had moeten bouwen is een systeem die de kaart undervolt totdat hij niet meer stabiel wordt.

[Reactie gewijzigd door DoubleYouPee op 24 juli 2024 06:03]

Het is natuurlijk ook van toepassing dat de GTX1080 te undervolten is, resultaat is nog steeds dat het een zuinigere, stillere, goedkopere kaart is vergeleken met de Vega. Dit doet niets af van wat er stock in de schappen aanwezig is.
De ene chip heeft et meer baat bij dan de ander. Alle chips zijn te undervolten maar Vega laat hier meer winst zien dan de 290x, Fury, 980 en 980 Ti de 1080 en 1080ti heb ik zelf nog niet kunnen testen.
Kortom: 1080 en 1080ti heb je geen enkel bewijs voor. Waardoor de enige constante en zekere factor is: 1080 en 1080ti zijn beter op stock.
Hou eens op met die what if's en volg de data: Nvidia wins
Ik zou zeggen kom maar met bewijs dat de 1080 zo geweldig te undervolten is zonder in te leveren op prestaties. Ik zie je alleen maar aannames doen zonder met cijfers te komen.

Ik heb hier een 980, 980 Ti , Fury Nano, 290X, 295X2, 7970, 3x Vega 56 getest en 4x Vega 64.
Kan je het mij kwalijk nemen dat ik het geld nog niet extra heb liggen om ook even de 1080 en 1080 Ti te testen? As we speak ben ik bezig met de aankoop van een 1080 Ti dus die informatie gaat er zeker komen maar het heeft gewoon tijd nodig als consument.

[Reactie gewijzigd door Astennu op 24 juli 2024 06:03]

Hardwareunboxed heeft toevallig vandaag een video gereleased waar hij vega 56 undervolt/oc'd.

https://www.youtube.com/watch?v=YZBcpOBbey8

Ja de performance stijgt (+-15%), maar het verbruik stijgt ook met zo'n 33%. "Hoog stroom verbruik en geluid productie pak je flink aan" Lijkt dus niet op te gaan op basis van zijn resultaten.

Daarnaast vind ik het een beetje een raar argument dat Tweakers de kaarten zou moeten undervolten. Het resultaat dat je met undervolten/overclocken kan behalen varieert per chip. Het is leuk voor de enthusiast maar het geeft geen enkele garantie. Veel logischer is om het product gewoon te testen zoals het wordt aangeleverd. Dat is performance die gegarandeerd is out of the box.
Ik zal er vanavond even goed naar kijken heb daar nu geen tijd voor.
Settings zijn nogal van belang. In het Ervaringen Topic worden genoeg resultaten gedeeld waar je ziet dat het verbruik zeker omlaag kan zonder prestatie verlies.

Met dat argument wat jij nu geeft over UV zou je dus ook geen OC tests meer hoeven te doen.
Sterker nog dan kun je vandaag de dag ook geen stock kaarten meer testen. Door dynamic clockspeeds is geen kaart hetzelfde. De een 1080 is ook een stuk sneller dan de ander om die rede Bij de 9xx serie het zelfde idem voor de 29x, Fury en Vega kaarten.
Out of the box performance is niet gegarandeerd meer want al die clocks zijn tegenwoordig dynamic vroeger in de tijd van de Geforce/Radeon 1 en de HD58xx en de GTX480 was dat nog zo want die clockspeeds stonden vast. Met de komst van turbo verschilt elke kaart weer afhankelijk van lekstroom en hoe goed hij gelukt is.
"Out of the box performance is niet gegarandeerd meer want al die clocks zijn tegenwoordig dynamic"

Onzin, de clocksnelheden die op de box worden aangegeven zijn gewoon gegarandeerd. Alles wat daarbovenop komt door dynamic boost is een leuke extra.

Het verbaast mij eerlijk gezegd in hoeveel bochten sommige mensen zich wringen om AMD producten maar zo goed mogelijk uit de bus te laten komen. Laten we heel eerlijk zijn, AMD heeft dit product op deze manier in de schappen gelegd. Is het dan aan de reviewers om het product maar zoveel mogelijk te Tweaken totdat er een enigszins respectabel resultaat uitkomt? Dat had AMD zelf moeten doen.

Het is een leuke suggestie om undervolting als extra op te nemen, naast OC resultaten. Maar de conclusie en de focus van de review hoort gewoon gebaseerd te zijn op out of the box gegarandeerde resultaten, en dat heeft Tweakers hier gewoon goed gedaan.
Het is niet erg, maar dit soort dingen dragen - elke release opnieuw, of het nu een GPU of CPU is! - absoluut niet bij aan een goed imago voor AMD. Tel daarbij de rare communicatie, de op zijn zachtst gezegd aparte press releases en bijeenkomsten (die er vaak uitzien alsof iemand een zaaltje heeft ge-ghetto-mod en er wat zelfbouw PC's in heeft gezet) en de vele launch-problemen op, en het algehele beeld van een AMD release is gewoon dat het elke keer knudde geregeld is.

Kijk nou naar hoe Vega bij reviewers aankomt: je krijgt een hele rits aan BIOS'en en niet eentje is écht goed afgesteld. Het is net alsof AMD na al die tijd zegt 'doe hier eens wat leuks mee, want wij weten het ook niet meer'... Ryzen: zelfde laken een pak; game prestaties gaan van sub-top tot totale bagger FPS, er is geen pijl op te trekken, overklokken is vrijwel non-existent én je moet wel heel secuur kijken of je de goeie RAM latjes pakt. Dat gebrek aan consistentie is gewoon killing voor het vertrouwen in AMD. En dat is jammer, zeker wanneer het eigenlijk prima producten zijn (Ryzen, niet Vega, Vega is gewoon een 'dud' als het om mainstream gebruikers gaat).

[Reactie gewijzigd door Vayra op 24 juli 2024 06:03]

Best opvallend dat er zo een uitgebreid en mooi artikel geschreven is, maar dat de Vega kaarten getest worden met driver 17.7.1. Dit terwijl vanaf versie 17.8.1 pas expliciet support voor de Vega serie aanwezig is.

Niet dat ik niet begrijp waarom hoor; een artikel schrijven kost natuurlijk enorm veel tijd, vooral met zulke aantallen benchmarks. Echter: zou een update in de nabije toekomst, met bijgewerkt drivers, niet aan de orde zijn?
Verkeerde driver in copy/paste genoemd, de 17.8.1 drivers zijn gebruikt 8)7
Foutje moet kunnen, baas! :p
Het schijven hiervan zal niet meer tijd gekost hebben dan de tijd dat de kaarten nu uit zijn. dus een actuele ( lees: gesupporte ) driver had best gemogen.
De volledige specs staan ook op HWinfo. daar zag ik wel ergens staan dat de driver geupdate was naar Crimson Relive 17.8.2
Alle waardes zijn exact gelijk aan de test resultaten hier (heb de FPS resultaten steekproefsgewijs vergeleken... identiek). zit alleen geen verhaal omheen, zijn kale testresultaten.

[Reactie gewijzigd door TheSeagon op 24 juli 2024 06:03]

De AMD-kaarten zijn getest met de 17.7.1-driver.
Ik ben bij pagina 2 opgehouden met het lezen van de review. Wanneer voor de AMD kaarten driver versie 17.7.1 gebruikt word, dan word er een versie gebruikt welke niet eens ondersteuning heeft voor de VEGA chips.

Kom op tweakers, versie 17.8.2 is al drie weken uit, daarvoor was er nog 17.8.1 en alle twee hebben in iedergeval support voor VEGA.

EDIT: spuit elf.... CykoByte was me voor.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 03:40]

Dit begrijp ik dus ook echt niet, dat wil dus zeggen dat deze review al zeker 5 weken geleden geschreven is maar nu pas gepubliceerd wordt?????

Ik vind het een slechte review @willemdemoor als je bizar oude drivers gebruikt zonder ondersteuning voor VEGA.. Echt een lachertje.
De juiste drivers zijn gebruikt: 17.8.1 om de resultaten vergelijkbaar te houden met de vorige vega-kaarten. 187.8.2 hebben we ook gedraaid met liquid en air-cooled, zat steekproefsgewijs geen performancewinst in.

[Reactie gewijzigd door willemdemoor op 23 juli 2024 03:40]

Typfoutje dus :) Net zoals '18.8.2';)
Ai dit is wel ernstig.
Als je dit al doet wil je minimaal voor een kaart alle tests doen met de 17.8.2 driver om te kijken wat het verschil is. (en benoem dit dan ook in het artikel als dat gedaan is anders krijg je de opmerking alsnog). Als er dan een merkbaar verschil is moet je het wel opnieuw testen met een nieuwe architectuur is er altijd meer ruimte voor prestatie verbeteringen via de drivers. Dan zijn up to date drivers wel erg belangrijk.

[Reactie gewijzigd door Astennu op 24 juli 2024 06:03]

Zou ook wel 'ns willen weten/lezen van wie ze het testplatform (toevallig intel/windows/samsung) hebben (gekregen). En van wie ze deze specifieke games moeten testen waarvan geweten wordt dat ze niet respresentatief (meer) zijn in vele gevallen tenzij nvidia voorkeur. En ook waarom bij Intel er heen en weer wordt gebeld als er 'n issue is en AMD niet (ja 'n week na 'n artikel). Just curieus. En wat er met HSA is gebeurd... en impact vega op zen apu's als het zo'n shit is.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 06:03]

De conclusie stukje vind ik persoonlijk een beetje teveel Nvidia pro minded. Als de Vega echt zo slechte performance/watt heeft, waarom kopen miners die dingen dan?
Stock perf/watt is inderdaad niet goed. Maar alle miners undervolten de kaarten en daardoor krijg je een veel betere perf/watt.

Hetzelfde geldt overigens voor gaming. Als je kijkt in het Vega ervaringen topic dan zie je dat iedereen met gemak de kaart kan ondervolten van 1200mV naar rond de 1000mV. Kloks moet je dan ook wat bijschaven, maar over het algemeen gaat de performance van de kaarten daardoor niet eens zo gek veel naar beneden, maar het verbruik daalt zo enorm.

Daarbij wordt er ook in deze review niet stil gestaan bij Radeon Chill. Als je een Radeon Chill game hebt dan wordt de framerate op rustige momenten rond de 40 FPS gehouden. En tot mijn verbazing voor de rest op 60 FPS (ik heb een 60hz scherm), en hierbij loopt de kaart niet sneller dan nodig. Met als gevolg een nog lager stroomverbruik. In Prey of SE4 bijvoorbeeld verbruikt mijn totale systeem niet meer dan 320 watt.

En ja, undervolten moet inderdaad niet perse behandeld worden in een review. Een kaart zou op stock goede performance moeten hebben, Maar zoiets als Radeon Chill mis ik dan wel, en dat is een optie die iederen zou moeten kunnen gebruiken.
Radeon Chill is leuk, maar is beperkt tot een klein aantal games (19 op dit moment), dus je hebt er alleen maar profijt van als je voornamelijk die games speelt. Kijk je naar het ander kamp, de 1080, dan heb je een lager verbruik in alle games.
miners kopen eerder een rx 480 dan dit, is gewoon te duur mbt stroomkosten
Probleem is dat een hoop kaarten inmiddels en aanhoudend vele weken levertijd kennen. Dan wijkt men al snel uit naar andere modellen. Deze week nog minen gaat nog tegen de huidige difficulty tenslotte. Inmiddels is het verworden tot graaien en pakken wat je maar even krijgen kan. Dit is de crypto bubbel, als die over is heb je opeens vega's voor het oprapen 2e hands.
Precies, en niemand koopt die tweedehandse kaarten want de levensduur is drastisch gereduceerd vanwege mining. 1.5 Maand 24/7 minen is gelijk aan ongeveer 1 jaar normaal gebruik voor gaming met een gemiddelde van 3 uur per dag. Ik heb persoonlijk liever dan een nieuwe kaart.
Ik zou hier graag een bron van zien. Het constant op warmte houden van zo een kaart is namelijk veel beter dan elke dag in en uit schakelen. Is eigenlijk best prima voor die dingen :-).
En daar zou ik dan graag weer een bron van zien. Ik weet vanuit mijn werk dat chips simpelweg verouderen, en dat gaat sneller bij hogere warmte (en spanningen). Aan/uit zetten maakt daar niet bij uit (behalve als bij het aan zetten er tijdelijk een hoge spanning ergens op komt, waardoor dat sneller zou kunnen verouderen). Voor al die opmerkingen dat minen beter is voor een kaart omdat hij nooit aan/uit wordt gezet heb ik nog nooit een bron gezien.

Ik zou me voor kunnen stellen dat door mechanische effecten van het opwarmen en afkoelen verbindingen op de printplaat die al twijfelachtig zijn, echt los kunnen raken. Dus misschien is dat effect er wel hoor. Maar ik weet ook als feit dat elektronica simpelweg slechter wordt als het lange tijd bij hoge temperaturen moet functioneren. (Oftewel, ja een miner die undervolt zorgt voor betere levensduur. Maar dat is nog altijd slechter dan een gamer waar hij voornamelijk uit staat, of in idle 35 graden is).
Een uitspraak doen over wat erger is: constant hoge temperatuur of meer temperatuur cycles, is lastig te maken. Je hebt te maken met verschillende failure modes dus je kan het eigenlijk niet vergelijken zonder zeer uitgebreide tests te doen.

Hou er rekening mee dat de kaart is gedesigned op enkele uren gebruik per dag, en hier is dus ook uitgebreid op getest. Ze zijn niet gemaakt om 24/7 aan te staan, dus er zijn bepaalde productie en design trade offs gemaakt die zeker beter zijn voor regulier gebruik.
Ik heb geen bron, maar een condensator houdt over het algemeen niet van warmte, daarvan daalt de levensduur. Dus ik kan me goed voorstellen dat die condensator's dan al behoorlijk gesleten hebben.
Precies zo denk ik er ook over.
Er zijn trouwens sowieso teveel mensen die denken een videokaart 2e hands aan te bieden voor bijna dezelfde nieuwprijs.
Dat hangt helemaal af hoe de kaarten behandeld zijn. Zoals Gopher al aangeeft is het beter voor een VGA kaart als deze op een constant temperatuur blijft, dan sterk in temperatuur wisselt wat bij standard gebruik het geval is.

Zelf heb ik twee R9 290 kaarten, nu zeker twee jaar, in mijn Pc zitten welke gebruikt zijn voor mining in een datacenter. Hierbij werd de temperatuur op 26 graden gehouden, deze kaarten hebben daar bijzonder weinig van te lijden gehad.
Het hangt zeker af van hoe de kaarten behandeld zijn, maar dat kan ik als koper vaak niet uit opmaken. 26 Graden is inderdaad erg koel, en bevorderd de levensduur. Ik heb geen harde cijfers, waar ik zeker benieuwd naar ben, maar mijn ervaring met koeling op versterkers zegt dat koelpasta bij langdurig gebruik uitdroogt. Natuurlijk kan je als koper zelf nieuwe koelpasta aanbrengen, maar dan moeten ze deze dingen niet gaan verkopen voor bijna de nieuwprijs.
Voor de FANS geld dat misschien, maar voor de electronica voor zover ik begreep is het juist beter constant "Warm" te zijn ipv bij gaming warm/koud/100%/40% etc
AMD heeft Vega TE ver gepushed. Ze hadden in mijn ogen voor 1050-1100Mv moeten gaan ipv 1150-1200 nu. Ze zitten ver voorbij de sweetspot in OC range qua voltages. De winst door deze stap is 0 en zelfs verlies in prestaties door throttelen (gpu max temp en TDP limits worden te snel gehaald)

De performance per watt is een stuk beter dan die van Hawaii (290x) en ik denk ook Fiji (Fury X).
Ik ga van de week met mijn Fury Nano wat performance per watt vergelijkingen doen.

Vega heeft veel meer winst door undervolten dan andere GPU. Zowel kwa prestaties al hele grote reducties in het verbruik en dus de herrie. De 290X had hier nog meer baat bij omdat die cooler minder goed was dan die van Vega maar ook Vega heeft baat bij een veel lager verbruik. Dan kun je hem best stil maken. Ik zal ook eens proberen een sound level test te doen met mijn telefoon om het verschil duidelijk te maken.

Maar lang verhaal kort. AMD heeft Vega in mijn ogen een beetje verknalt en slechter voor de dag laten komen dan de chip echt is. Want je kunt hele goede performance per watt halen.

[Reactie gewijzigd door Astennu op 24 juli 2024 06:03]

AMD heeft Vega TE ver gepushed. Ze hadden in mijn ogen voor 1050-1100Mv moeten gaan ipv 1150-1200 nu
Bekend probleem van AMD, op het moment dat ze een kaart uitbrengen hebben ze een prima kaart in handen die meestal ook erg efficient is, echter eisen de consumenten (en wellicht aandeel houders) altijd dat de nieuwe kaart een concurrende kaart moet verslaan

zo moest de RX 480 de 970 verslaan
de Fury moest de 980 verslaan
en Vega moest de 1070 en 1080 verslaan

Omdat voor elkaar te krijgen lijkt het erop dat AMD hun kaart te ver opvoeren waardoor hun ideale sweet spot lang niet meer bereikt word

Het zal waarschijnlijk een afweging zijn, van of gewoon een zuinige kaart, of in ieder geval dicht bij de concurrentie komen. Het laatste wordt blijkbaar altijd gekozen
Daar lijkt het inderdaad op. Vraag me dus af wie dat zo graag wilt. Want het gaat tenkoste van het algehele product. Vega op zich is niet slecht. Vega 56 en 64 in hun huidige vorm tegen deze prijzen wel.

Hopelijk zien ze dat snel een keer in en gaan ze het anders doen.
Dat moest omdat AMD met RX 580 al een tegenhanger van de GTX 1060 had. Vega uitbrengen kon dan ook niet anders als tegenhanger van de 1070 en 1080. Concurreren met het eigen Polaris had geen nut, Vega is veel complexer en dus veel duurder om te maken. Vega helemaal niet uitbrengen is ook geen zinnige optie. Er bleef dus weinig anders op dan Vega opvoeren tot het gewenste niveau was bereikt.
Wat is er mis met de huidige prijs? Lijkt me dat de prijs compleet gerechtvaardigd is door de hoge vraag. If anything is 'ie te goedkoop.De enige vraag is, waarom verkopen ze de Vega's niet allemaal als mining kaarten?
Voor msrp en dus +-535 voor een 64 en 430 voor een 56 is er weinig mis met de kaarten.
Als je 500-550 voor een 56 en 650 voor een 64 moet betalen kunnen ze gewoon niet concureren met een 1080 & 1080 Ti en zijn die prijs prestatie en performance per watt gewijs een betere keuze.

Voor mining is het wellicht wel interessant maar als game kaart dan niet tegen over de concurrentie.

De 1070 heeft ook al last van opgeblazen prijzen door de mining gekte dus op dit moment is de 1080 relatief gezien interessanter als je die meerprijs kan betalen.

[Reactie gewijzigd door Astennu op 24 juli 2024 06:03]

De Fury X stond tegenover de 980ti, zelfs. Alleen op 1080p was die 980ti echt veel sneller en aangezien het gros van de gamers daar toch nog op zit, én Fury X hetzelfde probleem had als Vega nu (hoger verbruik/AIO geluidsproductie/hitte) moesten ze toch iets gaan produceren dat echt sneller was.

Als je hier goed over nadenkt is de enige conclusie gewoon dat er vanaf Fury X weinig tot geen echte vooruitgang in de architectuur zit als het om gaming gaat. Dit lijkt verdacht veel op de clock bump van Skylake > Kaby Lake bij Intel. Het heeft een ander naam, maar onder de motorkap is het meer van hetzelfde, je levert perf/watt in voor marginaal betere prestaties. Dat kunnen we zelf ook wel.

[Reactie gewijzigd door Vayra op 24 juli 2024 06:03]

De vergelijking die je maakt klopt totaal niet. Ik snap wel waar je heen wilt maat het is niet waar wat je zecht. Bij Skylake > kabylake is er zeer weinig veranderd onder de motorkap clockspeed bump is ook klein.

Als je kijkt naar Fiji vs Vega 10 dan is de clockspeed bump 50-65%! Dat is niet marginaal. Het verbruik is daarbij vergelijkbaar met Fury X dus performance per watt is dan een heel stuk beter.
Ik ga deze week testen vs een Fury Nano en dan kijken hoe de performance per watt is tov Vega.

Dan de architectuur:
-Rapid pack math: FP 8 support op. 8x de FP32 snelheid, FP16 op Dubbele snelheid
-primitive shader (faster triangle culling)
-high bandwidth cache controller waardoor je meer dan 1tb aan memory kan aanspreken buiten de kaart om.
-Improved Geometry engine voor betere tesselation performance
-support voor alle. Dx12 feature level
-betere display controllers dus nu wel HDMI2.0
-Tile based rasterizer
-betere power Management bij lage gpu loads en idle load. Betere clock gating en low frequency Hbm mogelijk als de load lager is.

Allemaal zaken die Fiji niet heeft. Ja het is nog steeds GCN maar met veel nieuwe dingen.
Veel van die zaken zijn echter wel op het datacenter gericht (Instinct MI-25 kaarten). Een aantal zaken kunnen wel voor winst in games zorgen maar dan moeten game devs die gaan benutten.
Zo zijn sommige devs bezig met rapid path math support voor hun game Engines.

[Reactie gewijzigd door Astennu op 24 juli 2024 06:03]

Bart ® Moderator Spielerij @flaskk7 september 2017 06:40
De performance in games is anders dan de performance in mining. Dus de performance/watt ook.
Omdat de performance/watt veel beter is met crypto berekeningen dan met DirectX games.
En wanneer je dan beseft dat voor de VEGA ook nog unsupported drivers zijn gebruikt, geeft dat helemaal te denken. OF er moet op pagina 2 een typ fout zitten mbt de gebruikte driver versie.
De grootste energievreter is de GPU. Die is voor mining niet belangrijk en kan je dus gigantisch underclocken.
Het geheugen is wel van belang, en juist de reden wat Vega interessant maakt.
"performance" is niet per definitie gelijk in verhouding voor games en minen.
Volgens mij wordt hier de kaart gerecenceerd op gaming performance en niet op mining performance. Daarnaast wordt de GPU anders benaderd door mining software. Het is overigens maar de vraag of de schaarse wel lauter door miners wordt veroorzaakt, vooralsnog weet AMD amper te leveren en laten de 3rd party kaarten ook nog wel even op zich wachten. Het lijkt er vooral op dat AMD persé Vega op de markt wil hebben om enigzins in het zog van de concurrentie te blijven. Het resultaat is een halfbakken launch met een enorme schaarse met hoge prijzen, een achterstand op driver gebied en geen geöptimaliseerde TDP.

Het is dat Freesync monitoren een flinke klap goedkoper zijn tegenover G-sync, want buiten Freesync zie ik vooralsnog geen reden om voor Vega 64 te kiezen. De GTX 1080 presteert beter en is goedkoper.

Ik ben overigens benieuwd of AMD niet alsnog met GDDR5(x) Vega kaarten gaat komen om de prijs wat te kunnen drukken, ik heb niet het idee dat HBM2 enige impact heeft op de prestaties.
Ik wou deze eerst aanschaffen maar was en is nog steeds niet leverbaar.
Helaas de GTX 1070 moeten kopen.
Die kaarten zijn perfect leverbaar bij Alternate Duitsland, heb de mijne daar net na de release gekocht en 2 dagen later al aangekregen. Heb er zelfs al een EKWB waterblok op gezet. Is een zalige kaart met een FreeSync monitor. Alleen is de prijs inderdaad vrij hoog. Maar i.v.m. een 1080 en IPS G-Sync monitor kom je toch goedkoper uit met een 64 en FreeSync monitor.
Maar freesync is toch ook niet zalig makend? Ik heb zelf freesync en ik wacht al erg lang op vega. Alleen hitte, stroom en verkrijgbaarheid is voor mij een teleurstelling. Stel ik koop een 1080 TI icm 1440p 144hz. Dat zou toch ruimschoots moeten compenseren voor het niet gebruiken van freesync?
Ook de 1080 Ti is in Duitsland wat goedkoper.

Ik heb altijd al een amd kaart gehad. Ik gebruik nu een R9 290 en deze wordt soms wel 94 graden zonder oc., silicon lottery laten we maar zeggen. Ik ben eigenlijk ook wel een beetje klaar met die enorme hitte's van AMD en hoger stroomverbruik.Toch nog even kijken wat customs Vega gaan doen:)
Ik zit met precies hetzelfde dilemma, altijd AMD gehad. Eerst een 290x en toen een fury x en daarom ook een freesync 144hz paneel gekocht.

Ik ga binnenkort ook een 1080ti halen (ben klaar met het falen van AMD) en dan draai ik hem op me freesync monitor. Dit is uiteraard geen probleem alleen kan je de freesync functie niet meer gebruiken. Ik heb het van de week eens getest of het echt nog nodig is op zulke framerates door de freesync uit te schakelen. Ik merkte er zeer weinig van moet ik zeggen.

Maar een ieder zijn waarneming is anders. Ik zou dus zeggen draai een game op 144 fps zonder freesync en test het voor jezelf om erachter te komen :)
De vraag blijft bij mij dan nog

Freesync + vega 64 1440p 144hz vs 1440p 144hz met 1080 Ti.
Ondanks het ontbreken van freesync of gsync zou optie twee toch veel beter moeten performen?
Ja dat zeker. Qua FPS zit je veel hoger. De freesync is een extra functie op je scherm die vooral de dips onder de 60 fps opvangt en je beeld smooth houdt. Maar met een 1080ti kom je daar niet snel onder ook niet met 1440p!!

Kijk maar naar de verschillende benchmarks op youtube...
Als je een game als Ghost Recon Wildlands pakt en dan op ultra onder de 60 fps dipt mis je het dan ook niet? (Serieuze vraag, zit zelf te twijfelen over G-sync monitor vs 200 euro goedkopere freesync).
Heb met mijn vorige R9 390 ook de FreeSync optie op mijn monitor gebruikt en dat was zo smooth zonder screen tearing. Heb zelf maar een 60Hz FreeSync monitor die OC'ed naar 75Hz als de FreeSync optie geactiveerd is. Vind toch dat dat veel aangenamer speelt. Heb voor men Vega een 1070 gehad en dat speelde ook zeker deftig op dezelfde monitor, maar zonder die FreeSync viel het wel op dat het niet zo smooth speelde.

Als je een FreeSync met een 1080Ti koopt dan kan je alleszins niets met de FreeSync aanvangen, het zal sowieso wel smoother spelen, maar verder geen idee van. Heb nooit hoger dan 75Hz gehad.

Die Vega stock koelers zijn echt brol, max temps waren 85°C zonder enige moeite en fan in overdrive op 3000rpm, heb enkel een ref. kaart gekocht omdat ik toch al een custom loop had. Nu is de max temp maar 40°C onder 100% load na uren aan één stuk te gamen.
Volgens mij versturen ze nu alleen nog maar naar adressen in Duitsland (was in het begin niet). Hetzelfde geld voor Mindfactory en volgens mij ook Caseking.

In de UK kan je wel bestellen en het naar NL laten komen.
Heb de mijne de 16de augustus besteld bij Alternate Duitsland en ze hebben zonder problemen deze aan mijn uitgeleverd. Wat ze in het verleden niet deden bij Alternate. De bestellingen die binnenkwamen van de Duitse site werden gewoon doorgestuurd naar de desbetreffende shop waar de koper woont.

[Reactie gewijzigd door Ascari op 24 juli 2024 06:03]

Met de RX480 kon het wel.
Maar laatst ik na de launch een kaart had besteld dus de 17-18e werd hij doorgezet naar alternate.nl en die zijden dat ze hem niet mochten leveren. Heb nog aangegeven dat het eerst wel kon ze zijden toen nu mag het niet. Dus geen idee of het nu wel kan. Wellicht mag het alleen bij die goedkope Vega kaarten niet.

In engeland mag je van de veel duurdere versie (die de MSRP niet haalt) wel meer dan 1 bestellen. Van de MSRP versie maar max 1. Wellicht is het hier ook zo iets?
Had ook eerst gedacht dat men bestelling niet doorging, maar bleek uiteindelijk zonder problemen te gaan. Misschien inderdaad zoals je zegt dat het enkel met de Black versies kon ofzo. Geen idee.
Heb wel redelijk wat betaald voor men 64, dus misschien daarom en dat ze niet verkrijgbaar zijn in België en Nederland ofzo.
Het is al even geleden dat ik nog eens iets bij caseking gekocht heb, maar op hun website kan je nog altijd een adres in België ingeven bij je winkelmandje. Misschien zijn ze hun website vergeten updaten, maar voorlopig ga ik er toch van uit dat ze nog naar het buitenland leveren.
Bij mindfactory is dat ook het geval, je kan perfect alles invullen totdat je bij afrekenen komt, dan ben je verplicht om een geldig BTW nummer in te geven, wat ik dus niet had. Bij Caseking is het al even geleden dat ik daar nog besteld heb, laatste was mijn gaming chair begin dit jaar.
Mwoa, zoveel scheelt het niet meer met sommige monitoren....
https://www.alternate.nl/...ml/productRatings/1333561?
Kan nog goedkoper, hoor. Als je een FreeSync kiest. Dus een 1080 plus G-Sync monitor komt nog steeds duurder uit dan een Vega 64 plus FreeSync monitor.
https://www.alternate.nl/...duct/1300952?event=search

[Reactie gewijzigd door Ascari op 24 juli 2024 06:03]

Nee, dat scherm heeft 60hz en 75hz met freesync.
De AOC gsync heeft 100hz.

vergelijkbare freesync monitoren zijn 800+ euro
Die AOC heeft ook geen echt IPS paneel, maar een MVA, wat een aantal nadelen heeft, dus effectieve 34" 1440p IPS G-Sync monitoren zijn nog een pak duurder.
Plus 75Hz t.o.v. 100Hz is maar 25Hz verschil, amper merkbaar, imho.
De monitoren met freesync van 800 euro hebben ook VA. Die zijn dus direct vergelijkbaar (3440x1440, 100hz, VA). De AOC heeft zelfs 35" ipv 34".

De freesync variant met die paneel is nog niet uit:
pricewatch: BenQ EX3501R HDR Curved Aluminium, Zilver, Zwart

En 75>100 is een gigatisch verschil.

Ik ben overigens al tijden opzoek naar een freesync monitor, en had er misschien al een gekocht als Vega voor een normale prijs beschikbaar was. Maar de verschillen worden steeds kleiner.

[Reactie gewijzigd door DoubleYouPee op 24 juli 2024 06:03]

Ook de reden waarom ik imho heb gepost. In mijn mening is het verschil minimaal.

Vega zit op dit moment ook in vroege Alpha fase, dus prestaties zullen normaal wel nog moeten stijgen.
Er moeten nog veel bugs uitgewerkt worden. Net hetzelfde als met de RX400 reeks toen die uitkwamen, toen konden ze een R9 390 nog niet verslaan, nu kunnen ze een GTX1060 al gemakkelijk aan.
Vega kickstarter edition. Alpha version... en toch de hoofdprijs betalen.
Kan niet vind ik.

Ik wacht inderdaad nog wel even. Misschien rond december een Vega 56 met betere koeler en die nieuwe BenQ...Moet de prijs wel ver onder de 1070/1080, anders ga ik naar nvidia.

[Reactie gewijzigd door DoubleYouPee op 24 juli 2024 06:03]

Inderdaad, had niet gedacht dat de drivers niet zo schitterend zijn. Zelfs Crossfire is nog niet ondersteund, terwijl dat bij de Frontier Editions wel het geval is.
Ze hebben inderdaad een aantal steken laten vallen en misschien het een beetje overhyped.

Wilde zelf eigenlijk ook een 56 maar kon niet wachten tot de 28ste, zat tijdelijk met een R5 270 omdat X99 geen onboard heeft, dus ja.
Plus als ze zo snel uitverkocht waren bij meerder winkels, zoals de 64 op dat moment, wilde ik het niet riskeren.
Dat klopt daar is die wel leverbaar ind. Maar ik persoonlijk heb nog nooit in het buitenland besteld.
Hoogstwaarschijnlijk komt de Vega 64 alsnog in me systeem straks :)
Wil hem wel graag hebben.
Is helemaal niet moeilijk. Je plaatst de bestelling via de website en je krijgt nadien een offerte dat je moet bevestigen met welke betalingsoptie je wil betalen, heb de mijne met Paypal betaald, en dan sturen ze je een linkje om de betaling inorde te brengen. Eens dat inorde is krijg je een mail met de tracking en na 2 dagen is het geleverd met UPS. Verzendkosten naar België was €10. Dus valt al bij al goed mee eigenlijk. Wilde die kaart eigenlijk ook lokaal kopen maar hier zijn ze echt te duur, als ze leverbaar zijn.
Wat ben jij een nvidia fanboy, zeg. AMD is helemaal niet slecht.
Nvidia zou ook gemakkelijk gebruik kunnen maken van FreeSync moesten ze de drivers van hun kaarten aanpassen. Maar guess what? Dat doen ze niet, ze hebben helemaal geen interesse in de gebruikers, enkel maar om zoveel mogelijk geld te verdienen aan hun G-Sync modules en zo snel mogelijk achter elkaar nieuwe kaarten uitbrengen.

Proficiat dat je bij Pascal blijft, ben er zelf van afgestapt, had een 1070 hiervoor, drivers waren zo slecht dat het niet meer leuk was.

G-Sync en FreeSync zijn exact dezelfde technologieën, dus geen goede of slechte technologie, het enigste verschil is dat FreeSync Open-Source is en G-Sync een dure module is. Maar dat wist je waarschijnlijk niet, blijf jij maar door je groene bril zien. 8)7
Proficiat dat je bij Pascal blijft, ben er zelf van afgestapt, had een 1070 hiervoor, drivers waren zo slecht dat het niet meer leuk was.
Grappig, gevalletje your mileage may vary, zo ben ik enkele maanden terug (Mei) overgegaan naar een 1080Ti en ondervind geen enkele problemen met inmiddels al 2+ maanden oude drivers.
Moet ik wel zeggen dat de Pascal architectuur al langer uit is als deze kaart, maar het draait gewoon vlotjes vanaf de release.

Twee vrienden hebben al langere tijd een 1080 en 1070 en daar ook geen enkel probleem mee, zelfde geldt voor een vriend die rond dezelfde tijd als ik voor 1080Ti SLI is gegaan.

Zelfs een vriend met SLI 780 is recentelijk over gegaan naar een 1080Ti, wilde naar eigen zeggen van Nvidia af vanwege hun 'praktijken' en de vele bugs die hij ervaart met zijn SLI opstelling, en is dus bijna tot het einde blijven wachten tot er meer informatie kwam over Vega, heb hem echter nog niet horen klagen.

Gebruik Nvidia al zo'n 15 jaar en eigenlijk weinig last gehad van echte driver problemen, performance degradatie door drivers is in ieder geval lulkoek.

Overigens tja, dat gedoe omtrent G-sync en Freesync, Nvidia wilt een ervaring garanderen d.m.v die module en alle controle houden over hun ecosysteem, ik gebruik het zelf al anderhalf jaar en het werkt vlekkeloos en volledig zoals verwacht binnen de gehele ondersteunde refresh rate range, terwijl je bij AMD echt afhankelijk bent van hoe goed de monitor zelf ermee omgaat.

Doet me denken aan wat Nvidia doet met SLI, ze verbieden SLI gebruik indien de tweede videokaart in een PCI-E 4x slot zit, ze willen aan hun eigen kwaliteitseisen voldoen en proberen te voorkomen dat ze een stortvloed van negatief commentaar krijgen vanuit hun gebruikers dat het niet zo snel werkt zoals verwacht.

Een tweaker is wel slimmer maar de algemene casual gebruiker zal het niet begrijpen, echter vind ik wel dat het configuratiescherm een melding moet tonen dat het PCI-E 4x slot niet ondersteund wordt, dan gewoon de gehele activatie optie weg te laten.

Natuurlijk willen ze op deze manier ook wel R&D kosten terug verdienen, het stelt hun immers wel instaat producten aan de man te brengen die tegenwoordig moeilijk te verslaan zijn.
Opensource is een leuk idee, maar je krijgt niet altijd hetzelfde niveau van kwaliteit, maar sowieso wel meer vrijheid.

Maar ach iedereen moet gewoon de producten kopen waarbij ze zich thuis voelen, we kunnen elkaar wel blijven aanvallen om persoonlijke voorkeuren maar dat haalt eigenlijk maar weinig uit.
Heb een aantal maanden achter elkaar steeds de laatste drivers geïnstalleerd, helaas inclusief de bugs en problemen.
Nadien gewoon oudere drivers gebruikt zonder problemen.

Was zeker tevreden van mijn 1070, maar vind het niet kunnen dat de drivers zoveel problemen hebben/hadden. Op dat vlak zijn AMD's drivers vele beter sinds de RX400 reeks.

Met FreeSync heb je een gelijke ervaring enkel zonder die Premium prijs te betalen omdat het Open-Source is.

Vind, persoonlijk ook dat CFX toch wat beter functioneert dan SLI. Heb een tijdje geleden met mijn HD5970's in CFX nooit dergelijke problemen gehad, liep heel vlot.

De enigste reden dat ik ben afgestapt van nvidia was doordat ik een FreeSync monitor heb en het het niet waard vond om een duurdere G-Sync monitor aan te kopen. Nu met die Vega 64 te hebben gekocht hoop ik toch stiekem op betere prestaties, wat er zo te zien wel aankomt, de laatste nieuwe die vandaag zijn uitgekomen lossen veel problemen op.

Dus inderdaad zoals je zegt, to each their own. Vond gewoon die belachelijke comment er een beetje over. Alsof AMD zo slecht is. Heb jaren AMD GPU's gehad en stuk voor stuk nooit problemen gehad. Ben er zeker tevreden van.
Helaas een beter product gekocht? Mis ik iets? :D
Beetje zuur voor Blaat. Lever je je nieuwe aankoop in om te laten testen, is de conclusie dat het eigenlijk een miskoop is en dat je voor een Nvidea had moeten gaan.
Blaat Moderator Harde Waren @jjeggink7 september 2017 09:43
Op zich was dat geen verrassing hoor. ;)

Gelukkig heb ik het voor elkaar gekregen de kaart 10% sneller te laten lopen tegen ~170w minder verbruik. Icm een freesync scherm maakt dat de boel een stuk behapbaarder. :)
Dus zonder Crypto miners lagen prijzen lager en zou dat de conclusie beïnvloeden.

Leuk...
Tja dat is nou eenmaal de realiteit. Zonder Chineze goedkope arbeid lagen de prijzen waarschijnlijk ook anders...

Er zijn zo veel factoren die invloed hebben op verkrijgbaarheid en prijs. Daarnaast is de kaart zonder cryptominer ook wel duurder hoor, en dus nog steeds in vrijwel alle opzichten de grote verliezer ;)

[Reactie gewijzigd door watercoolertje op 24 juli 2024 06:03]

Dat is inderdaad een punt wat mij ook opviel, het volgende stukje is volstekte onzin:

Nu AMD een week of drie de tijd heeft gehad sinds de introductie van de RX Vega-kaarten, is het beeld dat zich langzaam aftekent voor het rode kamp niet best. De kaarten zijn nog altijd slecht verkrijgbaar en zijn veel te duur door die slechte verkrijgbaarheid en dankzij crypto-miners.
AMD verkoopt dus gewoon alles wat ze kunnen produceren en ze kunnen daarbij de marges opschroeven. Klinkt alsof ze het fantastisch doen.

Het is natuurlijk jammer voor de gamende consument, maar dat mag de pret voor AMD vast niet drukken.

Dit is net zo'n klacht als "Het gaat slecht met BMW want ik kan hun snelste modellen niet betalen". Well, boohoo.:P
Het slechte voor BMW als al hun modellen gekocht worden door professionele racers, of verzamelaars die ze in een garage neerzetten, is dat als er jarenlang geen BMW's op de weg te zien zijn, de merknaam BMW vergeten wordt onder de normale consumenten. En je wilt niet alleen afhankelijk zijn van 1 specifieke groep, die er elk moment mee kunnen ophouden.
Er zijn genoeg exotische automerken die zich daarmee prima kunnen redden.
Ik ben wel met je eens dat er een zeker risico inzit, maar vooralsnog kan AMD daar weinig aan doen behalve dan bakken met geld verdienen om meer productiecapaciteit te kunnen kopen.
Dat eerste stuk gaat ze nu waarschijnlijk wel redelijk af.
Mis ik iets of gaat er iets niet helemaal goed met de weergave benchmarks?
Je bent niet de enige, bij mij is alles leeg.
Inderdaad. Zag alleen maar tekst. Maarja dacht eerst dat het er aan lag dat het nog vroeg in de ochtend is. Hahah
Idem hier , een review zonder grafiekjes :)
Daar ging inderdaad iets mis, als het goed is is het nu voor iedereen zichtbaar :)
Hulde! _/-\o_
Met andere woorden, je kan het beste de GeForce GTX 1080 kopen, de Vega 64 Liquid is ongeveer net zo snel als de GeForce GTX 1080, maar de Vega 64 Liquid gebruikt 2x zo veel stroom dan een Geforce GTX 1080 in spellen, wat extreem veel meer stroom verbruikt, erg jammer had liever een AMD grafische kaart gezien die net zo snel was en net zo veel stroom gebuikt, en de GeForce GTX 1080 is een stuk goedkoper.

[Reactie gewijzigd door AmigaWolf op 24 juli 2024 06:03]

Klopt, de waarden van de RX 580 kloppen voor geen meter bijvoorbeeld, consistent 15-20% slechter dan mijn eigen RX 580 bijvoorbeeld, dus in hoe verre kloppen de overige waarden.
De grote achilleshiel van de Vega-kaarten blijft echter het opgenomen vermogen. In onze benchmark, waarbij we alleen het vermogen van de videokaart meten, verstookt de Liquid-kaart het dubbele vermogen van de GTX 1080.
Dus het wordt ook een stuk warmer. Geen probleem voor towerkasten met een stevige voeding en voldoende ventilatie, maar wel een probleem bij compacte builds. De GTX 1080 kan bijvoorbeeld in een kleine behuizing gepropt worden met net voldoende ventilatie. Dat gaat met een Vega niet gebeuren, tenzij je een minioven wilt hebben.

[Reactie gewijzigd door The Zep Man op 24 juli 2024 06:03]

Een minioven die tegelijkertijd bitcoins voor je minet en een pizza klaarmaakt :)
Slow cooking, luchtgedroogde ham :Y)

Hoef je niet eens de keuken in na een gamingsessie, kast open en bord erbij. :P
Denk niet dat een watergekoelde kaart zoveel warmer gaat worden als een luchtgekoelde kaart, ook al verbruikt hij het dubbele
Natuurlijk wel, de warmte moet ergens weg, 300w is 300w, hoe je het ook koelt.

[Reactie gewijzigd door Vayra op 24 juli 2024 06:03]

"Nu AMD een week of drie de tijd heeft gehad sinds de introductie van de RX Vega-kaarten, is het beeld dat zich langzaam aftekent voor het rode kamp niet best. De kaarten zijn nog altijd slecht verkrijgbaar en zijn veel te duur door die slechte verkrijgbaarheid en dankzij crypto-miners."

Ik zie niet in hoe de populariteit bij crypto-miners niet best is voor AMD. Als er zoveel vraag is naar het product dat alle stock meteen verkocht wordt, zal het hen worst wezen dat het niet gekocht wordt door de initiële doelgroep.
Omdat grote serverfarms worden opgezet met deze kaarten terwijl de consument er niet van kan genieten.


Btw, ik ga denk ik een vega halen als ze droppen in price... die 10-20 fps wat nvidia meer heeft kan me weinig schelen >_<
Kwestie van de productiecapaciteit op te schroeven om aan de vraag te kunnen voldoen. Again, een verkochte kaart is een verkochte kaart, wie ze koopt is van minder belang.
dat is helaas geen simpele kwestie

Op dit item kan niet meer gereageerd worden.