Door Jelle Stuip en Willem de Moor

AMD RX Vega Review

De Vega 64 en Vega 56 getest

14-08-2017 • 15:29

244

Multipage-opmaak

Inleiding

Toen AMD in de zomer van 2016 de RX 480 presenteerde, benadrukte de fabrikant twee dingen: de kaart was in staat om vr-games te draaien en hij moest dankzij de prijs van 199 dollar bijzonder betaalbaar worden. Hoewel op beide punten uiteindelijk wat bleek af te dingen, was duidelijk dat AMD met de RX 480 niet de GTX 1080 wilde verslaan, maar de massa wilde bedienen en wilde concurreren op prijs-prestatieverhouding. De codenaam van de kaart die de GTX 1080 wel het leven zuur moest maken, was toen ook al bekend: Vega.

AMD RX Vega

Sinds dat moment verbeterde AMD de RX 480 nog enigszins, wat de RX 580 opleverde. Nu is het echter tijd voor het serieuze grafische werk. Daarvoor stuurde AMD ons een RX Vega 64 Air, met een gpu waarbij alle 4096 compute-cores hun werk kunnen doen, maar zonder waterkoeling dus. We hebben de kaart getest op snelheid in games, geluidsproductie en verbruik, en we hebben natuurlijk gekeken hoeveel waar Vega voor je geld biedt en of Nvidia er nu een high-end concurrent bij krijgt.

Volgens AMD is de Vega-architectuur volledig nieuw gebouwd met een aantal doelen voor ogen. Zo moest Vega geschikt zijn voor games met grote werelden en veel details, maar ook deep-learningworkloads en rendering van 3d-objecten goed aankunnen. Daarop is de architectuur op een aantal punten toegespitst en ook de omliggende hardware is daarop ingericht.

Vega 10 of gcn

Laten we met het begin beginnen en de grote lijnen van deze Vega 10-architectuur, zoals deze eerste generatie Vega bij AMD heet, in kaart brengen. Er zijn en komen nog diverse kaarten die met deze architectuur zijn uitgerust, maar voor de duidelijkheid hebben we het hier primair over de gpu zoals die in de AMD RX Vega 64 te vinden is. De gpu's RX voor Vega, de consumentenkaarten met de Vega 10-architectuur, zijn opgebouwd uit 12,5 miljard transistors die op 14nm geproduceerd worden. AMD laat Vega door Global Foundries op het 14nm-lpp finfet-procedé maken. De Vega 10-architectuur maakt gebruik van de vijfde generatie Graphics Core Next, maar de compute-units daarvan zouden dermate veranderd zijn dat AMD spreekt van Next Generation Compute Units.

Vega 10 die en getallen

De gpu met 12,5 miljard transistors beschikt over één graphics-engine, vier asynchrone compute-engines en evenveel geometry-engines. Elke compute-engine stuurt zestien compute-units aan, goed voor 64 in totaal. Er zijn vier texture-units per compute-unit en één render-unit per cu. Elke cu is natuurlijk weer onderverdeeld in streamprocessors en met 4096 streamprocessors in totaal zijn dat er 64 per cu. Dan is er nog 1MB L2-cache voor elke compute-engine, oftewel 4MB L2-cache in totaal, twee keer wat Polaris aan boord heeft. Dat is lang niet al het geheugen, want in totaal bevat de gpu 45MB sram. Zo heeft een compute-unit 16kB L1-cache en 64kB lokale dataopslag, en natuurlijk vector- en scalarregisters, goed voor viermaal 64kB en 4kB respectievelijk. In totaal telt Vega dan ook 45MB aan sram-geheugen. Het die-oppervlak daarvan is binnen de perken gehouden door samenwerking met het Zen-team, dat ook veel sram op weinig oppervlakte gebruikt.

Dat sram-ontwerp is niet het enige wat van het Zen-team gebruikt wordt. Ook het Infinity Fabric uit de Zen-architectuur vinden we terug in Vega. In de toekomst kan dat voor efficiënte communicatie met Zen-cores gebruikt worden, denk aan de komende Raven Ridge-apu's, maar vooralsnog dient het onder meer om de timings juist te krijgen. Zo'n grote chip moet natuurlijk een gesynchroniseerd kloksignaal hebben en dankzij het Infinity Fabric kan AMD een veel sneller kloksignaal gebruiken dan bij Polaris. Die architectuur was voor ongeveer 1,3GHz ontworpen, maar Vega is voor zo'n 1,7GHz gemaakt, met volop ruimte voor snellere kloks. Vergeleken met AMD's vorige high-end generatie Fiji is het verschil nog groter; de Fiji-architectuur was voor 1GHz ontworpen.

Vega 10-blokdiagram

AMD prijst Vega aan als een nieuwe architectuur, maar als we even het Infinity Fabric en het geheugen, waar we zo direct dieper induiken, daar laten, dan is Vega in beginsel gewoon de bekende gcn-architectuur met vier asynchrone compute-units, net als Fiji, Polaris en voorgangers. We zullen de verschillen moeten zoeken in het geheugenbeheer, de software en de manier waarop AMD 16bit-rekenkracht inzet.

Hbm2 en de hbcc

De eerste generatie hbm-geheugen, een afkorting voor high bandwidth memory, werd al in 2015 met de Fury- en Fury X-kaarten toegepast als sneller alternatief voor gddr5-geheugen. De gedachte achter hbm is dat de geheugenbus door de nabijheid van de asic veel breder kan zijn dan bij gddr5, waardoor de kloksnelheid bij gelijke bandbreedte omlaag kan en het energiegebruik ook daalt. Bovendien is de constructie van asic en hbm op een interposer veel compacter dan traditionele ontwerpen met gddr-geheugen verder van de gpu. De RX Vega-kaarten gebruiken de tweede generatie hbm, wat dankzij een 1024bit-interface en tot acht dies per stapel hbm2-geheugen dubbele snelheden kan halen vergeleken met hbm. In Vega worden echter stacks van vier dies gebruikt voor 8GB in totaal, met een bandbreedte van 484GB/s, iets minder dan Fiji XT.

Gpu Vega 64 Fiji XT (Fury X) GP102 (1080 Ti) GP104 (1080)
Geheugen Hbm2 Hbm gddr5x gddr5x
Capaciteit 8GB 4GB 11GB 8GB
Kloksnelheid 945MHz 500MHz 1375MHz 1250MHz
interface 2048bit 4096bit 352bit 256bit
Bandbreedte 483,8GB/s 512GB/s 484GB/s 352GB/s

Ter vergelijking: de Fury X-kaarten hebben hbm-geheugen met een 4096bit-interface en een kloksnelheid van 500MHz voor een bandbreedte van 512GB/s. De 1080 Ti-kaarten hebben gddr5x-geheugen met een 352bit-interface en een kloksnelheid van 1376MHz, wat een bandbreedte van 484GB/s oplevert. De 1080 Ti heeft dus evenveel geheugenbandbreedte als de RX Vega 64 en de gewone 1080 heeft 320GB/s, dankzij een kloksnelheid van 1250MHz en een bus van 256bit.

Het geheugen wordt beheerd door de hbcc, oftewel de high-bandwidth cache controller, zo genoemd omdat het hbm2 als last level cache voor de gpu ingezet wordt. Deze controller stuurt uiteraard het hbm2 aan, maar is daar niet toe beperkt. Als de gebruiker of de driver dat wil, kan ook systeemgeheugen en zelfs opslaggeheugen als een ssd aan de gpu worden toegewezen. Veelgebruikte data die niet in de on-die-caches zit, wordt uiteraard in de snelste geheugenlaag, het hbm2, opgeslagen. Als dat nodig is, bijvoorbeeld bij grote textures of werelddetail, kan werkgeheugen of flashstorage, waaronder ook bijvoorbeeld Optane-nvdimms, benut worden. In totaal kan op deze manier 512TB virtueel geheugen worden aangesproken.

Pages met hbcc

De hbcc organiseert data in pages, zodat het geheugenbeheer eenvoudiger wordt en data opgesplitst kan worden, waardoor alleen die data in het snelle geheugen kan blijven die direct nodig is. Bovendien kunnen de geheugenpages variabele capaciteit hebben, met het meestgebruikte bereik van 4 tot 128kB, maar 2MB is ook mogelijk. Grotere pages zijn handig voor sequentiële toegang tot data, terwijl de kleine pages voor mindergebruikte data handiger zijn. De cache kan door de hbcc zowel inclusive als exclusive worden gebruikt, waarbij het exclusive cachemodel hbm2 en dram als gecombineerde geheugenlaag behandelt en de inclusive cachemodus juist een scheiding tussen hbm2 en dram handhaaft.

Cache-modes Vega hbcc

Het uiteindelijke nut van dit soort features is nu nog lastig te voorspellen. Developers moeten van dit soort features gebruik willen maken om er voordeel uit te halen. In de Wattman-instellingen kun je wel per game aangeven of en hoeveel geheugen voor de hbcc beschikbaar is. Als je dat aanzet, is er minimaal 11 en maximaal 24GB beschikbaar op ons testsysteem.

De Next-gen compute-unit

Zoals we al aangaven, is Vega 10 nog altijd gebaseerd op inmiddels de vijfde generatie van het gcn-principe, maar volgens AMD heeft het voldoende grote veranderingen gekregen om de naam Next Generation Compute Unit te rechtvaardigen voor de basisbouwstenen van de gpu: de compute-units. De vier asynchrone compute-engines krijgen elke vier kloktikken een instructie aangeleverd via een 4-stage pipeline, waardoor de effectieve rekenkracht één instructie per klok bedraagt.

Vega next gen compute unit

AMD heeft veertig nieuwe instructies aan de isa toegevoegd, die de ipc samen met de hogere kloksnelheid verder moeten verbeteren. Zo zijn er nieuwe instructies voor videoprocessing, adressering en, niet onbelangrijk gezien de verkrijgbaarheid van de 5xx-kaarten, instructies die de mining van cryptovaluta verbeteren. We hebben overigens wat miningbenchmarks gedraaid en in daggerhashimoto voor Etherium-mining haalden we met standaardinstellingen ongeveer 30 gigahashes. Met het geheugen overgeklokt tot 1100MHz steeg dat naar ongeveer 34 gigahashes, maar er is ongetwijfeld nog verbetering mogelijk, aangezien de mining-algoritmes nog niet zijn geoptimaliseerd.

Vega rapid packed mathNaast de nieuwe instructies heeft AMD de simd-rekenkracht verbeterd door onder meer Rapid Packed Math te introduceren. Daarmee wordt waar mogelijk 16bit-precisie in plaats van 32bit-precisie gebruikt, wat resulteert in dubbele effectieve registergroottes, een verdubbelde floatingpointsnelheid en minder energiegebruik dan 32bit-berekeningen. Niet alleen de floatingpoint- maar ook integerberekeningen zijn in 16bit uit te voeren. Dat is vooral handig voor de nabewerking van frames, zoals bloomeffecten, procedural surfaces en volume lighting. Die leveren bij 16bit-effecten in 3dMark Serra volgens AMD's testresultaten respectievelijk 20, 24 en 25 procent prestatiewinst op.

Die Serra-benchmark werd speciaal voor AMD ontwikkeld. Developers zullen moeten kiezen of effecten de precisie van 32bit-berekeningen nodig hebben of ook met minder precisie toe kunnen en sneller via Rapid Packed Math in 16bit uitgevoerd kunnen worden. Sommige onderdelen, zoals de ai van een game, zouden zelfs in 8bit-precisie kunnen worden uitgevoerd, voor een viermaal zo hoge snelheid als de standaard-32bit-precisie. Een daadwerkelijk praktische toepassing van Rapid Packed Math zou de nog te verschijnen game Wolfenstein II New Colossus zijn; die kan met AMD's technieken overweg voor betere prestaties.

Vega geometry pipelineDe rasterization, de vertaling van vectorafbeeldingen in pixels, is verbeterd en maakt nu gebruik van conservative rasterization, waardoor minder pixels gerenderd hoeven worden. Dat levert weer prestatiewinst op, net als verbeteringen en uitbreidingen in de shaders. Die hebben met Vega een uitbreiding gekregen waardoor vertex- en primitive shaders gecombineerd worden, wat onder meer het cullingproces, het weglaten van niet-zichtbare pixels, verbetert. Die techniek moet echter nog geïmplementeerd worden, maar eenmaal actief zou dat aanzienlijke winst opleveren.

Veel van AMD's technieken zijn sterk afhankelijk van gamedevelopers en hun bereidheid die technieken te implementeren. Sommige technieken, zoals het gebruik van de hbcc, kunnen automatisch via de DX12-api beheerd worden, maar ontwikkellaars kunnen dat ook programmatisch doen. Andere technieken zijn wel puur afhankelijk van implementatie en AMD wil ontwikkelaars daarom tools in handen geven om ze daarbij te helpen. Een van de krachtigste hulpmiddelen zou analyse van de workflow in de gpu's zijn; alle gcn-cores hebben ondersteuning voor de gpu-profiler via een developermodus in de driver, zodat ontwikkelaars op gedetailleerd niveau kunnen zien waar bottlenecks zitten en die kunnen verbeteren. Samen met volledige en low-level-access tot de hardware, net als bij de gpu's in gameconsoles, zouden toekomstige games optimaal gebruik moeten kunnen maken van de Vega-architectuur. In hoeverre dat nodig zal zijn, zullen we aan de benchmarks van de huidige games zien.

Testsysteem en drivers

Intel bracht onlangs zijn nieuwe high-end desktopprocessors uit, samen met een nieuw platform: socket 2066. We hebben ons testplatform daarom geüpgraded met een Core i9-processor die is overgeklokt naar 4,5GHz, 32GB ddr4-geheugen op 3200MT/s en twee Samsung-ssd's van 1TB voor de opslag van games. Voor een enkele videokaart is de 1600-wattvoeding te veel van het goede, maar voor het testen met twee of meer videokaarten konden we dat vermogen goed gebruiken.

Testsysteem
Moederbord Asus Strix X299-E Gaming
Processor Intel Core i9-7900X @ 4,5GHz
Geheugen G.Skill Trident Z 32GB DDR4-3200 CL14
Ssd 2x Samsung 850 EVO 1TB
Voeding Superflower Leadex 1600W Platinum
Behuizing CoolerMaster Test Bench
Besturingssysteem Windows 10 Pro

De kaarten in de tests op de volgende pagina's zijn met recente drivers getest. De Nvidia-kaarten zijn met de 384.76- of 384.94-driver getest. Tussen beide drivers zit weinig verschil; de nieuwste bevat alleen optimalisaties voor games die we voor deze review niet hebben gedraaid. De AMD-kaarten zijn getest met de 17.7.1-driver. De videokaarten die we hebben gebruikt, zijn voor zover mogelijk de referentie-exemplaren die we van de fabrikant hebben ontvangen. Als dat niet het geval is, omdat er bijvoorbeeld geen referentie-exemplaar beschikbaar was, hebben we de kaarten teruggeklokt naar de standaardsnelheden.

AMD RX Vega

Specificaties

We hebben de Vega 64 en Vega 56 getest en vergeleken met een aantal van hun directe concurrenten. Van de belangrijkste kaarten hebben we de specificaties op een rijtje gezet. De Vega 64 Liquid hebben we niet getest, maar wel in de tabel opgenomen.

Kaart Vega 64 Vega 56 Vega 64 Liquid Fury X GTX 1080 Ti GTX 1080 GTX 1070
Gpu Vega 10 Vega 10 Vega 10 Fiji XT GP102 GP104 GP104
Stream/shaderprocessors 4096 3584 4096 4096 3584 2560 1920
Texture-units 256 224 256 256 224 160 120
Rops 64 64 64 64 88 64 64
Kloksnelheid 1247MHz 1156MHz 1406MHz 1050MHz 1480MHz 1607MHz 1506MHz
Boostsnelheid 1546MHz 1471MHz 1677MHz 1050MHz 1582MHz 1733MHz 1683MHz
Geheugen 8GB hbm2 8GB hbm2 8GB hbm2 4GB hbm 11GB gddr5x 8GB gddr5x 8GB gddr5x
Geheugenbandbreedte 483,8GB/s 483,8GB/s 483,8GB/s 512GB/s 484GB/s 352GB/s 256GB/s
Geheugenbus 2048bit 2048bit 2048bit 4096bit 352bit 256bit 256bit
Rekenkracht 12,7Gflops 10,5Gflops 13,7Gflops 8,6Gflops 11,3Gflops 8,8Gflops 6,5Gflops
Transistors 12,5 miljard 14nm GloFo 12,5 miljard 14nm GloFo 12,5 miljard 14nm GloFo 8,9 miljard TSMC 28nm 12 miljard TSMC 16nm 7,2 miljard TSMC 16nm 7,2 miljard TSMC 16nm
Architectuur Gcn 5 Gcn 5 Gcn 5 Gcn 3 Pascal Pascal Pascal
Max. vermogen 295W 210W 345W 275W 250W 180W 150W
Prijs 499 dollar 399 dollar 699 dollar 649 dollar 699 dollar 599 dollar 379 dollar

3DMark en Superposition

We beginnen met de synthetische benchmarks van Futuremark en Unigene. Van 3DMark hebben we DX11-test Firestrike en DX12-test Time Spy gedraaid en Unigines Superposition hebben we in 1920x1080 pixels en 3840x2160 pixels gedraaid.

3DMark Fire Strike (graphics)
Videokaart Gemiddelde score in punten (hoger is beter)
Nvidia GeForce GTX 1080 Ti
27.086
AMD Radeon RX Vega 64 8GB
21.700
Nvidia GeForce GTX 1080
20.946
AMD Radeon RX Vega 56 8GB
18.340
Nvidia GeForce GTX 1070
17.255
Nvidia GeForce GTX 980 Ti
16.130
AMD Radeon R9 Fury X
15.977
AMD Radeon RX 580 8GB
13.628
AMD Radeon R9 390X
12.992
Nvidia GeForce GTX 1060 6GB
12.505
Nvidia GTX 780 Ti
11.274
AMD Radeon RX 570 4GB
11.219
Nvidia GeForce GTX 970
10.824
Nvidia GTX 1050 Ti
7.681

3DMark Time Spy - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
Nvidia GeForce GTX 1080
7.097
AMD Radeon RX Vega 64 8GB
7.014
AMD Radeon RX Vega 56 8GB
5.969
Nvidia GeForce GTX 1070
5.722
AMD Radeon R9 Fury X
5.212
Nvidia GeForce GTX 980 Ti
5.041
AMD Radeon R9 390X
4.140
Nvidia GeForce GTX 1060 6GB
4.068
AMD Radeon RX 580 8GB
4.058
AMD Radeon RX 570 4GB
3.533
Nvidia GeForce GTX 970
3.408
Nvidia GTX 780 Ti
3.141
Nvidia GTX 1050 Ti
2.310

In Firestrike kruipt de GTX 1080 tussen de beide Vega-kaarten in, maar in Time Spy is de GTX 1080 sneller dan beide kaarten. Uiteraard is de 1080 Ti stukken sneller dan alle andere kaarten.

De Unigine-test laat hetzelfde beeld zien; de Vega-kaarten zitten wat prestaties betreft tussen de GTX 1080 en 1070 in.

  • Unigine Superposition - 1920x1080 - High
  • Unigine Superposition - 3840x2160 - Optimized
Unigine Superposition - 1080p - High
Videokaart Gemiddelde in punten (hoger is beter)
Nvidia GeForce GTX 1080
10.924
AMD Radeon RX Vega 64 8GB
9.423
Nvidia GeForce GTX 1070
8.769
AMD Radeon RX Vega 56 8GB
8.348
Nvidia GeForce GTX 980 Ti
7.996
AMD Radeon R9 Fury X
7.584
Nvidia GeForce GTX 1060 6GB
6.228
AMD Radeon R9 390X
6.222
Nvidia GTX 780 Ti
5.831
AMD Radeon RX 580 8GB
5.626
Nvidia GeForce GTX 970
5.208
AMD Radeon RX 570 4GB
4.849
Nvidia GTX 1050 Ti
3.681
Unigine Superposition - 4k - Optimized
Videokaart Gemiddelde in punten (hoger is beter)
Nvidia GeForce GTX 1080
6.448
AMD Radeon RX Vega 64 8GB
5.639
Nvidia GeForce GTX 1070
5.200
AMD Radeon RX Vega 56 8GB
5.009
Nvidia GeForce GTX 980 Ti
4.818
AMD Radeon R9 Fury X
4.613
AMD Radeon R9 390X
3.796
Nvidia GeForce GTX 1060 6GB
3.709
AMD Radeon RX 580 8GB
3.369
Nvidia GTX 780 Ti
3.290
Nvidia GeForce GTX 970
3.135
AMD Radeon RX 570 4GB
2.897
Nvidia GTX 1050 Ti
2.208

Dragon Age: Inquisition en GTA:V

We gaan verder met het eerste duo DX11-games met Dragon Age: Inquisition en GTA V met respectievelijk de Frostbite 3- en RAGE-engines. We hebben getest in drie resoluties, van 1080p via 1440p tot 4k.

  • 1920x1080
  • 2560x1440
  • 3840x2160
Dragon Age: Inquisition - 1920x1080 - Ultra - 2xMSAA
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
147,0
Nvidia GeForce GTX 1080
114,6
AMD Radeon RX Vega 64 8GB
93,7
Nvidia GeForce GTX 1070
90,3
Nvidia GeForce GTX 980 Ti
86,0
AMD Radeon RX Vega 56 8GB
79,5
AMD Radeon R9 Fury X
73,4
Nvidia GeForce GTX 1060 6GB
66,4
AMD Radeon R9 390X
65,9
AMD Radeon RX 580 8GB
64,9
Nvidia GTX 780 Ti
61,0
Nvidia GeForce GTX 970
57,2
AMD Radeon RX 570 4GB
54,4
Nvidia GTX 1050 Ti
37,8
Dragon Age: Inquisition - 2560x1440 - Ultra - 2xMSAA
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
96,2
Nvidia GeForce GTX 1080
73,5
AMD Radeon RX Vega 64 8GB
60,5
Nvidia GeForce GTX 1070
57,7
Nvidia GeForce GTX 980 Ti
55,6
AMD Radeon RX Vega 56 8GB
51,5
AMD Radeon R9 Fury X
49,6
AMD Radeon R9 390X
43,7
Nvidia GeForce GTX 1060 6GB
42,7
AMD Radeon RX 580 8GB
41,4
Nvidia GTX 780 Ti
39,0
Nvidia GeForce GTX 970
36,4
AMD Radeon RX 570 4GB
34,2
Nvidia GTX 1050 Ti
24,7
Dragon Age: Inquisition - 3840x2160 - Ultra - 2xMSAA
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
49,1
Nvidia GeForce GTX 1080
37,7
AMD Radeon RX Vega 64 8GB
32,3
Nvidia GeForce GTX 1070
29,5
Nvidia GeForce GTX 980 Ti
28,6
AMD Radeon RX Vega 56 8GB
27,6
AMD Radeon R9 Fury X
26,9
AMD Radeon R9 390X
23,0
Nvidia GeForce GTX 1060 6GB
21,3
AMD Radeon RX 580 8GB
20,6
Nvidia GTX 780 Ti
19,5
Nvidia GeForce GTX 970
18,2
AMD Radeon RX 570 4GB
17,3
Nvidia GTX 1050 Ti
12,7

In Dragon Age zit de Vega 64 onder de 1080 Ti en 1080, maar de Vega 56 moet niet alleen de 1070, maar ook de 980 Ti voorlaten.

De Vega 64-kaart had flinke moeite de GTA V-test te doorlopen, terwijl de Vega 56 er geen problemen mee had. De data van de Vega 64 ontbreekt dus helaas. De Vega 56 scoort dit keer zelfs onder de GTX 1060, maar gezien de problemen met de Vega 64 kan dat aan de driver liggen.

  • 1920x1080
  • 2560x1440
  • 3840x2160
  • 1920x1080
  • 2560x1440
  • 3840x2160
GTA V - 1920x1080 - Ultra - 2xMSAA (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Nvidia GeForce GTX 1070
13,00
Nvidia GeForce GTX 1060 6GB
14,00
Nvidia GeForce GTX 980 Ti
15,00
Nvidia GeForce GTX 1080
15,00
Nvidia GeForce GTX 970
16,00
Nvidia GTX 780 Ti
16,00
AMD Radeon R9 390X
17,00
AMD Radeon RX Vega 64 8GB
17,00
AMD Radeon RX 570 4GB
18,00
AMD Radeon R9 Fury X
18,00
AMD Radeon RX 580 8GB
18,00
AMD Radeon RX Vega 56 8GB
19,00
Nvidia GTX 1050 Ti
21,00
GTA:V - 2560x1440 - Ultra - 2xMSAA (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Nvidia GeForce GTX 1070
14,00
Nvidia GeForce GTX 1080
15,00
Nvidia GeForce GTX 980 Ti
16,00
AMD Radeon RX Vega 64 8GB
17,00
AMD Radeon RX Vega 56 8GB
18,00
AMD Radeon R9 Fury X
18,00
Nvidia GeForce GTX 1060 6GB
19,00
AMD Radeon R9 390X
20,00
Nvidia GTX 780 Ti
21,00
AMD Radeon RX 580 8GB
21,00
Nvidia GeForce GTX 970
23,00
AMD Radeon RX 570 4GB
25,00
Nvidia GTX 1050 Ti
30,00
GTA:V - 3840x2160 - Ultra - 2xMSAA (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Nvidia GeForce GTX 1080
22,00
Nvidia GeForce GTX 1070
28,00
AMD Radeon RX Vega 64 8GB
29,00
Nvidia GeForce GTX 980 Ti
30,00
AMD Radeon RX Vega 56 8GB
33,00
AMD Radeon R9 Fury X
40,00
Nvidia GeForce GTX 1060 6GB
41,00
Nvidia GTX 780 Ti
41,00
AMD Radeon R9 390X
41,00
AMD Radeon RX 580 8GB
43,00
Nvidia GeForce GTX 970
45,00
AMD Radeon RX 570 4GB
51,00
Nvidia GTX 1050 Ti
63,00

Prey en Project Cars

Prey maakt gebruik van de CryEngine 5 en Project Cars heeft de Madness-engine als drijvende kracht.

  • 1920x1080
  • 2560x1440
  • 3840x2160
  • 1920x1080
  • 2560x1440
  • 3840x2160
Prey - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Nvidia GeForce GTX 1080
6,70
Nvidia GeForce GTX 1070
7,20
AMD Radeon RX Vega 64 8GB
7,66
Nvidia GeForce GTX 980 Ti
8,20
AMD Radeon RX Vega 56 8GB
8,89
AMD Radeon R9 Fury X
9,60
AMD Radeon R9 390X
10,90
Nvidia GeForce GTX 970
11,00
Nvidia GTX 780 Ti
11,20
AMD Radeon RX 580 8GB
11,30
Nvidia GeForce GTX 1060 6GB
11,80
AMD Radeon RX 570 4GB
13,50
Nvidia GTX 1050 Ti
15,80
Prey - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Nvidia GTX 780 Ti
8,80
Nvidia GeForce GTX 1080
9,30
Nvidia GeForce GTX 1070
11,50
AMD Radeon RX Vega 64 8GB
11,90
AMD Radeon R9 Fury X
13,10
Nvidia GeForce GTX 980 Ti
13,50
AMD Radeon RX Vega 56 8GB
14,40
Nvidia GeForce GTX 1060 6GB
17,20
AMD Radeon R9 390X
17,50
AMD Radeon RX 580 8GB
18,50
Nvidia GeForce GTX 970
19,00
AMD Radeon RX 570 4GB
22,10
Nvidia GTX 1050 Ti
26,50
Prey - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Nvidia GeForce GTX 1080
20,50
AMD Radeon RX Vega 64 8GB
25,00
Nvidia GeForce GTX 1070
25,20
AMD Radeon R9 Fury X
27,00
Nvidia GeForce GTX 980 Ti
27,90
AMD Radeon RX Vega 56 8GB
29,90
Nvidia GeForce GTX 1060 6GB
35,50
AMD Radeon R9 390X
37,20
AMD Radeon RX 580 8GB
39,60
Nvidia GTX 780 Ti
39,90
Nvidia GeForce GTX 970
41,40
AMD Radeon RX 570 4GB
48,80
Nvidia GTX 1050 Ti
58,60

In Prey zakt de Vega 56 behoorlijk naar beneden en zitten behalve de GTX 1070 ook de 980 Ti en Fury X boven de kaart.

In Project Cars kruipt de Vega 64 net voor de GTX 1080 in de hogere resoluties en scoort ook de Vega 56 relatief goed.

  • 1920x1080
  • 2560x1440
  • 3840x2160
Project Cars 1 - 1920x1080 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
189,8
Nvidia GeForce GTX 1080
174,9
AMD Radeon RX Vega 64 8GB
166,3
AMD Radeon RX Vega 56 8GB
162,6
AMD Radeon R9 Fury X
141,3
Nvidia GeForce GTX 980 Ti
132,9
AMD Radeon RX 580 8GB
132,6
Nvidia GeForce GTX 1070
128,9
Nvidia GeForce GTX 970
122,6
AMD Radeon R9 390X
119,9
Nvidia GeForce GTX 1060 6GB
119,0
AMD Radeon RX 570 4GB
109,9
Nvidia GTX 780 Ti
105,8
Nvidia GTX 1050 Ti
90,7
Project Cars 1 - 2560x1440 - Ultra
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
162,0
AMD Radeon RX Vega 64 8GB
156,6
Nvidia GeForce GTX 1080
142,0
AMD Radeon RX Vega 56 8GB
141,3
Nvidia GeForce GTX 1070
117,0
AMD Radeon R9 Fury X
116,7
Nvidia GeForce GTX 980 Ti
112,4
AMD Radeon RX 580 8GB
110,9
Nvidia GeForce GTX 970
99,5
AMD Radeon R9 390X
98,6
Nvidia GeForce GTX 1060 6GB
92,9
Nvidia GTX 780 Ti
81,9
Nvidia GTX 1050 Ti
60,0
AMD Radeon RX 570 4GB
57,4
  • 1920x1080
  • 2560x1440
  • 3840x2160
Project Cars 1 - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Nvidia GeForce GTX 1080
7,40
AMD Radeon RX Vega 64 8GB
7,55
AMD Radeon RX Vega 56 8GB
7,65
AMD Radeon R9 Fury X
8,90
AMD Radeon RX 580 8GB
9,90
Nvidia GeForce GTX 980 Ti
10,60
Nvidia GeForce GTX 1070
10,60
AMD Radeon R9 390X
10,60
Nvidia GeForce GTX 1060 6GB
11,20
Nvidia GeForce GTX 970
11,30
AMD Radeon RX 570 4GB
12,00
Nvidia GTX 780 Ti
12,20
Nvidia GTX 1050 Ti
15,60
Project Cars 1 - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
AMD Radeon RX Vega 64 8GB
7,86
AMD Radeon RX Vega 56 8GB
8,87
Nvidia GeForce GTX 1080
9,00
AMD Radeon R9 Fury X
10,50
Nvidia GeForce GTX 1070
11,50
AMD Radeon RX 580 8GB
11,60
Nvidia GeForce GTX 980 Ti
12,00
AMD Radeon R9 390X
12,60
Nvidia GeForce GTX 970
13,60
Nvidia GeForce GTX 1060 6GB
13,90
Nvidia GTX 780 Ti
15,60
AMD Radeon RX 570 4GB
21,80
Nvidia GTX 1050 Ti
21,90
Project Cars 1 - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
AMD Radeon RX Vega 64 8GB
11,70
Nvidia GeForce GTX 1080
13,10
AMD Radeon RX Vega 56 8GB
13,20
Nvidia GTX 780 Ti
14,80
AMD Radeon R9 Fury X
14,90
Nvidia GeForce GTX 1070
15,40
Nvidia GeForce GTX 980 Ti
16,10
AMD Radeon R9 390X
18,40
Nvidia GeForce GTX 1060 6GB
18,70
AMD Radeon RX 580 8GB
19,50
Nvidia GeForce GTX 970
20,80
AMD Radeon RX 570 4GB
23,60
Nvidia GTX 1050 Ti
35,60

The Witcher 3 en Doom

The Witcher 3 met de REDengine 3 aan boord is de laatste DX11-game die we hebben getest en Doom met zijn Id Tech 6-engine is de enige Vulkan-vertegenwoordiger die we hebben getest.

  • 1920x1080
  • 2560x1440
  • 3840x2160
  • 1920x1080
  • 2560x1440
  • 3840x2160
The Witcher 3 - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Nvidia GeForce GTX 1080
12,30
AMD Radeon RX Vega 64 8GB
12,40
AMD Radeon RX Vega 56 8GB
14,20
Nvidia GeForce GTX 1070
15,60
Nvidia GeForce GTX 980 Ti
17,20
AMD Radeon R9 Fury X
18,70
AMD Radeon RX 580 8GB
20,40
Nvidia GeForce GTX 1060 6GB
21,20
AMD Radeon R9 390X
22,90
Nvidia GeForce GTX 970
24,90
AMD Radeon RX 570 4GB
25,00
Nvidia GTX 780 Ti
27,30
Nvidia GTX 1050 Ti
36,00
The Witcher 3 - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Nvidia GeForce GTX 1080
16,10
AMD Radeon RX Vega 64 8GB
16,70
AMD Radeon RX Vega 56 8GB
18,80
Nvidia GeForce GTX 1070
20,60
Nvidia GeForce GTX 980 Ti
22,50
AMD Radeon R9 Fury X
22,90
AMD Radeon RX 580 8GB
27,40
Nvidia GeForce GTX 1060 6GB
28,60
AMD Radeon R9 390X
29,70
Nvidia GeForce GTX 970
32,80
AMD Radeon RX 570 4GB
33,40
Nvidia GTX 780 Ti
35,10
Nvidia GTX 1050 Ti
47,90
The Witcher 3 - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
AMD Radeon R9 390X
26,90
Nvidia GeForce GTX 1080
27,40
Nvidia GeForce GTX 1070
34,60
AMD Radeon R9 Fury X
35,40
Nvidia GeForce GTX 980 Ti
37,90
AMD Radeon RX Vega 64 8GB
39,60
AMD Radeon RX Vega 56 8GB
40,10
AMD Radeon RX 580 8GB
47,20
Nvidia GeForce GTX 1060 6GB
49,20
Nvidia GeForce GTX 970
55,80
AMD Radeon RX 570 4GB
57,40
Nvidia GTX 780 Ti
58,10
Nvidia GTX 1050 Ti
83,00

De twee Vega-kaarten zitten samen tussen de resultaten van de GTX 1080 en die van de GTX 1070 in, hoewel beide kaarten in 4k-resoluties wel wat inzakken wat frametimes betreft.

In Doom is de Vega 64 wat sneller dan de GTX 1080, hoewel de frametimes van de Nvidia-kaart iets beter zijn.

  • 1920x1080
  • 2560x1440
  • 3840x2160
Doom (2016) - 1920x1080 - Ultra - Vulkan
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
200,0
Nvidia GeForce GTX 1080
200,0
AMD Radeon RX Vega 64 8GB
200,0
AMD Radeon R9 Fury X
199,9
AMD Radeon RX Vega 56 8GB
199,2
Nvidia GeForce GTX 1070
195,4
Nvidia GeForce GTX 980 Ti
185,6
AMD Radeon RX 580 8GB
184,6
AMD Radeon R9 390X
178,8
AMD Radeon RX 570 4GB
151,3
Nvidia GeForce GTX 1060 6GB
148,1
Nvidia GeForce GTX 970
124,9
Nvidia GTX 1050 Ti
92,0
Nvidia GTX 780 Ti
85,6
Doom (2016) - 2560x1440 - Ultra - Vulkan
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
199,9
AMD Radeon RX Vega 64 8GB
174,9
Nvidia GeForce GTX 1080
167,0
AMD Radeon RX Vega 56 8GB
153,5
AMD Radeon R9 Fury X
145,0
Nvidia GeForce GTX 1070
130,4
Nvidia GeForce GTX 980 Ti
123,0
AMD Radeon R9 390X
114,3
AMD Radeon RX 580 8GB
114,1
AMD Radeon RX 570 4GB
93,4
Nvidia GeForce GTX 1060 6GB
92,8
Nvidia GeForce GTX 970
78,1
Nvidia GTX 1050 Ti
57,4
Nvidia GTX 780 Ti
56,7
  • 1920x1080
  • 2560x1440
  • 3840x2160
Doom (2016) - 1920x1080 - Ultra - Vulkan (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Nvidia GeForce GTX 1080
5,60
AMD Radeon RX Vega 64 8GB
5,60
AMD Radeon R9 Fury X
5,70
AMD Radeon RX Vega 56 8GB
5,80
Nvidia GeForce GTX 1070
5,90
AMD Radeon RX 580 8GB
6,50
Nvidia GeForce GTX 980 Ti
6,60
AMD Radeon R9 390X
6,90
AMD Radeon RX 570 4GB
8,00
Nvidia GeForce GTX 1060 6GB
8,10
Nvidia GeForce GTX 970
9,50
Nvidia GTX 1050 Ti
13,30
Nvidia GTX 780 Ti
17,60
Doom (2016) - 2560x1440 - Ultra - Vulkan (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
AMD Radeon RX Vega 64 8GB
6,90
Nvidia GeForce GTX 1080
7,20
AMD Radeon RX Vega 56 8GB
7,90
AMD Radeon R9 Fury X
8,40
Nvidia GeForce GTX 1070
9,00
Nvidia GeForce GTX 980 Ti
9,50
AMD Radeon RX 580 8GB
10,50
AMD Radeon R9 390X
11,10
Nvidia GeForce GTX 1060 6GB
12,80
AMD Radeon RX 570 4GB
13,20
Nvidia GeForce GTX 970
14,80
Nvidia GTX 1050 Ti
20,40
Nvidia GTX 780 Ti
29,40
Doom (2016) - 3840x2160 - Ultra - Vulkan (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
Nvidia GeForce GTX 1080
13,80
AMD Radeon RX Vega 64 8GB
14,60
AMD Radeon RX Vega 56 8GB
16,30
Nvidia GeForce GTX 1070
18,00
Nvidia GeForce GTX 980 Ti
18,50
AMD Radeon R9 Fury X
22,30
AMD Radeon RX 580 8GB
22,60
AMD Radeon R9 390X
23,90
Nvidia GeForce GTX 1060 6GB
24,90
Nvidia GeForce GTX 970
29,00
AMD Radeon RX 570 4GB
38,80
Nvidia GTX 1050 Ti
42,70
Nvidia GTX 780 Ti
48,80

Battlefield 1 en Hitman

We gaan verder met DirectX-12-games, met Battlefield 1 en Hitman die het spits afbijten. Battlefield 1 is naast Dragon Age de tweede game met Frostbite 3-engine en Hitman maakt gebruik van de Glacier-engine.

  • 1920x1080
  • 2560x1440
  • 3840x2160
  • 1920x1080
  • 2560x1440
  • 3840x2160
Battlefield 1 DX12 - 1920x1080 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
AMD Radeon RX Vega 64 8GB
9,60
Nvidia GeForce GTX 1080
9,90
AMD Radeon RX Vega 56 8GB
12,30
Nvidia GeForce GTX 1070
12,30
AMD Radeon RX 580 8GB
12,80
Nvidia GeForce GTX 980 Ti
13,10
AMD Radeon R9 390X
13,90
Nvidia GeForce GTX 1060 6GB
14,60
AMD Radeon R9 Fury X
14,70
AMD Radeon RX 570 4GB
19,80
Nvidia GTX 780 Ti
21,40
Nvidia GeForce GTX 970
23,20
Nvidia GTX 1050 Ti
29,50
Battlefield 1 DX12 - 2560x1440 - Ultra (99p)
Videokaart Gemiddelde tijd in ms (lager is beter)
AMD Radeon RX Vega 64 8GB
12,40
AMD Radeon RX Vega 56 8GB
13,70
Nvidia GeForce GTX 1080
14,00
Nvidia GeForce GTX 1070
16,50
AMD Radeon RX 580 8GB
17,30
Nvidia GeForce GTX 980 Ti
17,70
AMD Radeon R9 390X
18,00
AMD Radeon R9 Fury X
18,10
Nvidia GeForce GTX 1060 6GB
20,90
AMD Radeon RX 570 4GB
25,20
Nvidia GTX 780 Ti
32,70
Nvidia GeForce GTX 970
33,00
Nvidia GTX 1050 Ti
44,80
Battlefield 1 (DX12) - 3840x2160 - Ultra (99p)
Videokaart Gemiddelde frametime in ms (lager is beter)
Nvidia GTX 780 Ti
0,00
Nvidia GeForce GTX 1080 Ti
18,40
AMD Radeon RX Vega 64 8GB
21,60
AMD Radeon RX Vega 56 8GB
23,40
Nvidia GeForce GTX 1080
27,20
AMD Radeon R9 Fury X
29,60
Nvidia GeForce GTX 1070
29,60
AMD Radeon R9 390X
31,50
AMD Radeon RX 580 8GB
36,80
Nvidia GeForce GTX 980 Ti
37,50
Nvidia GeForce GTX 1060 6GB
44,00
Nvidia GeForce GTX 970
51,90
Nvidia GTX 1050 Ti
76,10
AMD Radeon RX 570 4GB
138,20

In Battlefield 1 presteren beide Vega-kaarten prima en wordt de GTX 1080 zelfs weer verslagen door de Vega 64-kaart. Ook de Vega 56 presteert goed en zit op 4k bijna op dezelfde framerate.

In Hitman zit de Vega 64 weer net iets onder de GTX 1080, maar het verschil is erg klein. Dat geldt ook voor de verschillen tussen de GTX 1070 en de Vega 56, maar daar wint AMD de strijd.

  • 1920x1080
  • 2560x1440
  • 3840x2160
Hitman (2016) - 1920x1080 - Ultra - DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
165,2
Nvidia GeForce GTX 1080
142,7
AMD Radeon RX Vega 64 8GB
137,5
AMD Radeon RX Vega 56 8GB
119,8
Nvidia GeForce GTX 1070
114,9
AMD Radeon R9 Fury X
103,1
Nvidia GeForce GTX 980 Ti
96,1
AMD Radeon R9 390X
88,6
AMD Radeon RX 580 8GB
87,3
AMD Radeon RX 570 4GB
71,6
Nvidia GeForce GTX 970
67,1
Nvidia GTX 780 Ti
51,4
Nvidia GTX 1050 Ti
47,5
Nvidia GeForce GTX 1060 6GB
33,3
Hitman (2016) - 2560x1440 - Ultra - DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
134,9
Nvidia GeForce GTX 1080
107,7
AMD Radeon RX Vega 64 8GB
104,7
AMD Radeon RX Vega 56 8GB
89,1
Nvidia GeForce GTX 1070
85,9
AMD Radeon R9 Fury X
79,9
Nvidia GeForce GTX 980 Ti
71,6
AMD Radeon R9 390X
66,5
AMD Radeon RX 580 8GB
63,4
AMD Radeon RX 570 4GB
52,4
Nvidia GeForce GTX 970
48,8
Nvidia GTX 780 Ti
38,3
Nvidia GTX 1050 Ti
34,9
Nvidia GeForce GTX 1060 6GB
24,1

Rise of the Tomb Raider en Total War: Warhammer

Voor DX12-game Rise of the Tomb Raider wordt de Foundation-engine gebruikt en Warhammer gebruik de Warscape-engine.

  • 1920x1080
  • 2560x1440
  • 3840x2160
Rise of the TR - DX12 - 1920x1080 - Very high
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
161,9
Nvidia GeForce GTX 1080
125,0
AMD Radeon RX Vega 64 8GB
114,3
Nvidia GeForce GTX 1070
98,9
AMD Radeon RX Vega 56 8GB
98,1
Nvidia GeForce GTX 980 Ti
93,9
AMD Radeon R9 Fury X
81,4
Nvidia GeForce GTX 1060 6GB
71,3
AMD Radeon RX 580 8GB
70,8
AMD Radeon R9 390X
67,0
Nvidia GeForce GTX 970
63,0
Nvidia GTX 780 Ti
60,9
AMD Radeon RX 570 4GB
58,2
Nvidia GTX 1050 Ti
42,9
Rise of the TR - DX12 - 2560x1440 - Very high
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
109,4
AMD Radeon RX Vega 64 8GB
80,5
Nvidia GeForce GTX 1080
79,9
AMD Radeon RX Vega 56 8GB
67,8
Nvidia GeForce GTX 1070
66,0
Nvidia GeForce GTX 980 Ti
63,1
AMD Radeon R9 Fury X
58,1
AMD Radeon RX 580 8GB
48,7
AMD Radeon R9 390X
47,6
Nvidia GeForce GTX 1060 6GB
46,4
Nvidia GTX 780 Ti
42,2
AMD Radeon RX 570 4GB
39,5
Nvidia GeForce GTX 970
38,6
Nvidia GTX 1050 Ti
27,5
Rise of the TR - DX12 - 3840x2160 - Very high
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
57,1
Nvidia GeForce GTX 1080
43,5
AMD Radeon RX Vega 64 8GB
43,1
Nvidia GeForce GTX 980 Ti
36,2
AMD Radeon RX Vega 56 8GB
35,9
Nvidia GeForce GTX 1070
33,9
AMD Radeon R9 Fury X
33,1
Nvidia GeForce GTX 1060 6GB
26,0
AMD Radeon R9 390X
25,9
AMD Radeon RX 580 8GB
25,5
AMD Radeon RX 570 4GB
21,2
Nvidia GeForce GTX 970
20,1
Nvidia GTX 780 Ti
14,3
Nvidia GTX 1050 Ti
13,7

In full hd is de GTX 1080 flink sneller dan de Vega 64, maar op hogere resoluties verdwijnt dat verschil vrijwel helemaal. Ook tussen de Vega 56 en de GTX 1070 zit bijna geen verschil, al loopt de Vega 56 op hogere resoluties iets uit.

  • 1920x1080
  • 2560x1440
  • 3840x2160
Total War: Warhammer - 1920x1080 - Ultra DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
94,2
AMD Radeon R9 Fury X
93,9
Nvidia GeForce GTX 1070
91,7
AMD Radeon RX Vega 56 8GB
88,9
Nvidia GeForce GTX 980 Ti
88,5
AMD Radeon RX Vega 64 8GB
88,2
AMD Radeon RX 580 8GB
82,7
AMD Radeon R9 390X
76,1
Nvidia GTX 780 Ti
75,7
Nvidia GeForce GTX 1080
72,2
Nvidia GeForce GTX 1060 6GB
71,3
AMD Radeon RX 570 4GB
68,9
Nvidia GeForce GTX 970
63,9
Nvidia GTX 1050 Ti
42,5
Total War: Warhammer - 2560x1440 - Ultra DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
92,9
AMD Radeon RX Vega 64 8GB
85,2
AMD Radeon RX Vega 56 8GB
78,1
Nvidia GeForce GTX 1080
76,7
AMD Radeon R9 Fury X
69,5
Nvidia GeForce GTX 1070
68,6
Nvidia GeForce GTX 980 Ti
64,4
AMD Radeon RX 580 8GB
57,3
AMD Radeon R9 390X
55,7
Nvidia GTX 780 Ti
53,7
Nvidia GeForce GTX 1060 6GB
49,7
AMD Radeon RX 570 4GB
47,0
Nvidia GeForce GTX 970
44,6
Nvidia GTX 1050 Ti
29,7
Total War: Warhammer - 3840x2160 - Ultra DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
61,7
AMD Radeon RX Vega 64 8GB
48,4
Nvidia GeForce GTX 1080
46,5
AMD Radeon RX Vega 56 8GB
42,3
AMD Radeon R9 Fury X
38,5
Nvidia GeForce GTX 1070
37,8
Nvidia GeForce GTX 980 Ti
36,6
AMD Radeon R9 390X
30,3
AMD Radeon RX 580 8GB
30,0
Nvidia GTX 780 Ti
29,4
Nvidia GeForce GTX 1060 6GB
26,9
AMD Radeon RX 570 4GB
24,7
Nvidia GeForce GTX 970
23,9
Nvidia GTX 1050 Ti
16,2

Opgenomen vermogen en geluidsproductie

We testen bij nieuwe videokaarten uiteraard niet alleen de snelheid in games, maar ook het opgenomen vermogen en de geluidsproductie van de koeler. Voor het meten van het opgenomen vermogen maken we gebruik van een nieuwe testmethode met behulp van een pci-e-riser. We hoeven daardoor niet meer het opgenomen vermogen van het hele systeem te meten, maar kunnen alleen dat van de videokaart meten.

Ook het meten van de geluidsproductie hebben we verbeterd. Voorheen gebruikten we daarvoor een geïsoleerde kamer met een achtergrondgeluid van 30dB(A). De kamer hebben we ingeruild voor een geluiddichte box, waarin een geluidsdruk van 17dB(A) heerst. De geluidsdrukmeter zetten we op tien in plaats van twintig centimeter afstand om nog nauwkeuriger te meten.

  • Opgenomen vermogen idle
  • Opgenomen vermogen ingame

Het opgenomen vermogen meten we in idle-toestand en tijdens het draaien van de Rise of the Tomb Raider-benchmark op 3840x2160 pixels. Het idle-verbruik is op zich niet verkeerd, al zijn de nieuwe Nvidia-kaarten wel wat zuiniger. Het verbruik onder belasting verklaart de noodzaak van de twee achtpinsstroomaansluitingen, want dat bedraagt ruim driehonderd watt voor Vega 64. De Vega 56 is een stuk zuiniger onder load, zoals natuurlijk ook aan de tdp al te zien was.

  • Geluidsdruk idle 10cm (17dB(A) ambient)
  • Geluidsdruk load 10cm (17dB(A) ambient)
Geluidsdruk idle (10cm)
Videokaart Gemiddelde geluidsdruk in dB(A) (lager is beter)
AMD Radeon RX Vega 56 8GB
27,4
AMD Radeon RX Vega 64 8GB
28,5
Nvidia GeForce GTX 1080 Ti
33,6
AMD Radeon R9 Fury X
36,4
AMD Radeon RX 480 8GB
36,4
Nvidia GeForce GTX 1080
37,7
Nvidia GeForce GTX 1070
38,1
Nvidia GeForce GTX 1060 6GB
41,3
Geluidsdruk load ingame (10cm)
Videokaart Gemiddelde geluidsdruk in dB(A) (lager is beter)
AMD Radeon R9 Fury X
38,7
Nvidia GeForce GTX 1080
50,4
Nvidia GeForce GTX 1060 6GB
51,1
Nvidia GeForce GTX 1070
52,3
Nvidia GeForce GTX 1080 Ti
53,7
AMD Radeon RX Vega 56 8GB
54,3
AMD Radeon RX 480 8GB
56,4
AMD Radeon RX Vega 64 8GB
60,4

De opgenomen energie wordt grotendeels omgezet in warmte en dat vereist flink wat koeling, wat met AMD's koelontwerp tot behoorlijk wat herrie leidt. De Vega-koeler is dan ook meteen de luidruchtigste die we tot nu toe getest hebben. De Vega 56 is idle net als de Vega 64 lekker stil, maar onder belasting verandert dat en is de kaart net als zijn grote broer een van de luidruchtigste kaarten.

Overklokken

We hebben tussen het testen door nog de tijd gevonden om de Vega 64 over te klokken, iets wat voorspoedig ging. We konden namelijk zonder de powerlimiet te verhogen de gpu-frequentie opdrijven tot 1980MHz. Een hogere klokfrequentie stond WattMan ons niet toe en ook met andere software, zoals Afterburner, lukte dat niet. Die hoge overklok lijkt trouwens geen uitzondering te zijn, want de kaart van de buren van Hardware.info klokte ook zonder problemen naar de 1980MHz. Hoewel hbm2 in een behoorlijke bandbreedte voorziet, hebben we ook het geheugen van de standaard 945MHz naar 1100MHz overgeklokt.

  • 3DMark FS Extreme
  • Hitman - 3840x2160 - Medium
  • Hitman - 3840x2160 - Ultra
3DMark Fire Strike Extreme (totaal)
Videokaart Gemiddelde score in punten (hoger is beter)
Nvidia GeForce GTX 1080 Ti
12.909
AMD Radeon RX Vega 64 8GB OC
10.804
AMD Radeon RX Vega 64 8GB
9.911
Nvidia GeForce GTX 1080
9.749
AMD Radeon RX Vega 56 8GB
8.501
Nvidia GeForce GTX 1070
8.044
Nvidia GeForce GTX 980 Ti
7.574
AMD Radeon R9 Fury X
7.494
AMD Radeon R9 390X
5.875
Hitman (2016) - 3840x2160 - Medium - DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
AMD Radeon RX Vega 64 8GB OC
97,0
Nvidia GeForce GTX 1080
92,3
AMD Radeon RX Vega 64 8GB
89,2
AMD Radeon RX Vega 56 8GB
75,8
Nvidia GeForce GTX 1070
73,4
AMD Radeon R9 Fury X
71,3
Nvidia GeForce GTX 980 Ti
65,3
AMD Radeon R9 390X
56,3
Hitman (2016) - 3840x2160 - Ultra - DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Nvidia GeForce GTX 1080 Ti
78,6
AMD Radeon RX Vega 64 8GB OC
66,6
Nvidia GeForce GTX 1080
63,0
AMD Radeon RX Vega 64 8GB
60,5
AMD Radeon RX Vega 56 8GB
51,7
Nvidia GeForce GTX 1070
49,9
AMD Radeon R9 Fury X
48,0
Nvidia GeForce GTX 980 Ti
41,5
AMD Radeon R9 390X
38,6

De overklok op de gpu is dus 21 procent, terwijl het geheugen er 16 procent op vooruit is gegaan. In de paar benchmarks die we overgeklokt gedraaid hebben, kwamen we echter op een iets teleurstellende 9 procent hogere framerate uit.

Prestatie-index

We hebben een prestatie-index gemaakt voor de 4k- 1080p-resoluties van alle gamebenchmarks. Hier zijn de opgenomen vermogens en synthetische Futuremark- en Unigine-tests dus niet in opgenomen. We hebben in beide gevallen de GTX 1080 als referentiekaart genomen. Daarom staat die kaart op 1 en heeft de 1080 Ti een indexcijfer groter dan 1, want die kaart is sneller. Zo kunnen we netjes zien hoe de kaarten ten opzichte van de GTX 1080 presteren.

In de 1920x1080-resolutie komt de Vega 64 op 95 procent van de GTX 1080 en op 4k is het verschil tussen beide kaarten nog kleiner. Als we de adviesprijzen bij introductie erbij pakken, namelijk 499 dollar voor de Vega 64 en 599 dollar voor de GTX 1080 die overigens vijftien maanden later nog weinig in prijs gedaald is, lijkt de Vega 64 de betere verhouding tussen prijs en prestaties te bieden. Bedenk wel dat 499 dollar slechts een adviesprijs is en we moeten afwachten wat de kaart daadwerkelijk zal kosten. In de praktijk kunnen we altijd een dikke tien procent bij de dollar-adviesprijzen optellen, waardoor de prijsverschillen tussen 1080 en Vega 64 vrijwel gelijkgetrokken worden.

De Vega 56 wordt ruimschoots verslagen door de GTX 1080, maar de verschillen tussen de Vega 56 en GTX 1070 zijn op full-hd-resolutie verwaarloosbaar en bij hogere resoluties is de Vega-kaart zelfs de snellere van de twee. De prijs van Vega 56 zou in theorie ongeveer op het niveau van de GTX 1070 moeten komen, maar als we naar de adviesprijzen kijken is de kaart iets te duur.

Conclusie

Je kunt op twee manieren tegen de nieuwe Vega-architectuur aankijken. De positieve zienswijze zou zijn dat AMD zich ten doel gesteld heeft een gpu te ontwikkelen die het tegen te GTX 1080 van Nvidia moet opnemen. Als we naar de benchmarks kijken, is AMD daar niet echt in geslaagd, maar zit het in de buurt. In ongeveer een derde van de benchmarks is de Vega 64 sneller dan de GTX 1080 en in onze prestatieindex scoort de Vega 64 ruim vijfennegentig procent van de GTX 1080 in 1080p en 4k-resoluties. Interessanter is dan de vergelijking tussen de Vega 56 en de 1070. Volgens de prestatie-index zijn beide kaarten vrijwel gelijk.

De Vega 64 is dus wat trager dan de GTX 1080, en de 1080 Ti is natuurlijk al helemaal veel sneller. De twee Vega-kaarten zijn eerder concurrenten voor de GTX 1070, maar daar is Vega eigenlijk niet voor bedoeld. Vega had de high-end kaart van AMD moeten zijn en is verworden tot een kaart die in het hogere middensegment goed meekomt. Daar is de prijs niet naar, als we tenminste kijken naar de adviesprijs in dollars bij introductie. De GTX 1070 is wel een prijzig kaartje dankzij de mininghype en we moeten dan ook uitgaan van een gemiddelde prijs van vijfhonderd euro. Een beetje verkrijgbare GTX 1080 kost ongeveer zeshonderd euro. Het is nog even afwachten wat de Vega-kaarten daadwerkelijk gaan kosten zodra ze verkrijgbaar zijn. Bij introductie zijn de kaarten slecht verkrijgbaar en op kaarten van derden als Asus, Gigabyte en MSI moeten we nog zeker tot half of eind september wachten.

AMD heeft met de Vega-kaarten dus concurrenten voor de GTX 1070 en 1080. Daarmee komt de Vega-introductie ruim vijftien maanden na die van de 1080 en 1070, en heeft Nvidia inmiddels een nieuwe high-end kaart uitgebracht: de 1080 Ti. De verschillen tussen de 1080 Ti en de Vega 64 zijn nog veel groter. Op full hd kan Vega 64 nog aardig meekomen, tot tachtig procent van de 1080 Ti, maar op 4k zakt hij in naar zeventig procent van de 1080 Ti-prestaties. Daar kan nog wat verbetering in komen als AMD zijn drivers wat beter op orde heeft en games wat patches voor de nieuwe architectuur krijgen.

Waar het uiteindelijk allemaal op neer zal komen is de daadwerkelijke prijs die je als consument voor deze twee nieuwe kaarten neerlegt. Mochten AMD en zijn partners onder de prijzen van de GTX 1080 en GTX 1070 kunnen duiken, dan slaan ze een goede slag. Of ze dat gaat lukken is nog onzeker: vooralsnog lijkt het aanbod beperkt en we moeten nog zien hoe erg deze kaarten in trek zullen zijn bij miners, wat een behoorlijke invloed op de prijs kan hebben.

Lees meer

Reacties (244)

244
235
113
15
0
94
Wijzig sortering
Bij andere reviews (Rx570 of Rx580) lees ik veel reacties waarin wordt aangegeven dat de review 'oneerlijk' is omdat Intel+Nvidia wordt vergeleken met Intel+AMD.

Wat als deze tests worden uitgevoerd met een Ryzen CPU (1800X bijvoorbeeld), zouden de Vega's dan beter uit de test komen?
Interessant om te lezen! Bedankt voor de tip!
Wat een prachtige review Tweakers, mooi uitgebreid met erg veel testjes. Dat is de kwaliteit die we graag zien! Ook erg handig vind ik de geluidsproductie testen. Immers kan je daardoor nu al zeggen dat, tenzij je een stofzuiger naast je voor lief neemt, je beter kunt wachten op aftermarket coolers van MSI, Asus, Sapphire, et cetera. Daarbij gebruikt een vega 64 zo'n 120W meer onder load dan een vergelijkbaar presterende 1080. Als je ervan uitgaat dat een computer 3 uur per dag onder load staat dan kost je dat per jaar 29 euro aan elektriciteit meer. Als je dus deze kaart zou willen vergelijken met de 1080 dan zou ik 60 euro bij de prijs van de vega 64 optellen. In het geval dat je de vega 56 wilt vergelijken met de 1070 moet je 36 euro bij de prijs van de vega 56 optellen.

Omdat Tweakers niet alleen bestaat uit de reactie, maar ook uit de community, is hier nog wat leesvoer vanuit onze geweldige community. Ik hoop dat er veel reviews van deze kaartenserie (en dan vooral die met aftermarketcoolers) mogen volgen. Eerlijk is eerlijk, iedereen is gebaat bij concurrentie tussen het groene en het rode team. We zien hoe erg veel prestatie we er bij Intel hebben bijgekregen de afgelopen jaren door gebrek aan concurrentie. Okee, we zijn bij de desktop-CPU's er wat Watt ( 8-) ) aan efficiëntie op vooruit gegaan, maar in wezen kan een 5 jaar oude overgelockte i5 2600k nog goed meekomen.
productreview: AMD Radeon RX Vega 64 8GB review door Foritain

Fortain schrijft in zijn conclusie:
De basis die we vandaag zien is echter een mooi uitgangspunt voor meer en interessante concurrentie in het GPU midden- tot midden-hoge segment. En net als in de CPU markt weinig beter dan weer wat gezonde concurrentie te zien in een segment tot dusver gedomineerd door één partij, zelfs als het enige resultaat is dat Nvidia even ‘iets’ terugschiet zou het al winst voor de koper betekenen. Dat is wellicht geen spektakel die de assen van grafieken omver gooit, maar toch een aantrekkelijke en waardevolle toevoeging voor tal van gamers met die voorbij-1080p wens.

[Reactie gewijzigd door Frozen op 22 juli 2024 13:19]

de vega 64 liquid (met een meer dan 15% hogere clock) wordt niet gereviewed, wat dé tegenstander is van de 1080ti, de specificaties zijn fout vermeld (zie de rekenkracht), vreemd op volgorde gezet en een prijs/prestaties vergelijking ontbreekt (ja zelfs al is het maar een paper-launch met richtprijzen), je kan dit dan ook moeilijk een uitgebreide review noemen.
We hebben de RX Vega 64 op woensdag gekregen, de RX Vega 56 op vrijdag en de Liquid nooit. Dan wordt het lastig reviewen :)
Tel 15% op bij de prestaties en een prijs die hoger ligt dan een 1080ti (die aanzienlijk sneller blijft) heb je alleen nog maar een grotere teleurstelling, de AIO versie is een 345watt monster die de vega niet veel interessanter maakt.
Vergelijk je een aio 1080ti met een aio vega64 is het huilen met de pet op.

Voor de liefhebbers, in NL is hij niet te koop, in DE hebben ze hem wel. Mindfactory hebben ze hem in het systeem staan voor 509€ (vega 64) 609€ (vega64 LI) en 715€ de AIO.
Ter referentie: je hebt daar voor 509€ een 1080 van zotac met custom cooler.
(in het systeem staan en bestelbaar)

EDIT: ik denk dat ze van elke kaart maar 1 hadden wat ze zijn op er blijven nu twee vega64 staan beiden voor 649, aanzienlijk duurder dan de AMD kaart was.

[Reactie gewijzigd door D0gtag op 22 juli 2024 13:19]

Als je ziet dat er met de overclock van deze vega 64 meer dan 15 % wordt overgeclocked en de prestaties met maar 9% toeneemt dan raakt je eerste zin kant nog wal.

Echter als de prijs hoger ligt dan de 1080ti heb je juist veel meer gelijk...
Anoniem: 58485 @jqv14 augustus 2017 19:03
De gpu throttled, kan niet anders.
Ik heb gekeken naar wat de 56 deed(clock) is 200mhz langzamer, de vega 64 deed ~15% beter, de 64 AIO is 200mhz sneller dan de stock 64 dus deed ik daarboven 15% gem. Het zal altijd lager zijn aangezien de gelijk gebleven streamproc. De prijs in DE, 715€, dat is vergelijkbaar met de 1080ti die net even eronder zit en toch echt nu beter is, misschien dat de vega in de toekomst beter doet maar, maar er is natuurlijk geen garantie. Zeker niet als vega een slechte zaak blijkt voor AMD en dat ze het roer compleet omgooien.
Dan zal de driver ontwikkeling ook stoppen voor vega, want dat de drivers in het verleden beter werden kwam simpelweg omdat ze GCN gaande weg beter begrepen en optimaliseerde.
Ik heb geen idee waar je het over hebt? 'het zijn kaarten wat maximaal 200eurie kosten', wat kost 200€ welke kaarten. Ik heb het alleen over de vega64 aio kaart, die kost 700+ euro vergelijkbaar met de 1080ti die gewoon sneller is en bijna 100watt minder verbruikt.
De vega 64 kost op zijn minst 500€ als je hem voor die prijs kan vinden, de 1080 paar tientjes meer, heb je een betere koeler dan de standaard (reference) heatsink & fan van AMD en standaar minder vermogen verbruikt en dus stiller is en makkelijker overclockt (nvidia 180watt vs AMD 295 watt), na verloop van tijd wordt de vega misschien sneller maar dat is nooit extreem en onzeker.
Moet ik nog duidelijker aangeven wat we testen? Er staat bij de specs welke kaarten we getest hebben. We wisten tot vrijdag niet eens dat we de Vega 56 zouden testen.
Ik zie de meerwaarde van ons beklagen dat we de Liquid niet getest hebben, terwijl dat evident is, niet. Bovendien is de Liquid niet eens los te koop, alleen als onderdeel van een pack. Lastig ook om daar een prijs/prestatie aan te hangen...
Hoe werkt het stroomverbruik meten precies? Ik lees dat jullie een nieuwe manier van meten hebben d.m.v. een pci-e riser. Zit er ook nog meetapparatuur tussen de psu 2x8pin aansluitingen?
Het lijkt me sterk dat je het verbruik kan meten met alleen de pcie port.
We meten zowel stroom en spanning aan het pci-e-slot als van de peg-connectors, alle stroom die naar de kaart gaat dus. Die riser zit er niet alleen om de slot-power te meten, maar de twee peg-connectors lopen ook via dat pcb om in 1 keer pci-e-slotpower, peg1 (6/8pin) en peg2(6/8pin) te meten en via usb uit te lezen. We kunnen dan netjes slotpower en per peg-connector de stroom/spanning/vermogen zien en uiteraard combined.
Resultaten 1 op 1 overgenomen van HWI.
Die van AMD TR ook al, dus de vraag is wie doet de review jullie of HWI?
De reviews doen we los van elkaar :) Ze zijn ook door verschillende auteurs geschreven en daarom komen er verschillende conclusies uit. Wel werken we sinds we onder een dak zitten samen op het gebied van tests, waarbij data gedeeld wordt. Zeker bij producten als deze, waar samples enorm kort voor de deadline aangeleverd worden, kunnen we daardoor meer en beter testen.
Uitgelekte benchmarks toonden gisteren aan dat de liquid versie niet veel beter presteert dan de lucht gekoelde versie. Zeer zeker geen concurrentie voor de 1080ti iig. Mogelijk als de drivers in orde zijn dat er weer een procent of 10 gepakt kan worden.
De liquid versie is ongetwijfeld een stuk koeler, en overclocked nog een stukje verder. Maar dat zie je dan ook wel terug in het verbruikte vermogen. En de positieve overclock resultaten zorgen volgens deze review maar voor een relatief kleine winst begrijp ik.
Ik kan niet wachten op de vega 64 liquid aftermarket kaarten. Ik ben heel trots op AMD ze hebben laten zien dat met wat ze hebben en kunnen toch wel competitief genoeg is om interessant te zijn om voor AMD ipv NVidia te kiezen en als we de aftermarket kaarten hebben hoop ik dat we gezamenlijk nog trotser kunnen zijn :D
Anoniem: 63072 @Frozen14 augustus 2017 16:40
Die voorbij 1080p wens is een beetje dubbel. Ik gebruik een steeds luidere GTX780Ti GHz edition en behoudens de games die struikelen over 3GB geheugen kan ik met redelijke kwaliteitsinstellingen de meeste games op 1440p goed spelen. (En die geheugen problemen kan je vaak ook voorkomen door de textures wat verder terug te draaien.

Kijk maar naar de test resultaten: op ultra zit een (naar ik aanneem) stock 780Ti overal al boven de 30FPS. Een RX580 of een 390X presteren al beter dan de 780Ti en hebben geen geheugen tekort ,deze zijn voor 1440p voor de meeste gamers dan ook voldoende. Met een 1070 is het gros van de spelers op 1440p ruim voorzien van FPS.

Dan blijft over de groep top gamers en 4k gamers, die eerste wil 144Hz monitoren aansturen en die laatste wil op zijn minst fatsoenlijke FPS halen. De 1080 en daarmee dus ook Vega64 vallen dan een beetje buiten de boot. Te snel voor de 1440p crowd, te langzaam voor de top spelers/4k crowd; die grijpen naar de GTX1080Ti of een Titan (als ze van hun geld af willen).

Ik verwacht dan ook dat AMD het van Vega56 zal moeten hebben, die pakt net een mooie sweetspot, maar dan moet de prijs wel kloppen.
4K met een 1080 is prima te doen hoor. Je moet alleen geen ultra en AA verwachten. Dit test tweakers wel, maar er zijn genoeg instellingen die je niet direct nodig hebt om je game er goed uit te laten zien.
En eenmaal gewend aan 4K wil je niet echt meer terug naar 1080p of 1440p. Maybe ultrawide maar dat heeft weer haar eigen problemen.

Gewoon wat spelen met de instellingen en je zit zo boven de 60fps. Behalve de titels die sowieso al voor geen meter lopen.

Het jammere van deze kaart is dat gamers die op dit prestatie punt (vega64) willen instappen zijn of al een jaar op de 1080 (zoals ik) of verstokte AMD liefhebbers.
Ik vind dat anti-aliasing met een wat lagere resolutie er soms beter uit kan zien dan een wat hogere zonder. Maargoed, ik game niet zoveel en mijn games zijn al wat ouder dus dat is misschien ook niet meer te vergelijken.
Tja, ik houd het vooralsnog even op 1440p, visual studio werkt lekkerder op 2x 1440 dan op 1x 4k.

Voor gaming ben ik echter een beetje teleurgesteld in Vega, ik denk dat ik de Freesync maar ongebruikt laat en even door spaar voor een 1080Ti. :(
Is AA nog echt nodig als je op een sub 32" scherm 4k draait?
Ik zit met 28" en zet het altijd gelijk uit als ik meer fps nodig heb.
Je kan het zien, zeker als je gaat zoeken in de kleine dingen en op de plekken waar je standaard die trappetjes kan verwachten. Je moet echt naar 8 of 16K schermen voordat we daar vanaf zijn denk ik. Maar het is echt meer dan acceptabel om zonder AA te draaien

[Reactie gewijzigd door Torched op 22 juli 2024 13:19]

Vergeet de VR-gamers niet. Dan is het met een 1080 al schipperen met instellingen :Y)
Dank je :)

(Vanuit het hiernamaals)
Echter, als je in de markt bent voor een nieuwe monitor, dan ligt het erg voor de hand dat er een beeldscherm komt met Adaptive vSync. In dat geval heeft AMD weer een duidelijk prijsvoordeel omdat Gsync schermen een stuk duurder zijn dan vergelijkbare FreeSync schermen.

In dat geval kan je dus weer makkelijk 100 Euro aftrekken van de Vega videokaarten en brengt het het nodige weer in balans. Zeker voor iemand die minder dan 3 uur per dag gemiddeld bezig is met gaming. Voor de volledigheid zou dit eigenlijk in jouw post ook vermeld mogen worden :)
Dit is wel een goed punt.. ik heb 2 weken terug een 24" IIyama scherm gekocht voor 183 euro (nieuw met 1 dode pixel bij Coolblue, normaal 260 euro). Heeft 1080p, 144hz en Freesync.

Voor het Gsync alternatief zit je al snel op 350 euro voor het instapmodel.

Als je in de markt bent voor een GPU en een monitor dan heeft AMD vrij snel de betereprijs/kwaliteit verhouding
Wat een prachtige review Tweakers, mooi uitgebreid met erg veel testjes. Dat is de kwaliteit die we graag zien! Ook erg handig vind ik de geluidsproductie testen. Immers kan je daardoor nu al zeggen dat, tenzij je een stofzuiger naast je voor lief neemt, je beter kunt wachten op aftermarket coolers van MSI, Asus, Sapphire, et cetera. Daarbij gebruikt een vega 64 zo'n 120W meer onder load dan een vergelijkbaar presterende 1080. Als je ervan uitgaat dat een computer 3 uur per dag onder load staat dan kost je dat per jaar 29 euro aan elektriciteit meer.
Het geluid van de koeler zal meer decibels geven dan een Strix gtx1080 zoals ik die heb.
Mijn kaart gebruikt 180 watt op load en de Vega 64 gaat daar met 120 watt erbij ruim over heen (180+120=300 watt!!). Dat betekend dat die ene koeler echt heel hard moet werken. Die warmte zal toch afgevoerd moeten worden en ik betwijfel het gameplezier als je systeem een stofzuiger is qua geluid. Mijn kaart laat al licht van zich horen als ik hem langdurig op 80%+ load zet. Dan zitten er op mijn gtx1080 nog 3 grote koelers.
De kosten van het extra energieverbruik liggen hoger dan die 120 watt extra alleen. Je moet ook de efficiëntie van de voeding hierin meenemen. Het kán waarschijnlijk zijn dat je een andere voeding nodig gaat hebben.
Het gaat er mij niet om om AMD in een negatief daglicht te zetten, maar de wens om de 1080 familie van Nvidia voorbij te gaan kost zoveel extra vermogen dat er echt een betere koeling nodig is. Vandaar dat ik positief ben om de watergekoelde Vega-kaarten van AMD te zien. Die zullen een stuk stiller zijn, maar je hebt dan een behoorlijk raster nodig met minimaal 3 fans om die warmte je kast uit te krijgen.
En dan het laatste.
Je zegt zoveel extra stroom te moeten betalen door een heel jaar heen....deel je uitkomst door de helft. In de winter is de extra afgegeven warmte van je kast nuttig omdat je CV dan minder hard aan het werk moet. Alleen in de zomer op je zolderkamer kan het een probleem worden. Hoe gaat de Vega zich gedragen bij een omgevingstemperatuur van 35 graden op je zolderkamer??
Die mooie Vega kaarten lijden heel veel door het enorme vermogen wat door die print heen moet en de daarbij vrijkomende hitte. Iemand een YouTube filmpje gezien van een Vega 64 op 100% load?

Maar we mogen niet vergeten dat zonder de innovatie van AMD de prijzen van Nvidia kaarten omhoog schieten. Een monopolist kan vragen wat ie wil. AMD blijft een prima competitie in de midrange-markt. Ik vind de vormgeving van de Vega ronduit prachtig te noemen. Laten we wel wezen.
Vers van de pers:

Prijs AMD Vega 64 wordt mogelijk 100 euro duurder.

Prijs at launch = "introductie prijs". En dan hebben we het over de stand alone black editie zonder extra's.

Sources: https://www.youtube.com/watch?v=Yk2XOQu-ixE&t=329s
https://nl.hardware.info/...viesprijzen-onrealistisch

Als dit waar is dan ben ik persoonlijk erg teleurgesteld, vind het ook erg misleidend om kaarten te laten reviewen en dan een maand later de prijs omhoog te gooien als alle reviews al gemaakt zijn. :/

[Reactie gewijzigd door Michael van S op 22 juli 2024 13:19]

Ik las dus ergens dat het niet eens een maand was maar zelfs alleen het release weekend
Ik weet niet of die kortings actie die AMD bij de aankondiging noemde in NL ook werkt, maar dat zou het enige interessante scenario zijn, als je een Ryzen systeem wilde bouwen en toevallig een Ultrawide monitor ging kopen. Dan is het een mooie aanbieding, anders niet IMO.
1. Niet geldig in Europa: https://www.reddit.com/r/...apply_to_the_majority_of/

2. En zo mooi is de actie niet. Je moet meer betalen voor wat korting op producten die ze kwijt moeten.

Ze bieden een 1800X in de bundels en dat is juist de minst hardlopende Ryzen 7. En het scherm is nu niet echt een geweldig Freesync scherm. Er zijn nogal wat issues mee; o.a. flikkeren van het scherm als je Freesync gebruikt. Het is overigens een Freesync 1 scherm en niet een of ander nieuw Freesync 2 scherm.
Dan is het wachten op de volgende generatie van Nvidia. AMD zal wel wat meer budget voor R&D hebben voor de opvolger. ASSP is goed en alles wordt verkocht voor het GPU segment en CPU's verkopen ze ook weer sinds kort...
Niet als ik al iets vergelijkbaar heb.
^

Goed punt. Mogelijk cruciaal punt zelfs. Maar de informatie eromheen is erg onduidelijk, het lijkt er zelfs op dat AMD gewoon maling heeft aan Nederland. Hopelijk de komende dagen wat duidelijkheid erover, want gratis games en dikke kortingen op schermen zijn toch sterke argumenten.
Ondanks dat ik waarschijnlijk het antwoord al wel ongeveer weet ben ik wel benieuwd hoe deze kaarten presteren op het gebied van OpenCL rendering met bijv. Blender. :)
Dat is inderdaad niet slecht. Zo te zien valt hier wel een mooie renderbak van te maken zolang je er maar een flinke PSU in zet. :+
En dat is exact het probleem met de arch van AMD. GCN is gemaakt voor parallellisme wat je dus nu in die grafiek uitstekend goed kunt zien. Als het komt op games is het een compleet ander plaatje. Zelfs de Fury X is sneller dan de 1080Ti terwijl die kaart momenteel weer op games vlak goed scoord.

Ik heb je foto even gejat ter verduidelijking van mijn uitleg op https://gathering.tweaker...message/52238557#52238557

Als ik de review zo lees is het geen slechte kaart. Het presteert, weliswaar tegen een ietwat hogere wattage, maar niet iedereen MOET 144FPS hebben of MOET de laagste latency hebben. De games die ik speel (sporadisch) heb ik helemaal geen fikse eisen verder voor. Ik vindt het wel passen in mijn straks te bouwen HEDT systeem omdat ik vaak met video's ook werk. De Vega maakt gehakt van Nvidia in dat opzicht. De bruteforce power die die kaarten brengen is gewoon ongelofelijk hoog. Check de mining scores maar eens.
De enige goede keuze is eigenlijk de RX vega nano want de rest ga je nooit terugverdienen. vega 64 liquid heeft verbruik van 350 watt maar de 1080 TI verbruikt 50 watt minder en is krachtiger.
Maak daar maar 100 watt minder van. En ik lees hier in posts dat de liquid versie zelfs ruim 400 watt trok wanneer overclocked. En dan sporadisch in de buurt komen van de 1080ti.

Er komen kleine versie's van deze kaarten iig ja, ik zag dat de PCB van de vega 56 maar de helft van de kaart bezet. De rest is voor het koelblok! Wat ook weer een hoop zegt natuurlijk.
De nano versie zal dus behoorlijk lager geklokt zijn ook nog eens. En dan is een 1070 mini toch een stuk aantrekkelijker.
Nou nee als TDP geen probleem vind dan klok je over.
Ik draai liever op stock. Hoge TDP kan ool vetekenen dat fabrikant klok te hoog gekozen heeft.
Dan klok je wat onder beetje Vcore minder en je draaid het als een nano.
De linux prestaties zijn volgens phoronix wel goed. Met als interrant weetje dat de open-source opengl driver sneller is dan de closed-source. Daarbij zouden nog optimalisaties komen die het nog beter maakt.
Je moet wat duidelijker zijn want beide Mesa en AMDGPU (van AMD) zijn open-source. Er is geen "de open-source driver" aangezien AMD drivers nu ook in de kernel zitten.

AMDGPU-PRO drivers zijn wel closed source maar zelfs AMD raadt het niet aan om die te gebruiken als je er geen specifieke nut voor hebt.

[Reactie gewijzigd door Huuskes op 22 juli 2024 13:19]

Jammer dat het toch niet de kaart is geworden zoals ik had verwacht, de grootste teleurstelling zit hem toch in het stroom verbruik, De AMD Radeon RX Vega 64 8GB gebruikt bijna 50 Watt meer dat GTX1080 TI.

Prestaties zijn opzich wel op orde, vind ik zelf dan.

ik ben erg benieuwd hoe de prestatie per watt gaat zijn voor de refresh van deze architectuur.

Zijn ze net terug op CPU gebied, lijken ze het een beetje te laten vallen op GPU gebied :(

[Reactie gewijzigd door Jonathan-458 op 22 juli 2024 13:19]

is 50W nu echt zo doorslag gevend? Na 20 uur kost het je 0.20 cent meer. Ik vind dat nog wel meevallen.
AMD is de laatsten jaren op GPU gebied minder zuinig geweest. Voornamelijk in het High segment heeft AMD gewoon niet de middelen om zuinig chips te ontwikkelen en bakken.

Maar deze zou wel erg interessant zijn voor miners. https://www.eteknix.com/a...-56-hashrates-calculated/

En dus met een beetje geluk komt de rx 570/rx580 weer een beetje op prijs. Wat wel weer goed is voor de consument.

[Reactie gewijzigd door loki504 op 22 juli 2024 13:19]

Wel als je je realiseert dat het appels met peren vergelijken is als je 'em vergelijkt met een GTX1080 Ti. Het daadwerkelijke verhaal is dat hij 120 watt meer stroom trekt dan een GTX1080 en niet beter presteert. Het gaat niet alleen om de kilowatturen, maar bij zulke verschillen komen ook een aantal andere zaken de hoek om kom kijken: de warmte die afgevoerd moet worden, de herrie tijdens gamen (60 dB is aardig wat), en de voeding die weer een stuk sterker moet zijn.

Bovendien is nVidia's refresh ook niet heel ver weg meer, en daar mag je van verwachten dat de performance per watt weer gaat verbeteren. Onder de streep geef ik dan toch wederom liever mijn geld uit aan kamp groen.
De warmte en herrie is ook weer afhankelijk van de gebruikte koeler. AMD heeft niet voor niks een watergekoelde Vega 64 beschikbaar, die je qua adviesprijs voor hetzelfde geld haalt als een luchtgekoelde GTX 1080.
Een budget-versie van een GTX 1080 met blower-koeler (laat staan de 1080Ti, die bestaan ook...) tikt net zo goed ongezonde geluidswaarden aan.
Daarbij verwacht ik dat er heel veel gamers nog een flinke voeding hebben overgehouden aan de GTX400-serie of de R9 200-serie die ze ook nog hebben liggen. Terwijl CPU's alleen maar zuiniger worden.
Een Vega 64 + een i7 op Z270 of een Ryzen 5/7 CPU moet prima lukken op een 500w tot 600w voeding van een fatsoenlijk merk, en dat is echt niks bijzonders.

Waarop baseer je dat Nvidia's refresh dichtbij is? Er zijn geruchten geweest over een Pascal refresh, maar daar hoor je helemaal niks meer over (terwijl Nvidia normaliter wel wat lekt tijdens releases van de concurrent). En waarom zou Nvidia ook? De marges op Pascal zijn gigantisch; ze gaan denk ik liever met de prijs dalen dan een nieuw product ontwikkelen en lanceren. Sowieso, wat zou een refresh voor de consument opleveren?

En Volta gaat echt niet eerder komen dan 2018, daar hoeven we ook niet bang voor te zijn.
Op de doos van de Vega 64 LC staat "Minimum 1000W PSU".
Deze heeft ook 2x 8-pin power connector.

https://www.youtube.com/watch?v=P0KhRXp0bQU
0:22
Op de doos van een GTX1070 staat ook dat je een 600w voeding nodig hebt terwijl het vaak wel lukt met een 350watter. Die getallen zijn enorm overdreven voor het geval iemand m aan een Trust voeding hangt.
Een kwaliteitsvoeding zou er totaal geen problemen mee mogen hebben op 80% van het opgegeven vermogen te draaien: https://en.wikipedia.org/wiki/80_Plus

Het verschil in efficiëntie tussen 50% en 100% load is volgens de certificering slechts 3%. Op 600W zou dat dus een rendementsverlies van 18W betekenen. In jouw geval lijkt me dan dat onder normale omstandigheden (lees: alles behalve Furmark) een goede 500W voldoende zou moeten zijn, en 600W al een veilige marge heeft.
Het gros van de geklommen marge's ivm mining-trend gaat naar de retailer, niet Nvidia zelf.
Dat klopt. En dan nog weet Nvidia met bizar dikke marges weg te komen. Reken zelf maar eens met de kwartaalcijfers van Nvidia.
Dat komt niet alleen door het succes van hun GPU's. *edit, hoewel dit natuurlijk hun brood blijft.

https://www.google.nl/sea...&sourceid=chrome&ie=UTF-8

Zet de koers maar eens op 5 jaar of max, bijna 8 keer in waarden gestegen de afgelopen 2 jaar. Heeft te maken met het uitbreiden van hun bedrijfsportfolio naar *mobiele chips, deep learning, chips voor auto's/autonoom rijden ect. Die zijn voorlopig nog niet klaar met groeien.

AMD had zich op CPU's moeten richten, daar al in energie in stoppen. Laat de gpu's lekker gaan zou ik zeggen. Waar Intel schijnbaar concurrentie nodig heeft omdat ze anders lui worden, lijkt Nvidia vrolijk door te ontwikkelen. De gtx1000 serie is een gigantische vooruitgang ten opzichte van de vorige generatie, terwijl er amper concurrentie was. Nvidia heeft letterlijk volledig 'schijt' aan AMD. De verhoogde prijzen van de gtx1000 serie destijds, blijken nu kijkend naar vega, gerechtvaardigd te zijn. Want AMD heeft ongetwijfeld deze kaarten voor de laagste prijs mogelijk in de markt gezet.

Ik werk uiteraard niet bij Nvidia, maar ik vermoed dat ze gekozen hebben voor juist een redelijk prijs en een véél groter marktaandeel (en dus meer verkochte kaarten tegen wat kleinere marge's).
Tevens kijkend naar de 'performance' toename ten opzichte van vorige generatie. Aangezien een gtx1070 de 980ti met gemak verslaat met een veel lager verbruik.

[Reactie gewijzigd door echtwaarisdatzo op 22 juli 2024 13:19]

Het gros komt echt wel van de GPU's. Er zijn gedetailleerde cijfers te vinden daarover. Zoals je zelf al zegt: het brood komt echt van de GPU's af.

Juist door die enorme winstmarges waar Nvidia mee werkt als praktisch monopolist hebben ze ook de ruimte om enorm te investeren in die groeimarkten. Dat maakt Nvidia een ontzettend welvarend bedrijf.

AMD zou RTG inderdaad goed kunnen laten vallen. Door gebrek aan investeringsruimte is het zo goed als onmogelijk om Nvidia bij te benen, zeker als je gokt op het verkeerde HBM2-paard.

Al moet je er als consument toch niet aan denken dat AMD dat zou doen... Dat zou echt een regelrechte ramp zijn voor videokaart prijzen.

Edit: wij verschillen totaal van mening als we het hebben over hoe 'gigantisch innovatief' Pascal was (namelijk, Maxwell op 14nm, that's it) en hoe gerechtvaardigd de bijbehorende prijsstijging was (de consument betaalt gewoon net zoveel voor dezelfde prestaties. Enkel de Ti- en Titan kaarten kan je nu qua specs makkelijk inhalen voor minder geld. Het gros van de consument koopt in €200-€300 segment en die krijgen nu alleen een lager energieverbruik).

14nm zorgt voor een dermate kleinere oppervlakte van de GPU dat de kostprijs voor Nvidia fors lager ligt. Zie kwartaalcijfers. In plaats daarvan heeft Nvidia de prijzen verhoogd. De marges zijn niet verkleind maar fors verhoogd.

En tuurlijk is dat super logisch vanuit Nvidia gezien, dat kan niemand ze kwalijk nemen. Maar als je stelt dat Nvidia geen concurrentie nodig heeft omdat ze toch wel 'doorontwikkelen' (Pascal refresh says hi), dan sta je heel ver van de industrie af en heb je geen idee waar we naar toe gaan.

[Reactie gewijzigd door Richh op 22 juli 2024 13:19]

Ik vind eerlijk gezegd de stap van volwaardige desktop-GPU's naar laptops, met behoud van prestaties (toegegeven, enigszins afhankelijk van de implementatie), een van de grootste ontwikkelingen (lichtelijk overdreven zelfs revolutie) op de GPU-markt van de laatste jaren: voor het eerst is 1080p met alle toeters en bellen geen enkel obstakel meer voor een laptop (vanaf GTX1060), en zelfs 4K gaming is met terugdraaien van enkele instellingen prima mogelijk, ook voor actuele titels (vanaf GTX1070).
OP desktop-gebied hoeft nVidia niet per se, aangezien de concurrentie momenteel ver achterloopt. Het feit dat ze zich op de mobiele markt hebben georienteerd geeft in mijn optiek toch zeker wel aan de nVidia een bedrijf is dat volop doorontwikkeld - de focus ligt alleen wat anders.
Dat is volledig te danken aan de transitie naar 14nm, gecombineerd met hoe zuinig Maxwell standaard al is. Polaris zou ook prima in laptops kunnen eigelijk.

Tuurlijk innoveert Nvidia wel. Het punt is dat AMD dat niet kan door gebrek aan geld. Het is een neerwaartse spiraal voor AMD als je Nvidia in die monopoliepositie houdt.
Amd heeft anders die stap niet laten zien naar 14nm. Om het alleen daar op te gooien is naief. En polaris vreet te veel voor wat het biedt in een laptop.
Anoniem: 58485 @Richh14 augustus 2017 19:09
Het probleem met amd hun ontwerp en videokaarten is dat Nvidia 2 snelwegen gebruikt met ieder 300kmph, en amd 4 snelwegen met ieder een maximum van 75kmph. Nvidia is hierdoor in de regel sneller en gebruikt veel minder brandstof. Echter op flinke workloads zoals bijv te zien is met video encoderen en alles wat baat heeft bij de gcn architectuur is amd weer heer en meester. Opzich geen verkeerde kaart, de prijs lijkt ook goed. Drivers zullen uitblijken of er nog winst te behalen is of niet.
Dit slaat nergens op :P Op welke snelwegen doel je? Het is namelijk overduidelijk dat AMD meer bandbreedte biedt over een bredere geheugenbus, mocht je daarop doelen...

AMD biedt al jaren meer theoretische performance dan Nvidia op hetzelfde prijsniveau. Dat zie je in statische benchmarks en coin mining. AMD kaarten hebben al jaren meer tflop's door het gebruik van een grotere chip met meer shaders, waardoor AMD kaarten ook duurder zijn om te maken (Nvidia draait gigantische marges, bij Vega vraagt men zich af of AMD überhaupt verdient aan de kaart) en natuurlijk meer energieverbruik.

Waar het verschil vandaan komt is eerder de softwarekant; Nvidia's architectuur wordt beter gebruikt dan die van AMD zo lijkt het. Wat natuurlijk een vicieuze cirkel is: meer Nvidia kaarten in de wereld = betere optimalisatie voor Nvidia = meer Nvidia kaarten in de wereld.
Anoniem: 58485 @Richh15 augustus 2017 01:27
Ja dat schrijf ik ook. De arch van AMD maakt het harstikke leuk in intensieve berekeningen zoals mining, video encoderen en noem maar op, maar het legt het af tegen het ontwerp van Nvidia. Nvidia daarintegen scoort weer slechter in juist intensieve berekeningen.

Zie m'n eerdere bericht. AMD is goed in het bieden van een 4 way snelweg met daarop iedere baan 75kmph. Die van Nvdidia biedt echter maar 2 way met een maximum van 150kmph. Hierdoor is Nvidia met kleinere chunks van data sneller dan die van AMD. Echter veranderd dat plaatje zodra er grote datasets worden verwerkt.
Maar wat als de AMD dadelijk 450 euro kost? Met 40 uur in de week kom je (met een kWh-prijs van 30 ct) uit op 12,48 euro per jaar meer.

Ik denk dat je de aanschafprijs dus zeker in ogenschouw moet nemen.
Je hebt dan wat mindere prestaties, en een hoger stroomverbruik dan een 1080, maar ook een lagere aanschafprijs, dat kan een drempel zijn.
120 watt, oftewel 0,12 kilowatt, a 40 uur per week, 52 weken, tegen 30 cent per KWh... Dat is dus 0,12 * 40 * 52 * 0,3 is zo'n 75 euro. Per jaar...
Of verreken ik me hier nou ergens gigantisch?
30 cent is dan wel een dure leverancier betaal hier bij eneco al een stuk minder 17cent per Kwh
Dat idee had ik ook al, maar heb de energieprijzen niet echt meer gevolgd dus gewoon gebruikt wat hierboven gezegd werd. Dan is het echter nog steeds een significant bedrag als je redelijk wat gamet dat je eigenlijk wel mee moet nemen als je de prijzen van de kaarten gaat vergelijken. En dat dan los van de hogere lawaaiproductie, of straks bij custom coolers (die niet de warmte naar buiten blazen) dat die warmte ook allemaal je kast in gedumpt wordt waardoor je potentieel op andere vlakken ook moet investeren in betere koeling.
Dat verbruik -kan- de doorslag geven. Even bij @A Lurker aansluiten dat je appels en peren aan het vergelijken bent, maar we doen even een vlot rekensommetje op basis van de ~100W die ik tussen de Vega en de GTX 1080 zie:

Vuistregelje, 100W bij 24/7 is ~200 euro, uitgaande dat je gewoon een normaal particulier tarief betaald voor je stroom (en we gaan even niet mekkeren over een paar procent, we rekenen makkelijk).

Speel je gemiddeld elke dag een uur games, dan kost het je grofweg een tientje meer per jaar. In dat geval zijn de pro-Vega argumenten, eigenlijk vooral Freesync, meer dan genoeg.

Game je elke dag tig uur.. tja. Het is niet gezond, maar er zijn genoeg gamers die dagelijks 8 uur aan het gamen zijn. Of je GPU dan full load draait terzijde, en AMD kan met hun Radeon Chill oplossing om de FPS te beperken wmb ophoepelen als argument, maar het is niet ondenkbaar dat er gamers zijn die dan letterlijk richting de 100 eur per jaar extra aftikken op hun stroomrekening. Nogmaals: gezond nee, maar het gebeurd wel.

Ik heb ook een Freesync scherm, en met een paar uurtjes in de week (als het mee zit), is het verbruik voor mij geen zwaar wegend argument. Maar dat neemt niet weg dat het wel -het- blok aan het been van Vega is.
Ik ging even snel van die 50w die vertelt werd... dat was stom... 100 veranderd de boel al. En doet de "gratis" freesync teniet helaas.
Nou ja, dat hangt dus af van hoe veel games je speelt. Als je echt uren maakt, jazeker. Ik ben de laatste 3 jaar blij als ik 5 uur in de week haal :'(
ja 5 uur per week is niet veel.
Wel interessant onderzoek: hoeveel uren gamed de gemiddelde Tweaker nu echt? Ik denk dat ik geen uitzondering ben.

Toegegeven: In mn school- en studietijd was het aantal uurtjes ieeeeetsjes anders. :D

[Reactie gewijzigd door Foritain op 22 juli 2024 13:19]

laten we maar niet doen, ben bang dat het heel confronterend word :P
Ik schrok wel eens in games waarin je /played kon doen ;)
ik schrok pas toen ik op steam keek hoeveel speeltijd ik had in rift. dat is belachelijk. en ik speel het al heel tijdje niet meer via steam zelfs :O

wist ook niet dat het zo hard kon oplopen qua speeltijd
Ik speel online op de PS4.
PC exclusives en singleplayer op PC.
Online games nemen de meeste uren.
Voor mij is Vega 56 niet een probleem.
Dat zal van de leeftijd afhangen, toen ik nog een schoolkiddo was haalde ik uren per dag... Nu ben ik inderdaad ook blij als ik een avond even een spel kan opstarten. Echter is mijn beschikbare budget ook veranderd, waar ik destijds blij mocht zijn als ik na veel sparen een X700 Pro kon kopen (voor heul veul geld, en het ding was toen al wat ouder) kan ik nu als ik dat wil morgen de Vega betalen.
Precies dat, plus de vraag of je er toen minder plezier van had dat je niet het duurste had maar af en toe genoegen moest nemen met wat minder wellicht.

Enorm luxeprobleem nu met hardware, maar de tijd... PUBG gekregen van de dame een week of 2 terug, welgeteld 2 potjes kunnen spelen :-/ Komt AMD weer met Vega kaartje aanzetten enzo he, heel vervelend.
Toen ik nog schoolkiddo was hadden we Pong...
Ik zat met mijn famicom
Volgens mij kan je een grafiek maken met de hoeveelheid funds tot je beschikking, en de hoeveelheid tijd die je hebt....

Hoe meer tijd, hoe minder funds. Hoe meer funds, des te minder tijd.

Ik denk dat de Tweakers met een dikke 1080ti en een 16-core CPU juist degene zijn die het niet aan tijd hebben om 8 uur per dag te gamen.

En ik denk dat de Tweakers die 8 uur per dag gamen, het toch moeten doen met een i5 + GTX 1060/1070....

En als je dan kijkt, dan maakt het stroomverbruik een stuk minder uit... Misschien zit ik er naast. Maar als ik naar mezelf kijk... Mijn PC is krachtiger dan ooit (en duurdere, meer high-end componenten) maar ik heb ook minder tijd dan ooit. 5 uur per week is hier ook een luxe :9
Je vergeet de bespaarde kosten van de verwarming eraf te trekken, als je daadwerkelijk meerdere uren per dag speelt kan de verwarming sowieso een graden lager. Scheelt ook in de kosten :+

Voor de casual gamer die een uurtje per dag speelt niet interessant maar de die hard 5+ uur per dag gamer kan het een verschil maken.
AMD zou ook hier eens serieus op moeten focussen met hun nieuwe architectuur naar mijn mening.

Het verschil wordt toch wel pijnlijk als je kijkt naar de huidige generatie GPU's van het groene kamp.

*edit*
De vergelijking is performance per Watt.

[Reactie gewijzigd door Jonathan-458 op 22 juli 2024 13:19]

Dit maal ook letterlijk het "groene" kamp ;)
Je bedoelt de NCU architectuur die ze nu gebruiken? Die is nieuw en support meer DX12 features dan Nvidia's Pascal.

Het verschil zit 'm meer in softwareoptimalisatie dan in dat de architectuur van AMD slechter zou zijn, ofzoiets...
Ik bedoel dat AMD rekening had moeten houden met stroomconsumptie met de Vega architectuur.

Hopelijk doen ze dit wel met de volgende architectuur.

Ik doel op performance per Watt, als je puur en alleen naar performance kijkt dan zijn het gewoon goede kaarten.

[Reactie gewijzigd door Jonathan-458 op 22 juli 2024 13:19]

Rekening houden? Je doet nu net alsof het een soort 'keuze' is :P Je moet bedenken dat door de huidige marktverdeling AMD amper geld heeft voor R&D. Nvidia investeert veel meer en maakt daardoor grotere stappen. AMD heeft simpelweg niet het budget om én zuiniger te zijn én sneller.

En als je dan als AMD zijnde dan toch een keuze zou moeten maken tussen specs en performance per watt (waar de gemiddelde gamer die 10 uur per week speelt in de praktijk niks van merkt) dan snap ik heel goed dat ze voor specs kiezen.
Of ze moeten Net als Ryzen even terug naar de tekentafel. En eens goed kijken hoe ze de High end GPU markt kunnen veroveren. Met CPU is het ook gelukt. Al heeft het ze wel 5 jaar gekost. Maar uiteindelijk is het ze gelukt.
En eens goed kijken hoe ze de High end GPU markt kunnen veroveren. Met CPU is het ook gelukt.
Met cpu is het AMD gelukt om de markt te veroveren...? Ryzen is nét uit en de enige reden dat ze zoveel hype hebben gecreëerd is omdat Intel sinds Sandy Bridge (2011!!) geen concurrentie van AMD heeft gehad en dus op deze manier 6 jaar lang heeft kunnen melken. Kijk maar eens naar de single core performance tussen een gelijkgeklokte Sandy Bridge (2011) en een Kaby Lake (2017).

https://images.hardocp.co...4259750Ex0fKuOcpc_2_3.png

Het enige dat Intel hoeft te doen is elke serie iets zuiniger maken en iets hoger te klokken. AMD heeft in 6 jaar geen fatsoenlijk antwoord gehad en heeft het op single core performance nog steeds niet, dus gooien ze het over de multi core boeg. Helaas voor AMD heeft Intel daar een eenvoudig antwoord op: Coffee Lake i5 en i7 zijn hexacores en de i3 worden quadcores.

Begrijp me niet verkeerd, ik wil niets liever dan AMD weer terug in de strijd bij cpu en gpu, maar zoals AMD de afgelopen 5 jaar is bezig geweest duurt het nog minstens 5 jaar voordat ze weer gezond mee kunnen strijden, tenzij ze natuurlijk in die 5 jaar weer stomme fouten gaan maken.
Ik doelde meer dat Ryzen een goede concurrent is voor Kaby lake. En uiteraard is 5 jaar zonder zitten geen pretje. Maar door gaan met zulke power hunger GPU's is ook geen oplossing.
Het probleem is geluid ... Als iemand dat een AMD 290X had en licht gedowngrade heeft naar een GTX 970, puur en gewoon wegens het geluid. Je hoorde de 290X veel meer omspinnen en op hogere toeren draaien, tot vervelend toe.

Dat was ook mijn vrees doen de eerste Vega FF resultaten bekend werden op gebied van stroom verbruik. Ja, men zal er een aftermarkt cooler kunnen op smijten dat stiller is maar als we dezelfde cooler op bijvoorbeeld: 56 vs 1070. Welke zal meer lawaai maken? Die dat het meeste verbruikt.

Je gebruik 50W als voorbeeld en ja, dat klinkt niet zoveel. Maar je vergelijk de TI en niet de 1080, waar de 64 tegen concurreert.

Maar als je het in percentages uitdrukt:
1070 vs 56: 51% meer stroomverbruik bij AMD ...
1080 vs 64: 66% meer stroomverbruik bij AMD ...

Dat betekend dat je GPU cooler, 51 tot 66% meer warmte moet verplaatsen. Aangezien beide dezelfde GPU coolers zullen gebruiken ( er is geen magische technologie dat AMD of Nvidia krijgt ), betekend het dat de coolers op de AMD kaarten meer wind ( = geluid ) moeten generen voor te koelen.

Sommige mensen hebben geen last van fans met kop telefoons op maar niet alles dat je doet is gaming, wat je GPU kan doen opwarmen ;)

En dan nog het feit dat deze kaarten met Nvidia hun 1 jaar oude oplossing concurreren. Ik zie gerust een 1070Ti op 1 van deze dagen ;)
Als je kijkt wat sommige koelers met een Ti doen hoeft dat zeker geen issue te zijn. Neemt natuurlijk niet weg dat het niet ideaal is, en eerst zien, dan geloven :D
Ik kwam er ook achter dat het niet 50w was maar 120w. Lang leven lui zijn en uitgaan van andere... en ja geluid productie kan een issue zijn. Maar voor de meeste after marker cooler zal het geen probleem zijn. Mijn r9 290 doet kwa geluid productie niet echt onder van de MSI 970 die mijn vrouw heeft.

Ja in de Zomer is de extra wat niet fijn nee. In de winkel scheelt het wel in stook kosten😀. Nu maar hopen dat ze met drivers iets extra uit krijgen. Of dat miners er zo blij mee zijn dat ze de 570/580/1070/1080 links laten liggen. En er voor ieder wat te koop is.
Ook geen probleem voor mij al ben ik wel benieuwd.
PS4 en PC in de woonkamer dus er zit vaak iemand TV te kijken.
PC Geluid staat voor gamen zacht.
Voor miners niet echt gezien de niet overweldigende hashrates en het hoge wattage wat gezien de Nederlandse prijzen een aardige impact heeft op je winstgevendheid. Al zullen er genoeg miners zijn die wel een aantal van deze kaarten laten draaien doordat de GTX1070 amper te verkrijgen is.

Hiernaast zijn er genoeg landen waar stroom amper iets kost en zullen de kaarten hoe dan ook winstgevend zijn.

zie de review bij de buren:
https://nl.hardware.info/...-rx-vega-voor-coin-mining
Dat is te simpel gesteld. Vega is zo'n stroomvreter omdat de GPU op hoge clocks word gezet zodat de 1070/1080 bij te benen is. Maar als je gaat minen zal je die kaart flink undervolten en de GPU enorm downclocken.

Praktijktests hebben we nog niet gezien, maar in theorie is HBM2 (door veel minder, kleinere chips met minder afstand tot de GPU) zuiniger dan GDDR5.
Tot slot lijkt de hashrate van Ethereum juist flink hoog te liggen https://www.eteknix.com/a...-56-hashrates-calculated/ - dit is vergelijkbaar met twee GTX 1070's voor Vega 64. Mocht je Vega 64 voor de adviesprijs kunnen krijgen, dan is dat een prima deal...
HWI kijkt nu enkel naar Nicehash en concludeert niet voor niks dat hier softwarematig nog winsten te halen zouden zijn.
De nederlandse prijzen van stroom hebben weinig invloed want die kaarten worden al verkocht voordat ze uberhaupt Europa binnen komen.
Ik denk dat je naar de totale package moet kijken, 50W in een vacuum is natuurlijk niet doorslaggevend. Maar 50W meer verbruik en ook nog +- 30% mindere prestaties is gewoon niet goed, een GTX 1080 Ti tegenhanger zal het iig niet worden (maar werd eigenlijk gezien de geruchten ook niet meer verwacht).
Net als 120W meer verbruik en +- gelijke prestaties en nog eens een jaar "te laat" op het feestje komen is ook gewoon niet goed t.o.v. de GTX1080. Als je een jaar te laat bent moet je in ieder geval zorgen dat je een flinke klap sneller bent, dan zal er namelijk door de meesten ook niet naar stroomverbruik gekeken worden. Prijs en FreeSync v.s. G-Sync kan hier echter nog wel wat doen.

Ik heb nu een 10tal reviews doorgenomen sinds 15:00 en de Vega RX64 lijkt gewoon een hard sell te worden, tenzij toekomstige verbeteringen de performance nog flink weten op te krikken.

De Vega RX56 lijkt echter een stuk beter voor de dag te komen en mits verkrijgbaar (dit schijnt mogelijk nogal een probleem te gaan worden) een aardige kaart te gaan worden in zijn prijssegment t.o.v. de GTX1070

[Reactie gewijzigd door Dennism op 22 juli 2024 13:19]

Sorry, maar AMD had een tijdje terug met de "Cyprus?" volgens mij een zuiniger ontwerp dan Nvidia, met de GTX280 ofzo...
Mogelijk is die tijd wel ja. Bedoelde meer afgelopen jaren. Zal het even aanpassen.
is 50W nu echt zo doorslag gevend?
Ik vind het meer uit principe een zware teleurstelling. Eén jaar en drie maanden na de 1080 komt AMD met een kaart die de 1080 nauwelijks kan bijbenen en ook nog eens meer verbruikt om dat magere resultaat te halen. Zoveel hype, zo'n enorme teleurstelling.
Er komen nog driver improvements aan dus ik denk dat vega zeker nog wat beter gaat worden.
De performance is in lijn van verwachting en optimalizaties zullen zeker nog positief effect hebben echter verwacht ik niet dat ze de 1080 TI van de troon kunnen stoten.

Het zijn ook gewoon goede kaarten echter is het stroomverbruik gewoon hoog.
Al is dat wel mogelijkheid. Drivers hebben nogal tijd nodig dus 3 a 7 drivers verder.
NV haald uiteraad nu tegen maximale eruit om de release benches van Vega onderuit te halen.
Voordeel van extra refresh die al langere tijd uit is.

Deze vers architectuur anders dus kan het ook wat extremer zijn.
Precies. Een 290x doet het hedendaags nog erg goed. Dat is bij de tegenhanger van nvidia van die tijd wel anders.
50 watt meer dan een 1080Ti die ~30% sneller is. 120 watt meer dan een GTX1080 welke grofweg gelijk presteert. Je kunt 2 GTX1070's in SLI laten draaien op de powerconsumption van een RX64.
Wilde net de andere der bij zetten maar je was me voor.

Het is inderdaad een bittere pil die stroomconsumptie

[Reactie gewijzigd door Jonathan-458 op 22 juli 2024 13:19]

Mwah. Ik zie iets andere waarden:

1080 premium lucht: 188W gemiddeld, 235W top. (2X8p)
1080 premium water: 216W voor 2089mhz. (*Dit is sneller dan de Vega 64 op 1645mhz.)
1080 Ti middeklasser lucht: 246w gemiddeld (lastig om em echt >98% te krijgen) 298w top.
1080 Ti water: 267W gemiddeld (2030mhz) 312W top. (enkel in Synth) - hoewel na veel optimalisatie.

Vega64 stock, aftermarket kaart: 288W peak 295W
Vega64 OC: 312W, peak 345W (1645mhz)

Hij gaat dus 100W over het verbruik van de 1080 (2e versie) héén, voor 5-8% tragere results buiten een aantal titels om. Hij gaat dus nog over een niet-geoptimaliseerde 1080Ti OC heen, voor 30% minder performance. Maar veel 1080Ti's hebben wel ongeveer dezeflde peak power use als een stock Vega64. Maar daar concurreert deze kaart helemaal niet mee.

In een systeem met forse air cooler, scheelt een Vega64 vs 1080 (1e versie) al snel 5 graden op de CPU in idle na 30 min runtime, bij matige acceleratie. In games is het ook een goede 3-10 graden warmer. Hitman 2016 spelen op Vega loopt het hele systeem echt een heel stuk heter...
Het valt me op dat AMD deze kaarten heel stilletjes gelanceerd hebben invergelijking met de rx470/80. Ze wisten goed genoeg dat deze kaart geen potten ging breken.

Amd is niet volledig kansloos. Apple maakt trouwens gretig gebruik van midrange kaarten in hun Macbook pro 15" en Imac's en Mac pro's. Dat zijn geen game stations maar ze sturen wel als enige 5K schermen aan, zijn stil en zuinig. Heel wat anders dan deze Vega.

Nvidia verdient goed zijn boterham met de gtx 1060/70/80 mede dankzij de mining hype. Zolang dag doorgaat is het niet ondenkbaar dat ze lang gaan teren op deze architectuur. Ze hebben helemaal geen haast, zeker nu AMD niet meteen met een ijzersterk alternatief op de proppen komt.

In CPU-land liggen de kaarten anders. Intel moet een stevig tandje bijsteken door extra cores toe te voegen aan de volgende 'generatie' i5 en i7's. Maar ook hier scheert AMD spijtig genoeg geen hoge toppen in de gamingmarkt omdat de meeste games geoptimaliseerd zijn voor intel al is het verschil daar wel veel kleiner en soms is AMD zelf zuiniger en ook goedkoper. Maar canon lake ligt op de loer waardoor AMD het weer en zwaar weer kan komen als ze niet in de intel-pace kunnen lopen. Besef dat intel de ontwikkelingskost al lang heeft kunnen spreiden.

Al bij al de de Vega 56 geen slechte kaart. Ze verbruikt maar 40 a 70 watt meer dan de gtx1070 in game en de kans is groot dat ze de gtx 1070 met gemak kloppen wat prestatie/prijs betreft. Mede omdat Nvidia gebukt gaat onder de miners Hype. Dat Amd iets minder zuinig is kan voor de consument nog wel eens positief uitdraaien in de huidige marktevolutie.
Helaas is de Vega een flop gebleken, kaart kwam een jaar te laat op de markt en dat stroomverbruik kan hedendaags gewoon echt niet meer. Met overklokken kom je tegen de 400W aan, bij de LC FE Vega bleek het zelfs 440W te zijn.
Dit is eigenlijk een kaart die het op had moeten nemen tegen de grote Maxwells, nu blijkt dus de, meer dan een jaar, oude Pascal buiten bereik terwijl Volta al om de hoek staat.

[Reactie gewijzigd door 454232 op 22 juli 2024 13:19]

Vega is geen flop, maar de prijs wel, knap wat AMD gedaan heeft met zo weinig uitgaven aan r&d, maar het is niet voldoende gebleken. Was de prijs laag genoeg geweest was het een mooie kaart en meer keuze voor budget en midrange. Maar nu blijft nvidia dominant en de prijzen zullen niet snel veranderen en heeft nvidia weinig haast met volta (tel daarbij op de mining hype= inflatie prijs en late verkoop van vega in b.v. NL). Alle hoop is nu voor AMD fanatici op navi gericht, maar 7nm... intel heeft een budget waar amd van kan dromen(r&d budget intel is 8 miljard meer p/j dan AMD aan inkomsten genereert..) Ik zie voorlopig intel nog niet komen met 7nm(3 tot 4 jaar nog) en AMD denkt in 2018 navi op de markt te hebben met 7nm(global foundries dan)? Ik gok wederom op uitstel. Helaas maar het ziet er nu uit dat AMD uit de race is bij gpu's, gelukkig hebben we ryzen/threadripper en is die markt wel weer open, maar gpu markt blijft zo stilstaan. no bueno voor consument.
Vega is wel een flop, als je de prestaties afmeet tegenover het stroomverbruik. De prijs daarbij kan alleen nog maar meer pijn doen.
De prijs is zeer pijnlijk en dit is nog maar reference, boardpartner prijs schijnt nog hoger te liggen.
Nog pijnlijker is de hashrates, deze zijn niet zoals de gefantaseerde 70/100MH/s maar gewoon wat te verwachten was op basis van GCN met hogere klock. Mining hype zal ook wel mee vallen.
Doet wel pijn btw. Heb altijd Radeons gehad maar als ze op deze lijn blijven zitten, ga ik serieus nadenken om over te stappen. De RX470 doet het voorlopig nog goed hier, dus er is geen haast.
Anoniem: 368306 @Madrox14 augustus 2017 17:26
Waarom kijk je altijd dan naar het groene kamp, het maakt mij niks uit, gewoon welke het beste is?
Natuurlijk, altijd de beste ongeacht de kleur. Voor mij niet perse de snelste, maar die kaart met de betere prijs/prestatie verhouding. Echter ben ik nogal gewend geraakt aan AMD's Control Center en alleen daarom al valt de keus toch telkens op AMD. Als ze nu qua stroomverbruik ver achterblijven heb ik echter een heel goede reden erbij om wél over te stappen.
Jij en velen met jouw, maar de schuld ligt bij AMD en hun marketing.
Neen, je vergeet een heel belangrijk ding - STROOMVERBRUIK.
Ook al zou de Vega exact op het niveau van een 1080Ti presteren en net zo veel kosten, dan was deze alsnog niet interessant geweest, behalve voor de echte AMD fanboys.
Ik zie al professionele reviews voorbij komen waarbij de non-FE Vega LC tegen de 500W kruipt na overklokken. Dat is 2x een GTX1080 terwijl de kaart in de meeste gevallen langzamer is dan een enkele 1080 (en dan ook nog eens de 1080FE, wie koopt die nog? Een grof meerderheid van de 1080's zijn allemaal custom PCB's die stock tegen de 1950-2000MHz klokken).

[Reactie gewijzigd door 454232 op 22 juli 2024 13:19]

Nee dat vergeet ik niet, AMD kan het gewoon niet winnen van nvidia met efficiency, het verbruik ligt hoger, de kaart was geen flop geweest als de kaart deze prestaties had en verbruik, maar simpelweg goedkoper was. Jij had het over of de kaart een flop was, dat is hij inderdaad met deze prijs, niet of hij goed overclocked, als je graag een spelletje speelt en goede gpu wil is het vermogen niet zo ernstig.
Mensen kijken als eerste naar de prijs, als prestaties gelijk zijn en een aantal ook naar vermogen.
Ik kijk er ook naar en ik weet wat het verbruik is, niet alleen is de kaart aan de prijs, met zo'n vermogen mag je ook meer uitgeven aan een aanzienlijk sterkere voeding, wat de prijs nog meer omhoog gooit (en daarnaast betaal je ook meer aan energie kosten per jaar, wat je tco ook omhoog gooit). Als je flink wat achter je pc zit en gamed kan dat flink oplopen. (gem 4 uur per dag tav 1080, p/j 35€ meer, of als je seti@home/boinc gebruikt 24/7 aan is het 210€ meer per jaar, dat is na 3 jaar al meer dan de kaart heeft gekost. Met mijn verbruik kom ik per jaar op ~100€ meer per jaar, meestal doe ik 3 a 4 jaar met een kaart, is toch een aardige meerprijs dan)
Waarom krijgt deze post een -1? Het gaat niet offtopic toch, ik probeer het weer naar 0 te krijgen iig.

[Reactie gewijzigd door echtwaarisdatzo op 22 juli 2024 13:19]

Ik zou het geen flop noemen naar idd een jaar te laat op de markt. Het is eigenlijk niets dat de markt pushed.

De Ryzen deed iets wat vele niet mogelijk acht. Echte 8/16 CPUs voor een schappelijk prijs. Ja, AMD kon niet winnen op Single thread maar ze gaven wel iets interessant terug op een ander gebied.

Dat is wat er ontbreekt bij de Vega ... Eindelijk terug concurrentie JA! Maar tegen een kost. Die verbruik cijfers zijn pijnlijk. En het geeft ook aan dat AMD in de toekomst nog altijd problemen gaat hebben met verbruik/hitte op de hogere markt segment.

Je zal maar weinig mensen een Vega in een SSF zien steken ( of AMD moet die grondig downclocken ).
Nou, als je na een hoop bombarie ruim een jaar na de release van de 1080 van Nvidia zelfs die kaart niet weet te verslaan met je topproduct en ook nog eens behoorlijk meer verstookt, mag je toch wel van een flop spreken lijkt me. Daar weegt zelfs een aantrekkelijke prijs niet tegenop, en afgaande op de schattingen gaat die prijs ook niet echt aantrekkelijk worden.
Nou vriendelijk prijsje zou fijn zijn maar ja HBM2 en mining gooit wat roet in.
Denk dat volgend jaar de driver toppie zullen zijn en performance sowieso bump krijgt.
Mooie kaartjes. Alleen dat stroomverbruik, dat blijft toch wel een dingetje hoor. Nog steeds te twijfelen tussen 1070, vega 56 of zelfs wachten tot 20/11 refresh van Nvidia.
Mooie kaartjes. Alleen dat stroomverbruik, dat blijft toch wel een dingetje hoor. Nog steeds te twijfelen tussen 1070, vega 56 of zelfs wachten tot 20/11 refresh van Nvidia.
Zou voor de AMD RX Vega 56 gaan als je alleen kijkt naar de snelheid, de AMD RX Vega 56 is sneller in meeste spellen, vooral in DX12 spellen, maar hij gebruikt wel 75w meer dan de Geforce GTX 1070.

http://www.guru3d.com/art...ega-56-8gb-review,13.html

Wel een grote teleur stelling de AMD RX Vega 56 en vooral de RX Vega 64, na 20 maanden na dat de Geforce GTX 1080 uit kwam hij nog steeds iets langzamer in de meeste spellen, ik had dus gelijk dat hij bijna gelijk zou zijn qua snelheid als de Radeon Vega Frontier Edition, klopt ook wel ze hebben de zelfde specs, zelfde GPU en geheugen, erg jammer voor AMD, en erg triest dat de RX Vega 64 wel tot 130w meer gebruikt dan de Geforce GTX 1080.

https://www.youtube.com/watch?v=VBnNWkMR9PI&t=0s

Maar de drivers zijn wel beter geoptimaliseerd nu met de AMD RX Vega 64, en het scheeld maar een paar fps in de meeste spellen, en en ook anders om is de AMD RX Vega 64 een paar fps sneller dan de Geforce GTX 1080.

Op Guru3D testen ze een stuk meer DX12 spellen (7 stuks), en daarbij is de RX Vega 64 gelijk aan de Geforce GTX 1080, een paar fps (2 a 5 fps) sneller soms En Guru3D had geen problemen om de RX Vega 64 goed te laten draaien op GTA 5:

http://www.guru3d.com/art...vega-64-8gb-review,1.html

Edit spelfouten.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 13:19]

Ligt eraan wat je een teleurstelling noemt, ik zie het al een aantal keer voorbij komen.

Wel heel makkelijk om de vinger op de slome plekken te leggen. Maar vergeet niet dat AMD een veel lagere omzet heeft, en heel veel minder aan GPU research te besteden heeft dan Nvidia.

Het is een enorme prestatie van AMD om Nvidia uberhaupt bij te kunnen benen. Laat staan een sprint voor hun geld te geven.
Ik verwachte geen wonder wel een wildcard wat Goflo vs TMSC zou kunnen betekenen.

Dit is AMD GF vs nV TMSC.
Allemaal op verschillende flavor 14nm.
Dan kan geen wonderen verwachten.

Daarnaast ondanks kleinere R&D innveert AMD wel. Nadeel van innoveren is dat je later televant wordt. Gezien kip en ei probleem.
Wat ik mij ook afvraag als die architectuur zo drastisch op de schop is.
Zou de DX12 & Vulkan developers guideline dan ook niet veranderen.

Denk dat ik voor een Vega 56 ga.

Misschien is Vega betere mach met iNtel gezien Optane SSD voor helemaal diep en geavanceerd te gaan met zware caching en streaming open werelden.
"Denk dat ik voor een Vega 56 ga."

Tjah, daar zou ik nu niet voor gaan in ieder geval. Custom versies met goede koeling zijn er nog niet. Wat krijg je nu dan voor je geld:
- heel veel lawaai
- heel veel warmteproductie
- duur in gebruik door heel hoog energieverbruik
- hogere CPU-overhead in DX11 titels i.v.m. Nvidia
- AMD drivers in plaats van Nvidia-drivers. Vaak geen verbetering. AMD zet de ondersteuning op een laag pitje door bijvoorbeeld W8.1. maar helemaal niet meer te ondersteunen. Is geen geld voor.
- wordt waarschijnlijk duur in aanschaf. In de Benelux is de kaart nog helemaal niet te krijgen. Zodra die wel beschikbaar wordt, misschien wel woekerprijzen.

Wat heeft de concurrentie te bieden? Nou, bijvoorbeeld de MSI GeForce GTX 1070 GAMING X 8G. Wat krijg je dan?
- Gemiddeld gezien ongeveer Vega 56 performance (dit is een custom 1070 met hogere clocks dan referentie)
- óntzettend stil. Idle onhoorbaar. Load: vanaf 50 cm onder de 30 dB(A).
- heel weinig warmteproductie. Valt gemakkelijk te koelen in vrijwel iedere behuizing
- goedkoop in gebruik dankzij lage energieproductie
- lagere CPU-overhead in DX11 titels i.v.m. AMD
- Nvidia drivers: naar mijn mening zijn deze van erg goede kwaliteit. En bij Nvidia is er ook meer dan voldoende geld om bijvoorbeeld W8.1 te ondersteunen. Nvidia maakt daadwerkelijk winst (en veel!) en er is geen enkele reden om aan te nemen dat de drivers slechter gaan worden. Nvidia heeft een héél groot team werken aan driverontwikkeling.
- de kaart is goed verkrijgbaar. In vrijwel alle shops op voorraad. Prijzen schommelen wel een beetje. Enkele dagen terug nog voor 499 euro op voorraad verkrijgbaar, nu enkele tientjes duurder. Wie weet volgende week voor 489.
Ze testen allemaal basis 1070 kaartjes. deze zijn in de praktijk 400mhz langzamer dan de AIB versies. Oftewel in dit geval ben je alsnog beter af met een 1070 op prestatie gebied. De prijs kan het nog niet op beoordeeld worden. De 1070GTX zou oorspronkelijk ook 399 euro kosten. We weten allemaal hoe dat afgelopen is.

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 13:19]

ja dat is waar, je hebt een grote kans dat bitmining er voor gaat zorgen dat ze duur woorden of niet te kaap zien, maar misschien ook wel niet, omdat ze veel meer stroom gebruiken dan de Geforce GTX 1060 en 1070 kaarten.
Helaas heeft overclockers UK al aangegeven dat alleen de eerste batch kaarten zo goedkoop was. Was maar een tijdelijke RRP, de nieuwe boards zullen duurder zijn. Helaas https://www.overclock3d.n...as_only_for_early_sales/1
Ja klopt had ik gezien, erg triest, nou woorden ze waarschijnlijk zelfs duurder dan de goedkoopste Geforce GTX 1070 en 1080.

Op dit item kan niet meer gereageerd worden.