Door Willem de Moor

Redacteur

Asus' Vega-videokaarten Preview

Twee varianten van de Strix-kaart getest

18-08-2017 • 16:00

124

Multipage-opmaak

Twee versies

Asus liet tijdens een ronde langs Europese media zijn nieuwste videokaarten op basis van AMD's Vega-gpu zien. Tijdens de demonstratie kwam uiteraard Asus' eigen ontwerp met drie Wing-Blade-ventilators aan bod, maar ook de uitdagingen waarvoor AMD fabrikanten stelde met verschillende gpu-packages, werden besproken. We hebben de kaarten, toevallig een exemplaar met de unbonded package en een kaart met de bonded package, aan een korte test kunnen onderwerpen. Wat precies het verschil is tussen beide, lees je op de volgende pagina.

De twee kaarten die Asus meenam, zijn productierijpe modellen, alleen aan het bios kan nog wat geschaafd worden, maar buiten dat zijn het dezelfde kaarten als die half september in de winkels liggen. Wie Asus een beetje kent, vermoedt waarschijnlijk al dat de drie Wing-Blade-ventilators betekenen dat het hier om de ROG Strix-kaarten gaat. Die hebben een groot koellichaam met de zogeheten MaxContact-technologie en een dubbel radiatorontwerp. De kaarten nemen twee en een half slot in beslag, en zijn voorzien van een backplate voor extra stevigheid en een extra metalen frame tussen pcb en koellichaam.

Het ontwerp van de ROG Strix Vega 64 is in essentie gelijk aan het ontwerp dat Asus voor de 1080 Ti-kaart gebruikt en dat is deels de reden waarom Asus, als een van de eerste zogeheten AIB's, in staat is een custom kaart op de markt te brengen. Daarbij helpt het dat een Vega-kaart niet bijster veel extra ontwerp vergt; er hoeven geen optimale afstanden tussen gpu en geheugen berekend te worden, omdat het geheugen al bij de gpu op dezelfde package zit. Je zou kunnen zeggen dat eigenlijk alleen de stroomvoorziening op de kaart aan Vega aangepast moest worden. Dankzij een flexibel vrm-ontwerp en voldoende informatie van AMD kon Asus dat goed voorbereiden.

Asus Strix Vega64

De kaart nader bekeken

Behalve naar het uiterlijk van de Strix-kaart, dat zoals gezegd vrijwel identiek is aan eerdere Strix-ontwerpen voor Nvidia-kaarten, moeten we even onder de motorkap kijken. De kaart heeft drie ventilators, die bij lage belasting uitgeschakeld blijven, zodat de kaart passief gekoeld wordt. Dat kan onder meer dankzij het dubbele radiatorontwerp, dat veertig procent dikker is dan bij vorige generaties Strix-kaarten. Het contact met de gpu, in het geval van Vega de gpu en de twee hbm2-stacks, wordt gerealiseerd via een gepolijst koperen blok dat als een spiegel is afgewerkt. Dat zou betere warmteoverdracht mogelijk maken.

Daarbij liep Asus tegen een klein probleem aan. AMD heeft voor Vega, zoals bekend, voor hbm2-geheugen in plaats van gddr5(x)-geheugen gekozen. Dat maakt een brede geheugenbus mogelijk door de hbm2-stacks, oftewel de opeengestapelde geheugendies, via een interposer met de gpu te verbinden. De gpu en het geheugen maken via tsv's contact met de geleiders in de interposer en leveren zo korte verbindingen met hoge bandbreedte op. De interposer zit weer, compleet met geheugen en gpu, op een substraat geplakt dat via bga-verbindingen op het pcb van de videokaart wordt gesoldeerd. Het probleem zit in de afwerking van die complete package van hbm2-geheugen en gpu; voor die afwerking heeft AMD twee verschillende bedrijven ingezet, die ieder een net iets andere package afleveren. Beide bedrijven moeten de interposer op een substraat aanbrengen en het geheel voor verdere verwerking in videokaarten gereedmaken.

Asus Strix Vega64

De ene package wordt de bonded package genoemd en heet zo omdat rondom de gpu en twee hbm-stapels een randje epoxy zit dat het kwetsbare silicium beschermt. Bovendien heeft het bedrijf dat voor deze versie verantwoordelijk is een klein laagje van de gpu afgepolijst, waardoor het hoogteverschil tussen het geheugen en de gpu verdwijnt. Vanuit de fabriek zijn de twee geheugenstapeltjes namelijk net iets lager dan de gpu. Aangezien een chip altijd omgekeerd op zijn substraat, of in dit geval de interposer, wordt geplaatst, zit bovenop gewoon silicium dat verder geen doel heeft. Dat kan dus voorzichtig weggeschaafd of gepolijst worden. De tweede fabrikant van de packages doet dit echter niet en laat dus het hoogteverschil tussen gpu en geheugen intact. Bovendien is de hele package net iets lager dan die van de andere fabrikant en zit het beschermende randje epoxy niet rondom de chips.

Asus kreeg van AMD niet te horen welke variant van de twee 'chips' het krijgt, aangezien ze hetzelfde onderdeelnummer hebben. Zo moet het met de assemblage van de kaarten, en natuurlijk vooral met het plaatsen van de koeler, rekening houden met twee verschillende packages: de een vlak en egaal, de ander met hoogteverschillen en oneffen. Asus zegt dit te hebben opgelost door een iets dikkere koelpasta in te zetten tussen de MaxContact-heatspreader en de gpu, die de hoogteverschillen kan overbruggen. Hetzelfde koelblok wordt dus gebruikt, maar bij de ene chip-package zit iets meer ruimte tussen koelblok en geheugen dan bij de andere en dat wordt met koelpasta opgevuld. Volgens Asus' tests zou dat niet leiden tot temperatuurverschillen of verschillende overklokresultaten. Voor eindgebruikers die zelf een koelblok willen monteren, is het wel iets om rekening mee te houden; de kans op beschadiging lijkt met de unbonded versie iets groter.

Asus Strix Vega64

Ondanks verschillende packages wist Asus de Vega-gpu's iets hoger te klokken dan AMD dit bij zijn referentiekaarten doet. Dat is geen kwestie van simpelweg de maximale boostclock verhogen, want die wordt zelden gehaald, wist de r&d-afdeling te vertellen. In de referentiekaarten zou deze zogeheten dpm7-modus vrijwel nooit geactiveerd worden. Alleen als de powerlimit verhoogd wordt, kan die dpm7 gerealiseerd worden, anders blijft de gpu overwegend in dpm5-modus en soms in dmp6-modus steken. Door echter de dpm5- en dmp6-powerlimits te verhogen van respectievelijk 200 en 220W naar 240 en 260W, kunnen de hogere kloksnelheden langer aangehouden worden. Dat levert volgens Asus een gemiddelde kloksnelheid van 1458MHz tegen het refentiekaartgemiddelde van 1371MHz op, oftewel een winst van 6,3 procent.

De verbeterde koeling houdt de kaart aanzienlijk koeler dan de stockkoeler doet. Tijdens 3DMark Firestrike Extreme mat Asus een temperatuur van 78 graden voor zijn Strix-kaart en 85 graden voor de referentiekaart. Dat zou geen extra lawaai opleveren, want de Strix-kaart zou 29dB genereren, terwijl de stockkoeler 43dB produceert. Als we dat relateren aan onze eigen metingen, zouden we de Strix-kaart ergens laag in de veertig dB mogen verwachten. Onze benchmarks zullen dat uitwijzen.

Benchmarks

Asus kwam langs met de kaarten en vertrok na enkele uren weer, helaas mét de videokaarten. We hebben dus maar een paar benchmarks kunnen draaien en vergelijken die met de resultaten van AMD's referentieontwerp.

  • Time Spy - graphics
  • Fire Strike Ultra - graphics
3DMark Time Spy - Graphics
Videokaart Gemiddelde score in punten (hoger is beter)
Strix RX Vega 64
7.217
GTX 1080
7.097
AMD RX Vega64
7.014
Fire Strike Ultra
Videokaart Gemiddelde futuremark 3DMark-punten in 3DMarks (hoger is beter)
Strix RX Vega 64
5.458
AMD RX Vega64
5.345
GTX 1080
5.177

In Time Spy was de 1080 de Vega 64 net te snel af, maar de Strix-versie verslaat beide nipt. In Fire Strike Ultra was de AMD-kaart al sneller dan Nvidia's tegenhanger en de Asus-kaart bouwt die voorsprong wat verder uit.

  • Rise of the TR
  • Hitman 2016
  • Total War: Warhammer
  • Dragon Age: Inquisition
Rise of the TR - DX12 - 3840x2160 - Very high
Videokaart Gemiddelde framerate in fps (hoger is beter)
Strix RX Vega 64
43,8
GTX 1080
43,5
AMD RX Vega64
43,1
Hitman (2016) - 3840x2160 - Ultra - DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
RX Vega 64 OC
66,6
GTX 1080
63,0
Strix RX Vega 64
62,3
AMD RX Vega64
60,5
Total War: Warhammer - 3840x2160 - Ultra DX12
Videokaart Gemiddelde framerate in fps (hoger is beter)
Strix RX Vega 64
50,8
AMD RX Vega64
48,4
GTX 1080
46,5
Dragon Age: Inquisition - 3840x2160 - Ultra - 2xMSAA
Videokaart Gemiddelde framerate in fps (hoger is beter)
GTX 1080
37,7
Strix RX Vega 64
34,7
AMD RX Vega64
32,3

In Rise of the Tomb Raider was de 1080 sneller dan Vega, maar Asus' hogere kloks draaiden de rollen om. In Hitman lukte dat net niet en ook in Dragon Age bleef Nvidia's voorsprong te groot. AMD's kaarten waren in Warhammer al sneller en ook nu bleek de Strix-kaart weer sneller dan AMD's referentiemodel.

  • Opgenomen vermogen idle
  • Opgenomen vermogen ingame
  • Geluidsdruk idle
  • Geluidsdruk load
Opgenomen vermogen idle
Videokaart Gemiddelde vermogen in watt (lager is beter)
GTX 1080
8,0
AMD RX Vega64
14,2
Strix RX Vega 64
16,1
Opgenomen vermogen ingame
Videokaart Gemiddelde vermogen in watt (lager is beter)
GTX 1080
181,1
AMD RX Vega64
301,2
Strix RX Vega 64
328,5
Geluidsdruk idle (10cm)
Videokaart Gemiddelde geluidsdruk in dB(A) (lager is beter)
Strix RX Vega 64
18,2
AMD RX Vega64
28,5
GTX 1080
37,7
Geluidsdruk load ingame (10cm)
Videokaart Gemiddelde geluidsdruk in dB(A) (lager is beter)
Strix RX Vega 64
45,5
GTX 1080
50,4
AMD RX Vega64
60,4

De extra snelheid is, zoals we op de vorige pagina uitlegden, vooral te danken aan de hogere powerlimit die Asus instelt. Dat zien we in het idle-verbruik nog niet echt terug, maar onder belasting is de Strix-kaart nog hongeriger dan stock-Vega al was, en dat was anno 2017 een enorm energieslurpende gpu. Het verschil met Nvidia's zuinige 1080-kaart is bijna schokkend.

Waar Asus wel weer flink scoort, is de geluidsproductie. De stockkoeler van AMD is erg luid, dus beter scoren was niet zo lastig, maar de Strix is lekker stil onder belasting, ook vergeleken met de GTX 1080. Idle is het natuurlijk geen echte wedstrijd, aangezien de ventilators van de Strix-kaart pas bij 55 procent belasting aan het werk gaan.

Twee Strix-kaarten vergeleken

We hebben de twee Strix-kaarten, die we in de onderstaande grafiek Strix1 voor de molded-variant en Strix2 voor de unmolded versie noemen, aan een duurtest onderworpen. Daarbij hebben we dertig minuten lang 3DMarks Time Spy-test gedraaid en de temperaturen en gpu-kloksnelheid via Afterburner gelogd. De Strix-kaarten hebben we op het Asus' Performance-bios gedraaid, maar de Strix1-kaart hebben we ook op het alternatieve bios, het Quiet-bios, gedraaid. Ter vergelijking hebben we de Vega-kaart van AMD met standaardinstellingen aan dezelfde test onderworpen. We zetten eerst de kloksnelheden op een rijtje.

Kloksnelheden Vega tijdens duurtest

We hebben de drie kloksnelheden waarop de kaarten draaien, tijdens de test genoteerd en geturfd. Dat levert de percentages in de bovenstaande grafiek op. We zien dat het ene sample van de Strix-kaarten, Strix1, iets langer op 1630MHz zit dan de Strix2. De kaart die we met het Quiet-bios hebben getest, haalt die topsnelheid veel minder vaak en schakelt zelfs regelmatig terug naar 1401MHz. De Vega referentiekaart zit nog vaker op 1401MHz en tikt de 1630MHz slechts in minder dan vijf procent van de tijd aan.

Kloksnelheden Vega tijdens duurtest

We zien een duidelijk verschil tussen de twee Strix-kaarten, maar nadere bestudering van de data wees uit dat de kaarten niet op gelijke temperaturen begonnen. Omdat de temperaturen in de laatste tien minuten in alle gevallen maximaal waren opgelopen, hebben we dezelfde grafiek nogmaals uitgedraaid, maar dan van de laatste tien minuten. Dat geeft, ditmaal dus zonder invloed van de begintemperatuur, hetzelfde beeld. De tweede Strix-kaart lijkt aanmerkelijk minder goed in staat de maximale snelheid te bereiken. Uiteraard is dit maar een beperkte test, aangezien we deze benchmark slechts eenmaal, en onder tijdsdruk, hebben gedraaid. Bovendien zijn dit niet de kaarten die in de winkel liggen, dus harde conclusies over welk type nu beter is, durven we niet te trekken.

Temperatuursverloop Vega tijdens duurtest

Voor de volledigheid geven we de temperatuurcurves nog. Omdat 1740 datapunten de duidelijkheid van de grafiek niet ten goede komt, hebben we alleen het temperatuursverloop van de eerste tien minuten van de duurtest getoond, met 15 seconde interval. Asus stelt zijn koeling zo in dat een maximale temperatuur van 78 graden gehaald mag worden. AMD's referentiekaart is op een iets lagere maximale temperatuur ingesteld. Wel valt op dat de AMD-kaart veel sneller naar een hoge temperatuur klimt dan de Asus-kaarten.

Voorlopige conclusie

Asus is de eerste fabrikant die een Vega-kaart met een custom design de deur uitkreeg en in ons testlab bracht, hoe kort we die kaart ook gehad hebben. Het blijkt wel dat er nog flink wat ruimte voor prestatieverbetering in de Vega-kaarten zit, zodat we kunnen verwachten dat ook andere kaarten van derden niet net onder, maar net boven de prestaties van Nvidia's GTX 1080 zullen zitten. Dat is uiteraard goed nieuws voor iedereen die meer geneigd is een kaart van het rode kamp te kopen.

En daar zit de moeilijkheid; kun je de kaarten wel kopen? Volgens Asus zal het onmogelijk de adviesprijzen van AMD kunnen aanhouden, simpelweg omdat het dan verlies op de kaarten zou maken. En een adviesprijs is maar een adviesprijs, want met de nieuwe driver is de Vega-generatie opeens een stuk interessanter voor cryptominers, wat de prijzen verder omhoog kan drijven.

Speculatie over prijzen en beschikbaarheid daargelaten heeft Vega in het algemeen, en met de Strix-kaart als eerste aib-kaart, een groter probleem. Dat geldt zeker voor miners, maar ook voor gewone eindgebruikers: het energiegebruik. Asus mag dan de prestaties hebben opgekrikt tot boven de stock-Vega-kaarten en boven de GTX 1080 dankzij een hogere powerlimiet, maar dat maakt de kaarten nog minder zuinig dan de stock-Vega-kaarten al waren. Als we puur het verbruik van de kaart meten, komen we op een tachtig procent hoger vermogen dan de GTX 1080. Dat is op je energierekening een paar euro, maar voor miners is het al snel een serieus probleem. Bovendien moet de voeding dat vermogen, ook in een gamesysteem, wel kunnen leveren en moet de geproduceerde warmte kunnen worden afgevoerd. Dat betekent wellicht meer ventilators in je behuizing en meer geluid. Met een vermogen van niet meer dan 200W zou AMD een zoveel interessantere kaart hebben dan nu het geval is.

Ten slotte hebben we gekeken of we verschillen konden opmerken tussen de twee kaarten die Asus had meegenomen, de een met de molded en de ander met de unmolded package. Op basis van de resultaten lijkt de kaart met molded package wat langer de hoogste kloksnelheden aan te kunnen houden dan de versie met unmolded package, maar of zich dat vertaalt in verschillen in de retailkaarten, is niet te zeggen. Gezien de tijd hebben we op de molded kaart de gamebenchmarks gedraaid en op de unmolded de geluidstest. Volgens Asus zijn de prestatieverschillen tussen de twee kaarten in games echter kleiner dan één procent. De door ons gemeten verschillen zouden niet door molded of unmolded packages komen, zo laat Asus in een reactie weten, maar dat variatie in lekstromen die niet met packages gecorrelleerd is wellicht een oorzaak is.

Reacties (124)

124
122
63
9
0
50
Wijzig sortering
Was persoonlijk heel erg gehyped voor deze kaart, helaas lijkt het naar mijn ogen op een hete 1080.
Stroomverbruik is wel echt teleurstellend tho.
Een vraag, waarom vergeleken met een FE 1080? Had een vergelijking met een Strix 1080 verwacht.
Same here, het werd mij gaandeweg wel duidelijk wat het zou worden, maar de reference vega kaart kost in DE 649€, een 1080 sea hawk x (AIO) kost in de zelfde winkel 640, die OC'd 5 tot 10% sneller is dan de stock 1080 en nog steeds minder verbruikt dan vega64 en stil blijft. (kan je gewoon een 500watt voeding gebruiken)
Deze Asus vega kaart zal wel duurder worden dan reference vega, en dan hebben we het nog niet over mining gehad.
En de 1080 is niet ideaal voor mining.
Een sea hawk X zou ik niet stil noemen.
Ik vind het wel redelijk, als ik guru3d moet geloven.
The card under stress remains very silent. We also did not notice any coil whine/noise.

[Reactie gewijzigd door D0gtag op 24 juli 2024 23:16]

Wat raar om de kaarten te benchmarken tegen de stock 1080 en niet tegen 1080s van derden. Want volgens mij komen deze kaarten nog steeds uit onder de STRIX modellen van de 1080.
Is geen officiële review, dan zal dat heus wel gebeuren. Maar met een beetje opzoeken en vergelijken kan je zelf al prima uitvinden wat de strix1080 ( Ti) tegen deze kaart doet.
Zeker waar, maar ik vind het toch een rare keuze. De benchmarks van de 1080 strix hadden ze niks nieuws voor hoeven doen, want volgens mij is die kaart hier toentertijd ook gewoon gereviewed.
Toch wel als je met de meest recente drivers (en dus beste performantie) van de Strix GTX1080 wilt testen ;) . Ligt eigenlijk tamelijk voor de hand, dat het niet zo voor de hand liggend is ^^
Wat een onzin wat betreft het energieverbruik voor miners. Veruit de grootste energieslurper van Vega is de GPU zelf. In ieder geval in theorie zou het HBM2-geheugen fors zuiniger moeten zijn dan meerdere GDDR5-chips.

Een miner die hard de GPU-klok verlaagd en de chip undervolt, kan maar zo een prima energieverbruik uit Vega halen verwacht ik. Dat is dan ook de test die je moet doen voordat je zo'n stellige uitspraak doet.
De buren hebben dit getest inclusief de special amd driver voor mining.
https://nl.hardware.info/...imalisatie-in-de-praktijk
De vega 56 lijkt veel beter geschikt voor mining, bijna dezelfde performance als de vega 64 met veel minder stroomverbruik.
Dat is ook heel logisch: mining is iets wat vrijwel volledig op het geheugen gebeurd, en Vega56/Vega64 hebben hetzelfde geheugen (alleen de GPU verschilt, maar die hebben miners niet nodig) :)
Ik denk dat pro-miners nog verder zullen gaan dan HWI mbt GPU-underclocking en -volting.

De laatste grafiek geeft wel aan dat deze kaarten (jammer genoeg) wel degelijk in trek zullen zijn bij miners...
Hoe bedoel je dat miners de GPU niet nodig hebben? In de test met de getweakte kaarten levert de nvidia 1070 50% meer performance dan de 1060 bij gelijke geheugenkloksnelheid en de 1070 heeft 50% meer shading units dan de 1060. Of bedoel je dat de kloksnelheid van de GPU van minder belang is?
Dat laatste, de memory clock (en de hoeveelheid) bij de 1070 is hoger.
192 bit datapad van de 1060 tgov. een 256bit datapad voor de 1070 en 1080.
Das ook nog eens 25% meer bandbreedte.
Nu al, want de mining drivers zijn al veel verder (devs kunnen deze downloaden, hardware.info verbazingwekkend schijnbaar niet). Er komen nog wel wat leuke updates voor de AMD drivers, dit is het begin :D
Deze mining versie van de driver (die jij en ik gewoon zo kunnen downloaden via de officiële site) zorgt al op vrijwel elke AMD kaart voor minder warmte, minder energieverbruik maar tegelijk wel betere prestaties.

Zo presteert een AMD 290 op Ethereum (BIJNA!) even goed vergeleken een NVIDIA 1080Ti. Verschil zit in ongeveer 3mh/s. Waarbij de AMD 290 op de reguliere drivers zit, met de ''openbare'' mining driver verschilt het nog maar 2mh/s vs een 1080Ti,.
NVIDIA slaat helaas met de 1080 en 1080Ti flink de plank mis, ja op equihash doet de 1080Ti het beter vergeleken de 290, maar goed, neem een recentere AMD en voila.

Maar dat is allemaal helemaal niet erg, laat AMD maar eens een keer zien wat ze kunnen, laat NVIDIA maar eens met een open mond staan, niks mis mee!

Ps. ik heb niks tegen nvidia, apple, samsung of welke fabrikant dan ook. Echter gun ik AMD na al die jaren ook weleens een leuke voorsprong op een bepaald gebied :)

Ik vraag me ook af hoelang AMD deze drivers al uitstelt, w0lf past tegen betaling al enkele jaren je gpu / opencl drivers aan waarbij de verschillen nog veel, veel groter zijn vergeleken deze beta mining drivers.

[Reactie gewijzigd door LopendeVogel op 24 juli 2024 23:16]

Door het gebruikte GDDR5x geheugen op de 1080 en 1080ti is de performance in verhouding een klap minder dan een 1070 of 1060 met normaal gddr5 (performance/watt).
Er komen geen driverupdates meer om minen te verbeteren heeft AMD gezegd.
Zou het bij deze beta blijven, terwijl de huiskamer dev er nog veel meer beters van kan maken? Ik betwijfel het.
Nvidia heeft die kaarten niet specifiek voor mining ontworpen, dus hoezo slaan ze de plank mis.

Een mining geörienteerde fanboy, dat is nieuw. Maar goed, rare statements dus.
Ik gun AMD ook een goede gezondheid, maar daarom zie ik ze liever de gpu afdeling afstoten of zich volledig op de professionals richten. Het hele game gebeuren moeten ze laten voor wat het is. Plaatsvervangende schaamte, met vrij bescheiden statements die nog niet waar gemaakt worden.

[Reactie gewijzigd door echtwaarisdatzo op 24 juli 2024 23:16]

Nou, er valt toch wel wat geld te verdienen in dat wereldje itt gamers die ook vaker (hoe ik het hier lees) voldoende hebben aan een oudere kaart.
Ik ben geen fanboy (kom op, laat dat soort taal aan kinderen en pubers over), hoe je daarbij komt weet ik niet.

Het ging mij inderdaad om het gunnen, nvidia en intel weten al jarenlang keer op keer AMD achter zich te laten. Dit keer laat AMD, NVIDIA achter zich, wat voor iedereen leuk is lijkt mij, gamer, miner maakt allemaal niks uit.
Tenzij de gamers gewoon keihard AMD willen zien vallen, maar dat lijkt mij niet toch?

De R580 kaarten zijn trouwens niet vrijwel overal uitverkocht dankzij de enkele pc gamer, maar dankzij de massa aan miners. Dusja, goed dat AMD er brood in ziet, win-win voor zowel de gamer als de miner. Zelfs de 2e hands GPU (vooral AMD, maar uiteraard ook nvidia) markt begint ineens te bloeien dankzij de grote vraag van miners, dus ook dat is weer mooi meegenomen :D

[Reactie gewijzigd door LopendeVogel op 24 juli 2024 23:16]

Je hebt helemaal gelijk al blijkt uit de laatste test met een 64 vega mining ethereum dit niet het geval te zijn.
mining met het geheugen (ethereum) blijkt de core ook gewoon vol belast te worden.
40+ mhs op ethereum met een verbruik van 260 watt. gingen we dual minen dan nam het vermogen maar met 5 watt toe. dus blijkt de vega op het moment een goede dual mining kaart te zijn. ergens zitten er dus nog bugs in bios.
Dubbel zoveel stroom verbruik. Ik rust mijn koffer.
Dan nog is dit sneller dan een STOCK gtx 1080 en zijn de aftermarkets gewoon weer sneller.

Dan maar die paar tientjes extra voor g-sync.
Ik heb 640 euro betaald voor mijn 34" curved 3440x1440p display. Destijds kostte een G-Sync versie van een dergelijk scherm nog meer dan 1k, tegenwoordig is er een scherm die 't voor €880 doet.

Ik kan heel wat uren hoger energieverbruik hebben voor 240 euro :P

Het is gewoon jammer dat Nvidia door blijft gaan met G-Sync. Mocht Nvidia Freesync gaan supporten, dan is er volgens mij geen enkele reden meer om voor Vega te kiezen. Niet dat dat goed is voor de industrie, een monopolie voor Nvidia, maargoed...
Dan tel je natuurlijk alleen stroomverbruik als negatief punt.

Maar een hoger stroomverbruik leidt ook tot meer warmte en meer geluid. Dat geluid lijkt nu nog mee te vallen in vergelijk met reference kaarten, maar zo stil als een 1070 of 1080 zal een Vega niet worden, aangezien daar ook excellente koelblokken op gezet worden door de partners. Meer warmte in je case zorgt er ook weer voor dat je casefans harder zullen moeten gaan werken.

Ik snap echt niet dat Vega zolang heeft moeten duren. Waren ze eerst van plan om de klokfrequenties veel lager te houden? Want op deze snelheden moet AMD toch ook hebben ingezien dat ze veel minder efficient bezig zijn dan de Pascal generatie.
AMD gokte op HBM2. Samsung deed dat een maand of 2 geleden pas in massaproductie en opeens is daar Vega :P
HBM2 is het probleem geweest. AMD heeft niet de resources gehad om in de loop van de productie een andere geheugencontroller te implementeren in het bestaande ontwerp.

Geluid is lang niet voor iedereen een probleem en we hebben veel oplossingen om dat tegen te gaan. Daarnaast is het gewoon een tradeoff ;)
Een trade-off? Wat is dan hetgeen je wint? Dan zou ik sterkere performance verwachten, of een lagere prijs. Maar de adviesprijs van AMD is volgens partners lariekoek en onhaalbaar.
Je wint Freesync. En die prijs... Ach ja, de 1070 kostte op launch ook €100 meer.
Je verwacht dat de prijs van de Vega's nog daalt ondanks dat AMD heeft gezegd dat de launch prijs een slordige 100 lager is door een cashback aan de AiB's? Neem niet aan dat je al die berichten gemist hebt?

Het is dan wel zoeken naar voordelen... Dan maar geen freesync,

[Reactie gewijzigd door Thekilldevilhil op 24 juli 2024 23:16]

Over een half jaar? Ja hoor. De berichten zijn hetzelfde als bij de 1070 en 1080.
Dat is pure speculatie, op het moment hebben zowel AMD en de AiB's aangegeven dat de huidige introductie prijs niet reëel is aangezien de inkoopprijs van de kaarten bij AMD al net zo hoog is. Die berichten hebben we nooit gehoord bij de 1070 en 1080. Evenals een kunstmatig lage introductie prijs. Dus echt een onzin vergelijking.

Welk deel gaat volgens jou precies zo hard in prijs dalen dat het competitief wordt? HBM2? De productie van de GPU? De interposer?

En wat hebben we aan hier precies aan? NVIDIA heeft op alle fronten goedkoper te produceren kaarten in die range. Dus die kunnen de prijs makkelijk laten zakken. Even de Vega 64 met de 1080 vergelijken:

De 1080 heeft een veel kleinere en dus goedkopere gpu, 314mm2 versus 486mm2.
De 1080 heeft veel goedkoper geheugen. De kostprijs van HB2 is nog steeds erg hoog. Plus AMD heeft ook nog eens een interposer nodig.
De 1080 heeft een veel bescheidener stroomvoorziening nodig. Nog een nadeel van een hoog verbruik is dat je de stroomvoorziening voor robuuster moet maken. Als je dat niet goed doet krijg je GTX590 praktijken.

Vega is zo goed als DOA...

AMD kan op prijs absoluut niet concurreren. Zelfs als ze de prijs naar launchprijs kunnen laten zakken is er geen garantie dat NVIDIA niet even nog wat euro's van de 1070 en 1080 afhalen. Daar zit genoeg marge in.

We hebben als consument helemaal niets aan "ja maar misschien over een half jaar" als je niet eens de garantie hebt dat het in praktijk wat uitmaakt. Eerst 15 maanden op de introductie van Vega wachten en dan nog eens een half jaar tot hij goedkoper is? Nee, daar heeft AMD helemaal niets aan en de consument nog minder. Met als gevolg dat NVIDIA rustig een mid range GPU (GP104) voor 500+ euro kan verkopen. Ik ben wel een beetje klaar met alle excuses die iedereen bedenkt om Vega in een goed licht te zetten. Vega kan mijn rug op, ik koop wel een tweede hands RX 580.

[Reactie gewijzigd door Thekilldevilhil op 24 juli 2024 23:16]

De 1070 en de 1080 zijn al in prijs gedaald, alleen mining heeft roet in 't eten gegooid. Dat AMD nu deze kaarten zo prijst is gewoon achteruitgang, we zijn onderhand al een behoorlijke tijd verder, en AMD brengt niks nieuws dat een hoge prijs rechtvaardigt, sterker nog, ze brengt alleen maar nadelen met zich mee.

Freesync is geen voordeel, en Gsync ook niet - het is koppelverkoop en totaal niet nodig om lekker te gamen - een FPS lock of adaptive sync is net zo prima, kent lagere input lag en ook geen tearing als je een high refresh monitor hebt staan.

[Reactie gewijzigd door Vayra op 24 juli 2024 23:16]

Alleen is over een half jaar Volta er, dus AMD loopt gewoon weer achter de feiten aan op GPU-gebied. Gelukkig hebben ze de CPU-kant nu redelijk op orde.

[Reactie gewijzigd door acst op 24 juli 2024 23:16]

Mwah, hier blaast er bijvoorbeeld ook een airco in huis, en een afzuigsysteem zuigt ook niet stil. Mijn PC is muisstil, maar nog steeds is er allerlei omgevingsgeluid.

En als je een game draait, met je speakers lekker luid aan, hoor je volgens mij een PC ook niet zo snel. :D
HBM was al een probleem ten tijde van Fury en toch is AMD het blijven doorontwikkelen voor een consumer-GPU. Oneindig dom, dat werd toen al duidelijk (geen overklokwonder, achterblijvende 1080p resultaten, nét niet kaart voor 4K, lage marge voor AMD) maar AMD vertikt het om GCN radicaal om te gooien en heeft nu dankzij de shrink naar 14nm nog nét een kaart kunnen bouwen die de subtop van Nvidia kan bijhouden, tenminste, op stock... 8)7

Dit trucje gaat ze geen derde keer lukken. GCN in de huidige, lompe vorm is eindig, en dat is ontzettend duidelijk geworden door VEGA.

Weet je nog, een paar jaar terug riepen we allemaal dat het door DX11 kwam... nu weten we beter. Ook nu weer zijn de drivers te CPU-heavy ongeacht de API. Daarom zijn de benchmarks van Vega ook 'all over the place'. Het is niet de GPU die de prestaties limiteert, maar de cpu cycles die de driver met zich meebrengt. Tel daar een totaal niet afgeslankte architectuur bij op en dit is wat je krijgt.

[Reactie gewijzigd door Vayra op 24 juli 2024 23:16]

De geluidsdruk van deze Vega Strix kaarten van Asus lijkt dus juist beter (lager) te zijn.

Vergeet ook niet de noot die al een paar keer langs is gekomen, dat als je in Wattman de kaart op power save of zelfs balanced zet je slechts een paar FPS verliest, maar het verbruik drastisch omlaag gaat. Dat hebben ze dus met software -nu al- weten te verhelpen.
Ik vind het knap.
Beter dan de aftermarket kaarten van de GTX1080?

ASUS heeft dezelfde koeler overgenomen van een kaart met een veel lager verbruik. Hoe je het ook wendt of keert kan die dus op een veel lager toerental dezelfde temperatuur bereiken.
Vergeet niet dat je ook nog even je voeding moet aanpassen en extra load te verwerken heeft, wat ook weer afgevoerd moet worden.
Grotere voeding kost ook weer extra, ik doe meestal langer met me voeding dat met mijn gpu, dus koop je een gpu alleen mag je rekening houden met de extra kosten van de voeding.

Trouwens nu heeft zowel AMD als nvidia alternatieven die net iets minder zijn dan hardware matige sync, Nvidia's fastsync (eigenlijk hardwarematig op de kaart ipv scherm) en AMD's enhanced sync.
Voor niet hardcore competitieve spelers meer dan genoeg (99% van de gamers).

[Reactie gewijzigd door D0gtag op 24 juli 2024 23:16]

Welke dan?

Die AOC van €880 heeft 100hz.

Voor 640 heb je misschien een 60hz variant, met een beetje geluk een 34UC88 die tot 75hz kan met AMD.

Of je moet op ebay een koreaanse variant kopen met alle risicos die daar bij komen.

Wil je ze in NL kopen, dan is de MX34VQ de goedkoopste 100 versie met freesync, en dan is het verschil nog maar 50 euro.
(de philips is geen goed alternatief, en is ook maar 80 euro goedkoper)

[Reactie gewijzigd door DoubleYouPee op 24 juli 2024 23:16]

Ik heb de 34uc88 gekocht tijdens de BTW dagen ;) g-sync was toen echt onbetaalbaar.
Ik vind die 75hz verhalen altijd zo vaag.... Dan zet je het scherm op 75hz en krijg je nog steeds 60hz voorgeschoteld.. 75HZ bestaat niet, imo. Zelf ook geprobeerd toen.
Je hebt 60/100/120/144/240 .... maar 75hz is een broodje aap, mischien kan je een enkel scherm ''overclocken'' van 60tm 80 maar thats about it

[Reactie gewijzigd door A87 op 24 juli 2024 23:16]

ehm what? je kan het zelf checken op https://www.testufo.com/#test=framerates

En je kan zelf een profiel maken per 1 hz, dus alles er tussen in kan bestaan.

[Reactie gewijzigd door DoubleYouPee op 24 juli 2024 23:16]

Elke vernieuwingssnelheid is mogelijk, anders zouden Freesync en Gsync uberhaupt technisch niet mogelijk zijn geweest. Dat er een format bestond van 1080p60 e.d. heeft daar niks mee te maken. En er is ook wel een verschil waar te nemen tussen 60 en 75hz waarbij laatstgenoemde net iets meer smoothness heeft.

[Reactie gewijzigd door Vayra op 24 juli 2024 23:16]

Huidige adviesprijzen van AMD zijn al hoger/gelijk dan/aan de huidige adviesprijzen van Nvidia. Daar kwam nog €100 bovenop volgens nagenoeg elke tech site. Het verschil tussen freesync en gsync is nu zo'n €100.

Huidige adviesprijs gtx1070 is $350 en de gtx1080 $499.
AMD geeft als adviesprijzen $399 voor de vega 56 en $499 voor de vega 64. Dit blijkt echter een introductie prijs te zijn, ze verwachten nog eens $100/100 er bovenop.

Hw.info vermoed dat de vega 56 €550 en de vega 64 €650 gaat kosten.
Je klimt al bijna op gtx1080ti terrein!

Die €100 besparen met freesync is dus al niet meer van toepassing. En dan produceren de kaarten ook nog meer warmte en geluid, en verbruiken aanzienlijk meer.
Alleen als er specifieke taken zijn waarin vega uitblinkt, voor die professionals is het nog interresant.

Dat AMD zich niet vanaf het begin direct op professionals gericht heeft snap ik niet.

[Reactie gewijzigd door echtwaarisdatzo op 24 juli 2024 23:16]

Dan maar die paar tientjes extra voor g-sync.
Benieuwd of je een gpu/monitor combinatie kan opstellen met gelijkaardige performance (en voor scherm specs) voor "paar tientjes extra"! Waar denk je precies aan?
Een paar tientjes extra voor G-Sync zal wel enigszins sarcastisch zijn bedoelt.
Het scheelt aardig in prijs. Maar zo'n scherm schrijf je af over enkele generaties videokaarten. Terwijl je geniet van een minder warme GPU en systeem en minder herrie. Los daarvan is de adaptive range van G-Sync ook wat breder, wat eigenlijk de houdbaarheid van je videokaart nog wat verhoogt.

Het is gewoon een arfweging die je moet maken.
G sync........... een scherm gaat hier al snel 6 jaar mee!! Flink investeren is nooit een probleem. Dan maar 100 euro meer! G sync is echt extreem lekker in gaming en 90tm144hz! In BF1 met tank gun schiet ik zo alle airplanes uit de lucht ^^

[Reactie gewijzigd door A87 op 24 juli 2024 23:16]

Als je inderdaad zo als meerdere hier er van uit gaat dat je monitor 2 generaties meegaat en de 1080 al goedkoper is dan de Vega. Dat het verschil ineens meevalt. Neem je het stroomgebruik mee, zal ineens de AMD duurder kunnen zijn.

Uitendelijk gaat 't toch om smaak, en dan mogen mensen niet blij zijn hoe Nvidia de markt beinvloed, ze maken in elk geval geen valse beloftes (Poor volta).

[Reactie gewijzigd door Gopher op 24 juli 2024 23:16]

Dubbel zo veel stroom, meer herrie, zwaardere voeding nodig, misschien lagere aanschafprijs...

Al met al geen punten om AMD boven Nvidia te kiezen op het moment.
De meeste hebben al een kwaliteit 450w voeding wat prima is. Mijn r9 290 tri x maakt toch echt niet noemenswaardige meer geluid.
Maar deze kaart alleen trekt al 328W. Dan hou je niet veel over op zo'n 450w voeding.

Zeker als je hem zelf nog wat wil overclocken. Dan zit je waarschijnlijk rap aan de 360W, en dan moet daar de rest van het systeem nog bij.
Het is niet veel wat je overhoud. Maar een r9 390x kan het ook en die verbruikt net iets meer.
Opvallend die temps wel, tijdens de benches op locatie lagen die toch een heel stuk lager. Hoe dan ook maakt het allemaal niet gek veel uit, kom maar op met de productiemodellen eh :D
Sneller dan een stock GTX 1080 idd, echter ben ik toch benieuwd wat de resultaten zijn tussen de VEGA en 1080 met een oc profiel voor beide.
Ja ik bedoel dan ook dat een aftermarket gtx 1080 nog weer een slag beter is. Ik ga een 1080 ti kopen. Dat had ik veel eerder al moeten doen.
Ik ben als Freesync (ultrawide monitor, dus je switched ook niet even zomaar naar een Gsync als je naar de prijzen kijkt) gebruiker ook wel in de markt voor een VEGA kaart, maar als ik dat stroomverbruik bekijk moet ik mijzelf toch even achter de oren krabben. Dat is bijna een verdubbeling, dat het meer is wil ik best voor lief nemen maar dit gaat me toch wat te ver.
Als je de PC bijna elke dag aan heb staan en veel gamed is dit gewoon een issue.

Ik heb nu ook een Strix kaart, die cooler setup bevalt perfect.

[Reactie gewijzigd door Cogency op 24 juli 2024 23:16]

Vind je het momenteel een gemis dat je geen gebruik kunt maken van Freesync? Heb je veel last van tearing bijvoorbeeld?

Ik heb zelf een Freesync-monitor en een Nvidia-GPU, maar heb geen van deze technieken ooit gemist. Hangt natuurlijk van je kaart af, maar de hele zeldzame keer dat ik een beetje tearing ervoer loste V-sync dat gewoon op, zonder microstuttering of wat dan ook. Misschien dat het in de toekomst nog relevant wordt voor mijn 1070.
Tegenwoordig heeft Nvidia toch ook adaptive vsync in de drivers? Vanaf de GTX 6-serie wordt dit ondersteund.

Werkt prima, of het nu een Freesync monitor is of niet.
Mocht je een 60hz scherm gebruiken, dan zorgt Adaptive G-Sync ervoor dat 70fps word ingekort naar 60fps. Dat is geen hogere wiskunde, en kan AMD ook al jaren.

Maar mocht je videokaart slechts 50fps uitpoepen, dan zit je monitor alsnog met halve frames te klooien. Freesync en G-Sync passen de refreshrate van de monitor in dat geval aan naar 50hz. Dat doet Adaptive V-Sync niet.
Verschil tussen vsync en adaptive vsync is dat bij vsync er naar 30fps gedropt wordt als de gpu onder de 60fps komt. Bij adaptive wordt de vsync uitgeschakeld onder de 60 fps. Dat is merkbaar in de vorm van minder stottering en lag.

Ik vind tearing en stuttering vervelender dan lag, heb diverse game PC's in huis (dat krijg je vanzelf met een puber in huis ;) ) en liep min of meer toevallig tegen adaptive vsync. Het werkte op monitoren met een lage refresh rate veel beter dan traditionele vsync. Ik heb schermen met Freesync en G-sync en zonder sync.

Op dit nivo (GTX1080+/Vega 64+ GPU's) zullen er maar weinig games zijn die bij 1080p/1440p onder de 60 fps zullen komen, dus bij een goedkope monitor (60Hz) zal je eerder last van tearing hebben dan van lag.

144Hz (of 200Hz) monitor is natuurlijk leuker, maar vaak hebben mensen al een monitor staan.
Toen ik een half jaar geleden de keus moest maken tussen gsync of 144 Hz ben ik voor 144Hz gegaan omdat ik het idee heb dat als je dan tearing krijgt het niet meer opvalt door dat de frame weer zo snel weg is. En ik ben dan ook niet vendor locked met een eventueel toekomstige video kaart
"bij vsync er naar 30fps gedropt wordt als de gpu onder de 60fps komt. "

Dat is niet waar. Tenminste niet als je Triple buffer gebruikt
Nee niet een gemis, heb ook een Nvidia kaart. Maar de monitor ondersteunt het dus zou er graag gebruik van maken, met name ook omdat de monitor dan meer Hz support dan die nu doet. :) (90 ipv de huidige 60 als ik het goed heb)

[Reactie gewijzigd door Cogency op 24 juli 2024 23:16]

Ah op die manier.

Die ondersteuning van meer Hz is mij vreemd, ik heb een 144Hz monitor en kan gewoon van de volledige 144 gebruikmaken (uiteraard wel alleen via DisplayPort).
Een Vega 56 valt nog enigzins mee qua stroom. En als je de Vega 64 in balanced mode zet verlies je amper performance maar scheelt het onder load wel 50 watt minder. Maar VEGA is qua stroomverbruik wel erg teleurstellend inderdaad. Het lijkt gewoon op de Fury X lijn alleen dan hoger geclockt en dus meer performance maar vooral ook heel veel meer stroomverbruik.
Wat een fcking teleurstelling... Wat gpu betreft word het voortaan Nvidia. Cpu wil ik wel van AMD hebben maar het hele gpu-sigment hebben ze echt verpest voor mij. En dan dat gehype er ook nog bij, en het dan vervolgens niet weten te brengen.
Des te groter de teleurstelling, snappen ze dit zelf niet....?
AMD maakt die hype niet he... Mensen met fake-benchmarks maken dit soort hype. De community maakt die hype. VEGA werd altijd tegenover de GTX1080 gezet.... logisch ook, want de GTX1080ti was toen nog niet eens uit.

Sowieso het hele "ze hebben het voor mij verpest" snap ik nooit. Kijk gewoon, als je een upgrade nodig hebt, wat op dat moment de beste keuze is. Is dat Intel/Nvidia? doen! is dat AMD? doe dat!
AMD maakt die hype niet he... Mensen met fake-benchmarks maken dit soort hype. De community maakt die hype. VEGA werd altijd tegenover de GTX1080 gezet.... logisch ook, want de GTX1080ti was toen nog niet eens uit.

Sowieso het hele "ze hebben het voor mij verpest" snap ik nooit. Kijk gewoon, als je een upgrade nodig hebt, wat op dat moment de beste keuze is. Is dat Intel/Nvidia? doen! is dat AMD? doe dat!
Normaal heb je gelijk alleen bij deze launch was AMD erg actief met de marketing. Denk aan teasers als 'poor volta' https://i.redd.it/phn0bwnobq7y.jpg .
Deze ken ik, maar die is door Fanbase gemaakt, als ik het goed heb.
Is gewoon uit een officieel AMD filmpje uit hun Vega marketing campagne, https://youtu.be/9R8F-aN6W4g?t=6 AMD's eigen youtube
AMD maakt die hype niet he

dat deed AMD wel:
2016: bekend maken van VEGA.
2017 Q1: demo VEGA+doom+4K
2017 Q2: teaser video In the wake of the Radeon Rebellion, the story continues... Visit http://ve.ga/ for the next chapter.
2017 Q3 computex.

ps Doom demo uit Q1 is even snel als huidige release. vega driver is niet beter geworden in die 7 maanden.

[Reactie gewijzigd door icegodd op 24 juli 2024 23:16]

Dat heet een product demonstratie. Heel normaal.
"Driver niet beter geworden in die 7 maanden"

Dat is wel een bold statement, je weet de powerdraw niet. Misschien trokken die kaarten wel 500+ Watt op dat moment, ze hadden een driver kunnen creeen voor alleen Doom. Er zijn zeer veel onzekerheden en dit is een statement gebaseerd op niks.
AMD zegt daar nergens gtx1080 Ti performance meer te zetten. "Jullie" gaan meteen er vanuit dat de Nvidia gaan verslaan. Leuk bedacht, maar AMD vermeld dat nergens.

Room is bekend dat het perfect gebruik maakt van Vulcan. Dus nee ik zou ook geen wonderen verwachten van de driver optimalisatie.

Jullie doen allerlei aannames (dat het sneller is na driver optimalisatie etc). AMD maakt hype,maar belooft nergens superpowers ties boven de GTX 1080 Ti. Dat doen alleen de fans.
De 480x werd ook al tegen over de 1080 gezet.
Het zijn hier gewoon zeikracisten.
De ene amd de andere nvidia.
I got both, this maar net wat je er mee moet
Die AMD vega hype is juist goed anders kwam de 1080ti mischien nooit!!!!!! of pas later

[Reactie gewijzigd door A87 op 24 juli 2024 23:16]

Ik hoorde bij youtube kanaal paulshardware dat zijn VEGA 64 overclocked meestal boven de 1700MHz bleef. Vreemd.
Nope, blower cooler en limited edition
Geundervolt dan waarschijnlijk.
Ergens heb ik het idee dat het geen klote meer uitmaakt wat deze kaart doet, of hoe hij in games presteert, als je momenteel kijkt naar de volledige AMD series, bijna geen enkele kaart is meer normaal te krijgen door heel die mining-hype, of de prijzen gaan zo hard omhoog dat het absoluut niet interessant is. Kaarten die voor 300-350 uitkwamen, nergens meer te krijgen, maar diezelfde kaart 50-100 euro extra.. gewoon te koop.

En AMD weet dat ook, hoe anders gaan ze speciale mining-drivers uitbrengen, waar gamers met de jaren steeds meer op vermogen gingen letten, gaat het miners enkel om resultaat: meer coins kunnen minen.

Kan je altijd de gok nemen dat als de hype weer is vervlogen een leuke 2de hands ex-miner te nemen, maar dan is het ook maar de vraag wat een nonstop 100% draaien goed heeft gedaan voor de levensduur van zo'n kaart.
levensduur zou ik mij niet druk om maken. De levensduur van de meeste videokaarten is ruim langer dan de bruikbare levensduur. Die houd met 5/6 jaar toch echt wel op.
Daarom gewoon flink overclocken! het leeft wel een jaar of 5

[Reactie gewijzigd door A87 op 24 juli 2024 23:16]

Verkrijgbaarheid in Nederland heeft momenteel weinig met de miners te maken, er waren letterlijk 0 ( nul.) echt vega kaarten naar Nederland verscheept.
Mooi dat bedrijven als ASUS nog betere resultaten neer kunnen zetten met zo'n kaart door kleine aanpassingen. Desondanks niet geneigd naar zo'n kaart te kijken bij de huidige prijs/prestatie/energieslurpniveau's, houd het nog wel even bij m'n 980ti

Wel jammer dat veel videokaarten onbetaalbaar worden door die crypto-hype. Leuk voor de GPU bakkers maar voor mensen die gewoon een spelletje willen spelen (waar die dingen voor bedoeld zijn) balen. Daarnaast is het naar mijn mening zonde om bakken met energie (zeker met dit type kaarten) te besteden aan cryptocoins. Gamen kost ook energie en heeft ook niet echt toegevoegde waarde voor de mensheid (behalve ontspanning) maar dat doen de meesten niet 24/7 op vol vermogen.
"Dat is op je energierekening een paar euro, maar voor miners is het al snel een serieus probleem."

Miners zullen echt geen mining farm opereren in nederland ;-). De energie kwestie doet er bij miners minder toe gezien deze in landen gevestigd zijn waar energie bijna niets kost.

De hoofdvraag blijft of de aankoopprijs/perf ratio voor de vega kaarten beter ligt dan 1070 ed.
Wellicht dat ze de energie consumptie expres omhoog hebben laten schieten zodat miners het minder kopen en meer overblijft voor andere consumenten? :P 8)7

Op dit item kan niet meer gereageerd worden.