Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 129 reacties

Powercolor brengt de Devil 13 Dual Core R9 390 uit, een videokaart die van twee Grenada-gpu's op 1000Mhz is voorzien. Het verschil met de Radeon R9 295X2 is dat Powercolor de Devil 13 met lucht koelt en van 16GB geheugen voorziet.

De laatste dual-gpu-kaart van AMD is de Radeon R9 295X2, die in april 2014 verscheen. Powercolor kondigt nu echter een eigen bouwsel aan dat wat specificaties betreft lijkt op de R9 295X, maar niet over waterkoeling beschikt.

De Devil 13 Dual Core R9 390 bevat twee Grenada-gpu's die op 1000MHz lopen. Dat is iets minder dan bij de R9 295X en de R9 390X. PowerColor specificeert niet of het om Grenada Pro-gpu's met 2560 streamprocessors gaat, of om XT-gpu's met 2816 streamprocessors per stuk. De geheugensnelheid van het gddr5-geheugen bedraagt 5,4GHz en dat is wel iets hoger dan bij de 295X2. Bovendien is er dubbel zoveel geheugen aanwezig; twee keer 8GB in plaats van twee keer 4GB. Het geheugen communiceert met de gpu via twee 512 bits brede geheugeninterfaces.

Drie double blade-fans moeten de gpu's op temperatuur houden en tien heatpipes voeren de hitte af. De kaart betrekt energie via een 15-fasige stroomvoorziening en moet met vier 8pins pci-e-stekkers aan de voeding verbonden worden. Volgens Powercolor moet een systeem dat de kaart aankan over minimaal een 1000W-voeding beschikken.

Wanneer de Devil 13 precies verkrijgbaar komt en wat de videokaart moet gaan kosten is nog niet bekend.

Powercolor Devil 13 Dual Core R9 390Powercolor Devil 13 Dual Core R9 390Powercolor Devil 13 Dual Core R9 390Powercolor Devil 13 Dual Core R9 390Powercolor Devil 13 Dual Core R9 390

Moderatie-faq Wijzig weergave

Reacties (129)

*Doet zijn elektrische kachel de deur uit en koopt deze* :+

Maar zonder gekkigheid, een dergelijke stroomconsumptie gaat wel erg ver. Als de prijs al geen reden was, zou dit voor mij toch een puntje zijn om 'm niet te kopen.

De hoeveelheid geheugen is wel weer een enorm pluspunt: zeker voor UHD en Eyefinity setups kun je dat beetje extra echt wel gebruiken. Wat ik dan weer niet begrijp is dat er op zo'n high-end kaart niet net ff 5 ipv 4 aansluitingen gemaakt worden: heb zelf een Eyefinity met 3 monitoren, maar juist i.c.m. zo'n kaart zou iemand misschien wel een 'man-cave' met 5 schermen willen maken... en dat kan dan weer net niet.
Er wordt zo te zien (ook op de specificaties pagina van de fabrikant) geen woord gerept over de power consumptie van de kaart. Er wordt alleen aangegeven dat de minimum system power supply 1000W moet kunnen leveren. Iets wat een totaal onzin nummer is als je de rest van het systeem niet kent natuurlijk :).

Volgens de review op tweakers doet een enkele 390X van MSI ongeveer 300W verstookt. Dus met twee kaarten (op 1 PCB) kom je dan uit op ongeveer 600W. Blijft er 400W over voor je systeem. Normaliter ruim voldoende dus :).

Het blijft echter veel hitte inderdaad.

@hieronder. Elke goede voeding kan vrijwel het volledige vermogen leveren op de 12v lijn :).

[Reactie gewijzigd door Epsilon op 5 september 2015 10:12]

Je bekijkt die 1000W verkeerd. Een voeding met een goede rating en goede componenten kan dat op een lager wattage ook wel. Maar de gemiddelde consument koopt geen voeding met een goede rating en goede componenten. Die kopen de allergoedkoopste van een of ander vaag chinees merk. Ze hebben immers al al hun geld aan een videokaart besteed, de voeding moet zo goedkoop mogelijk.

Die 1000W is simpelweg een stukje indekken van de fabrikant tegen goedkope voedingen die niet leveren wat ze beloven.
Belangrijkste blijft het aantal Amperes op je 12V lijn.
Hoe de rest van een systeem eruit ziet lijkt mij dan minder van belang.

Niemand houdt rekening met bv extreme Peltier (TEC) koeling, dergelijke uitzonderingen is aan die mensen zelf om rekening mee te houden. Een normaal systeem ZONDER GPU moet royaal onder de 250W te houden zijn.
"De hoeveelheid geheugen is wel weer een enorm pluspunt". Het is 16 GB die verdeeld word over 2 gpu's, dus effectief hou je 8 GB geheugen over. Hetzelfde als twee 390 in crossfire.
Dit gaat toch met de ontwikkeling van dx12 weg genomen worden? En kan worden gebruikt als 16 of niet? ik heb dat ooit gelezen maar kan nergens de harde waarheid er van achterhalen.
met dx12 kan een programmeur bv de 2x8 effectief als 16gb gebruiken. maar hoe moeilijk dat is voor een programmeur wee =t ik niet. gezien dat genoeg huidige games toch niet echt geweldige crossfire/sli support hebben denk ik dat ze er niet warm voor gaan lopen.
Daarnaast is natuurlijk een groot nadeel dat beide CPU's afhankelijk worden van elkaars geheugen wat een andere bottleneck introduceert, het geheugen per CPU was juist om de kosten zo laag mogelijk te houden in de zin van dataverkeer. Met twee kaarten die bij elkaars geheugen moeten komen moet er dus data over de bus gehaald worden.
Dat moet met PCIe 3rd gen X16 geen enkel probleem zijn. De bandwidth ligt dusdanig hoog dat je je daar niet druk om hoeft te maken. De meeste kaarten zijn op X8 namelijk net zo snel en hebben op X4 wel een kleine performance drop.
PCIe is ten alle tijden heel veel trager dan geheugen controller, en daarbij is het niet alleen bandbreedte maar ook latency wat belangrijk is, van de GPU naar zijn eigen geheugen wat zo dicht mogelijk bij de gpu geplaatst is altijd sneller dan via bus naar de andere kaart toe en daar geheugen aanspreken.

We hebben het over 640GB/s aan bandbreedte bij deze nieuwe kaarten met HBM. :P

PCIe 3.0 heeft kleine 8Gb per lane, grofweg 1GB per lane, komt neer op kleine 16GB voor x16. Zelfs PCIe 4.0 die in 2017 uitkomt zal niet in de buurt komen van HBM en ook niet van GDDR5.
HBM zit alleen niet op deze kaart. HBM geheugen is alleen gereserveerd voor de Fury reeks. Dit omdat het geheugen momenteel nog steeds hevig ontwikkeld wordt en het niet zoals GDDR5 op grote massa wordt geproduceerd (Nvidia staat zelfs nog in de wachtrij omdat AMD hevig geinvesteerd had in HBM van Hynix).

Verder heb je inderdaad wel gelijk dat de geheugen bandbreedte van GDDR5 groter is dan die van PCIe 3.0, maar we weten niet wat dat voor invloed zou hebben op bijvoorbeeld games. Misschien wordt shared video memory wel een verbetering t.o.v. gescheiden. We zullen het zien.

Verder moet ik zeggen dat het een beest van een kaart is! 3 slots, hoog en waarschijnlijk weegt het ook een ton! Ik vraag me of ze deze kaarten niet standaard moeten leveren met een bracket ofzo. Mijn oude HD 6970 met tripple custom cooler woog ook behoorlijk wat en zakte behoorlijk door zonder bracket (iets wat toch bij mij een slecht gevoel gaf!). Een goede dikke back plate helpt overigens ook goed.

De enige twee punten waar ik bij deze kaart toch echt tegenaan zal lopen is de prijs die waarschijnlijk niet laag zal zijn (logisch) en ook het stroomverbruik. Ik bedoel 4 8-pin connectors is voor mij volledig nieuw! Dat komt neer op een maximaal vermogen van 675 watt! Dat is meer dan mijn hele systeem verbruikt op max load en ik heb niet een mager Delletje haha!

[Reactie gewijzigd door Jhonny44 op 5 september 2015 07:34]

Je kunt helemaal geen zinnige uitspraken doen of het nadelig is voor de performance als een kaart gegevens uit het geheugen van de andere kaart nodig heeft. Tot nu toe wordt alleen de synchronisatie en wat andere gegevens via PCI-E gedaan/gestuurd. Daaruit kun je echt niet conclusies trekken dat het niet uitmaakt of er data bij de andere kaart gehaald moet worden. De bandbreedte van PCI-E 3.0 16x is 16 GB/s versus de 512 GB/s van de snelste videokaarten. En jij denkt dat het dan niet uitmaakt of iets via de ene kaart (512) of via de andere kaart (16) binnenkomt?!
Jawel dat kan wel. Iedereen gaat er hier namelijk vanuit dat 2x 8GB met dx12 dan 16GB wordt, maar uiteraard wordt dat nog wel gewoon redelijk gesheiden gebruikt. Als in het is niet zo dat dit gewoon een grote memory pool wordt waar beiden GPu's continue doorheen graven. Het idee erachter is dat je effectief daadwerkelijk 16GB hebt waarvan de GPU 8GB tot zijn beschikking heeft en de andere ook 8GB waarbij er wel communicatie is, maar dat dit in principe geen gewoonte moet zijn. Dat uit het geheugen van een andere chip halen is mogelijk, maar wordt pas echt interessant als dit geÔmplementeerde er voor zorgt dat de GPU's lekker afzonderlijk hun werk kunnen doen en af en toe eens leentjebuur doen. Daarvoor is de bandbreedte echt wel genoeg en is 512GB/s overdreven daar de latency veel belangrijker (en ook een stuk hoger op deze manier) is dan alleen dat
Maar daarbij heeft deze kaart geen voordeel, dat kan namelijk met twee 390's in crossfire ook
Voordeel van deze kaart is dan toch dat je er dus 2 van kunt gebruiken voor in totaal 4*390 cores.
Daarvoor kan je dan dus ook 4*390 kopen (wat overigens kompleet onzinnig is aangezien de performance gain tov 3 kaarten 0 is). Twee van deze monster kaarten is absoluut overkill en alleen handig bij GPGPU software die alle cores tegelijk aan het werk zet. 2*16GB GDDR5 geheugen is dan erg lekker.
mijn mening:

1: 4x 390x = onzin want moet je een speciaal mobo voor hebben en dus grotere kast met deze kaarten heb je *maar* 6 sloten in gebruik op 2 pcie poorten.
2: 2 van deze kaarten is idd niet rendabel maar hey ik zag al forum posts voorbij komen met 3x 4k monitor setups.
3: 16gb is lekker maar het volkrijgen van 10gb is met elke bij mij bekende software al een gigantische klus laat staan 16 dus zon voordeel is het niet. en dit soort kaarten wordt waarschijnlijk niet ingezet voor software die zo veel geheugen nodig heeft.
Dat is niet de enige reden waarom 4 van deze kaarten onzinnig is. De SLI/CFX overhead en andere schaalproblemen die komen kijken bij 4 kaarten zijn zo groot dat het geen enkel verschil geeft ten opzichte van 3 kaarten. Sterker nog: een processor die maar 28 pcie lanes heeft kan bijvoorbeeld geen quad SLI draaien omdat Nvidia een minimum stelt van 8 lanes per kaart. AMD doet dit niet en dus heb je dan 8x/8x/8x/4x als mogelijkheid voor quad CFX. Alleen houd je dan niks over voor bijvoorbeeld M.2 of andere PCIe hardware. Dat heeft verder niks met speciale moederborden te maken oid. Zelfs high-end intel chips (zoals de 5690K) trekken dit amper. Alleen de allerhoogst geplaatste i7's kunnen dit aan.

De huidige software kan dit inderdaad nog niet, maar wij zijn op de hogeschool bezig met DNA translatie en protein folding. Dan krijg je die 16GB makkelijk vol met data. Hiervoor worden juist dergelijke kaarten gebruikt daar deze vaak een stuk goedkoper (en dus sneller afgeschreven) zijn dan de dedicated physics kaarten (die maar een kleine performance increase leveren tov dit soort monsters).
Dat kan ook inderdaad. Maar dan zitten ze zo dicht op elkaar dat je problemen met koeling/airflow gaat krijgen. En niet iedereen wilt waterkoeling in hun pc.

Met twee van deze kan het dus makkelijker. Als je dan toch al veel wilt uitgeven voor zo een setup (4*§350 = 1400). Zal die paar 100 ook alweer niet uitmaken.

Ik zie het wel gebeuren bij bijvoorbeeld een 3x 4K monitor Eyefinity setup.
En ik denk dat je meer futureproof bent met zoveel geheugen. Als je alleen maar naar games van nu kijkt is het wel misschien overkill.

[Reactie gewijzigd door zeadope op 4 september 2015 22:06]

Met twee van deze kaarten ga je ook koelings problemen krijgen. De warmte die vrijkomt is namelijk nagenoeg hetzelfde alleen dan geconcentreerder. Dus "makkelijk" zal het allerminst zijn.

Het geheugen is lekker voor later, maar daar houd het ook we een beetje op.
Ja, Dat is een mogelijkheid, maar dan moet er wel naar geprogrammeerd worden en PC Ports worden vaak nog al eens op een lager budget gezet.. en dan komt zoiets er niet meer bij. ;)
SLI opstellingen zijn namelijk maar een klein percentage van gebruikers.

[Reactie gewijzigd door SmokingCrop op 4 september 2015 16:12]

Ja precies. Want de theorie is dat 1 kaart 50% van het scherm doet en de andere andere 50% van het scherm. Maar ja wellicht met de xbox op directx zijn de ports beter... Laten we het hopen :D
Het hele idee achter directX is dat de PC xbox API's achtige constructies heeft wat het 1 op 1 porten naar pc makkelijker maakt. Een Xdoos op directX is dus een beetje raar geformuleerd in die context, want daar is directX van afgeleid.
Wel knap aangezien DirectX al veel eerder bestond dan de XBox...
Deze vergelijking klopt deels mits hij omgedraaid wordt. De eerst benaming van de Xbox was DirectXbox wat later dus als afgekorte versie doorging.
De X in Xbox is ook een leuke referentie naar het feit dat de Xbox een (aangepaste) versie van DirectX gebruikt.
Dat vraag ik me af. DirectX is slechts een stukje software. Alles wat het doet zou de hardware zelf ook kunnen doen. Maar het houdt de hardware mooi obscuur. De fabrikanten zitten niet te wachten op vrij toegangelijke videokaarten en bepalen liever zelf wat kan met welke configuratie.
Met DX12 kunnen programmeurs het geheugen op een andere manier gebruiken. Het is dus niet meer zo dat 8GB per kaart maar maximaal te gebruiken is. Je kunt er in de toekomst ook vanuit gaan dat met crossfire het geheugen van bijv 2x 2GB ook geadresseerd kan worden als 4GB totaal.
Maar daarbij heeft deze kaart geen "enorm pluspunt", want dat kan namelijk met twee 390's in crossfire ook. Dit zijn gewoon twee R9 390 is crossfire op 1 kaart.
Een pluspunt is dat je op mITX bordjes dus CrossFire kan draaien. Voor iedereen die houdt van kleine krachtige systemen en gamen op 4K is dit een oplossing.
Zoek jij maar eens een klein krachtig kastje op waar je 3 PCI slots vrij hebt om deze dijk van een koeler te huisvesten. Dan moet je al kijken naar Micro-atx en dan is crossfire weer een optie.

Al met al dus gewoon een kaart "omdat het kan".
Een beetje tweaker. Stopt er gewoon 2 slot backplate op en neemt een costum loop. Heb jr cf in een m-itx
Euh je hebt op zich een punt. Ware het niet dat er geen mITX kasten zijn die 3 sloten hebben voor graka's laat staan de ruimte voor de voeding. Een prodigy heeft bijvoorbeeld moeilijk veel ruimte maar kan alleen een normale ATX voeding kwijt. Ook airflow is bij kastjes vaak een issue
Wacht nou eerst maar eens op de implementatie van die functionaliteit voordat je dat als een harde conclusie neerzet.

Het is echt nog maar afwachten in hoeverre dat shared memory in de praktijk gaat werken. We lopen veel te veel vooruit op de marketing rondom DX12. De praktijk is namelijk altijd zeer weerbarstig wat dat betreft, kijk naar DX11 adoption bijvoorbeeld.

Bottom line: je kunt in de toekomst helemaal nergens vanuit gaan, want het is toekomst. Het lukt devs momenteel niet eens om een launch day te hebben zonder game breaking bugs, en dan met name bij de tripleA releases, dus als dat de maatstaf is...

[Reactie gewijzigd door Vayra op 4 september 2015 16:23]

De reden dat die adoption altijd lang duurt is natuurlijk niet, dat het niet werkt, maar dat een publisher ook telkens moet wegen tussen de nieuwste technologie gebruiken en een grotere markt bereiken. Veel mensen updaten niet vaak hun PCs en er zijn nog menige grafische kaart die "slechts" DX10 of DX11 ondersteunen. Aan de andere kant zal het met DX12 wel niet super lang duren (ivm DX11). Volgens de steam HW-survey hebben ruim 60% van de gebruikers een DX12 compatibele GPU en de meesten zullen probleemloos en gratis overstappen op Win10 (en dus DX12) waardoor men de meeste mensen dus wel bereikt. http://store.steampowered.com/hwsurvey/
Bovendien moet men erbij vermelden, dat cutting edge games (kwa graphics) altijd wel gebruik maken van de laatste DX (en daar is de opgeleverde prestatiewinst ook het meest nodig). Hoewel natuurlijk alle games ook op mainstream hardware van de prestatieboost zouden profiteren, zijn dingen als BF/COD etc meestal moeiteloos op max te spelen met een recente highend kaart omdat ze nou eenmaal niet bijster zwaar (of mooi) zijn. Een upgrade naar een nieuwere DX zou dan alleen de markt verkleinen zonder grote voordelen op te leveren. Daarom duurt het in die deel van de markt de overstap naar de volgende DX maakt.
Ja, weet ik, maar wel beter dan de 295X, want die hebben dus ieder maar 4GB. Ik vind het ook nog altijd bijzonder dat van de GTX 980 voor desktop in het begin ook alleen 4GB varianten had en pas na lange tijd een 6GB variant kreeg (en vreemder nog: de mobile versie van de GTX980 had wel meteen 8GB!), precies omdat dit soort kaarten juist nuttig is voor gamen op hoge resoluties.
Er is geen 6GB 980, er is alleen een 6GB 980TI maar dat is echt een compleet andere kaart en chip.
Is dat zo? Want wat is het nut dan om die 8gb extra erin te doen?
Is dat zo? Want wat is het nut dan om die 8gb extra erin te doen?
Simpel – als je er geen extra geheugen bij stopt, dan is het vooralsnog zo dat je met zo'n monsterlijke kaart effectief “maar” 4 GB geheugen hebt. Pas als je die 8 GB erbij steekt heeft elke GPU zijn eigen 8 GB ter beschikking – in SLI en CF opstellingen heeft elke GPU gewoon de helft van het totaal ter beschikking, maar omdat elke GPU dezelfde textures en overige data nodig heeft, is het dus niet zo dat je 16 GB aan textures in deze kaart kan stoppen.

Zoals anderen al opmerken zou DX12 daar verandering in moeten brengen, maar ik geloof nooit dat we daar voorlopig van uit moeten gaan – voordat DX12 zo gangbaar is dat alle nieuwe games er gebruik van maken, zijn we zo wel weer een jaar of twee verder. Tot die tijd zul je het met DX11 moeten blijven doen en is die vRAMeffectief = vRAMtotaal / 2 regel nog gewoon van kracht.
Zodat beide gpu's hun eigen geheugen aan kunnen spreken en een gpu niet hoeft te wachten tot de andere gpu klaar is met lezen/schrijven.
Waarom is het verbruik zo'n probleem?
Moet je maar eens om je heen kijken wat dingen verbruiken: Snelkoker 2000 watt
Friet pan 2000w stofzuiger 1000+ watt.
Airconditioning: 2000-3000w afhankelijk van de grote.

Kortom het is allemaal realatief. Je kan op heel veel dingen letten om het verbruik terug te dringen.
Ik heb mijn waterkoker een paar minuten per dag aan, mijn frietpan een uurtje per maand, airco niet, stofzuiger kwartiertje per week. De pc staat daarentegen meerdere uren per dag aan: prioriteiten :-)
Stel jij gebruik een enkel R9 390 kaartje dan gaat het verbruik niet van 1000Watt naar 500Watt, alleen het verbruik van je videokaarten halveert, niet die van je complete systeem. Je kan het totaalverbruik dus niet aan een videokaart toewijzen!

Daarnaast mag je die 1000Watt met een flinke korrel zout nemen, dat is zodat ze geen gezeur krijgen van mensen die voor een paar euro een 1000Watt voeding hebben gekocht die maar 500Watt op 12V kan leveren (oftewel b-merken).

Al laatste is het natuurlijk zo dat het alsnog veel energie is wat je verbruikt, dat probeer ik niet te ontkennen! Mijn computerkamer is ook altijd lekker warm :D

[Reactie gewijzigd door watercoolertje op 4 september 2015 17:14]

Met 4 maal 8 pins zou ik toch eerder een 1200 watter aanraden omdat deze kaart onder full load dus max 675 kan verstoken. Rekening houdend met een 90% efficiency heb je met 1000 watt, 900 om te verdelen waarvan je graka dus 675 kan opslokken. 225w voor High-end CPU's en alle overige hardware is dan echt weinig. Gamebakken staan vaak met top notch hardware enkele uren achter elkaar onder full load en de efficiŽntie gaat met de bijkomende temperaturen en stromen hard omlaag.
Een goed gespecificeerde voeding geeft zijn vermogen aan de uitgang aan en niet aan de ingang.

Waarom gaat efficiŽntie met de bijkomende temperaturen en stromen hard omlaag? Kun je dit toelichten?
Ja want transistoren en andere elektrische componenten (zoals spoelen bijvoorbeeld) krijgen een hogere interne weerstand en/of gaan stroom lekken als temperaturen omhoog gaan. Daarom is koeling niet alleen goed voor de levensduur van je systeem, maar ook voor het verbruik.
Ok, maar een gamebak met top notch hardware heeft toch ook een fatsoenlijke koeling?
Ja maar dat kost ook een hoop stroom. Fatsoenlijke koeling met een degelijke fan controller kost zo 30Watt met alles er op en eraan.

Dan nog kan een GPU met aftermarket koeling erg hoog in de temperaturen gaan zitten, omdat er bijvoorbeeld met stillere componenten wordt gewerkt die wel dezelfde prestaties leveren en zodoende je GPU onder load alsnog op 80 graden uitkomt, maar de boel wel een stuk stiller is. Al met al zijn er genoeg redenen om een wat zwaardere voeding aan te schaffen waarbij je zeker weet dat je er nooit aan kan komen als je alle theoretische maxima meeneemt.
Die efficiŽntie moet je de andere kant op rekenen.

Een (goede) 1000w voeding levert 1000w aan het systeem. Uit de muur trekt hij dan 1100w. Niet andersom.

Overigens is 225w bijzonder veel voor cpu/mobo en wat meuk.
Net als dat de theoretische max van 675w niet gehaald wordt.


Kan het nog niet staven met gegevens, maar hoogstwaarschijnlijk doet een (goede) 850w voeding dit ook prima
De 1000 is al intern, bij 90% efficiŽntie zal het verbruik uit het stopcontact dus 1000/0,9=1111 wat verbruiken. Zat dus. Bovendien kan de kaart theoretisch 675 verbruiken en zal dat in de praktijk een stuk lager zijn. Bovendien heb je zelfs bij 675 nog 325 watt over.
Een stofzuiger gebruik je misschien 2-3x week 20 minuten. Een frietpan of waterkoker nog minder. Een game PC zal veel vaker belast worden.

Doe mij maar een Fury X of 980ti ipv dit gedrocht. Deze kaart vind ik eerlijk gezegd volledig zijn doel voorbij gaan.
Meesten mensen gamen ook niet hele dagen dus zolang het idle verbruik een beetje oke is is een 400-500 tijdens die 1-2 uur gamen per dag ook geen issue.
Kun je dat onderbouwen? Of is dit niet meer dan een: "Ik denk dat het zo is"?
De 'meeste mensen' zullen ook niet snel een dergelijke kaart kopen. Ik vermoed dat de doelgroep van deze kaart wel iets vaker en langer zijn PC laat draaien dan jij je waterkoker aanzet.

Er is een groot verschil tussen een paar minuten een frituurpan aanzetten of een paar uur een kaart die de helft van de frituurpan verbruikt. Je zit dan al snel aan hetzelfde verbruik als aan die frituurpan.

Verbruik is een probleem, omdat het 'verborgen' kosten zijn. De extra kosten die zo'n kaart met zich meebrengt zie je niet snel ergens in terug. Dat zie je pas op je eindafrekening, en dat kan schrikken zijn.

Daarnaast zullen er ook nog mensen zijn die zich bekommeren om het mileu. "Dan neem je groene stroom", akkoord, maar dan zit je alsnog met hoge kosten.
Altijd diezelfde zinloze discusie over het verbruik. Dit is een high end kaart met een geschat prijskaartje van 700 a 800 euro. Als je dit koopt intresseert het stroomverbruik je niet, het is hoogtens storend omdat het veel warmte/geluid oplevert.

Ik zie je al binnen stappen bij Bugatti, mijnheer, het verbruik van mijn Veyron is veel te hoog, hoe verzint U het? Een kleine stadswagen doet gemakkelijk 700 km op een tank. Deze zuipt heel de tank leeg in minder dan 10 minuten als ik 400/uur rijd, vindt u dat nog normaal?

Overigens is "groene" stroom kopen ronduit belachelijk, niets groen aan buiten dat er ergens op papier staat dat jouw stroom zogenaamd groen is. Afkopen van het geweten noem ik dat.
Ik denk dat dit kaartje ongeveer 1250 euries gaat kosten helaas :'(

Bij de "buren gelezen" :
Over prijs en beschikbaarheid van de dual-core R9 390 Devil 13 heeft PowerColor wederom niets laten weten. De vorige Devil 13 werd echter verkocht voor prijzen tussen de 1000 en 1400 euro

[Reactie gewijzigd door Repr op 4 september 2015 18:59]

'Probleem' is wel dat je een dergelijke videokaart uren achter elkaar gebruikt en dan tikt het nogal aan. Over het nut kan je discussiŽren natuurlijk, maar persoonlijk vind het ik het niet erg nuttig om tweemaal zoveel energie te verbruiken om iets mooiere reflecties te krijgen om maar wat te noemen. Daarnaast is er simpelweg een financieel en milieuaspect.

Een waterkoker of friet-pan zijn slechte voorbeelden, want die zijn bijzonder efficiŽnt, die stoppen vrijwel alle energie in het te verwarmen produkt, en dat produkt heeft nu eenmaal een bepaalde hoeveelheid energie nodig om een bepaalde temperatuur te krijgen.
DAt is jou mening. Maar laat je dan ook je auto staan?
Of heb je dan minmaal een een 1.0 3 cylinder / Plugin hybrid die je zo goed als alleen maar op de accu rijdt?

Onnodig stroom verspillen ben ik ook niet voor maar er zijn genoeg hobby's die veel vervuildender zijn dan een een paar uur per dag gamen met zo'n kaart.

En daar is ook geen discussie over of dat goed is voor het milieu of niet.
Er zijn maar heel weinig mensen die dit soort kaarten kopen. En de mensen die er wel mee gamen hebben dat er blijkbaar voor over om iets mooier beeld te hebben.

Als je bv zie wat Biosscoopen aan stoom verbruiken terwijl er amper mensen in de zaal zitten heb je ook zo iets van moeten we daar niet mee stoppen in het kader van vervuiling. En dan kunnen er nog heel veel meer dingen op dat lijstje.

Maar het is nooit verkeerd om er op te letten als je het echt niet nodig hebt.
Daar is geen mening aan. Een frituurpan is 99% efficiŽnt omdat alle energie in warmte moet gaan zitten. Dat is vrij eenvoudig te realiseren. De kleine omvormingsverliezen zijn dan niet echt relevant. Ook staat deze misschien een paar uur in de maand aan terwijl een dergelijk kaart vaak meerdere uren per dag gebruikt gaat worden. Verkijk je daar niet op.

Waar een huishouden gemiddeld tussen de 6 en 8 KWh verstookt kan een dergelijk pc het dagverbruik rustig over de 10KWh duwen. Een echte gamer haalt 4 uur per dag wel hoor. Dat is echer wel een increase van 20 tot 40% in je dagelijkse gebruik die je wel gaat merken.
Een hobby kost nou eenmaal geld. Als je iedere zaterdag avond gaat stappen met vrienden dan kost het je ook geld. Het ligt er maar aan waar je prioriteiten liggen.
Ja dat weet ik. groot gelijk ook, maar om het niu te vergelijken met een frituurpan slaat nergens op.
Het is niet dat ieder huishouden beschikt over een dergelijke kaart, integendeel dit gaat om een heel kleine minderheid die feitelijk zo klein is dat deze discussie eigenlijk als kansloos is voor dat ze begonnen is.

Daarnaast heb je het idle verbruik, het max verbruik en het reel verbruik. Gamen is niet noodzakelijk max verbruik al helemaal niet als je Vsync lockt en de kaart niet eens in de buurt moet komen van zijn limieten.

Daarnaast argumenteer je dat een frituurpan 99% efficiŽnt is, computers zijn buiten de fans, HD en disk drives na zijn ook 99% efficiŽnt in het opwekken van warmte. In de zomer is dit verlies maar in de andere helft van het jaar recupureer je deze stroom als verwarming. Weliswaar gaat het economisch gezien je meer kosten omdat verwarmen op elektriciteit hier enorm duur is.

Overigens een doorsnee game computer komt niet boven de 600 watt uit bij gamen. Dan kost je maandelijks, 4 uur per dag gamen, 10 euro aan stroom. Om het dubbele te verbruiken en dan ga je meer extreem moeten gaan dan de vermelde kaart en zit je aan 20 euro stroom per maand met 4 uur gamen per dag. Dat tikt zeker door op de eindafrekening maar is het nu zo een ramp? Verbied dan ook meteen maar bubbelbaden, jacuzis, sauna's, plasma tv's, etc
Het feit dat iets anders vervuilender is, is natuurlijk nooit een argument.

Verder zijn we het volgens mij helemaal met elkaar eens? Energieverbruik is prima, energieverspilling niet.
Mja wanneer is iets verspilling?
Er zijn mensen die dan met 4K soepel kunnen gamen met max Details die vinden het geen verspilling als die kaart dat voor hun mogelijk maakt vs een 390X waar dat niet mee lukt omdat die niet snel genoeg is maar wel zuiniger is.

Het is heel relatief. Het ligt er maar net aan wat jij belangrijk vind in het leven.
Precies wat jeroen_loeffen zegt zou voor mij het bezwaar zijn. Ja, andere huishuidelijke apparaten hebben een hoger vermogen, maar gamen doe ik soms uren per dag. Het enige wat qua stroomverbruik in de buurt zou komen is misschien een airco omdat die ook veel aan staat, maar zelfs die slaat af als het koel geneog is (en ik zou ook niet zo gauw een airco kopen ;-))
Mja dan moet je het in mijn ogen veel verder trekken naar bv je auto. En zien wat je daar wel niet aan mulieu vervuiling bij draagt.
En dan moet je ook kijken naar de producten die gekocht hebt. Welke milieu voetprint dat heeft. Of bv dingen die je eet koeien die CO2 uitstoten in hun leven omdat wij vlees willen eten en de melk producten willen hebben.

Waar is de gens dan?
Onnodig verspillen ben ik zeker niet voor. En we moeten met z'n allen zeker opletten. Maar in Europa doen we in dat opzicht al veel vergeleken met bv china.

Zeker als je een gamer bent die 4-8 uur per dag echt aan het gamen is. Maar als ik naar me zelf kijk is 8 uur per week al veel. Dan valt het relatief gezien wel mee.

Het gaat pas echt veel schelen als de hele wereld heel bewust gaat besparen.

[Reactie gewijzigd door Astennu op 4 september 2015 17:07]

een snelkoker staat geen uren aan, ook je frietpan en stofzuiger niet en is dus feitelijk geen vergelijking
Ja vreemd. Volgens mij verbruiken 2 losse 390's minder stroom dan deze dual gpu?
Ze geven toch niet op wat deze kaart verbruikt? Ze raden wat aan om minimaal te hanteren er van uit gaande dat je verder natuurlijk ook topnotch hardware hebt wat (soort van) over de top is, immers dat past precies in het straatje van dit soort kaarten!
Nouja gezien het feit dat er 4 8 pins aansluitingen nodig zijn mogen we er wel vanuit gaan dat er maximaal zo'n 675W kan worden verstookt. Met een 100W voeding houd je dan nog 325W over voor de rest. Dit is op zich niet bijster veel als je nog een high-end CPU hebt, case verlichting en nog een fikse hoeveelheid koeling ed. Zeker als je de efficiency meeneemt in de berekening. Een 1200 watter is dan veiliger.
Ja je hebt gelijk. Verkeerd geinterpreteerd. Het gaat natuurlijk om het totaalplaatje. Bedankt voor je reactie :)
Volgens Powercolor moet een systeem dat de kaart aankan over minimaal een 1000W-voeding beschikken.
Alles wordt zuiniger maar videokaarten en spelcomputers gaan alleen maar meer stroom verbruiken...
nee amd gpu,s verbruiken steeds meer. kijk maar eens naar een 980-ti.

de enige reden dat amd mee kan komen met nvidia is redelijk oude niet efficiŽnte chips te gebruiken.

maar kijk wat een gtx-970 kan voor de 155 tdp.

en 1000 w voeding is aangeraden.
maar het systeem zal echt geen 1000 watt verbruiken.

8pins pci-e kan max 150 watt doorvoeren

4x 150 watt is 600 met de 75 die een pci-e slot kan zit je op 675 watt maximaal(meer zal die gpu nooit kunnen trekken) neem 125 voor de cpu/mobo/ssd (non oc).

tel ik toch echt maar max 800w
Hang er zoiets aan en je hebt een gefrituurde kaart ;)
pricewatch: MS-Tech MS-N950-VAL Rev. B

Daarom adviseren ze 1000 Watt :)
125W voor een cpu die met een dergelijke kaart maximale prestaties moet leveren is echt heel weinig. Je moet er ook rekening mee houden dat je moederbord voor die 75W minimaal zo'n 80-85W nodig heeft. Dus als deze kaart de volledige 675 watt zou trekken dan heeft je voeding daar minstens 700 watt aan input voor nodig.
De skylake heeft een tdp van 91. Lijkt mij dus niet dat die boven de 125w uitkomt. Tevens ging ik uit van Łberhaupt het maximale. Wat deze kaart nooit zal kunnen gebruiken.
Tdp is niet per direct verbruik. Dit is puur een eis aan de koeling. Intel staat er om bekend dat een CPU prima over zijn TDP heen kan (dit kan rustig 10 Watt schelen).

Oftewel. Het is allemaal erg krap. Ik kan me voorstellen dat je hier een aantal high performance fans bij hebt die ook aardig wat stroom trekken (enkele watts) en regelmeters olus verlichting. Al met al vind ik 225 watt erg krap als je de efficiŽntie van de voeding meerekend. Op een gegeven moment gaat de temperatuur omhoog en stijgt het verbruik. Intel procs met goede koeling kunnen in turbo prima over de TDP heen.
Lerend wat je zegt. De fury x is net zo snel als de 980ti en soms sneller op hogere resoluties en toch is hij zuiniger.
En dat is ook een nieuwe chip. De 390/290 is gewoon een oude chip niet efficiŽntie chip.net als de 280/x.
Dat valt ook wel mee: meestal is 'nieuw' en 'bleeding edge' nog niet zo geoptimaliseerd. Als je een 10-euro GPU'tje koopt die 10 Watt gebruikt is die echt wel sneller dan een oudere Ati Rage 128 die net zo veel of meer gebruikt ;)
... en spelcomputers gaan alleen maar meer stroom verbruiken...
Een Xbox One is toch echt zuiniger dan een Xbox 360...

En niet stiekem een Xbox 360 slim gaan vergelijken met de One. Da's niet eerlijk. Wacht dan tenminste tot Microsoft van de One ook een Slim versie uitbrengt. Die is dan namelijk nůg zuiniger.
Een erg mooie kaart qua design en specs! :)

Zou graag meer van dit soort kaarten willen zien, waarbij Crossfire en SLI makkelijk beschikbaar komt voor de consument. Een kaart is toch een stuk makkelijker installeren en te koelen dan 2 kaarten in een kast. Van de Fury zou er ook nog een Crossfire kaart komen... hopelijk gaan we ook nog een GTX980ti zien met dual gpu :D .

edit:
Ergens ook wel jammer dat de connectiviteit van de kaart zo beperkt is.
  • 2x DVI-D
  • 1x HDMI
  • 1xDP
Of ligt dit aan de beperkingen van de GPU zelf? Er is anders ruimte zat voor meer connectors :P .

[Reactie gewijzigd door Case_C op 4 september 2015 16:11]

dat is dan 4000 euro per jaar aan stroom als je hem altijd aan laat staan :+
Een beetje off-topic, maar toch:

Een jaar bevat 24u*365d = 8760 uren.
Er van uit gaand dat je 1000W vebruikt is dat dus ook 8760 kWh.
Gemiddeld §0,22 per kWh (Nederland), dus 0,22*8760 = §1927. Da's toch de helft. :+
Maar ik snap je idee :9
Nu nog uitrekenen wat het je bespaard op verwarming in de winter en je komt nog lager uit ;) Tenzij je in de zomer een airco nodig hebt om je computerkamer te koelen :P
Voor zover ik weet kun je DP gewoon daisy-chainen en zo zes schermen aansturen. Als je toch al een paar duizend euro uittrekt voor deze kaart, de bijbehorende PC en zes schermen, dan kun je echt wel rekening houden met het feit dat je schermen DP-ingangen moeten hebben.

Daarnaast vermoed ik dat het ook met koeling te maken heeft. Hoe meer connecties je op de backplate zet, hoe minder ruimte je hebt om warmte af te voeren. Lijkt misschien niet veel maar ik denk dat er heel wat hitte uit dat rooster gaat komen, zelfs als het gros de kast in waait.
Er zijn 4 8-pins stekkers nodig om hem te voeden. Dat wordt een aardig bosje kabels. Knappe jongen die dat nog netjes wegwerkt!
Muah, ik kwam laatst bij iemand met een CF opstelling waar dat ook bij nodig was, die had uit china een kabeltje besteld (en al in gebruik) dat je op 2 molex pluggen zet, en daar zitten dan zelfs 6 stuks 8 polige stekkers aan. Hij vond het ideaal.. hij kon zo alles doorlussen en dacht er over er nog een kaart bij te zetten..
ik stond met mn mond open te denken: "WTF?!?! hoe kun je dit een goed idee vinden?" |:(
Tsja. Als je alle kabels vervangt voor een diametertje groter dan moet het in theorie kunnen. De hoeveelheid stroom die er dan doorheen kan is veel groter. Die voeding zal het ws niet aankunnen (aangezien ie uberhaupt kennelijk te weinig aansluiting heeft), maar je bekabeling wel!
Stuur er me eentje op en dan laat ik je zien dat dat netjes kan! :P
Gaaf!
Wel jammer dat de kaart zo groot is..
Maximale ondersteuning is dus 3-way crossfire (met moeite).
Maar je hebt dus eigenlijk al crossfire want er zijn 2 gpu's dus dan kan je denken dat een kaart 1.5 slots in neemt.
Ik weet niet zeker of dit in de praktijk ook zo uitpakt.

Neem bijvoorbeeld de Asus Mars 760.
Deze kaart is voorzien van 2 Gtx 750 gpu's, en is neemt alsnog 'maar' twee slots in beslag.

In theorie kan je dus 4-way sli draaien met deze kaart, en zou je, volgens jou, op 8 gpu's uitkomen..
De 750 kan toch niet in sli?
Maar als het wel kan dan is de 750 een minder krachtige gpu die minder warmte produceert. En dus een kleinere koeler kan gebruiken
Als het goed is zaten er op die kaart 2x 760 chips.
Kan niet. 4 gpu's maximaal.

[Reactie gewijzigd door Xeonfan op 4 september 2015 19:52]

In Sli en CFx: ja. Zet je ze niet in Sli/CFx kan je net zoveel videokaarten kwijt als je kwijt kunt. Als render bak zou je gerust 3 van deze kaarten kwijt kunnen: 6 gpu's totaal :9~ .
Het punt waar het om gaat, is deze kaart al in Crossfire draait en dus maar twee van deze kaarten maximimaal in Crossfire kunnen draaien :).
Ja das leuk enzo, maar je kan maximaal 4 gpu chips in sli/crossfire draaien en daar komt ook nog bij dat de performance increase tov 3 chips vrijwel 0 is.
Word dit nou als een CFX opstelling gezien, of ziet je systeem dit als ťťn GPU? Best geÔntresseerd in de quad CFX benchmarks anders :)
Als het goed is ziet de computer dit als een CFX opstelling ja. En minimaal een 1000W voeding.. deze lust dus nogal wat :o.
Ah, ze zeggen soms dat een bepaalde kaart een voeding van 750W nodig heeft, maar dat een 450W ook meer dan prima is in werkelijkheid..

[Reactie gewijzigd door SmokingCrop op 4 september 2015 16:13]

Ja, maar dit zijn twee high-end videokaarten op een kaart en met 4x8pins aansluiting zal het vast wel 500 watt of misschien nog wel meer kunnen verstoken. (oke een 750w A merk voeding zal de kaart vast ook nog wel van stroom kunnen voorzien, maar een beetje marge zal nooit verkeerd zijn als je zulke hardware aanschaft).
Nogal watt zul je bedoelen ;)
zoals eerder genoemd in de eerste reactie: wat ZOU het nut moeten zijn van een kaart als dit.. 'minimaal' een 1000 watt voeding.. zijn ze helemaal bezopen.. zelfs mijn 650 watt PSU is al redelijk aan de dure kant als ik ff 4-5 uurtjes ga gamen.. laat staan iets als 1000 watt voeding.. die trekt misschien 1100 uit de muur (90% efficiency) dat is toch niet leuk meer... tevens.. WAT zou je met 16 gb vram moeten? afgezien van grafische ontwikkeling/auto cad e.d.

dit is weer typisch een dingetje voor mensen die X amount of dollars per maand verdienen... en een blanco check schrijven tijdens de lunch bij van der valk.. kortom.. niet voor jan met de pet.
Mwah, 1 kW halen veel keukenapparaten/wasmachine ook wel en in de winter gaat de warmte niet per se verloren en scheelt het weer in de stookkosten. Tuurlijk, blijft een flinke smak geld maar dat deze kaart en de ongetwijfeld ook niet misselijke randapparatuur en andere PC componenten waarschijnlijk ook wel.
over de keuken apparaten ben ik t idd eens met je.. maar je gebruikt een oven/microwave/kookplaat niet 4-8 uur per dag... een pc... (tis nu half 5) dus zit al bijna 6.5 uur achter mn pc... die verbruikt gemiddeld 250 watt per uur *idle met wat muziek/google e.d.* maar die principes van 'ik start ff een spelletje op tegen de verveling' zijn er dan in mijn optiek niet meer bij.. als die kaart 'actief' word dan gaat gelijk je meter lopen.. nogmaals.. onnodig..

ALLES word energie zuiniger... gpu wise.. skylake is dat OOK al niet.. dus laat staan als je de skylake generatie gaat draaien en DIT beest erbij.. zeg maar dag tegen je vakantie geld aan t einde van de jaarrekening...
Maar je krijgt er wel een Razer Ouroboros gratis bij! (zie foto 3) :D
zeker geen verkeerde muis. Heb m zelf ook gehad, tot er helaas cola overheen ging :(
Mwah heus niet gratis ;)
Niet gratis. Zit gewoon netjes bij de prijs inbegrepen. :+
24kw x 365 dagen is 8.760Kw een KW kost 22 cent dus 1.927,2 euro per jaar....
moet je hem nog wel ff 365 dagen op volle toeren aan de praat kunnen houden he;;; :+
Lukt wel, hoor. :-)

https://folding.stanford....q-high-performance/#ntoc8

En anders kun je voor die 2000 euro and stroom nog altijd een paar euro aan bitcoins minen. ;-)

[Reactie gewijzigd door hooibergje op 4 september 2015 16:35]

Wat ik overigens wel jammer aan deze kaart vind is dat volgens mij 3x 4k uitgesloten is. Zie :

2x dvi max 2560x1600 dual ling
Hdmi 2.0?!
En een display adapter.

Het zal wel mogelijk zijn maar dan moet je weer met hubs gaan klooien. Snap die keuze niet echt. Normalieter is het toch meerdere mini display op zulke kaarten ?
edit: was fout, excuseer :)

had eerst niet gezien dat je 4k bedoelde

[Reactie gewijzigd door Pure_evil op 4 september 2015 20:55]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True