AMD geeft details over R9 Fury X vrij

AMD heeft de specificaties van zijn nieuwe topvideokaart met 'Fiji'-gpu vrijgegeven. De videokaart werd dinsdag op de E3 aangekondigd, maar daarbij werden nog niet alle specificaties bekendgemaakt.

'Fiji' maakt net als Tonga gebruik van de derde generatie gcn-architectuur, die ook wel bekendstaat als 'gcn 1.2'. De nieuwe gpu beschikt over 4096 streamprocessors op een kloksnelheid van 1050MHz en heeft 4GB hbm-geheugen dat op 500MHz geklokt is. Ondanks de lage kloksnelheid voorziet het werkgeheugen in een bandbreedte van 512GB/s, dankzij de 4096bit-bus, die door het hbm-geheugen mogelijk wordt gemaakt.

De stroomvoorziening verloopt via twee achtpinsaansluitingen, al moet de videokaart onder normale omstandigheden niet meer dan 275 watt verbruiken. Om de gpu en het hbm-geheugen, dat op dezelfde interposer als de gpu gemonteerd is, op temperatuur te houden, is er standaard waterkoeling met een 120mm-radiator aanwezig.

De Fury X is voorzien van drie displayport 1.2-aansluitingen en een hdmi 1.4-aansluiting. Ondersteuning voor hdmi 2.0 is niet aanwezig meldde AMD eerder al. De Fury X zal vanaf 24 juni verkrijgbaar zijn, voor een prijs van 649 dollar, wat omgerekend en inclusief btw op een euro of zevenhonderd zal uitkomen.

Door Jelle Stuip

Redacteur

18-06-2015 • 14:06

182 Linkedin

Reacties (182)

182
172
102
5
0
45
Wijzig sortering
Laten we ons blind staren op 4gb geheugen. Als het zoveel sneller is, dan raakt het ook minder snel vol niet? Er kan meer data verwerkt worden in dezelfde tijd dan gddr5 geheugen. Als dit zodanig veel sneller is, dan is 4gb meer dan genoeg toch?
Ik ben echt niet technisch aangelegt, maar de zekerheid dat 4gb niet genoeg is, is nergens op gebaseerd behalve vluchtige conclusies. De synthetische benchmarks wijzen anders uit, en deze benchmark van AMD zelf al helemaal:
http://cdn.videocardz.com...MD-Radeon-R9-Fury-X-7.jpg

[Reactie gewijzigd door echtwaarisdatzo op 18 juni 2015 14:34]

niet helemaal. heel veel dingen wil een GPU gewoon in zijn geheugen houden. na 'verwerking' zijn veel gegeven weer nodig bij het renderen van de volgende frame.

wel is er een compressie techniek aanwezig die texturen 30% kleiner maakt in het geheugen. en texturen zijn het grootste deel van het geheugen. kom je effectief meer richting de 5GB.
Nou wat ik lees over DX12

Nou men sorteerd draw calls naar resources, dus de render task naar resource bindings. Dus als je bepaalde dynamische resources gegroep verwerkt kan je die resources erna vrijgeven waar andere dynamisch zooi er in kan.
Met de concurrent support van render task naast compute task naast copy task met resource barrierres of stops kan je deze resources onder DX12 als dev zelf managen.
Door niet gebruikte resources wel aan te geven als vrije mem aan de heap
Als dev weet je hoe de resources gebruikt gaan worden. dus hier liggen kansen voor optimalisatie.
De GPU boeren weten dat uiteraard niet onder DX11 moeten dev en driverteam naar mekaar gissen. Die fijn beheer geeft DX12 je dus.
Maar uiteraard DX11 zijn nog afgeschermt door drivers en hoe die dat generiek managen.
Een goed geoptimaliseerde resource management render backend in DX12 zou toch stuk meer resources in een frame kunnen gebruiken dan conventioneel basic resource management.

Tot aan complete ongerelateerde GPU en zijn mem ook in de mix gooien zoals Posteffect shader bewerking.

Ik denk dat onder DX11 nog te veel resources onnodig lang in geheugen blijven
In DX11 is copy voor de renderer sequentieel in DX12 kan dat deels ook concurrent.

Ik ben zo benieuwed naar DX12 SDK en ook Fury D3D Feature level en totale feature packet van zijn architectuur.
Anoniem: 471038
@Countess18 juni 2015 19:14
En komt ie weer met dat compressie-verhaal.
Hou eens op met het verspreiden van die misleidende informatie!
Compressie wordt al jarenlang toegepast in GPUs.
Zie hier, gisteren al behandeld: Anoniem: 471038 in 'nieuws: AMD kondigt Radeon Fury en 300-serie videokaarten aan'

Bovendien gaat het niet om de textures (texture-compressie bestaat ook al veel langer, maar dat is een ander verhaal... ieder compressieformaat moet expliciet ondersteund worden door de API, en er zijn geen nieuwe formaten toegevoegd voor Fury, volgens het artikel is dit ook gewoon een GCN1.2-chip, geen nieuwe architectuur). Het gaat om de compressie van color-informatie bij rendertargets, dus dit heeft met de ROPs te maken, niet de texture units.

[Reactie gewijzigd door Anoniem: 471038 op 18 juni 2015 20:23]

Maar dat een GPU compressie ondersteunt, wil niet zeggen dat games het allemaal gebruiken natuurlijk. Ik kan best geloven dat veel games gewoon niet echt efficient met resources omspringen, maar puur op rauwe processing power steunen.
Anoniem: 471038
@Sjekster19 juni 2015 08:52
Texture-compressie niet, dat moet je expliciet opgeven in je code (maar dat bestaat al zo lang dat dat inmiddels wel standaard gebruikt wordt in games, en zo niet, dan wordt dat vaak geforceerd in de drivers met een cheatoptimalisatie).
Color/depth compressie is onderdeel van de ROPs, en werkt transparent voor de code. Het werkt dus altijd, de game kan het niet aan- of uitzetten.

[Reactie gewijzigd door Anoniem: 471038 op 19 juni 2015 09:03]

Anoniem: 471038
@Countess19 juni 2015 13:53
Niet per se.
De R9 285 had namelijk ook al dit verbeterde compressie-algoritme, en nVidia heeft bij Maxwell v2 een vergelijkbare verbeterde compressie ingevoerd.
Dus effectief is Fury niet significant beter dan oudere/concurrerende kaarten. Zeker geen 30%.
Had je ook graag een kudo willen geven, maar kan niet op eigen posts :/
Die 4GB is geen probleem op synthetische benchmarks omdat die simpelweg die hoeveelheid geheugen niet gebruiken, deze testen voornamelijk de snelheid van de (graphische) processor(en) en geheugen.
Er zijn al enkele games die dit geheugen wel degelijk (meer dan) vol laden, zeker in Ultra en/of 4k resolutie en dat zal in de toekomst alleen maar toenemen.
Maar belangrijker, over die snelheid:
De gegevens die in het geheugen staan sneller kunnen opvragen om er mee te kunnen rekenen is uiteraard alleen maar goed. Maar bij een tekort aan geheugen maakt die snelheid niets meer uit. Stel, je loopt rond in GTA V. Alle textures van de wereld in je nabijheid zijn ingeladen, je GPU kan aan hoge snelheid de wereld opbouwen omdat deze razendsnel de gegevens binnenkrijgt die nodig zijn. Fantastisch! Hier zal die brede geheugenbus helpen meer FPS te krijgen omdat de GPU minder zit te wachten op nieuwe gegevens.
Maar dan kom je plots in een plaats/gebouw waar dingen te zien zijn die je voordien niet bent tegengekomen. De juiste bestanden voor die buurt (textures e.d.) zitten nog niet in je graphisch geheugen en moeten dus worden ingelezen vanop je (in vergelijking) tergend trage harde schijf*. Hoe snel dat GPU geheugen nu is maakt geen bal verschil. De snelheid van de schijf is de bottleneck, niet het graphisch geheugen.
Maar de hoeveelheid geheugen kan wel een verschil maken. Heb je meer dan genoeg geheugen, leuk. Laadt er gewoon wat bij en we kunnen verder. Maar als je graphisch geheugen nu vol zit, moeten gegevens die niet onmiddelijk nodig zijn plaats maken voor de nieuwe.
(hypothetisch) Maar we staan niet stil, we rijden rond, letterlijk! Een rotonde en we draaien terug naar waar we vandaan kwamen.
Kaart A met véél geheugen heeft mogelijk al die oude gegevens nog in z'n geheugen staan en kan de wereld zo tevoorschijn toveren.
Maar kaart B waarvan het geheugen vol zat, moet weer op die (oh zo tergend trage) harde schijf bestandjes gaan inlezen.
Kaart B zit met z'n duimen te draaien terwijl z'n supersnel geheugen wacht tot de gegevens binnendruppelen, kaart A kan vlotjes doorwerken.

(* of hopelijk ssd, toch al een stuk sneller maar nog steeds traag tov. RAM geheugen )
(PS: Uiteraard hangt veel af van de manier waarop het spel geschreven is en of deze rekening houdt met de beschikbare en totale hoeveelheid geheugen, etc.)
Oke duidelijk :) Kon je niet upvoten, bij deze een symbolische kudo : :P

Worden veel van die textures niet in je RAM opgeslagen overigens? Word het niet daar vandaan gehaald ipv harde schijf? Geen idee hoe dat in zijn werk gaat nogmaals. Maar kan me voorstellen dat veel data vanuit je ram gehaald word ipv hdd.

[Reactie gewijzigd door echtwaarisdatzo op 18 juni 2015 16:57]

In veel gevallen zal het inderdaad je RAM zijn, niet je HD, waar het vandaan moet komen. Dat verandert echter weinig aan het verhaal, iets uit het RAM halen is voor een videokaart namelijk nog steeds veel trager dan het uit het lokale videogeheugen halen.
Dus tijdelijke opslag in vram zal altijd noodzakelijk blijven. De extra snelheid van het vram betekent natuurlijk niet dat er sneller gewerkt kan worden met ram/hdd. De hoeveelheid vram op de fury kaart blijft een "bottleneck".
Oké duidelijk :*)

Een beetje een misser dan, de fury serie. Mogelijk leuk voor 1080/1440p met hoge framerates of iets dergelijks. Alhoewel 1440 al wat te hoog gegrepen kan zijn, als ik zo lees hoeveel sommige games nu al gebruiken.
Onzin. Voor huidige games volstaat 4GB ook op 2160p zonder enkel probleem. Het was de bandbreedte die de fps serieus beperkte (en dat is tevens ook de reden dat de r9 290x de gtx 980 ti kan bijbenen op uhd. Ze heeft aanzienlijk meer bandbreedte). Natuurlijk is het mogelijk dat er op termijn massaal grotere textures in games worden gebruikt, en dan wordt de hoeveelheid een probleem. Dat je data tussendoor mort laden uit ram is echt niet een beperking en makkelijk te omgaan door fatsoenlijk te optimaliseren. Kritiek is de hoeveelheid geheugen die je nodig hebt om alles dat op een bepaald moment op het scherm moet staan te renderen. En daar is 4GB momenteel ruimschoots voldoende voor. Problematisch wordt de hoeveelheid pas als de videokaart als vanouds een deel van het systeemvak moet aanspreken. Maar daar zijn wel echt nog aardig ver van verwijdert.
WRONG. google maar even de benchmarks van de 290x met 8gb daar is grid autosport op 4k ultra 40+% sneller dan de zelfde kaart met maar 4gb.

We zijn er dus niet ver van verwijderd het is nu al een feit dat 4gb niet meer alles uit de kaart haalt

Zodra defs gaan coden voor meer dan 4gb zal er een enorme boost in prestaties ontstaan. helaas worden we al zeker 3 jaar opgehouden door vooral nvidia die te krenterig is met zijn geheugen en wel de hoofdprijs vraagt.
Shadow of Mordor heeft al 6gb nodig op ultra. HBM geheugen is te lang in ontwikkeling geweest, de markt vraagt langzaam maar zeker al om meer vram.

Daarnaast is de koeler een issue. Waar laat je die als je al watercooling gebruikt, een closed loop systeem in een bestaand circuit is onzinnig.

Geen HDMI 2.0? hah leuk, zoveel rekenpower, maar je lijntje met meer dan 24 fps volduwen richting 4k kan dus niet.

Grote fouten in mijn optiek op een verder prima kaart.

[Reactie gewijzigd door HgnX op 18 juni 2015 22:37]

mensen die closed loop systeem draaien, zullen heus wel deze kaart daar op aan kunnen sluiten ;)

verder je hebt toch display port, die ook meteen Freesynce geeft. Die gebruik je voor je hoofd monitor , en als je bijv nog 2 1080p monitoren zou hebben sluit je die aan op hdmi en heb je 120 mHz over 1080p. stel je wil meer als 1 4k monitor en dan ook nog , ja dan weet ik het ook niet meer.

Shadow of Mordor werkt ook prima op 4gb bijv een 4gb van de gtx 770
hdmi 2.0 is nutteloos als je ook je displayport kan gebruiken.


bijna alle nieuwe monitoren hebben displayport dus waarom is hdmi 2.0 een gemis als het niets toevoegt over displayport.
En vergeet daarbij niet dat alle geladen textures binnen de renderafstand ook vram gebruiken, het is niet zo dat als een texture geladen is en je hem ziet, dat het geen vram gebruikt, zolang je het kan zien (binnen de renderafstand) neemt het een aantal mb in je vram in beslag.
Hogere snelheid betekend dat het proces van een texture inladen(zichtbaar maken) versnelt, daarna wordt het opgeslagen voor een bepaalde tijd in het vram geheugen( de tijd dat je binnen de renderafstand zit)
Als je ziet hoe bv The Witcher 3 maar 1500MB videogeheugen gebruikt, denk ik dat jij sterk overschat hoeveel videogeheugen er eigenlijk echt nodig is. Dat er een aantal games zijn waarbij het geheugengebruik de pan uit swingt, komt door het gebrek aan compressie van de assets (meestal textures). Omdat de Fury kaarten zoveel bandbreedte hebben, zouden die net geknipt zijn om gecomprimeerde data uit te lezen.

Kleine analogie om te demonstreren hoe belangrijk geheugenbandbreedte is: een videokaart met GDDR5 is steeds sneller dan eentje met DDR3. Zelfs al is er dubbel zoveel DDR3, GDDR5 is naar verhouding zoveel sneller dat de hoeveelheid geheugen er niet toe doet.

We zien dat ook bij 2GB Nvidia videokaarten met smalle geheugenbussen die toch uitgerust worden met 4GB GDDR5 (GTX 760 en 960, GTX 770), daar haalt die extra 2GB zo goed als niets uit.

Het verschil in bandbreedte tussen de GDDR5 van GTX 980Ti en het HBM Fury X is bijna zo groot als het verschil tussen DDR3 en GDDR5: 336GB/s voor de Nvidia en 512GB/s voor de AMD. Met zo'n grote verschillen gaat dat simpele verhaaltje van jou niet meer op.

Ik had ook liever de Fury X met meer dan 4GB VRAM gezien, maar eigenlijk heb ik nog geen game gehad die de 4GB van mijn R9 290 volledig opgebruikt (en Shadow of Mordor ziet er met de textures iets lager dan ultra nagenoeg hetzelfde uit, controleer de screenshots maar eens). Voor games die voor pc gemaakt zijn, blijft 4GB voorlopig voldoende, en voor 4K was vooral bandbreedte het probleem.
leuke kaart, alleen jammer van de 4GB, de prijsklasse waar deze zich in bevind zou je een kaart moeten hebben die nog zeker 2-3 jaar goed vooruit kan. en dan is 6-8GB toch wel een vereiste.

Nu zal de 4GB zeker voor hedendaagse games genoeg zijn, en zal dit kaartje bloedje snel blijven.
maar een echte UHD kaart kan je het niet noemen...
Dit was het eerst wat me ook opviel. Waarom 'maar' 4GB op een top of the line kaart? 8)7
Bij Hardware.info hebben ze er een hele pagina voor uit getrokken om dat uit te leggen.

- Kort gezegd: de nieuwe HBM-techniek bied nu nog niet de mogelijkheid om meer dan 4GB te plaatsen.
- Voorlopig zal dat echter geen probleem zijn, omdat de 4GB-grens niet zo snel wordt gevuld.
Zelfs boven de 4gb zou het niet echt een probleem mogen zijn: de rest wordt gewoon in je ram opgeslagen, en omdat HBM zo snel is, kan het ook terug zeer snel ingeladen worden.

Bij GDDR5 moet er trouwens meer geheugen zijn omdat dit trager is bij de verwerking, waardoor het sneller vol loopt.

[Reactie gewijzigd door graverobber2 op 18 juni 2015 15:43]

Het enige nadeel, is dat als je iedere frame een zooi data moet swappen tussen je VRAM en RAM, je PCI-E bus een beperking gaat worden vrees ik. Die is flink trager dan hedendaags VRAM.

De communicatie tussen VRAM en GPU is met HBM wel snel, maar de PCI-express poort is daarmee nog niet sneller. HBM komt JUIST tot zn recht wanneer alles er in kan staan en geen grote hoeveelheid data meer door een trage bus heen moet, want als je GPU elke frame moet wachten op de PCI-E bus dan ben je je HBM snelheidswinst al gauw weer kwijt en was je beter afgeweest met 8 GB traditioneel VRAM

en die GDDR5 opmerking kan ik niets van maken. :?

[Reactie gewijzigd door VNA9216 op 18 juni 2015 17:09]

Wat VNA9216 zegt.
Ik redeneerde ook zo van, sneller geheugen zit minder snel vol. Dit werkt dus in de praktijk niet zo, omdat de communicatie tussen gpu, cpu, ram en hdd niet veel sneller word van het gebruikte HBM geheugen.
Wil je van de extra snelheid profiteren, dan moet de data enkel en alleen op het vram opgeslagen worden. En daar is dus niet zo heel erg veel ruimte voor.
Alles wat op ram of vanaf hdd gelezen moet worden, gaat zodanig veel langzamer dat je weinig merkt van je super deluxe HBM geheugen.

Hetzelfde linkje van een paar posts terug legt t ook nog even uit:
http://nl.hardware.info/r...fury-x-vs-390x-4gb-vs-8gb

[Reactie gewijzigd door echtwaarisdatzo op 18 juni 2015 19:20]

Wat zou je liever hebben 2gb gddr5 of 4gb gddr3. Is dat nu niet een beetje hetzelfde? Aan de synthetische benchmarks te zien, is het meer dan genoeg.

[Reactie gewijzigd door echtwaarisdatzo op 18 juni 2015 14:26]

Dan geef mij maar 4gb ddr3. 2gb is gewoon te weinig voor een beetje spel, maar ik snap waar je heen wilt.

[Reactie gewijzigd door Concentr8 op 18 juni 2015 14:19]

met ddr3 gaat je geen games kunnen spelen omdat de bandbreedte gewoon te laag is.

nu is dat met GDDR5 niet het geval, maar de bandbreedte van HBM is toch beduidend hoger.
Volgens mij begrijp je dat niet helemaal, aan je reactie te zien.

[Reactie gewijzigd door echtwaarisdatzo op 18 juni 2015 14:28]

4 GB was nog een limiet van het HBM geheugen las ik eerder in een vorig AMD artikel nieuws: AMD kondigt Radeon Fury en 300-serie videokaarten aan .
Ik dacht idd ergens anders gelezen te hebben dat het 8GB was Verkeerd gelezen dus :X

[Reactie gewijzigd door D-Day op 18 juni 2015 14:15]

De 8GB zit op de R9 390X, dit is in principe een 'rebrand' van de R9 290X. Oftewel dezelfde GPU met iets hogere kloksnelheden en een nieuwe naam. Deze krijgt 8GB mee om dan voor de 'cijfertjeskijkers' alsnog bovenaan te staan qua VRAM geheugen.
als dit klopt dat is de 390X zeker geen simple rebrand.

http://nl.hardware.info/r...nchmarks-metro-last-light

waar de 290x 91FPS haald doet de 390X er 141 (zelfde als de gtx980, maar dan voor veel minder)

[Reactie gewijzigd door Countess op 18 juni 2015 15:22]

Kan je na gaan wat +53Mhz op de Chip en +250Mhz op het geheugen voor invloed heeft! :+
Ik ga er vanuit dat de benchmarks kloppen, aangezien het gedaan is door Hardware.info en de review lekker uitgebreid is met meer dan genoeg games (*kuch* Tweakers *kuch*) e.d.

Overigens pak je er wel een van de meest gunstige game-benchmarks tussenuit om het verschil aan te geven: bij Far Cry 4 op Medium op FHD scoort de R9 390X slechter dan zijn voorganger ;).

Beter kan je kijken naar de 'Hardware.Info GPU prestatiescore Q2 2015', oftewel een gemiddelde van tien games per videokaart.
Daar scoort de R9 290X (in über mode) 129 FPS/punten en de R9 390X 143,3. Een verschil van 14,3 FPS/punten dus (FHD met medium settings). Dat is al heel wat anders.


Overigens maakt mij dit alleen maar nieuwsgieriger naar de échte Fury X benchmarks!

[Reactie gewijzigd door Vickiieee op 18 juni 2015 15:26]

ik zou bijna zeggen dat de resultaten daar een vergissing zijn. of een driver bug. op ultra settings is hij weer sneller bijvoorbeeld.

je hebt gelijk wat de geagregeerde score betreft, maar ook daar zie je dat de 390X gehoorlijk sneller is, en het verschil word groter naar maten het detail en de resolutie worden verhoogt (de 390x gaat de veel duurdere gtx980 zelfs voorbij op UHD resolutie!)

[Reactie gewijzigd door Countess op 18 juni 2015 15:54]

Daar zegt HWI inderdaad niks over, maar dat kan haast niet anders dan een slechte run van de benchmark o.i.d. zijn. Als je de andere benchmarks bekijkt dan klopt er gewoon iets niet. Zeker als de kaart op een hogere resolutie er vervolgens dik aan voorbij gaat.

R9 380X? Ik zie alleen een R9 380 (zonder 'X'). Maar de kaarten zijn over het algemeen wel sneller dan hun voorgangers van een generatie eerder inderdaad. Of dit te maken heeft met de grotere hoeveelheid VRAM waardoor frames nét even sneller gerenderd kunnen worden o.i.d. weet ik niet. De iets hogere klokrates kunnen hier ook al makkelijk verantwoordelijk voor zijn.

Alleen érg jammer dat de R9 390X onder load na een paar rondjes Metro Last Light maar liefst 72W méér verbruikt dan de R9 290X. Daar zal de snelheidswinst dan ook deels vandaan komen, want: hogere kloksnelheden en daarvoor een hoger benodigd voltage.
ik bedoelde de 390x. aangepast.
Je weet trouwens dat 'QHD' staat voor Quad HD (1440p (oftewel 4x HD --> 4x 720p.)? In de benchmarks staan 1080p (Full HD -> FHD) en 2160p (Ultra HD -> UHD).

Daarnaast heb je dan nog weer 4K wat een resolutie van 4096x2160 is. Hier een mooi overzicht van alle resoluties (schaamteloos gejat van Wikipedia).

Bij sommige bedrijven/merken worden UHD en 4k dan ook constant door elkaar gehaald, terwijl zij eigenlijk niet hetzelfde zijn..

HD (720p): 1280x720 - 16:9;
FHD (1080p): 1920x1080 - 16:9;
WQHD (1440p): 2560x1440 - 16:9.

2K (1080p): 2048x1080 - 17:9;
4K (2160p): 4096x2160 - 17:9.

En dan heb je ook nog UWUXGA (extra brede 'FHD' of ook wel 'cinema' genoemd, wat je in bioscopen ziet). 2560x1080p - 21:9.
bedoelde idd UHD. ook aangepast.
HWI legt uit dat het er waarschijnlijk aan licht dat de kaart nu niet terugklokt (het is een msi kaart, en hoewel ze het op de normale base kloksnelheden draaien throtteld hij met deze koeler niet wat een boost geeft, verder is hij gewoon een klein beetje sneller dan dan de oude 290x dus is het wel logisch.)
Verder is er volgens mij helemaal geen 380x geïntroduceerd, wel een 390 (non x) die heeft hwi niet getest, maar dat is omdat ze die niet opgestuurd kregen.

Ik hoop dat dit wat onduidelijkheden bij de review verklaart.

PS: normaal gesproken is hwi zeer nauwkeurig met het benchmarken van materiaal, je moet eens hun handelplan voor banchmarking lezen, dat maakt veel duidelijk.
De resultaten van de R9 290X in die grafieken op HWI zijn zeer oude resultaten met zeer oude drivers. De resultaten van de R9 390X in diezelfde grafieken zijn met de allernieuwste drivers behaald. Een gedeelte van het prestatieverschil wordt daardoor veroorzaakt.

We hoeven dus niet te doen alsof alles verklaard wordt door die 4GB extra geheugen, of die flinke boost op de geheugenkloksnelheid. Die 4GB extra geheugen wordt nauwelijks gebruik van gemaakt, en de geheugen doorvoersnelheid van de 290X was al gigantisch en niet echt een bottleneck op FHD. De +53 Mhz op de chip voegt een paar procent snelheid toe, het feit dat de kaart wat koeler is en niet zo vaak terugklokt voegt een paar procent snelheid toe. De hogere geheugenkloksnelheid voegt ook nog ietsiepietsie toe op FHD (maar is vooral voor 4K leuk). En de rest van de verschillen zit in de drivers.

For the 390X, the differences in-between the 290 series and the product tested today are rather small. Let's also not forget that there already have been 8GB R9 290X graphics cards on the market for almost a year. The extra 50 MHz on the GPU isn't going to move mountains and the extra kick in bandwidth on the memory isn't going to make the biggest difference either, as the card already had plenty of bandwidth. So from that point of view, I think the 390 series is going to be a hard sell. Everybody that has a preference for team red already has a R9 series 290 card, as such the one big difference remains to be the extra 4GB of memory, and yeah, here again I feel that it is not gonna make a big difference for most people. But perhaps I am wrong, who knows.

So then, 290X or 390X? Realistically, you need to see what the prices will do, as the rest is irrelevant. You can tweak any 290X close to the 390X performance wise, the faster memory won't make a big difference as the 290X already had a ton of memory bandwidth, and then the only thing that remains is the bump from 4GB towards 8GB of graphics memory. As stated, that is not going to make a significant enough difference for the majority of you guys either. So pricing will be relevant until the 290 series are phased out and a 4GB 290X at the monent will be nearly 100 EURO cheaper opposed to the 8GB 390X. MSI has a great build at hand with their gaming edition card, a little bulky maybe, but it ticks all the right boxes and as such can be recommended if you are in the market for a product like this. The MSI Radeon R9-390X Gaming 8G OC is recommended and approved by Guru3D.com if you are upgrading from say the 7800 or 7900 series, as that would make sense. But pricing wise, be on the lookout for good deals on the 290 series.

http://www.guru3d.com/art...ming_8g_oc_review,27.html
En ze gebruiken bijna 260w is toch niet meer normaal man, net zo veel als een Titan X.

En in 95% van de spellen is de Radeon R9 390X maar 1 a 5 fps sneller dan de Radeon R9 290X, dus absoluut niet de moeite waard om een 390x te kopen als je de 290X heb.

http://www.guru3d.com/art...aming_8g_oc_review,1.htmlhttp://www.guru3d.com/art...aming_8g_oc_review,1.html

[Reactie gewijzigd door AmigaWolf op 18 juni 2015 21:31]

Heb je ook gezien dat het stroomverbruik van de R9 390X bij alle geteste games aanzienlijk hoger ligt dan het stroomverbruik van een GTX Titan X?
Het stroomverbruik loopt de spuigaten uit.

Op het gebied van performance per watt loopt AMD ver achter op Nvidia.

http://nl.hardware.info/r...resultaten-stroomverbruik

En dan nog dit:

"Het feit dat AMD bestaande GPU’s gebruikt is wellicht iets waar je je als liefhebber even overheen moet zetten, maar zeker in het geval van de R7 370 begint het gênant te worden. De drie jaar oude Pitcairn GPU doet geen DirectX 12 feature level 12_0, geen FreeSync en geen OpenCL 2.0, om maar eens drie dingen te noemen. Om zo’n kaart anno 2015 als nieuw te verkopen is eigenlijk een vrijwel onverantwoord. "

"...op alle prijspunten waar Nvidia een 900-serie kaart als tegenhanger heeft (de 960 ten opzichte van de 380, de 970/980 ten opzichte van de 390X), heeft Nvidia een duidelijk moderner aanbod. De 900-serie kaarten bieden bijvoorbeeld DirectX 12 feature level 12_1, HDMI 2.0, in het geval van de GTX 960 een H.265 decoder en zonder enige twijfel een betere efficiëntie. "

[Reactie gewijzigd door dusty-2011 op 18 juni 2015 15:34]

alleen zo bij de 390X. die heeft idd een hoog verbruik. bij de andere kaarten is dat beduidend lager.

maar met de 390X heb je wel GTX980 prestaties op UHD resoluties voor VEEL minder geld. je moet veel gamen om dat verbruik verschil in te halen op de lagere verkoop prijs.

[Reactie gewijzigd door Countess op 18 juni 2015 15:54]

Stroomverbruik is voor mij meer dan alleen maar de euro's die je ervoor moet betalen. Hier in Nederland wordt een zeer groot gedeelte nog opgewekt door kolen te verstoken. Om dan zo'n ontzettend onzuinige kaart als de R9 390X te gebruiken, dat vind ik eigenlijk nauwelijks verantwoord. Laat staan dat je er twee in Crossfire zou zetten.

Verder is het gebrek aan moderne features als DirectX 12 feature level 12_1, HDMI 2.0 en een H.265 decoder toch ook wel schrijnend. En ik had tegen deze tijd ook wel iets als Displayport 1.3 verwacht.

En de ontzettend hoge CPU-overhead van de AMD drivers is nog steeds niet aangepakt. Kijk bijvoorbeeld hier eens naar 1920x1080 Normal: http://nl.hardware.info/r...de-chips-benchmarks-gta-v
Waarom doen de Nvidia-kaarten in deze situatie met CPU-bottleneck zo'n 30 fps meer?
En alle resultaten van HWI zijn met een i7-5960X, een processor van 1000 euro. Zet je er een processor van 150 euro in, krijg je dan niet al snel last van die dramatisch hoge CPU-overhead van de AMD-drivers?

[Reactie gewijzigd door dusty-2011 op 18 juni 2015 15:44]

Om dan zo'n ontzettend onzuinige kaart als de R9 390X te gebruiken, dat vind ik eigenlijk nauwelijks verantwoord.
een keer een lang auto ritje niet maken levert veel meer op voor het miliue. zo groot is het verschil namelijk ook weer niet. je kan dan net zo goed zeggen dat het onverantwoord is om op 4k te gamen.
En de ontzettend hoge CPU-overhead van de AMD drivers is nog steeds niet aangepakt. Kijk bijvoorbeeld hier eens naar 1920x1080
100FPs niet genoeg dan?

maar nvidia idd heeft veel geïnvesteerd om de overhead bij dx11 terug te brengen... maar dat moeten ze wel voor elke game apart doen, waardoor bij minder populaire games is het verschil veelkleiner is.

AMD heeft in plaats daarvan mantle gemaakt en daarmee DX12 en project vulcan aangespoord, wat een permanente oplossing biedt.
100FPs niet genoeg dan?
Denk eens aan al die mensen met een 120 Hz of 144Hz monitor? Op zo'n hoge framerate spelen is vrijwel altijd erg zwaar voor de CPU. Dan ben je denk ik beter af met een Nvidia-kaart die niet voor zoveel CPU-overhead zorgt.

Wat betreft DX12 en Project Vulcan, die waren er naar mijn mening zonder Mantle ook wel gekomen. Het is nou niet zo dat Mantle zo'n daverend succes is geweest dat DX12 en Vulcan wel moesten volgen.

Verder vind ik het niet tof dat je bij AMD drie of vier weken na release van een game moet wachten op een nieuwe beta-driver. Terwijl Nvidia voor alle grote titels Day One drivers heeft...
Sorry maar zo ver ik weet bestaat Vulcan grotendeels uit Mantle...
En het was ook wel erg opvallend dat vlak nadat Mantle gereleased werd de DX12 hype op gang gebracht werd door Microsoft.
Zover ik weet zit een klein gedeelte van de Mantle code, in herschreven vorm, in Vulcan. Een klein gedeelte van Vulcan bestaat dus uit herschreven code die uit Mantle komt.

Een heel belangrijk verschil is natuurlijk dat Nvidia kaarten Vulcan wel zullen ondersteunen.
Anoniem: 471038
@dusty-201119 juni 2015 09:18
Zover ik weet zit een klein gedeelte van de Mantle code, in herschreven vorm, in Vulcan. Een klein gedeelte van Vulcan bestaat dus uit herschreven code die uit Mantle komt.
Dat lijkt me niet.
Vulkan is gebaseerd op de specs van Mantle. Of AMD uberhaupt de code heeft vrijgegeven aan de leden van Khronos, is niet bekend.
Maar bij OpenGL was het altijd zo dat iedere fabrikant zijn eigen implementatie maakt from scratch. Er werd geen code gedeeld. Dit id ook altijd een zwak punt geweest van OpenGL, omdat hierdoor bv de shader compiler van nVidia niet helemaal compatible was met die van AMD.

Ik heb nergens gelezen dat Vulkan anders gaat werken dan OpenGL, dus vooralsnog ga ik ervanuit dat het alleen de spec zal zijn, en dat iedere fabrikant dus zijn eigen implementatie maakt from scratch, ipv dat er code gedeeld wordt.
Dat kan wel kloppen. Ik ben ook geen expert op het gebied. Ik was het vooral niet eens met de uitspraak "zo ver ik weet bestaat Vulcan grotendeels uit Mantle". Maar die uitspraak ontkracht jij nog eens met je post.
Zeuren over het feit dat AMD geen support heeft voor fauture level 12_1 , nVidia heeft namenlijk ook niet volledigge support van directx 12, kijk deze forumpost (http://gathering.tweakers.net/forum/view_message/44359417)
en dat gezeur over stroomgebruik gaat mij ook de spuitgaten uit, nemen we in dit voorbeeld even een energieprijs van 20 cent per kilowattuur
en we nemen als 980 tdp 165 watt en 390x 300 watt. dat is een verschil van 135 watt, en we nemen in dit voorbeeld ook dat furmark je favorite bezigheid is op je computer en je niks anders doet(normaal gebruiken games niet het volledigge tdp) zelfs dan moet je 37 uur non-stop furmark draaien om één euro terug te verdienen, wil je het verschil in de prijs van de kaarten terugverdienen zul je dus erg fanatiek moeten zijn
Hoezo 'maar' 4GB? Ja het is minder dan sommige 'flagship' videokaarten, maar heb je al benchmarks gezien van hoe snel het geheugen is? Misschien dat dit wel gelijk staat aan de 12GB van een Titan? Of dat dit meer dan genoeg is voor de meeste resolutie omdat het een compleet andere manier van geheugen plaatsen is?
Dat zal de tijd leren, de benchmarks heb ik niet. Tot die tijd blijf ik bij mijn standpunt dat voor een top of the line kaart 4 GB weinig lijkt. Maar ben wel benieuwd hoe de snelheid van dit geheugen op de benchmarks reageert :)
Maar ben wel benieuwd hoe de snelheid van dit geheugen op de benchmarks reageert :)
Daar ben ik ook érg benieuwd naar! Aan de andere kant: als deze getallen waar zijn en de 'Fiji XT 4GB' is inderdaad de AMD Fury kaart (nvm, allemaal fake en verzinsels..), dan kan het nog wel eens leuk worden! :D

Dan lijkt 4GB inderdaad weinig ;).

[Reactie gewijzigd door Vickiieee op 18 juni 2015 14:31]

Wat ik me dan afvraag: Leuk dat supersnelle geheugen, maar zijn er echt games die nog uit moeten komen die dit snelle geheugen volledig kunnen benutten in tegenstelling tot meer 'langzamer' geheugen?

Mij lijkt het dat sneller geheugen namelijk niet altijd ten goede komt voor een spel, meer geheugen daarentegen wel, maar ik heb er natuurlijk niet alle verstand van: correct me if I'm wrong.
Dat hangt er vanaf hoe gamemakers besluiten hun games te programeren, videokaarten hebben historisch gezien namelijk altijd last gehad van te weinig bandbreedte, daarom zijn de games van tegenwoordig zo geschreven en zijn er trucjes geimplementeerd zodat ze zwaarder zijn op de videochip dan op het geheugen. als gamemakers de games zo gaan schrijven zonder trucjes toe te passen die zwaar wegen op de rekenkracht van de GPU zou dit heel veel vooruitgang kunnen zijn op het gebied van FPS, echter denk ik niet dat dit geimplementeerd gaat worden omdat nVidia nog steeds ver achterloopt op het gebied van geheugenbandbreedte.
Nvidia loopt ver achter? De 980ti heeft een gigantische geheugenbandbreedte van 336.5 GB/sec. Tuurlijk, dat is wat minder dan de Fury X, maar die gebruikt dan ook HBM geheugen. Nvidia komt volgend jaar ook met nieuwe kaarten met HBM geheugen, dan is die kleine achterstand op dat gebied weg.
Nau ja, Nvidia loopt wel degelijk achter de 980ti IS een gigantisch stuk duurder dan een 290x en heeft minder bandbreedte. En door de manier waarop Nvidia aan hun bandbreedte komen (kleine bus, hoge snelheid) is er ook weinig potentiaal voor overclocken. En dat terwijl hbm in de fury kaarten veel trager draait dan dat het kan omdat de hogere bandbreedte niet te gebruiken IS in hedendaagse programma's, het verschil tussen de 980ti en fury is dus groter dan dat het lijkt
Nvidia komt volgend jaar ook met nieuwe kaarten met HBM geheugen, dan is die kleine achterstand op dat gebied weg.
Ja, en? Het gaat over hoe programmeurs tegenwoordig en in het verleden hun games schreven, ik kijk er dan ook naar uit dat Nvidia ook niet meer achterloopt op bandbreedte omdat games dan beter worden

[Reactie gewijzigd door Boronguyd op 19 juni 2015 00:55]

Mijn R9 290 heeft (met OC) een geheugenbandbreedte van 371.2GB/s. Dat was anderhalf jaar voor de er was 980Ti, zo gigantisch vind ik dat dus niet.

Wat jij trouwens een kleine achterstand noemt, is wel 35% effectief. Voordat Nvidia die achterstand inhaalt zijn we weer een volledig jaar verder, sneller moet je Pascal en HBM2 niet verwachten.

De 980 Ti is trouwens maar één kaart, er is ook nog wel de Titan X, maar de rest heeft nog een stuk minder bandbreedte, bv de GTX 980 en 970 minder dan de helft van de Fury kaarten terwijl de 980 toch gaat moeten concurreren met de gewone Fury.

Maar goed, geheugen is slechts één ding, iets dat wat energieverbruik kan tippen aan de GTX 980 en 970 heeft AMD niet, daarom vind ik de genummerde R9 300 reeks een enorme tegenvaller.
Bovenaan het gelinkte artikel staat dit:
[May 24th 2015] UPDATE : Benchmarks below were confirmed to be fake.

Dus .......
http://nl.hardware.info/n...-van-amd-radeon-r9-fury-x
Niet helemaal eerlijk, AMD benchmarks en weinig details, maar ziet er toch goed uit.
Meer geheugen is beter om de simpele reden dat er meer assets in het geheugen geplaatst kunnen worden. Supersnel geheugen is niet effectief als deze de assets eerst uit een tragere storage moet laden.

Hoeveel effect dat uiteindelijk zal hebben moeten de benchmarks uitwijzen. Wellicht is een sloot aan snel ram geheugen voldoende om de nadelen te mitigeren.
Supersnel geheugen is niet effectief als deze de assets eerst uit een tragere storage moet laden.
Maar dat geldt dus dan ook voor videokaarten die wel een hele zooi aan RAM geheugen hebben. Als het van een traag medium vandaan moet komen schiet het alsnog niet op. Oftewel: een SSD is onmisbaar.

De benchmarks zullen het ons leren!
Over een jaar (met DIrectX12 wat er nu al bijna is) dan kan individueel met crossfire het gpu memory aanspreken. De techniek is er al alleen word het nog niet echt geïmplementeerd.

Ik zie deze kaart ook als een perfecte kaart voor 144hz en 2560x1440p gaming :) met de optie om eventueel 4K te spelen op (lagere) fps
Zeker wel, een developer mag ook wel wat meer na gaan denken over optimalisatie!

Een enkele 4k monitor, waar deze kaart bedoeld voor lijkt, heeft echt niet meer dan 4gb RAM nodig!

Maar XFire dan? Hoor ik je vragen... Ja dat wordt al lastiger, hoewel het geheugen beter behandeld kan worden met DirectX12, dus we moeten afwachten.
nieuws: Xfire stopt met client voor gamechats :+
(grapje)

[Reactie gewijzigd door XRayXI op 18 juni 2015 20:56]

Haha, crossfire dan... ik dacht ik typ lui maar dan komen mensen zoals jij langs :+
Het betreft wel een heel nieuw type geheugen, hierbij zit ook een speciale compressie. Hierdoor komt het overeen met ongeveer 6 Gb GDDR5.
ik meende dat er 30% compressie, waarmee je 5.2GB zou hebben. nu is niet alles in het video geheugen textures natuurlijk. maar wel veel.
Anoniem: 471038
@Countess18 juni 2015 19:23
En nog een keer... nou ja, zie hierboven: Anoniem: 471038 in 'nieuws: AMD geeft details over R9 Fury X vrij'
Heb je een bron voor het nodig zijn van 6 tot 8 GB geheugen? Liever snel geheugen dan sloom geheugen.
Wou het zelfde zeggen, 4gb lijkt genoeg de komende tijden. Alleen slecht geoptimaliseerde games hebben zoveel vram nodig.
Dat is niet waar: VRAM wordt voornamelijk gebruik voor textures. En juist de enthousiaste games op UHD hebben baat bij hogere kwaliteit textures. Dat heeft niks te maken met slecht optimaliseren. Er zijn al zat spellen die op de Ultra settings meer dan 4GB nodig hebben, zoals shadows or mordor en GTA V. En juist met deze kaart zou je denken dat je op ultra settings wil spelen. Aangezien textures steeds groter worden, is 4GB dus niet echt toekomstgericht...
Shadow of mordor is juist dus een goed voorbeeld. Er zijn veel mooiere games die minder vram nodig hebben, dan doen ze daar gewoon wat fout.
Het zit denk ik nog wat ingewikkelder,

1. er zijn op dit moment games die het werkgeheugen volschrijven met texture maar als die textures niet meer nodig zijn het er niet meer uit schrijven. Pas als de ruimte in het werkgeheugen weer nodig is voor andere texture word het dan herschreven. Dat heeft als gevolg dat je dus met een 6GB kaart best kan zien dat er 5GB gebruikt word in de game, maar dat als je een 4GB kaart hebt er niets aan de prestaties veranderd. Zelf vind ik het lui programmeren en zie ik er het nut niet van in, maar het komt best wel vaker voor.

2. er zijn games die de hele omgeving aan texture in het werkgeheugen schrijven zodat jij je de hele tijd in het midden van de geladen data bevind. Dit zorg er voor dat er geen (of nauwlijks) laadtijden meer zijn als je in de game bent. dit is iets dat veel voorkomt in multiplayer omgevingen. Het voordeel van meer Vram is dat je dan een grotere straal om jou heen hebt dat geladen is. (soms zie je dat er aan de horizon nog textures geladen worden, dat ligt daar gedeeltelijk aan) hierbij vult de game ook een groot gedeelte van de Vram, maar maakt het ook niet heel erg uit dat je geen 6 of 8GB hebt.

3. Er zijn games die gewoon slecht gepord zijn, volgens mij valt Shadow of mordor daar heel er duidelijk tussen. Ik zou dat als ik die game had geschreven gewoon gênant vinden. maar het komt toch te vaak voor. Je ziet dan ook vaak, naast dus te hoog Vram gebruik ook echt fouten in textures en natuurlijk stomme bugs.

4. Er zijn gewoon games die in hele speciale settings dat geheugen gewoon nodig hebben (extreem hoge framebuffer, zeer hoge resolutie (4k of meer (trippel 4k :) ), plus extreme tesselation instellingen en bijvoorbeeld hairworks.)

5. Er zijn games die op dit moment de zelfde texture packages gebruiken voor UHD als voor FHD, en dat zorg ook voor veel hoger Vram gebruik dan normaal.

Het is dus niet altijd een fout en kan praktisch nut hebben, maar ik vermoed dat de aankomende 3 jaar de 4GB toch echt nog wel genoeg is.
Hoewel veel mensen het argument gebruiken dat de PS4 en de XB1 beide 8GB hebben is dit niet helemaal eerlijk, dat werkgeheugen word namelijk ook gebruikt voor achtergrond services en natuurlijk de CPU processen. Ik denk dat je toch meestal aan 6GB moet denken als maximale hoeveelheid ram dat gebruikt woord voor de grafische data.
En nog als laatste punt, het gedeelte van werkgeheugen dat ECHT snel is bij de XB1 is ook nog eens heel erg klein, ik geloof dat de rest namelijk ddr3 is, wat natuurlijk niet indrukwekkend is als je daaruit je texture moet gaan gebruiken.

PS: sorry voor mijn spelfouten, ik vind schrijven gewoon moeilijk (dyslectie)
Bedankt voor de uitleg. Als ik heb goed heb is 4,5 gb voor de games en infamous second son maakt daar bijna helemaal gebruik van.
Dat kan wel waar zijn, en de schuld ligt dan wel degelijk bij de devs. Maar voorlopig zit je in de praktijk dan wel te klooien met een game die je wel wilt spelen, maar gewoon slecht draait of waarvan je de textures moet terug draaien. Wat niet had gehoeven met een kaart met meer geheugen uit bv het groene kamp.

Nou moeten we het in de praktijk nog allemaal zien natuurlijk en ben niet perse een groene aanhanger, maar alleen om aan te geven dat het voordeel 6-8 gb over 4 gb niet gelijk weg te vegen is door de de schuld bij de games te leggen. :)
Daar moet ik je wel ingelijk geven, maar je krijgt er ook extra prestratie voor terug, jaartje wachten voor we 8gb hbm krijgen.
Ja het is even afwachten. Maar zoals het er nu uitziet is het prijsverschil tussen 980ti en fury x maar heel gering en de prestaties ongeveer hetzelfde. Dan ben ik toch meer geneigd om voor de kaart te gaan met meer dan 4 GB.
Toch wel, omdat door de hoge snelheid minder buffer nodig is.
Interessant. Ik ben benieuwd of dat waar is. We zullen het zien in de benchmarks denk ik zo :)
Ik ben ook sceptisch over de 4GB, vooral op 4K. Maar ik ben zo benieuwd naar de benchmarks, dit zou wel is "the next big thing" kunnen zijn in de videokaart wereld. Ik wacht met spanning op de benchmarks.
Dat is niet zo.

Maar 4GB is gewoon genoeg als je geen hele gekke dingen doet.
Je vergeet alleen dat een DMA request van GPU naar RAM enorm traag is (PCIe - RAM (kan zelfs nog eens disc zijn hier) - PCIe). Wat games juist doen is alles op VRAM dumpen wat je nodig hebt voor dat level, als je geen streaming levels hebt. Dit wil dus zeggen dat je wel meer VRAM wil voor UHD.

Een 2048x2048 RGBA texture neemt 16MB in gebruik.

[Reactie gewijzigd door NC83 op 18 juni 2015 15:24]

das een goeie, alleen gaat het niet van disk naar pci-e bus naar gpu zonder het eerst naar ram te copieren? daar weet ik eigenlijk heel weinig van af.
van wat ik zie over PCI-E lijkt het er op dat data van SATA naar PCI-E gaat voordat het in RAM terecht komt. En het mooie van AMD's gpu's was dat de GPU calls op de CPU kan maken en geheugen en op de disk (of net ff wat ingewikkelder kan vragen aan de cpu stuur deze datablokken van disk)

Maar goed zoals ik al zei ik weet er niet heel veel van.
4GB is nu voldoende. Maar texturen worden groter en dus ook het geheugen wat er voor nodig is om alles op te slaan.

Ik zelf draai skyrim met aardig wat mods, waar 4GB van mijn 980 volledig wordt benut, en er nog eens 1,7GB in de wachtrij staat.

Nu draai ik mods, die misschien slecht geoptimaliseerd zijn. Maar het feit blijft dat niet alle grafische eigenschappen die ik wil hebben bij de GPU ingeladen kunnen worden om rechtstreeks zonder tussenstap van de cpu aangesproken te worden.
Heb je die grotere textures wel nodig voor 1080p gaming? Op dit moment zijn de textures namelijk heel vaak al groter dan wat je voor die resolutie nodig hebt. En bijna alle textures worden vervangen door mipmaps van lagere resolutie voordat ze worden weergegeven.

4K gaming is een ander verhaal natuurlijk. Voor die resolutie kan het VRAM-verbruik wel gaan stijgen op de korte termijn. Voor 1080p zit je echter goed met 4GB VRAM.
Dat is wel waar, maar hoe snel is het geheugen dan werkelijk in vergelijk met de concurrentie. Snel geheugen is leuk, maar er moet ook wat naar het geheugen toe geschreven worden. De aanvoer zal nooit zo snel zijn als het geheugen.

Daarnaast zal 4GB nú wel genoeg zijn, maar een kaart van €650,- moet langer mee gaan dan een half jaar tot een jaar. Nu zie je al games verschijnen met een recommended 6GB. Het is niet leuk om dan tegen een memory bottleneck aan te lopen terwijl je rekenkracht meer dan voldoende is.
Maw. AMD has f*cked up again. Ik vind dat ze hier de verkeerde beslissing genomen hebben. Ze hadden de nieuwe Fiji gpu beter voorbehouden voor de 390/390X en gecombineerd met 8 GB GDDR5 vram ipv gebruik te maken van het 4 GB HBM geheugen wat te weinig is voor 4K en niet toekomstgericht is. De 390/390X is het belangrijkste high-end segment waar de meeste videokaarten verkocht worden en daar moesten ze alles op alles gezet hebben.Maar nee, de 390(X) zijn rebrands met lichte optimalisaties die met moeite zullen meekomen met de 970/980 van nVidia. De TDP ligt ook veel hoger dande kaarten van nVidia. Dan is de keuze snel gemaakt. Komt erbij dat de Fury(X) ook te hoog geprijsd is om er veel van te verkopen.

nVidia zal het helaas weer slimmer aanpakken en wachten dat HBM met 8 GB beschikbaar is om in zijn volgende generatie gpu's te implementeren. Dan is die kaart veel toekomstgerichter.

Het HBM mag dan wel sneller zijn dan GDDR5 maar ik denk dat het belangrijker is van veel geheugen te hebben dan snel. De data wordt nl. vanaf je trage storage aangevoerd. Benchmarks zullen dit uitwijzen.
HBM is een groot selling point en ik betwijfel sterk dat het een "bottleneck" (vieze term) is, 4gb nvidea kaarten lijken er niet onder te lijden? De sleeving vindt ik prachtig en doet veel luxer aan dat gewoon een rubber slang, het echte uitkijken doe ik echter naar de Nano versie. Die kaart zal een aardige stap zijn voor htpc builds.
Mag ik jou glazenbol? Wat ze beter hadden kunnen doen is fury gewoon een r9 390(x) moeten noemen en de snelste fury gewoon fury moeten noemen. En die lekker tegen de titan laten vechten. Maar tot nu toe doet de 300 serie het anders veel beter als je op prijs-prestatie bekijkt.
De 390(X) doet het idd. beter dan ik had verwacht als ik naar de benchmarks op hwinfo kijk(heb nog niet alle benchmarks bekeken van hwinfo) maar daar staat een massief stroomverbruik van de 390X tegenover. De kaart verbruikt maar liefst meer dan 100 W meer dan zijn directe concurrent de 980.
Momenteel kost 1kWh gemiddeld 0,23 cent wat dus overeenkomt met 2,3 ct per 100W verschil per uur. Bij gemiddeld gamen van 2 uur per dag komen we dan uit op 4,6 x 365 = 16,80 euro per jaar..

De goedkoopste GTX980 uit de pricewatch kost 496 euro. De R390X heeft een adviesprijs van 459 (verkoopprijs zal dus nog lager liggen). Pas na twee jaar zorgen de hogere stroom kosten dat de kaart duurder is.. Maar de gigabyte GTX980 (WF3-OC) kost al 512 euro, waardoor pas na 3 jaar de 390X evenveel kost als de Gigabyte GTX980.

De TCO ligt voor beide merken dus eigenlijk min of meer gelijk..
Voor de zoveelste keer, ik ben geen nVidia fan, ik heb een amd-kaart(HD7950). Een beetje kritiek mag toch wel nog altijd dacht ik.
Die discussie is uiteraard al eerder gevoerd, dus laten we ons de moeite besparen ;-)

http://hardforum.com/showthread.php?t=1843625

Het lijkt er dus echter wel op dat er al games zijn die net iets meer nodig hebben. De vraag is inderdaad of het snelle geheugen hier niet alsnog goed mee uit de voeten kan.

Ik weet nu echter al wel wat ik voor kerst wil denk ik :-D
Ja ik ook. De zelfde kerstman als jij :) . Mag blij wezen als ik een r 3xx krijg van hem
De huidige consoles kunnen tot 8GB aanspreken en daar maken games dus nu ook gebruik van.
Games kunnen echt niet gebruik maken van al dat geheugen, ze kunnen eerder iets van 4-5GB aanspreken

http://www.eurogamer.net/...s3-system-software-memory
Alleen is dat niet zo, een PC spel heeft bv 6GB ram nodig en 4GB VRAM=10GB
Console heeft ook RAM nodig en VRAM en dat is max 8GB, PS4 en XBone heeft wel het werkgeheugen en video geheugen op 1 hoop maar dat doet er niets aan af.
4GB is momenteel wel het nadeel van deze generatie van HBM
Je ziet dat mensen nu titans met 6gb weg doen omdat de core gewoon niet meer mee komt met nieuwere kaarten. Zo zal het ook met de huidige kaarten gaan. Die 12GB op de titan gaat je echt niet meer levensduur geven bijv.. Die 4 gaat gewoon prima zijn.
De Titan is anders nog een heel potente kaart, en 90% van de mensen die deze nu wegdoen is omdat er "iets snellers" te krijgen is. Gunstig voor mensen die van goede deals houden, maar absoluut geen teken dat de core niet meer mee zou komen. Dit zijn over het algemeen dezelfde Tweakers die hun s2011 processor inruilen voor een s2011-3 processor ;)
Niet zo zeer omdat er iets snellers te krijgen is, maar omdat bijvoorbeeld 1 titan black niet voldoende is voor 4k, ook al heeft deze 6gb videogeheugen, en zelfs twee niet snel genoeg zijn omdat ze vaak niet goed schalen...
Volgens mij bedoelen we hetzelfde ;)

Hij is nog potent, maar niet speciaal dankzij het extra vram. Een originele Titan is allround niet sneller dan een gtx 970 bijv..
Klopt, en de afschrijving op dit soort niche-producten is enorm. Voor een tweedehands Titan vragen de meeste mensen meer dan wat een nieuwe 970 kost. Voor mensen die veel moeten renderen of ander professioneel grafisch werk doen is de Titan wel nog steeds een van de allerbeste opties.
Dat is idd de logische doelgroep. Maarja qua gamers, het lonkt he, onlogisch veel vram ;)
Kijk voor de grap eens naar dit: Een GT 630 of een R7 240 met 4GB ram. Ja echt, videokaarten die net geschikt zijn om video te streamen.

Voor PC-bouwers is dit het ultieme gereedschap om een pc te verkopen met een AMD OCTOCORE OMG! 4GB VRAM AWYISS! Traag, maar de getalletjes zijn tenminste lekker hoog! 8)7

[Reactie gewijzigd door TheGreatAtuin op 18 juni 2015 15:49]

Getalletjes lekker hoog? Alleen als je niet kunt lezen...

De GT 630 bevat 0GB GDDR5. De R7 240 bevat 0GB GDDR5. Zo lees ik het. Dat ze dan 4GB DDR3 aan boord hebben, ja dat is leuk, maar dat is traag en goedkoop geheugen.
You are completely missing the point, my dear. Dit zijn de videokaarten die in OEM-pc's worden gestopt zodat ze kunnen opscheppen over supersnelle videokaarten met 4GB VRAM. Voor deze videokaarten maakt het helemaal niets uit of er nou DDR3 of DDR5 wordt gemonteerd, en gezien de monsterlijke snelheid van deze kaarten (let op: sarcasme) is meer dan 512MB sowieso nutteloos.
Wat me meteen opvalt aan de kaart: de ventilator van de radiator lijkt me met 99% zekerheid een Scythe Gentle Typhoon High RPM waarvan de minst snelle versie 3000 rpm doet en de snelste 5400 rpm. Ventilatoren die bekend staan vanwege de verstevigde ring om de bladen, een enorme statische druk en een enorme geluidsdruk. Je ziet ze meestal niet in het wild zonder bescherming voor je vingers of kabels eromheen.

Niet te verwarren met de gewone Gentle Thyphoons voor het plebs dus. Zelfs al draait deze fan op 50% dan is dit een extreem luide videokaart, vergelijkbaar met de beruchte 4890 of 290X. Ongeacht de prestaties, kan dit voor veel mensen een grote tegenvaller zijn na de relatief stille high-end kaarten van nVidia de laatste jaren.

Iets aan die ventilator doet me ook vermoeden dat het hoge TDP van deze kaart eigenlijk gebaat is met een 240mm radiator, maar dat ze vanwege praktische overwegingen hebben moeten kiezen voor 120mm en dat een relatief extreme ventilator dan nodig wordt. Zo veel plekken voor deze kaart te monteren zijn er niet echt in de gemiddelde behuizing.

Het is eigenlijk vergelijkbaar met processors: de meeste kant en klare waterkoelers van 120mm zijn competitief met luchtkoeling, maar niet beter. Over het algemeen bieden zeer grote luchtkoelers en 240mm radiatoren betere resultaten terwijl ze ook nog eens stiller zijn. Ik denk dat zowel de temperaturen als de geluidsproductie aardig gaan tegenvallen bij deze kaart.

Aan de andere kant is er niets dat de eindgebruiker tegenhoudt om bijvoorbeeld 2x 120mm Noctua's op deze radiator te plaatsen, wat ook meteen mijn keuze zou zijn. De kaart wordt waarschijnlijk wel enorm snel, en zou door zijn kleine formaat enorm populair kunnen worden in mITX-builds.

[Reactie gewijzigd door TheGreatAtuin op 18 juni 2015 14:53]

Grappig ook dat de slangen van de videokaart naar de koeler met ventilator erop 'gesleeved' zijn. D.w.z. dat ze dat netje eromheen hebben. Waarom is dat? Waarom niet gewoon een gladde slang zoals je bij de meeste (CPU-)waterkoelers ziet?

Verder kan ik me niet voorstellen dat AMD voor een dergelijke fan zou gaan. Er zijn genoeg fans die hier geen genoegen mee nemen en voor een stillere kaart zullen gaan. (Oké, pun intended :D). Maar punt is gemaakt. Niemand wil een videokaart met waterkoeling in zijn kast die constant klinkt alsof hij aan het opstijgen is.
Gesleeved is volgens sommigen wat mooier, bijvoorbeeld de nieuwste Corsair H110i GT heeft het ook. Het heeft geen praktisch nut, buiten dat rubber af en toe wat lelijk of dof kan worden. Daarentegen kan dit weer rafelen langs de randen.

En helaas moet ik je tegenspreken: zowel AMD, nVidia als Intel hebben een rijke geschiedenis met extreem luide ventilatoren. Meestal het gevolg van een product dat een grotere warmteproductie had dan verwacht. De eerste batches van nVidia's Fermi-architectuur, AMD's avontuurtje met 5Ghz-processoren, de Radeon 4890 ("laten we de 4870 idioot ver overclocken en de voltages maximaliseren") en de stock coolers die met de i9 920 mee werden gegeven.
Hmmmm. Point taken!
Zelf ben ik een veel grotere fan van de gladde kabels op de Corsair H100i. De geribbelde kabels (zoals een stofzuigerslang) vind ik dan weer écht verschrikkelijk.. Stevig is het ongetwijfeld, maar over de ribbels een laagje rubber zoals bij de H100i vind ik mooier.

Wat betreft het rafelen: dat gebeurt vaak pas bij redelijk wat 'wear and tear', in een gesloten kast met 'allen' luchtcirculatie zal dit meevallen denk ik.


De luide ventilatoren hielden dan ook allemaal verband met de belachelijk hoge temperaturen die de verschillende CPU's/GPU's produceerden. Met een betere hitte-afvoer en een fatsoenlijke(re) koeler moet dit denk ik toch aan te pakken zijn.
We zullen het weten zodra de reviews online komen! :)
Wat precies de reden is waarom ik zelf een H100 met 800rpm ventilatoren gebruik in combinatie met een GTX 960 die zelfs volledig passief is tot 68 graden. Stilte is me veel belangrijker dan absolute performance!

Helaas is het zo dat veel fabrikanten het niet hiermee eens zijn en kijken voor een adequate (lees: goedkope) oplossing. Hulde daarom voor nVidia dat op zijn topmodellen zoals de Titan X een werkelijk goede koeloplossing plaatst.
Achja, die geribbelde slangen zie je toch niet, die zitten immers in je kast en je kast zit dicht. Zelfs met een window zal je de PC niet dusdanig naast je monitor of midden in de kamer hebben staan dat het echt opvalt.

Stilte/performance is een afweging die je zelf al gebruiker uiteindelijk zult moeten maken. Er zijn zat keuzes die je kan maken. Zo kan ik op je profiel niet zien welke behuizing jij hebt, maar een behuizing met geluidsdempend materiaal kan al heel wat helpen. Of je daar het extra geld aan uit wilt geven is natuurlijk een tweede! ;).

Volgens mij gaan veel fabrikanten dan ook voor de hogere FPS en prestaties omdat dat iets is waar veel mensen op letten en voor gaan. Bij het gamen heb je toch vaak een headset op of de luidsprekers wat harder staan waardoor je doorgaans de fans niet hoort. Tenzij het heel extreem is zoals met de R9 290X in über mode.

Voor de écht goede en stille koeloplossingen moet je dan ook vaak niet zijn bij de standaard meegeleverde spullen van fabrikanten (zoals AMD en nVidia). Aftermarket koelers van fabrikanten als ASUS, MSI, Gigabyte of EVGA zijn vaak stukken, maar dan ook echt stukken stiller.
Wie weet komen er ook gewoon non-reference modellen van deze kaart uit, waardoor stillere varianten vrijwel zeker een feit worden. Ik ben het wel met je eens dat deze waterkoeler het waarschijnlijk niet beter gaat doen dan een luchtkoeler. Ik vind waterkoeling vooral interessant als er een 280mm radiator gebruikt wordt.

[Reactie gewijzigd door JoepD op 18 juni 2015 14:59]

HEYYY je zegt het zelf al... je kan er gewoon een andere ventilator opschroever, geen centje pijn.

Bovendien lijk je het principe van lucht- en water-koeling door elkaar heen te halen. bij luchtkoeling is het alleen maar zaak om zoveel mogelijk koude lucht door het koelblok te halen.

bij waterkoeling heb je te maken met de doorvoersnelheid van de vloeistof. hoge doorvoersnelheid is meer warmte afvoer, Die warmte moet je dan in de radiator afvoeren, maar als de vloeistof maar snel genoeg circuleert warmt die niet heel veel op, dan heb je wel een hogerre druk op het systeem.

De ventilator ziet er uit als een gewone gentle typhoon:
pricewatch: Scythe Gentle Typhoon D1225C12B4AP-14 (1450 rpm), 120mm
1450 rpm de kleur van de bladen is wat donkerder. Ik denk dat wat je schreef een beetje FUD is :
https://en.wikipedia.org/wiki/Fear,_uncertainty_and_doubt
Nope, zoals eerder aangehaald is die tweede ring rond de bladen echt uniek voor de High RPM versies ;) Ik heb meerdere links naar foto's geplaatst.

Verder is het principe niet heel erg veel anders, zelfs met een absolute toppomp van Laing heeft de gemiddelde 120mm radiator veel moeite met het kwijtraken van al de warmte die gegenereerd wordt door een snelle videokaart. De oplossing is simpel: grotere radiator of snellere ventilatoren. Raad eens waar voor is gekozen?
Het lijk idd op een Gentle Typhoon High RPM, maar waarschijnlijk geen Scythe, Scythe is namelijk alleen maar de sticker plakker, deze fans komen van Nidec Servo. Scythe verkoopt ze ook niet meer trouwens, ze hebben alle Gentle Typhoons EOL behalve de 500RPM versie, vrij jammer overigens want het zijn nog steeds één van de allerbeste fans.

Wat betreft de Gentle Typhoon 3000RPM, deze heeft een start spanning van 3,5V zie: https://www.youtube.com/watch?v=nJQw9Gz1vME dit is gewoon heel erg laag.

Die video komt van deze review: http://www.coolingtechniq...rpm.html?showall=&start=4.

Pak je dan deze afbeelding: http://www.coolingtechniq...data-gt-high-rpm-3000.png. Dan zie je dat de fan op 4V maar op 346RPM draait, knappe jongen ben je als je dat hoort. ;)

Met een goede fancontroller kan het dus gewoon heel erg stil zijn.

Pak je dan deze afbeelding erbij dan geeft AMD zelf ook aan dat het een stille koeler is. Meer afbeeldingen zie: CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 130
Ik hoop het van harte voor AMD! Ik twijfel ook niet aan de effectiviteit van de koeloplossing, maar wel de geluidsproductie. 346rpm zou doodstil zijn - maar de statische druk is dan verwaarloosbaar. Je weet zelf net zo goed dat radiatoren verreweg de meest obstructieve dingen zijn die een ventilator tegen kan komen.

Als ik een educated guess zou maken zou ik zeggen dat een snelheid van 1000-1500rpm in idle waarschijnlijk is,en een snelheid van 3000rpm bij load. Met deze ventilatoren van Scythe Nidec (bedankt om dat duidelijk te maken!) is dat helaas verre van stil en het is maar afwachten of dat competitief met nVidia is.

[Reactie gewijzigd door TheGreatAtuin op 18 juni 2015 17:02]

3000RPM load gaat sowieso niet gebeuren, de koeler heeft namelijk een koelcapaciteit van 500W, terwijl de kaart zelf maar op 275W piekt, dus meestal maar rond de helft van die 500W zal zitten bij een zware game.

Zie de afbeeldingen in CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 130
Een koelcapaciteit van 500W had ik nooit verwacht bij een dergelijk compacte oplossing met een enkele 120mm radiator. Eerlijk gezegd vind ik het ook klinken als wishful thinking aangezien veel 120mm AIO waterkoelers voor processoren al moeite hebben met een s2011 processor (waarvan het TDP veel lager is). Nu zijn de twee niet direct vergelijkbaar maar ik geloof het nog niet helemaal. Verder zie ik in diezelfde afbeelding staan dat er power support tot 375W (!) is middels de dubbele 8-pins connector. De reviews zullen het uitwijzen!

[Reactie gewijzigd door TheGreatAtuin op 18 juni 2015 17:12]

Eigenlijk alle 120mm All-in-on waterkoelers worden sowieso niet geleverd met een hoge kwaliteitsfan. Altijd van die hooguit redelijke/matige fans, dat zal al veel verschil maken. Dan kun je ook nog winst maken op de pomp, radiator en het blokje voor op de CPU/GPU, de standaard dingen zijn gewoon niet zo goed, dus eigenlijk is er gewoon nog wel wat winst te halen. Maar idd de reviews zullen het gehele beeld geven.

Wat betreft de stroomaansluitingen. Dat zegt niks over het verbruik. Ze zetter er twee 8 pins op voor betere connectie, koelere connectoren en hierdoor kan er dus meer stroom door de connectors.

Overigens is het niet tot 375W, meer dan 500W kan ook prima door twee 8 pins PEG connectors. Zolang je er maar voor zorgt dat het uit twee losse kabels vanuit de voeding komt en niet van één kabel met daaraan twee 8 pins PEG connectors.

[Reactie gewijzigd door -The_Mask- op 18 juni 2015 18:27]

nou, ik heb een Phenom II 955 standaard snelheid aangesloten op een closed loop klein waterkoolertje van corsair.. doet het puhrima. en de 955 staat niet bekend om het genereren van weinig warmte :)

Dus proefondervindelijk ondervonden haal ik je stelling onderuit :D

bovendien, 36 db is niet heel erg veel
D1225C12B7AP-29 (3,000 rpm): 83CFM, 36.5dBA, 2.64W
bron: http://www.dvhardware.net/article48571.html
en als je fans ondervolt scheelt dat een berg geluid. kan me niet voorstellen dat AMD niets geleerd heeft van "the leafblower" de 290/290x.

ik ben in ieder geval heel geinteresseerd in de tests en reviews.
Maar om dat weer onderuit te halen: rated dBA en werkelijke geluidsproductie hebben vrij weinig met elkaar te maken, in dezelfde manier dat politieke beloftes en politieke beslissingen vrij weinig met elkaar te maken hebben. Uit de review die ik eerder aanhaalde: Now having been playing with these fans all day I know they're loud, what I wasn't expecting was for the 5400rpm model to be louder than a hoover in the same room. Seriously if you want to know how loud these are, sit next to a domestic hoover and you'll get a pretty good idea. Please don't think i'm exaggerating here, i'm not.

Verder hebben ventilatoren ook een eigenschap die start-up voltage genoemd wordt: sommige ventilatoren die rated zijn voor 1000 rpm bereiken dit op 12V, en starten al op 6V en doen dan 500rpm (grofweg). Maar deze ventilatoren zijn niet allemaal even goed: voer ze 6V en sommige exemplaren zijn stil, maar dat is alleen omdat ze dan niet draaien!

[Reactie gewijzigd door TheGreatAtuin op 18 juni 2015 16:56]

Ja precies je gaat er van uit dat het de 5600 rpm variant wordt, om onduidelijke redenen.
Het is maar afwachten welk rpm de ventilator haalt. wie weet heb je gelijk en hebben we een leafblower 2.0. Wie weet hebben ze wel wat geleerd bij AMD (ik verwacht van wel)
Nog 1 weekje geduld en dan weten we het
Hier moet ik toch even een kanttekening bij plaatsen. Rated dBA en daadwerkelijke geluidsproductie hebben alles met elkaar te maken. Behalve als de fabrikant liegt over de cijfers. dBA is een meting van de geluidsdruk die gefilterd wordt om de frequentie response van het menselijk gehoor te simuleren. Het is DE manier om weer te geven hoe luid geluid is rond de 40 phons. Als een reviewer ze luid vind zonder enige vorm van directe meting in een daarvoor bestemde ruimte is dat niet veel meer dan een ongefundeerde mening.

Verder ben ik het niet oneens dat de 5400rpm versie teveel geluidsdruk voor een consumenten build zal zijn in de meeste gevallen. Die 3000 rpm is echter zonder meer geschikt en zal niet veel extra lawaai toevoegen aan de meeste builds.
Het lijkt gewoon op dezelfde ventilator als die van de R9 295X2 water koeler. Zo luid is die niet.

http://images.anandtech.c...Birdseye_5in300dpi_4c.jpg
Dat lijkt niet op dezelfde ventilator, bij lange na niet. Tenzij je criteria zijn: zwart, bevat bladen en is 120mm. Denk eraan dat looks van een ventilator niks willen zeggen over prestaties.

Leg deze foto's eens naast elkaar en let vooral op de unieke ring aan de buitenkant van de bladen:
R9 Fury
Gentle Typhoon High RPM

Ter contrast:
R9 295X2 (jouw foto)

[Reactie gewijzigd door TheGreatAtuin op 18 juni 2015 15:32]

Ik denk dat je beter reviews af kunt wachten. Bij radiatoren moet je geen gebruik maken van de meest goedkope ventilatoren, maar iets dat sluit op het ontwerp.

Het voordeel van waterkoeling is dat het zonder een al te hoge ventilatorsnelheid temperaturen acceptabel houden kan, t.o.v luchtkoeling.

Wacht nou maar gewoon eerst de reviews af voordat men met het vingertje wijzen gaat. De kaart is gewoon superieur t.o.v de 290x. Hij is dik 45% sneller.
Ik denk niet eens dat het komt door de gehele warmte productie, ik denk dat ze meer een probleem hebben met dat alles op 1 plaats gefocust zit. Een 780Ti, Titan Black en GTX980Ti hebben allemaal dezelfde TDP alleen zijn deze nog wel lucht gekoeld.
Nu is het wachten nog op de benchmarks!

I.v.m. een aantal punten ben ik zéér benieuwd naar hoe deze kaart presteert, op meerdere vlakken:
- HBM geheugen, geklokt op 'slechts' 500mhz maar alsnog een bandbreedte van 512GB/s, wat als dit hoger geklokt kan worden? Hoe efficient is het HBM zelf in het wegschrijven van frames e.d., levert dit FPS winst op of komt dit nog voornamelijk bij de GPU zelf te liggen?;
- Twee 8-pins aansluitingen en een mogelijke TDP van 375W, echter zal de kaart hooguit 275W vragen. Toch een waterkoeler erop gemonteerd: wat doet dit met de temperaturen en met de geluidsproductie van de kaart?;
- Hoe gaan fabrikanten als ASUS, MSI, Gigabyte en EVGA om met de waterkoeler die standaard gemonteerd is? Plaatsen zij een eigen luchtkoeler die het koel moet houden of gaan zij ook aan de slag met waterkoelers? Sommige fabrikanten hebben hier al ervaring mee.


Gezien de release-datum van de kaart (24 juni) zullen we dus nog een week en een dag moeten wachten tot de kaart officieel uitkomt. Komen er in de tussentijd al reviews beschikbaar?


Zo veel vragen :D
- HBM geheugen, geklokt op 'slechts' 500mhz maar alsnog een bandbreedte van 512GB/s, wat als dit hoger geklokt kan worden? Hoe efficient is het HBM zelf in het wegschrijven van frames e.d., levert dit FPS winst op of komt dit nog voornamelijk bij de GPU zelf te liggen?
HBM kan hoger geklokt worden, maar de lage kloksnelheid heeft net een grote power usage winst.
- Twee 8-pins aansluitingen en een mogelijke TDP van 375W, echter zal de kaart hooguit 275W vragen. Toch een waterkoeler erop gemonteerd: wat doet dit met de temperaturen en met de geluidsproductie van de kaart?
Warmte densiteit. GPU en memory zitten nu echt heeeeel dicht bij elkaar, dus heb je een medium nodig die de warmte zeer snel kan afvoeren. Een 2de reden is dat ze deze design gemaakt hebben zodat hij makkelijker in compacte builds kan passen (veel kortere kaart)
- Hoe gaan fabrikanten als ASUS, MSI, Gigabyte en EVGA om met de waterkoeler die standaard gemonteerd is? Plaatsen zij een eigen luchtkoeler die het koel moet houden of gaan zij ook aan de slag met waterkoelers? Sommige fabrikanten hebben hier al ervaring mee.
Waarschijnlijk gaan ze die zeker in het begin klakkeloos over nemen.
NDA van de reviews verloopt eveneens op 24 juni, eerder zullen er dus geen reviews komen. Tenzij er wat lekt: http://nl.hardware.info/n...-tussen-980-ti-en-titan-x

Edit:
- Wat betreft het HBM geheugen, dat moet nog blijken, maar het lijkt me dat dat inderdaad wel overklokbaar moet zijn. De huidige bandbreedte van 512GB/s is echter nu al hoger dan wat er ooit met GDDR5 behaald is dus het zal waarschijnlijk geen bottleneck zijn ;)
- Dat moet nog blijken :) AMD zal echter niet voor niks voor waterkoeling gekozen hebben. Voor nu zijn de geruchten twee kaarten: de Fury met luchtkoeler en de Fury X met waterkoeler. Niet bekend of er meer verschillen zijn in shaders of clocks.
- Waarschijnlijk zal de kaart net als de Titan, 980 Ti en de eerste 290X'en alleen voorzien mogen worden van de reference (water)koeler. Daarna zullen de fabrikanten doen wat mogelijk is lijkt me ;)

[Reactie gewijzigd door Richh op 18 juni 2015 14:32]

Ik vrees dat je warmteproblemen gaat krijgen als je het HBM hoger gaat klokken omdat het dicht op de gpu zit en op elkaar is gestapeld. Wellicht dat het daarom ook slechts op 500 mhz is geklokt.
De enige kaart uit de nieuwe AMD range die in mijn ogen het waard is om aan te schaffen. Al is de prijs erg hoog. Maar de stroom eficientie in combinatie met de prestaties gooit het op hetzelfde niveau als Nvidia.
Want jij hebt al testresultaten/reviews gezien?
Bron?
Als je kijkt naar de testresultaten van een R9 290(X) dan kijk je ook naar de benchmark resultaten van een R9 390(X).

Heb je het nieuws wel gelezen de laatste tijd? De 'nieuwe' line-up van AMD met de R9 390(X) serie e.d. zijn allemaal rebrands van oudere kaarten. Oftewel: de R9 390X is een R9 290X met hogere kloksnelheden, meer geheugen en een andere naam.

Edit: linkje.

[Reactie gewijzigd door Vickiieee op 18 juni 2015 14:19]

En dat staat dus inderdaad compleet los van de Fury kaarten. de 390x is niet de nieuwe topkaart dat is de fury x hier zijn nog geen nieuwe resultaten van bekend...
Want dit zegt iets over de Fury X?
Volgens mij niet, of ik moet wat missen.

En ja ik heb het nieuws gelezen.
Heb jij dit artikel ook gelezen? Gaat over de Fury X en daar zijn nog geen reviews van.

[Reactie gewijzigd door Arjant2 op 18 juni 2015 14:34]

Nee, maar dat zei ik toch ook niet?

Jij reageert op een reactie waarin staat:
De enige kaart uit de nieuwe AMD range die in mijn ogen het waard is om aan te schaffen.
De andere kaarten zijn allemaal rebrands, dus niet echt nieuw. In dat opzicht kan je net zo goed een kaart uit de R9 2xx generatie kopen en die mild overklokken (50Mhz is vaak wel te doen en te halen). Misschien dat je sommige features mist, maar het kan je toch al snel een euro'tje of €100,- schelen.

Aangezien het hier om een geheel nieuwe kaart gaat (de Fury X) en fabrikanten over het algemeen niet iets uitbrengen dan een vorige generatie (vandaar de licht hoger geklokte rebrands) mag je er vanuit gaan dat de kaart de moeite waard is ;).
Nee ik reageer op het gedeelte waar staat dat Fury X op het niveau van Nvidia komt met prestatie en stroomverbruik.
Dan zal je toch eerst een test moeten hebben waaruit dat blijkt.

Ik hoop het dat het op hetzelfde niveau komt, want dat betekent dat de Nvidia kaarten hopelijk in prijs zakken, dan koop ik mooi een nieuwe Nvidia ;)
Voor de prijs/kwaliteit verhouding is een beetje concurrentie alleen maar goed.

[Reactie gewijzigd door Arjant2 op 18 juni 2015 14:37]

En dat had ik er dus zo snel niet uit gehaald, ik las je reactie en ging er vanuit dat het over het eerste gedeelte van de opmerking van 'Rin' ging. Dan is dat duidelijk :Y.

Prestaties weten we inderdaad niks van. Maar qua stroomverbruik zou je mogen verwachten dat als een fabrikant een claim doet over 275W, dit ook wel grotendeels zal kloppen. (Dan zouden ze ook met een 8-pins en een 6-pins uit kunnen geloof ik, maar zal minder ruimte overlaten voor overklokken).

Concurrentie is sowieso alleen maar goed inderdaad. Stimuleert de verschillende fabrikanten hun best te (blijven) doen en zorgt er voor dat wij als consumenten een wat schappelijker prijs voor de kiezen krijgen! :)
Test resultaten zijn hier te bekijken.http://nl.hardware.info/reviews/6138/25/amd-radeon-r7-370-r9-380-en-r9-390x-review-nieuwe-line-up-met-bestaande-chips-conclusie

Kijk dan ook vooral naar het stroom gebruik gedeelte. Schokkend hoeveel de 390X nodig heeft in combinatie met die lichte overclock.

Deze geld voor de rebrand kaarten. Vandaar mijn opmerking dat dit de enige waardige kaart is in de range. De Fury X schijnt namelijk for sminder stroom nodig te hebben dan de 390X

[Reactie gewijzigd door Sn0wblind op 18 juni 2015 14:20]

Gaat hier toch over de Fury X of niet?
Dus hoe kan je zeggen dat de stroom efficientie in combinatie met de prestaties op het niveau van nvidia is, als er nog geen reviews of testen zijn.

[Reactie gewijzigd door Arjant2 op 18 juni 2015 14:31]

Lees daarom even mijn volledige post en interpreteer het correct. Ik zeg dat uit alle gelanceerde kaarten van AMD vandaag de Fury X de enige waardige kaart en onderbouw waarom dit in mijn ogen het geval is. Dat de Fury X dus de enige minder stroom vretende kaart is die op niveau van Nvidia presteerd.
ik heb je hele post gelezen, maar zonder review van de prestaties kan ik hier nog geen zinnige uitspraak over doen.

Ik ben het wel met je eens dat de rebrands weinig toevoegen.

[Reactie gewijzigd door Arjant2 op 18 juni 2015 14:33]

de 380(x) en lager doet het daar aardig goed wat stroom verbruik betreft. maar de 390x gaat daar wel flink bovenuit idd.

hij is wel een pak sneller geworden als de 290X in metro LL haald de 290x 91 frames waar de 390X er 141 haald (zelfde als de gtx980)

dat is dus zeer zeker niet een simple rebrand.

[Reactie gewijzigd door Countess op 18 juni 2015 15:08]

Leuk dat je volledig voorbij gaat aan het feit dat die testresultaten van de 290X zeer oud zijn en met zeer oude drivers zijn behaald. Terwijl de 390X met de allernieuwste drivers is getest. Een flink gedeelte van het prestatieverschil is dan ook daar aan te wijten.
Hoezo pro nvidia? Het stroom gebruik ligt nou eenmaal fors hoger. Ze hebben het er verder nauwelijsk over op de test na en in de conclusie zetten ze zelfs de 390X als alternatief voor de 980 neer. De R9 Fury is gewoon nog niet beschikbaar bij veel sites voor testen. Voor de prijs hoeft het nu ook niet gedaan te worden omdat de aangekondigde AMD producten toch wel aan de prijs zijn.
Hoe kunnen ze de r9 Fury testen als hij nog niet uit is, en als ze er al 1 hebben dan valt het onder embargo, dus nogal logisch dat hij niet in de testen staat.

Beetje aparte reactie.
Volgens mijn begrijp je niet helemaal wat een NDA inhoud, op 24 juni word deze pas opgeheven en kunnen de diverse sites hun test results pas vrijgeven.
Welke lijken zijn hier gevallen dan?

En leuk allemaal maar bewijs kan niemand leveren. En amd doet het zelf door de r9 290 in een r9 390 te veranderen. Ze hadden ook gewoon de r9 380 kunnen noemen en de fury reeks r9 390(x) kunnen noemen en dat de fury-x met wc gewoon fury-x kunnen noemen.
Leuke kaarten. Nu nog een cpu die 't spul bij kan benen.
Zo te zien is het niet de bedoeling (niet mogelijk?) om de mee geleverde rad/fan los te koppelen en deze in je eigen custom watercooling loop te integreren. Jammer...
Ja dat is wel jammer. Genoeg mensen die dat maar al te graag wilde.
Ook nog interessant om te vermelden: De kaart heeft standaard 275 watt, maar de koeler is berekend op 500 watt. Veel overclock mogelijkheden dus. AMD noemde de kaart tijdens de PC gaming conference op E3 'an overclockers dream' (was een van de aparte interviews, zal de bron toevoegen wanneer ik ze terugvind).
Ziet er wel oke uit, had wat meer verwacht van het design. (spreekt me helaas niet echt aan.) Ben wel zeer benieuwd hoe die uit de benchmarks komt t.o.v. de Titan X en de 980 Ti. Hoop heel erg dat hij beide de grond in stampt, puur omdat Nvidia ook harder aan de gang moet in het hogere segment.
De prijzen zullen iig flink omlaag gaan lijkt me :D
http://nl.hardware.info/n...-van-amd-radeon-r9-fury-x

effe benchmark posten met een gtx 980ti. deze vergelijkingen zijn wel zelf gepost door AMD... objectief? Maar hier zie je dat de fury x een geduchte tegenstander zal worden van de 980ti. Nu had ik graag nog het stroomgebruik geweten van de kaart.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee