Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 91 reacties

Met een foto hint een medewerker van AMD op de komst van een videokaart die gebruikmaakt van twee Fiji-gpu's. Het zou gaan om de opvolger van de R9 295X2, die over twee Hawaii-gpu's beschikt. De nieuwe kaart zal vermoedelijk als Fury X2 door het leven gaan.

Op de foto, die Scott Wasson op Twitter plaatste, zijn twee losse Fiji-gpu's te zien. Verdere informatie ontbreekt, maar het lijkt aannemelijk dat AMD met de foto hint op de komst van een nieuwe dualgpu-videokaart. Wasson was tot voor kort hoofdredacteur van de website Tech Report. Hij speelde een cruciale rol bij het onder de aandacht brengen van issues met frame pacing. Begin dit jaar maakte hij de overstap naar AMD.

Dat er een videokaart komt met twee Fiji-gpu's maakte AMD eerder al bekend bij de presentatie van de chip in juni 2015. Een officiële aankondiging is er echter nog niet en AMD heeft nog geen videokaart uitgebracht met twee gpu's van de nieuwste generatie. De R9 295X2, die is voorzien van twee Hawaii-gpu's, is daarom nog altijd de videokaart met de meeste rekenkracht uit de stal van AMD.

De nieuwe kaart die bekendstaat onder de codenaam 'gemini' gaat mogelijk R9 Fury X2 heten en zal waarschijnlijk over 8GB hbm-geheugen beschikken met 4GB per gpu. Wat prestaties betreft zal de kaart vergelijkbaar presteren als twee R9 Fury X-kaarten in een crossfire-opstelling.

AMD Fury X2

Boven: foto van twee Fiji-gpu's, op Twitter gepubliceerd door Scott Wasson
Onder: close-ups van een enkele AMD Fiji-gpu gemaakt door Tweakers

AMD Fiji-gpuAMD Fiji

Moderatie-faq Wijzig weergave

Reacties (91)

Hmm interessant. Is er dan werkelijk verschil tussen een crossfire opstelling en deze?

Ik bedoel: HBM2 geheugen zit op de 'chip', dus het is niet alsof de 2 chips ook gebruik kunnen maken van elkaars geheugen neem ik aan. Effectief is er dan geen verschil meer tussen crossfire en dit (behalve uiteraard ruimtebesparing)
Er is geen of weinig verschil ten opzichte van een crossfire opstelling. De voor- en nadelen heffen elkaar redelijk. Echter zijn er buiten de gaming wereld ook een aantal redenen waarom men graag voor dual GPU oplossingen kiest.

Zo hebben wij een 3 dual Xeon E5 systemen met in elk systeem momenteel 4 R9 295X2 kaarten (8 GPU's in totaal) en wordt gebruikt door onze Analytics software. Deze stuurt elke GPU afzonderlijk aan en dan ben je dus niet beperkt tot de 4 GPU's in cross fire.

Aangezien de Fury X standaard al komt met een AIO oplossing, hoop ik eigenlijk wel dat men bij de Fury X2 ook met een variant komen waarop alleen een waterblock zit (zonder pomp en rad) zodat wij eenvoudig de kaarten en CPU's kunnen waterkoelen.

Bij de 295X2 kaarten hebben wij zelf de stock cooler vervangen door een EKWB waterblock met backplate. Maar het lijkt mij een beetje redundant om een AIO waterblock te vervangen door een algemeen (los) waterblock.

Dit ook omdat volgens mij was het Asutek volgens mij een claim bij AMD had neergelegd omdat de AIO leverancier van de gebruikte AIO patenten zou schenden. Ik snap dat je bij AIO niet wilt dat de de fittings losgemaakt kunnen worden om te voorkomen dat er lucht in het systeem komt en waardoor de performance (zwaar) ondermaats zou kunnen worden en men zichzelf blootstelt aan claims vanwege oververhitte hardware componenten.

Echter dat zou niet het geval zijn als ze twee versies van de X2 zouden hebben waarbij je kunt kiezen uit een AIO oplossing of een waterblock only oplossing. Prijs mag wat mij betreft gelijk blijven..
Dat geldt in het algemeen voor al dit soort dual GPU kaarten. Vaak is de dual GPU kaart zelfs iets trager dan twee losse kaarten omdat het lastiger is om die twee gpu's op een enkele kaart te koelen.

edit: Oh en nee inderdaad, je hebt gelijk wat betreft het geheugen. Dat is ook standaard bij dit soort kaarten, je kunt wel pronken met 8 GB maar effectief is het gewoon 4 (even afgezien van de hele discussie of je 4 GB HBM2 wel kunt vergelijken met 4 GB 'gewoon' video geheugen).

[Reactie gewijzigd door Finraziel op 12 februari 2016 15:31]

Met DirectX 12 en Vulkan moet dit toch 'los' kunnen worden gebruikt zodat het toch weer neerkomt op 8GB videogeheugen? Dit wel indien de developers hiervoor zullen programmeren, maar dat is nog wachten.
Dat is op zich interessant dan ja... Al moet ik zeggen dat ik zelf niet snel meer naar multi-gpu oplossingen zal grijpen. Alleen als je echt meer performance nodig hebt dan de snelste single gpu kaart je kan leveren zou ik het doen, want je loopt wat mij betreft toch te vaak tegen issues aan (games die het niet ondersteunen of die er slecht op schalen).
Volgens tests van hardware.info zijn crossfire alleen interessant bij 4k resoluties. Dan kunnen ze het aantal fps wel verdubbelen, echter is dit sterk per afhankelijk.
Gebruikte ooit 2x5770 voor gamen op 1440p, maar was gigantisch blij met mn 6970 het jaar daarna. Niet dat het qua pure rekenkracht nou zo veel beter was, maar het is veel makkelijker met drivers en compatibiliteit.

Dat zal nu met 4k en crossfire / SLI denk ik net zo zijn. Ergens is het natuurlijk de schuld van de drivers, maar aangezien dit echt een klein groepje van de gebruikers zal zijn kan ik me voorstellen dat een dev crossfire / SLI support weinig prioriteit geven.
Dat is inderdaad zo gepresenteerd, maar je moet nog maar afwachten hoe dit in de praktijk zal gaan werken. Het geheel staat of valt natuurlijk bij een goede implementatie in de applicatie zelf, dat zie je nu ook bij SLI en Crossfire en dat is niet veranderd. Bij dual GPU oplossingen is ook nog altijd zo dat de zwakste GPU het performance level bepaalt; nu is het straks ook nog zo dat we te maken hebben met mogelijk twee compleet verschillende architecturen. Ik vraag me sterk af hoeveel efficientie er dan nog overblijft en wat het praktisch nut gaat zijn. De praktijk is doorgaans een stuk weerbarstiger dan de powerpoint slides :)

Ik kan me alvast voorstellen dat Nvidia er niet echt happig op is.

[Reactie gewijzigd door Vayra op 12 februari 2016 17:30]

ik meen me te herinneren daqt er vanaf of dx12 / mantle of bepaalde driver van AMD het geheugen niet langer asl 2 x 4GB gezien hoefde te worden, maar echt als 8GB gebruikt kon worden....ik zal even opzoeken.
Eerder als 4+GB per kaart. Met DX12 krijgt afaik de ontwikkelaar controle over wat er per kaart in het VRAM staat, bepaalde dingen waar een GPU niets mee te maken heeft kan je dan weglaten uit het VRAM van die GPU. Maar data die wel nodig is op beide GPU's of waarvan de mogenlijkheid bestaat dat beide GPU's het nodig hebben zal dus vrijwel altijd nog in het VRAM van beide kaarten zitten Als je over en weer continu data via de PCI-E poort moet gaan uitwisselen, dan kan je vrijwel net zo goed gewoon je normale RAM als VRAM inzetten zoals nu ook al gedaan word, dan krijg je alleen wel drops in je framerate wanneer er veel data uitgewisseld moet worden tussen het on-card en off-card geheugen.

Dus ga er niet vanuit dat met DX12 je VRAM in de praktijk gaat verdubbelen.
Je kan er iets efficienter mee om gaan, maar dat is het dan ook wel.
Te zien hoe je dat interpreteert. Je kan met die 2 keer 4 GB ook denken aan 4 GB per half scherm / halve resolutie ( in't geval de 2 kaarten zo aangestuurd worden )

Dan heb je voor je scherm/resolutie toch het dubbele :)
Toch niet echt, want in de meeste gevallen ga je dezelfde textures nodig hebben voor beide helften.
Ze delen het PCIe slot wanneer ze op 1 kaart zitten. Ik weet niet of er dan weer winst wordt gehaald door snellere communicatie tussen de chips ofzo, en in hoeverre die er uberhaupt is. Of in hoeverre dat uberhaupt een bottleneck is tegenwoordig.

De ruimtebesparen zorgt dat er ook minder ruimte is om te koelen. Dus qu overklokken zal het verschil kunnen maken.

In de praktijk zal het meestal wel uitkomen op: het maakt geen drol uit.
In de praktijk zal het meestal wel uitkomen op: het maakt geen drol uit.
Klopt, vroeger hadden ATI/AMD kaarten nog een sideport en/of een crossfire bridge, maar tegenwoordig zitten ze alleen nog verbonden via PCI-e, in dit geval een generieke PCI-e switch van PLX.

Dus het is niet anders dan twee losse kaarten in losse PCI-e sloten.
oderlinge communicatie zal sneller zijn op 1 pcb dan over de pcie lanes die heen en weer naar de cpu lopen ;)
http://www.tomshardware.c...e-performance,3808-4.html

even van een r9 290 uit gaand zal de furyx2 iets sneller zijn ipv van 2x fury x draaien. Maar niet heel veel.
Onder Dx12 is het theoretisch wel mogelijk dat ze gebruik maken van elkaars geheugen. Dit geldt ook voor Crossfire. Of dat in de praktijk ook gaat gebeuren dat is nog af wachten.
De rede is vooral ruimte. En natuurlijk dat AMD ook een GPU wilt hebben die evengoed presteert als een TitanX, vooral voor de mensen die niet weten dat dit een crossfire kaart is.

waarom is dit ge-downvote?

[Reactie gewijzigd door sjettepetJR. op 12 februari 2016 17:53]

Nou dat is wel heel kort door de bocht.

Ik denk dat mensen die zoveel voor een kaart gaan betalen, echt wel weten wat ze kopen hoor...ik zie niet snel gebeuren dat iemand 1000 euro voor een kaart neerlegt alleen maar omdat er staat dat ie de snelste is.
het is niet te geloven, maar dat gebeurt echt wel, mensen zien - dual GPU- al snel als iets beters dan als het er niet bij staat. en dat soort mensen zijn er in alle prijsklasses.
Kan deze kaart zelf ook zelf nogmaals in crossfire plaatsen?

Bijvorbeeld 2x Fury X x2?
Ja je kan er 2 van in crossfire zetten maximaal. je hebt dan een Quadfire met 2 pcb's
Ik heb zelf ooit 2x een HD6990 in crossfire/quadfire gehad! ;)

[Reactie gewijzigd door Stoffie22 op 12 februari 2016 16:09]

Interessant, ik dacht dat ze altijd gelimiteerd waren aan hun eigen PCB.


Zijn er ooit testen gedaan bij z'n opstelling, of is het meer een theoretisch iets(kan me voorstellen dat weinig games er nut bij hebben)
De schaling is inderdaad waardeloos doordat CPU's dan een bottleneck worden (en veel games het niet goed ondersteunen)!

Zal is ff terug zoeken naar oude benchmarks, heb een HD6990 naast 2 HD6970's gehad (voor bitcoinmining), paste net aan op een 1 kilowatt-voeding :Y)

edit:
Hmm vind niks van de HD6990 terug, maar nog wel een andere vergelijking met single naar dual naar triple CF met 7950's:
https://docs.google.com/s...W1YkkpJg/edit?usp=sharing

3DMark Vantage met OC op de GPU en i5 3570k
1 GPU 28018
2 GPU 35309
3 GPU 38137

3DMark Vantage met OC op de GPU en i5 3570k@4,5Ghz
1 GPU 29415
2 GPU 37753
3 GPU 42389

In de sheet kan je de prestatiewinst terug zien per GPU met/zonder overclock, dan kan je goed zien dat de CPU de boel loopt tegen te houden!

PS ik had toen geen vriendin en blijkbaar veel geld over :D

[Reactie gewijzigd door watercoolertje op 12 februari 2016 16:29]

Maar... voor compute toepassingen zal het zeker zin hebben! Bijvoorbeeld oclHashCat.
Klopt zie ook mijn bitcoin hashes/seconde, die gaan er per kaart gewoon het volle pond op vooruit!
Thanks had zelf nog een 'slechte' review gevonden van de Fury X

http://www.legitreviews.c...-setup-benchmarked_167338

Alleen weet ik niet welk scaling model je moet aanhouden(verschillende manieren van berekenen in comments).

Minimaal 30% bij een vierde kaart, alhoewel volgens een andere berekening het 99% is :P

Geen idee wat je normaal aanhoudt?


edit
nog een link

http://www.techpowerup.co...x-vs-quad-titan-x.214231/

[Reactie gewijzigd door Bjorn89 op 12 februari 2016 16:28]

Ja schaling met Quadfire heeft maar bij een zeer beperkt aantal games/toepassingen nut.

Zie art. met 2x een R9 295X2:
http://www.hardocp.com/ar..._card_review#.Vr32S-kUXDA

[Reactie gewijzigd door Stoffie22 op 12 februari 2016 16:13]

Je kan er toch zoveel inzetten als je zelf wilt?? Buitenom het feit dat het volkomen nutteloos is voor de meeste toepassingen, of zie ik iets over het hoofd?
Nee je kan er maximaal 2 met dubeleGPU inzetten OF 4x een enkele GPU.
(geld voor zowel AMD als Nvidia)
En waardoor ben je dan gelimiteerd??
Je kan er altijd nog een extra cpu instoppen en de resources verdelen lijkt me.
In een render-farm of supercomputer zou je er meer kwijt kunnen ja, maar niet in een "normale" Single CPU Gaming computer, er kunnen er nl niet meer dan 4 geadresseerd worden.
Zelf heb ik 4x R9 280X kaarten en een GTX 970 als primary game kaart. Windows kan 6 gpu's addresseren, linux kan er nog een aantal meer! :)

Voor SLI / CF geldt inderdaad 2 dual / 4 single (Quad-SLI / CrossfireX) dat staat er los van.
Nvm, beter leren lezen:)

[Reactie gewijzigd door batjes op 12 februari 2016 17:50]

Hoezo beter lezen :P Je pretendeert dat er niet meer als 4 GPU's geadresseert kunnen worden. Sterker nog, anders was het voor mij ook onmogelijk geweest een 5e GPU erbij te steken wat prima kan :)
Nee ik moest beter lezen voordat ik reageerde :) Want inderdaad 4 kunnen er maximaal cross/sli. Windows/Linux kunnen rustig tientallen GPU's ondersteunen. Dus was het ook verder met je eens :P

[Reactie gewijzigd door batjes op 13 februari 2016 11:49]

Een dual CPU moederbord biedt helemaal geen ondersteuning voor de huis-tuin-keuken-gaming toepassingen van een consumenten range setup. Totaal andere tak van sport. Het is nogal wat om de werklast over twee CPU's te gaan verdelen, daar is bijvoorbeeld Windows al niet op berekend, en games hebben al moeite met 4 cores, laat staan X aantal cores verdeeld over 2 CPU's met hun eigen cache, RAM etcetera.

Bij 4 GPU's moet je ook al een flink moederbord hebben met niet zelden een PLX chip als het om high end GPU gaat, omdat je anders PCI bandbreedte bottlenecks krijgt (op een reguliere chipset zitten niet genoeg PCIE lanes voor 4 GPU's, je krijgt al x8x8x4 bij 3 GPU's). Dus je bent hiervoor sowieso al aangewezen op een E-/workstation achtige oplossing met een CPU die 24/40 lanes biedt. Voor gaming zit daar dan ook het meest extreme wat je kunt krijgen, maar mét het nadeel dat 2011 socket CPU's bijvoorbeeld al een stukje minder goed overklokken en lagere clocks hebben out of the box (omdat er meer cores zijn, zijn de clocks lager, gezien het totale TDP budget) en games willen nou juist lekker veel Ghz.

[Reactie gewijzigd door Vayra op 12 februari 2016 17:52]

Windows heeft absoluut geen moeite met meerdere CPU's. Als er een OS/Kernel is wat veel overhead heeft als je daar vele tientallen/honderden CPU's in stopt, is dat Linux. (Deze info van mij is ondertussen al wat jaartjes oud, misschien dat die overhead minder/weg is in Linux). Maar Windows schaalt zonder problemen naar honderden CPU's, 1 van de grootste "Supercomputers" is Azure, wat op NT draait.
Ik heb 4 x HD6990 gehad,en nu 4 x GTX 980i :P
Dat kan je naar smaak zelf bepalen;) maar ik zou het bij 1tje houden.
Jup, de chips onderling zijn alleen verbonden met PCI-e, door een bridge chip van PLX.
Dus je PC ziet elke chip gewoon als een losse kaart, quad crossfire met twee kaarten is dus prima mogelijk.
meestal is dat wel het geval ja .
Ik snap eigenlijk niet waarom ze nu nog willen uitkomen met deze kaart. Zijn ze niet van plan om ergens in Q2 of Q3 met hun nieuwe kaarten op de proppen te komen?
Omdat deze kaart hun nieuwere kaarten alsnog van de tafel gaat vegen ;)

Elke generatie is er 10 tot 20% (performance) winst op de snelste kaart vergeleken met de vorige generatie, dat is praktisch niks als je er dus ook een GPU bij kan plakken die (mits games het goed ondersteunen) tot 100% extra (performance) winst kan geven!

Het verbruik en instructiesets even daar gelaten (DX11/12) ;)

[Reactie gewijzigd door watercoolertje op 12 februari 2016 15:35]

Dan zou ik toch nog maar eens wat benchmarks erbij pakken.. Aan de Nvidia kant is een 980Ti ruim 40% sneller dan een 780Ti.. En ga je een 980 vergelijken met een 780 dan zit je ook al boven de 30% verschil.. Dat is toch iets anders dan de 10-20% die jij claimt..

En 100% extra performance met SLI, Crossfire of dit soort dual-GPU's kan je ook echt vergeten..
Je hebt wel 100% performance extra, echter is dit niet efficiënt te gebruiken voor loads zoals een game. Voor parallelle berekeningen schaalt het wel degelijk tot N.
Dan zou ik toch nog maar eens wat benchmarks erbij pakken.. Aan de Nvidia kant is een 980Ti ruim 40% sneller dan een 780Ti.. En ga je een 980 vergelijken met een 780 dan zit je ook al boven de 30% verschil.. Dat is toch iets anders dan de 10-20% die jij claimt..
Je begrijpt mijn punt niet, je hoeft de 780 niet perse met de 980 te vergelijken, maar het beste wat uit de Kepler is voortgekomen met de eerste high end kaarten van Maxwell...

Dan kom je op een 780TI tegen een 980 uit in dit specifieke geval (los van de titan kaarten anders is het zelfs een achteruitgang in performance) :)
En 100% extra performance met SLI, Crossfire of dit soort dual-GPU's kan je ook echt vergeten..
Zou ik er daarom heel bewust een disclaimer bij hebben gezet? Theoretisch heb je nou eenmaal een verdubbeling van de power, kan er weinig aan doen.
Ja, als je zo gaat vergelijken wel ja, maar dat is natuurlijk geen eerlijke vergelijking.. Als ze straks met een mid-range kaart als 1e komen zal die vast ook amper tot niet sneller zijn dan de top highend van de huidige generatie.. En ja theoretisch 2x de power hebben we natuurlijk ook niks aan, het enige waar we wat aan hebben zijn praktijkresultaten..

Ik zou zo'n dual-GPU kaart nooit kopen tenzij het echt niet anders kan vanwege ruimtegebrek en ik perse meer GPU-power nodig heb dan 1 highend kaart kan leveren.. Dual-GPU support in games is ook nog steeds te matig om de extra investering te rechtvaardigen vind ik.. En ik vrees ook dat dat niet echt veel beter zal worden omdat de markt voor multi-GPU's gewoon te beperkt is voor de industrie om echt veel aandacht aan te besteden bij de ontwikkeling van games.. Ik wacht daarom rustig op de volgende generatie top highend enkele GPU kaart om mijn huidige 980Ti te vervangen..
Ja, als je zo gaat vergelijken wel ja, maar dat is natuurlijk geen eerlijke vergelijking.
Maar dat hoeft dan ook helemaal niet, ik maakte die vergelijking, als jij het op een andere manier wilt vergelijken is dat prima maar waarom moet ik er dan ook op die manier naar kijken?

Ik probeer alleen maar uit te leggen wat IK zei dat DAT klopt, en dat is gewoon zo, of je het eerlijk vind of niet is eigenlijk helemaal niet relevant.
Omdat je daarmee de indruk wekt dat elke generatie videokaarten maar 10-20% sneller is als de vorige.. Wat dus gewoon onjuist is..

Voor veel mensen (ook op Tweakers) is het al ingewikkeld genoeg om al die PC hardware en specs te begrijpen, we hebben er dan niks aan als je met kromme vergelijkingen komt om nog meer verwarring te scheppen..Hou het gewoon duidelijk en ga geen appels met peren vergelijken..
Elke generatie is er 10 tot 20% (performance) winst op de snelste kaart vergeleken met de vorige generatie
zelfs als ze op de zelfde node blijven zitten dan word er meestal wel meer als 20% gehaald hoor. en bij een wisseling van de node gaat het vaak veel harder.

Nu gaan we zelfs 2 nodes vooruit.

dit gaat alles behalve een doorsnee generatie wissel zijn.
Omdat deze kaart hun nieuwere kaarten alsnog van de tafel gaat vegen ;)
Dat zal wel meevallen. Een dual GPU die in totaal maar 4GB kan gebruiken is al snel uitgezongen op hoge resoluties.
Ja, en dat betekent niet dat ze dan direct een enkele kaart hebben die beter presteert dan de vorige generatie met twee gpus op één pcb.
normaal niet idd... maar deze generatie wissel is nogal bijzonder en dan zou het toch nog best wel eens kunnen geheugen.

van 28 naar 16/14nm en de daarmee gepaard gaande verdubbeling van het aantal transistors en het praktische opheffen van de geheugen bottleneck door HBM2 zou het me zeer verbazen als de high end single GPU niet vergelijkbare prestaties gaat neer zetten als een fury X2, zelfs in games met goede crossfire/sli ondersteuning.
De nieuwe Q2/Q3 kaarten zijn waarschijnlijk meer budget/midrange, dit is top end.
Dat zou de grootste fout van AMD zijn, kunnen ze gelijk hun graf graven en een kist bestellen. Nvidia is er namelijk nog he en die releasen hun semi high end kaart eerst (non Ti versie) ala 780/980 en een midrange (770/970) en komen later met de budget/low midrange (950/960) aan proppen. Trend van AMD was om hun gehele serie achter elkaar te releasen. Zou raar zijn als dat nu anders zou verlopen, helemaal met VR aan de horizon.

Dit is dan ook gewoon mosterd na de maaltijd, die dual GPU had al vorig jaar december uit moeten komen om de troon van de 980ti en titanX weg te kapen (al was het alleen maar voor de prestige). Nu komen ze misschien 'binnenkort' met de dual kaart, maar bijna iedereen zal gewoon die paar maandjes wachten nu en kijken waar Nvidia mee zou komen of de volgende gen van AMD. Ik hoop op een release in maart/april, maar het lijkt te stil te zijn daarvoor. Zal wel rond zomer komen dan (zowel AMD als Nvidi. ).

p.s. over de 10%, dit klopt in CPU land misschien wel (kuch, Intel sneaky marketing truukjes) maar GPU land niet altijd. Vergelijk maar de 7970 met de 290x, toch zo een 30+% verschil en dat komt uit een benchmark waar de drivers van de 290x nog in kinderschoenen staan (AMD kaarten worden verloop van de tijd altijd sneller).
bron: http://www.ocaholic.ch/modules/smartsection/item.php?itemid=1255&page=16
Waneer de VR hype op gang komt willen ze er graag een graantje van mee pikken.
Als hun nieuwe generatie begint met mid-range kaarten, dan zijn ze daar misschien te laat voor.
Het enige voordeel wat ik zie is ruimte besparing en misschien iets minder stroomverbruik.

Ben benieuwd naar wat meer informatie.
Het enige voordeel wat ik zie is ruimte besparing en misschien iets minder stroomverbruik.
Met als nadeel dat ze vaak iets lager geklokt worden en duurder zijn dan 2 losse kaarten (ps dit zijn resultaten uit het verleden, geen garantie dat dat nu ook zo is)!
Tenzij je een waterkoeler bent (pun intended), dan bespaar je weer ~¤100 a ¤150 op een waterblock.
Wie zegt dat ik compatible ben met al die nieuwe sockets :+
Weet niet of het kan, misschien heeft AMD een manier gevonden dat beide gpu's de volledige 8GB hbm-geheugen kunnen aanspreken?
Helaas 4GB is het limiet per GPU, pas bij HBM2 gaat dat limiet omhoog, anders was de single GPU kaart van zichzelf ook wel voorzien van 16GB gok ik ;)
Ja daar je gelijk in. ;)
De R9 295X2 was volgens mij de eerste kaart van AMD zelf waar het niet meer ging om twee teruggeklokte GPU's, maar vergelijkbaar presteerde met CF. Of dat nu ook zo zal zijn weet ik niet.
Die chips zijn echt gigantisch groot als je het vergelijkt met zijn handen. Wordt nu wel echt tijd voor een nieuw fabricatie procede. Ik zou zelf niet meer in deze oude generatie investeren. BInnenkort komen al de echt nieuwe chips die verwacht stukken sneller zullen zijn.
Valt inderdaad op,
maar in ga er van uit dat ze deels zo groot zijn ivm hitte-dispensatie. Als het op een te klein oppervlak zit krijg je problemen, al gebruik je waterkoeling.
Ik las dit artikel en dacht precies hetzelfde. Ik zit echt te wachten op de Polaris erg benieuwd naar wat de nieuwe generatie kaarten in de praktijk zal brengen. Overigens denk ik dat het geluid wel mee zal vallen heb een R9 390
En die hoor je echt niet!
(las daar iets over tussen de berichten namelijk)

[Reactie gewijzigd door enrg1982 op 13 februari 2016 01:08]

De nieuwe kaart die bekendstaat onder de codenaam 'gemini'..
Tweelingen (Gemini, afkorting Gem)
https://nl.wikipedia.org/wiki/Tweelingen_(sterrenbeeld)

:)
En daar is AMD weer met een klein beetje informatie over een nieuw product. Nu maar weer wachten tot het eindelijk officieel uit is en er een fatsoenlijk review mogelijk is. En dan nog weer op totdat de kaart ook eindelijk echt leverbaar is (en blijft)
AMD Boodschap? Investeerders u kunt gerust gaan slapen... We draaien wel flink verlies, maar ooit komt het goed!
Zucht.
Dit zijn natuurlijk twee Fury Nano's, dus dat komt dan uit op 350watt, voor de prijs die ze hier voor gaan vragen zal er vast een prima koeler opzitten.
Wat prestaties betreft zal de kaart vergelijkbaar presteren als twee R9 Fury X-kaarten in een crossfire-opstelling.
Dus dat lijkt me niet.
Het zou mij niet verbazen als AMD een 350/450/550 watt schakelaar/optie toevoegd.

Dus dat maakt het moeilijk om de uiteindelijke prestaties in te schatten.
De Fury had waterkoeling, dus de X2 zal dat ook wel krijgen. Bovendien bespaart HBM-geheugen energie.
De gewone Fury heeft ook waterkoeler dus deze is dan ook watergekoeld, ze kunnen niet anders
Volgens je eigen opmerking moet het niet uit maken hoeveel lawaai de nieuwe kaart maakt gezien je doof bent geworden door je vorige kaart :)

Anyway we zijn dat veel lawaai tijdperk al even voorbij, de Fury/Fury X maakt al een stuk minder lawaai dan de R9 290(X) :)
reviews: AMD Radeon R9 Fury X: nieuwe topkaart voor hoge resoluties
reviews: AMD Radeon R9 Fury: meer bang-for-buck dan zijn grote broer

[Reactie gewijzigd door watercoolertje op 12 februari 2016 15:39]

Ik zou eens gaan meten met een degelijke decibel meter. Bij 180db zou het meer geluid produceren dan een straaljager en zou je nu hartstikke doof moeten zijn ;)

[Reactie gewijzigd door Caayn op 12 februari 2016 15:33]

ik heb geen decibelmeter.. mijn hele reactie was niet heel serieus :) ik snap namelijk ook dat geluidsdruk niet gemeten wordt in kiloton..
de 290 maakte het vrij bond.

daarna zijn AMD's kaarten beduidend stiller geworden. zelfs zonder waterkoeling.

maar een kaart met reference koeler koop je eigenlijk alleen om hem er gelijk af te slopen en waterkoeling op te zetten. doe je dat niet dan moet er een kopen met een after market koeler (geld voor beide fabrikanten). dat kost meestal nagenoeg niks meer
Ik moet eerlijk zeggen dat ik de reference koeler van de laatste Nvidia top of the line kaarten wel erg mooi vind, en ze zijn een stuk minder luid dan de AMD reference kaarten.
zo groot is het verschil niet met bijvoorbeeld een fury en 980

[Reactie gewijzigd door Countess op 13 februari 2016 01:08]

Inderdaad heb net nog even de reference kaarten van de nieuwe orde opgezocht en deze zijn inderdaad zeer stil.
Maar toch zou ik niet altijd de reference koeler eraf halen. Ik begrijp je punt wel, maar de reference koelers hebben toch altijd iets speciaals naar mijn mening.
Kleine aanpassing
"R9 295X" hoort "R9 295X2" te zijn.
daar dient het knopje "feedback" voor bovenaan artikel ;)
Excuses, ik zit al vrij lang op tweakers en zie nog steeds mensen dit doen via de reacties.

Ik zal er op letten :P
Desondanks letten we ook op de comments. Het is aangepast en bedankt!
Je kan wel dingen blijven proberen maar als het niet werkt dan kan je beter iets anders verzinnen.
Zie geen markt voor de kaart.

Geheugen is te weinig
Crossfire geeft te veel problemen en slecht support op driver niveau.
Watercooling is geen plus meer zoals met de 295 over de 290 aangezien fury's al water gekoeld zijn.

De prijs is waarschijnlijk ook enorm hoog.

Dacht dat de kaart na zijn aankondiging met de fury's vorig jaar al was afgeschreven. Echter blijkt het toch echt uit te komen. Beetje jammer.

[Reactie gewijzigd door Gatygun op 14 februari 2016 15:48]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Microsoft Xbox One S FIFA 17 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True