Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties

AMD is niet van plan een dual-gpu-versie van de AMD Radeon HD 4890 uit te brengen, zoals het bedrijf wel met de HD 3870 en de HD 4870 deed. De reden zou zijn dat het verbruik van de kaart buitenproportioneel hoog zou uitvallen.

De Radeon HD 4890 is in feite een licht aangepaste HD 4870, met hogere kloksnelheden. Het uitbrengen van een HD 4890 X2 zou dan ook niet vreemd zijn: de strategie van het bedrijf was immers om een dual-gpu-versie als snelste kaart voor de high-end-markt uit te brengen. Nu is dat nog de Radeon HD 4870 X2.

De tdp van de Radeon HD 4890 zou volgens Fudzilla echter op 190W uitkomen, hetgeen betekent dat het verbruik van een HD 4890 X2 in het ergste geval 380W kan bedragen. Dit zou volgens AMD teveel zijn voor een enkele kaart. Ter vergelijking: de HD 4870 X2 heeft een tdp van 286W en de GeForce GTX295 van Nvidia heeft een tdp van 289W met zijn twee op 55nm gebakken GT200-gpu's.

Toch is het niet helemaal uitgesloten dat er een Radeon HD 4890 X2 verschijnt. Mogelijk besluit een van de partners van AMD met een dergelijk model op de proppen te komen.

Moderatie-faq Wijzig weergave

Reacties (50)

380W voor een paar pixels op een schern is echt heel veel te veel AMD heeft helemaal gelijk dat gaat gewoon te ver. Dat je snele graphics wilt kan ik helemaal begrijpen maar 380W is toch wel een beetje overkill. Ik denk dat er maar weinig mensen zijn die zo veel uit willen geven aan hun stroom rekening alleen om een paa frames extra uit een systeem te kunnen persen.
Natuurlijk overklokkers gebruiken al jaren extra vermogen om een PC net even iets harder te laten lopen in plaats van het geld dat ze nu kwijt zijn aan hun enrgie rekening te besparen en eerder een nieuwe snelere PC te kopen maar ik denk dat er maar weinig overklokkers zijn die een PC zo ver duwen dat ze 380W verbruiken voor alleen de GPU.

Ik denk dat AMD eerder met een nieuwe GPU komt dan met een X2 versie van de 4890 maar goed wie weet wat Nvidia doet en hoe AMD daar dan weer op zal reageeren...
Ter vergelijking: de HD 4870 X2 heeft een tdp van 286W en de GeForce GTX295 van Nvidia heeft een tdp van 289W met zijn twee op 55nm gebakken GT200-gpu's
Hier blijkt maar weer TDP's zeggen niets, dat geld niet alleen voor CPU's maar ook voor GPU's. De GTX295 wat namelijk doorgaans als zuiniger getest dan de HD4870 X2.

(+/- 215W vs 265W)

Met een TDP van 190W wordt de HD4890 wel een serieus hete jongen. Ik vraag me af of de prestaties af kunnen wegen tegen dit absurde verbruik. Om bijvoorbeeld in vergelijking met de GTX285 of GTX295 goed te scoren wat betrefd fps/W zal hij wel een flinke prestatieverbetering moeten bieden ten opzichte van de HD4870, die dezelfde architectuur heeft...
Klopt helemaal. TDP's kan je nooit bij elkaar optellen. Al helemaal niet bij bij SLI / Tri/Quad-SLI.
Voorbeeld van de GTX295 welke uit 2x een GTX260 bestaat (met 240 shaders per core). Een enkele GTX260 55nm heeft een TDP van 171watt (bron), als je dan heel simpel zou rekenen zou de GTX295 een TDP moeten hebben van 2*171= 342watt. Dit is dus niet het geval (289watt) en in de praktijk valt het verbruik nog lager uit!

Ook het verhaal hierboven met die 3x GTX280. Hierbij kan je ook niet simpel 3x 236watt rekenen. Zo werkt de praktijk niet helemaal... Dan zou je alleen aan grafische kaart vermogen op 708watt uitkomen. Zie deze test: http://www.anandtech.com/video/showdoc.aspx?i=3520&p=11 Hier komt 3xGTX280 op load bij Vantage (total system power) op 673.8watt

Hetzeflde zal het geval zijn bij de 4890 welke een TDP heeft van 190watt. Theoretisch zou je dan op 380watt uit komen, maar dit zal ook hier dus niet het geval zijn. Denk eerder dat dit uitkomt op +/- 320watt. Dit is natuurlijk nog zeer veel, maar het is niet opeens belachelijk veel vergeleken met de 4870X2...
Maargoed, ATI zal wel gegronde redenen hebben om ervan af te zien.
Nu hoor je mensen die wel zo'n kaartje willen, maar als ATI dan over een paar maanden de HD5XXX series introduceerd zouden zij de eerste zijn met zeuren dat ze net een nieuwe kaart hebben gekocht en dat ze gelijk met een nieuwe komen.

Nee, schiet maar op met die HD5xxx, ATI! Dit keer Nvidia helemaal wegblazen =) Dan upgrade ik mijn HD3870 misschien ook wel.
inderdaad ik denk niet dat er veel partners zullen zijn die een 4890x2 op de markt gaan zetten voor een life cycle van misschien een maand of 4. Maar er is wel wat hoop hoor dat er als nog een 4890x2 komt. Sapphire is de ATI only leverancier en had immers ook de 4850x2 geintroduceerd zij zullen marketing technisch wel baat hebben bij een sneller top model. Ik denk niet dat het energie verbruik trouwens zo veel hoger is als dat van de 4870. volgens eerdere berichten was het maar 10watt meer dan deze verbruikt. bovendien vindt ik het vreemd dat fuad van fudzilla hier al wel over kan berichten maar nog steeds geen duidelijkheid heeft over de hoeveelheid shaders
lijkt me toch dat als je die kaart hebt je toch even gaat kijken naar hoeveel shader eenheden er in de core config zitten. dan weten we teminste of daar iets aan verbeterd is :)
Groot gelijk ! Ik weet zelfs zeker dat Nvidia de HD5K serie van AMD nu al onderschat, altijd oudere modellen hernoemen terwijl AMD duidelijk nieuwe technologie invoerd etc.

Eerlijk gezegd : Ik ben extreem benieuwd hoe de prijs/prestatie zal zijn, die van de 4870 was zeker goed, dat wordt dus ook verwacht van de HD5K serie
Het moet ook wel een beetje binnen de perken blijven.. 380 wat is ook wel erg veel.. maargoed aan de andere kant SLI en CF gebruiken ook veel.. (niet dat ik hier een voorstander van ben.. maar er is blijkbaar wel een markt voor)

En ik ben wel zeer benieuwd naar hoe 1 van AMD haar partners dat dan zou willen uitvoeren..

[Reactie gewijzigd door Cidious op 30 maart 2009 15:08]

Het maken van 1 pcb met 2 gpu's zit er hoogstwaarschijnlijk niet in als het niet door ati zelf gedaan wordt. Een third party kan prima het geheugen vervangen voor meer capaciteit maar een heel pcb bouwen om een x2 te maken lijkt mij te veel werk voor zo'n bedrijf, vooral omdat de winst daarvan zo laag zou zijn of non existent dat het niet eens uit kan.
De kans dat hij sneller is dan de gtx295 is ook vrijwel nihil als de 285 en ook de 275 al sneller zijn. 380 watt is veel te veel om voor zo'n prestatie te verbruiken.
Het is alleen maar een snellere versie van de 4870 dus veel beter dan de huidige x2 zal het ook niet echt worden.
Geld kan beter in de hd5xxx serie gestoken worden vind ik.
misschien letterlijk 2 tegen elkaar plakken met een sli bridge, zo was het toch ook gedaan bij een kaart van nvidia dacht ik ( stond hier toch ergens overlaatst?).
aan de andere kant SLI en CF gebruiken ook veel
En wat zou er dan gebeuren als je twee (of meer...) van die monsters ook nog eens in crossfire draait? 8)
Eindelijk een goede reden om een 1200 W voeding in je kast te zetten!

[Reactie gewijzigd door robvanwijk op 30 maart 2009 18:10]

* opsomming van vermogen weg ge-edit ivm onjuiste gegevens. *
@ Marce: thanks voor de correctie. ;)

--

Als ik verder die TDP zo bekijk (wat niet echt een uitzondering meer is tegenwoordig) vraag ik me wel af hoe warm de HD4890 wel niet gaat lopen tov zijn voorganger.
Mijn HD4870 heeft al een aantal VRM's die loeiheet worden als de kaart stressed is.
(lees: je verbrand je vingers eraan).
Dit doet mij dus weer een beetje denken aan het HD2900XT tijdperk.
Hopelijk gaan ze niet geteisterd worden door hoge uitval.

Daarnaast begin ik nu des te meer te twijfelen om mijn geld nog even in mijn zakken te houden tot de HD5xxx serie verschijnt rond Augustus. :Y)

[Reactie gewijzigd door Da_maniaC op 30 maart 2009 15:25]

Het is 236, niet 263 per kaart.

Wat ik me nou afvraag is waarom hij hier nou om naar beneden ge-mod word, zeg hem dan gewoon dat hij verkeert rekent, en ga niet gelijk down-modden.
Eerst eens wachten op volledige benchmarks van de gewone 4890 en misschien gewoon hopen dat de 4870 nog zakt in prijs dan is zo een CF misschien geen slechte keuze.
Persoonlijk zie ik ook het nut niet echt in van een 4890x2.

Zeker niet met de aankondiging dat ze binnekort aan de 5000 serie gaan beginnen.

Daarnaast kunnen er altijd nog 2 kaarten in CFX gedraait worden.
Als je twee van deze kaarten in Crossfire zou willen gebruiken kom je dus uit op een whopping 760W aan vermogen enkel en alleen voor je videokaarten, denk dat dat een goede reden is om de kaart niet uit te brengen.
jij hebt het al over quad CFX dan? De 380W genoemd is voor de X2 namelijk.
dat is dan gewoon crossfire aangezien de X2 op de kaart zelf is.
380W, daar zou ik het niet voor doen denk ik. Als je er dan een platte koeling op zet kun je wellicht een eitje bakken :P
Ik zie geen problemen als ze het als een luxe product (met een wat beperkte oplage dus) neerzetten die wel wat mag kosten.
Je zou er dan een extra groot koelblok bij krijgen en het verbruik moet duidelijk op de verpakking worden gemeld zodat mensen weten wat voor voeding ze nodig hebben.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True