Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties

Er komt waarschijnlijk toch een HD 4890 X2 op de markt, ondanks berichten dat AMD aanvankelijk weinig heil in een dergelijke kaart zag. De chipgigant zou bezig zijn met de selectie van partnerbedrijven die HD 4890 X2-kaarten mogen maken.

Volgens Tom's Hardware heeft AMD laten weten dat er een HD 4890 X2 op de markt gezet wordt. De chipgigant zou bezig zijn om een aantal partners uit te zoeken. Volgens geruchten zal de kaart  twee RV790-gpu's op 1000MHz en 2GB of 4GB gddr5-geheugen bevatten. Het is niet duidelijk of AMD met een eigen ontwerp komt, of dat het bedrijf zijn partners zelf een HD 4890 X2 laat ontwerpen, zoals Sapphire dat deed met de HD 4850 X2.

AMD had lange tijd de snelste videokaart in handen met de HD 4870 X2, maar in januari veroverde Nvidia de koppositie met de release van de GTX295. Twee Radeon HD 4890-kaarten in Crossfire zijn echter sneller dan een GTX295, zo bevestigen tests van Tweakers.net, wat betekent dat AMD met een HD 4890 X2 weer een serieuze aanval op zijn aartsrivaal zou kunnen doen. Eerder werd echter gewaarschuwd dat een HD 4890 X2 in theorie een tdp van rond de 380W zou kunnen hebben. AMD zou daarom van een dergelijke kaart hebben afgezien, maar daar lijkt het bedrijf nu op te zijn teruggekomen.

HD4890's in CrossFire-opstelling

Moderatie-faq Wijzig weergave

Reacties (69)

Het TDP van 380 Watt is voor mij een reden (en de prijs ;)) om deze kaart links te laten liggen. Zonder third party koeling is het bijna onmogelijk om zo'n hoeveelheid warmte met niet al teveel geluid af te voeren.

Het had mij overigens wel verbaasd als er hier geen X2 versie van uit was gekomen. Voor AMD is dit een "eenvoudige" manier om voorlopig de prestatiekroon weer in handen te hebben, in ieder geval tot de nieuwe generatie kaarten arriveert.

De prijs zal wel ongeveer op 400 euro komen aangezien een enkele HD4890 200 euro kost. Modellen met 4GB en/of overgeklokt zullen dan wel naar de 500 euro neigen.

@TheMask: Die 380 Watt is dan ook echt de maximum, maar dat is wel waar je rekening mee moet houden in verband met je voeding. Mocht je gaan overklokken (Wat ik persoonlijk ALTIJD doe), dan gaat het verbruik daar nog weer overheen. Dit staat nog los van de bijkomende warmte die ook nog afgevoerd moet worden.

Volgens http://www.xbitlabs.com/i...d4870-x2/4870x2_power.gif is het verbruik van een HD4870 X2 ongeveer 265 Watt, dus ik geef toe dat een HD4890 inderdaad niet op stock snelheid boven de 300Watt uit zal komen. Maar met overklokken geheid wel!

[Reactie gewijzigd door pizzaislekker op 14 april 2009 16:58]

Een single HD 4890 neemt maar 120 Watt zie: http://www.xbitlabs.com/i...deon-hd4890/4890power.png
Dus een HD4890X2 gaat echt niet 380 Watt verbruiken eerder 240 Watt en als die echt op 1GHz GPU snelheid gaat lopen misschien max zo'n 280 Watt.
TDP is sowieso nooit verbruik. ;)
TDP is sowieso nooit verbruik.

klopt, max verbruik is hoger dan TDP
Toch ook 240 of 280W is niet een klein beetje... en dat om een tiental extra frames per seconde op een scherm te toveren. Ik weet dat er altijd mensen zijn die snelelr dan snel willen maar op een bepaald moment maakt het zo weinig verschil dat je net zo goed met twee iets mindere kaarten voor de helft van de prijs kunt werken in plaats van zo veel uit te geven aan net die 10% meer performance. Met schermen die een verversings frequentie hebben van maximaal 120Hz is het de moete niet om 180 frames per seconde op je scherm te toveren, je ziet er toch niet meer dan 120 per second. 90% van alle schermen hebben een verversings frequentie van 60Hz en dus is ook een frequentie van 80 frames per seconde al een flinke overkill.

Dus tenzij je scherm een verversings frequentie van 120Hz heeft en je standaard op 1900x1200 speelt hoef je voor lopig niet naar deze kaart over te stappen. Als je op een lagere resolutie speelt hoef je al helemaal niet aan deze kaart te denken.

Natuurlijk is het leuk als je nog geen auto mag rijden wel te veel geld hebt en ook graag een beetje compenseert maar er zijn maar weinig mensen die echt onder de indruk zijn van een fps boven de 180.
dergelijke kaarten, net als SLI, Crossfire, triple SLI zijn voor "gewone" mensen overbodig, maar er blijkt een markt voor te zijn
als bedrijven er winst uit denken te halen, zal het gemaakt worden
aangezien de 4870 en de 4890 niet zo veel verschillen qua pcb veronderstel ik dat een X2 versie van de 4890 niet zo duur is om te ontwikkelen, dus waarom niet...
Ik trok 500W ingame met twee HD4890's op 925/1100MHz. Idle was denk ik rond de 240W, moet ik opzoeken. Daar zit het verbruik van de cpu natuurlijk ook bij. Dus 240-260W zou geen slechte gok zijn. En een 8pin +6pin + het pci-e slot leveren totaal 300W, dus er zou speelruimte genoeg moeten zijn.
die 3rd-party koeling komt er toch wel
en voor dit soort extremen is altijd nog een die-hard groep die ze toch wel kopen
als is het alleen maar om mee te patsen
Er komt zoieso een 3rd-party koeler omdat AMD zich niet zal bezighouden met het ontwerp, dus zullen de kaartenbouwers vrij spel hebben om de koeler van hun keuze op hun ontwerp te plakken.
Het TDP van 380 Watt
Uche... *stik, rochel*.... Voor n kaart? (Zo te zien heb ik hier even overheen gelezen in het artikel...) Sorry, maar dat is in mijn ogen een beetje absurd, om een spelletje te spelen. Mijn hele bak, met een C2D E8500, 9600GT, en wat HDD's en 2 branders draait in totaal op vol vermogen tijdens een spel met minder wattage dan dat.

Maar ja, ik vereis dan ook niet dat Crysis op 1920x1080 met 20xAA en 40xAF op Extra High moet kunnen draaien, dat is dan ook weer waar....
ik hoop dat de huidige 4870x2 hier wel flink door zal gaan dalen. 250-300 lijkt me een redelijk rel vooruitzicht denk ik als de 4890x2 de plaats van de 4870x2 definitief in zou nemen. maar die 4890x2 4gb modellen met 1ghz dual gpu waar over gepraat wordt. dat is dan toch echt de max denk ik de rv790 chip zal het niet? De preformance kroon winnen dat zal zo'n monster zeker even als de mensen met genoeg geld die zo'n kaart kopen denk ik. alleen al die 4GB die en 1ghz gpu die het hem er in zo'n sigment om doen naast een verpletterende preformance.
Maar denk je eens in wat het energie vebruik zal worden dan volgens nordichardware krijgt hij 2 8 pin power connectors mee. Dan heb je toch al een krachtige voeding nodig wil je deze kaart aan kunnen. ik denk dat de absolute top modellen inderdaad wel richting de 500 gaan nogal duur dus http://www.nordichardware.com/news,9075.html

[Reactie gewijzigd door Mietex op 15 april 2009 07:43]

Ja maar geen 2 pcb's etc. Niet alles hoeft dubbel uitgevoerd te worden. ;)

de 4870X2 gebruikt toch ook niet het dubbele van een 4870.
Bij een videokaart zit het grootste deel van het verbruik in de core. Dus je kunt er vanuit gaan dat wanneer je de hoeveelheid cores verdubbelt, je bij maximale belasting ook het verbruik vrijwel verdubbelt.

http://www.techzine.nl/ni...-en-HD4850-officieel.html
Hierin staat:
De ATI Radeon 4870 X2 heeft een TDP van 286 W, dat is evenveel als twee Radeon HD 4870-kaarten in een Crossfiresetup.
Waaruit je af kunt leiden dat de "core" van een videokaart de grootste energieslurper is.
Ik vraag me af of het verbruik dan ook niet flink terug te dringen moet zijn als je 1 core uitzet en de andere heel laag clockt voor idle. net zoals sommige mensen dat doen 100mhz voor de core en 200mhz voor het geheugen dat waren volgens sommige de laagst mogelijke stabiele clocks voor de 4870 gpu. zou zo'n 40 watt moeten besparen volgens wat ik toen gelezen had. http://www.xtremesystems.org/FORUMS/showthread.php?t=196142 Ik ben benieuwd of dit tevens netzoals bij de radeon 4870 en 4890 ook bij de 4870x2 en 4890x2 een flink rendement in het verbruik op zou moeten leveren. Persoonlijk vind ik het load verbruik niet zo heel erg belangrijk die 40 watt meer of minder maakt voor de paar uurtjes niet zo veel uit alleen op 24/7 maakt het verbruik in idle mij wel heel veel uit. zit niet te wachten op een hogere bijdrage aan essent :)
Hmm om een 4GB videokaart aan te kunnen zul je wel bijna verplicht zijn tot een 64Bits besturing systeem. anders houd je geen werkgeheugen meer over
De geheugen allocatie gaat van het 4GB adres naar beneden. Er wordt ruimte gealloceerd voor o.a. PCI sloten. Vervolgens wordt het geheugen ingevuld voor de video kaarten. Interessant aspect is dat er dan geen 4GB meer beschikbaar is.
Dus zelfs een 64-bit OS gaat je niet meer redden. De hele architectuur van de PC moet overhoop om dit in de toekomst mogelijk te maken.
Deze 4 GB is niet echt 4 GB.. Het is namelijk 2x2GB en je pc ziet het als 2GB, omdat in beide 'blokken' van 2GB dezelfde informatie staat. In games is er dan ook maar 2GB beschikbaar.

Er zal dus niet echt veel werkgeheugen overblijven als je op een 32-bits OS werkt, maar zo langzamerhand stapt toch iedereen over op 64-bits(Ik snap niet dat Windows 7 nog 32-bits beschikbaar wordt!). Het 'werkt' dus allemaal nog prima op een 32-bits systeem ;)

[Reactie gewijzigd door pizzaislekker op 15 april 2009 10:31]

met een 64 bits os ga je het zeker wel redden:

De limiet voor 32-bitsbesturingssystemen is dus 3071 mb geheugen zelfs als er 4 gb wordt ingestopt claimt windows 32-bit slechts 3071mb.
De rest wordt genegeerd.
De reden lijkt logisch als windows 32 bits data zou opslaan in het geheugen dat boven de adresruimte van die eerste 3071 mb ligt, dan veroozaakt elke 32 bits driver die de data wil aanspreken via dma een fatale error.

Onder Windows 64 is de maximale hoeveelheid aanspreekbaar intern geheugen geen 2 tot de macht 32 maar 2 tot de macht 64 dat komt neer op zo'n 17,2 miljard GB.

dat is dus iets meer dan 4GB ;)
Nee, staat los van elkaar dacht ik.
Ook zal geen enkele zichzelf respecterende gamer/overclocker nog een 32bits OS gebruiken. ;)
Het blijft duur speelgoed, als ze die plaatjes op de zijkant nou eens weglaten dan zou ik het wat serieuzer nemen.
Boys with toys!
De eerste ontwerpen zijn nog niet eens klaar dus er zal wel een andere tekening op komen.

Zou er nog geen bedrijf op gekomen zijn om bij online bestellingen de mogelijkheid te geven om een eigen tekening te plaatsen?
Ik denk dat degene het de moeite waard vind om z'n eigen sticker op een grafische kaart te plakken toch niet gelukkig zal zijn met door de fabrikant geleverde keuzes hiervoor; koop een glossy stickervel met A4 of A5 formaat en ontwerp & print het gewoon zelf.
Gewone stickers zullen er niet op blijven plakken, de lijm van standaard stickers zal niet bestand zijn tegen de hogere temperaturen.
de stickers zitten op de bovenkant van de koeler, niet tegen de chip aan... de temperatuur valt daar wel mee, ik gok zo'n 30 graden. Denk niet dat je echt moeilijk hoeft te doen om het soort stickers.
Zou er nog geen bedrijf op gekomen zijn om bij online bestellingen de mogelijkheid te geven om een eigen tekening te plaatsen?
Voor die markt (high-end gamer die vaak genoeg in z'n kast kijkt om het de moeite waard te vinden) kun je 't waarsch beter aanbieden als optie voor de high-end koelblokken (al dan niet waterkoeling).
TDP waardes zeggen vrijwel niks over het echte verbruik. Zo heeft de GTX295 ook een hogere TDP als de 4870X2 (iets van 15watt ofzo), maar is de GTX295 in de praktijk onder zowel idle als load zuiniger. Op load kan dit oplopen tot ik meen zo'n 30-40watt.

Deze 4890X2 zal zodoende in de praktijk ook geen >300watt verbruiken. Wellicht zal de TDP wel hierop uitkomen, maar echt verbruik zal rond de 250watt zitten (wat the Mask ook zegt trouwens).

EDIT: Verder zal dit natuurlijk een snelle kaart worden en als ze 'm voor rond de 400,- op de markt zetten (denk eerder dat het rond 430,- gaat worden) dan zal de GTX295 het zeer moeilijk krijgen omdat het argument van betere prestaties (t.o.v. de 4870X2) dan ook komt te vervallen en er dan bijna geen reden meer overblijft om een GTX295 te kopen.

[Reactie gewijzigd door MW1F op 14 april 2009 16:52]

Uhm..het verbruik is nogal een stuk lager bij die RV790 dan de TDP's ( praktijktestjes van vrienden geven dezelfde resultaten). Ondanks die TDP van een 30W meer is het werkelijke verbruik ongeveer gelijk aan dat van een 4870. (in ons geval).
Die 380W....verwacht dan iets van 110% * 4870X2. Of 90% van 4890CF.
De uitvoering kon beter, dan heb je die plaatjes, terwijl er 1tje simpelweg afvalt.
De vormgeving ervan is daardoor ook niet bepaald mod kit compatible.
Best zonde want dat ding ziet er wel uiterst gruwelijk uit!
Dat de titels hetzelfde zijn is zeer frapant, maar die is aangepast door de eindredactie en dus puur toeval. Het artikel is geschreven aan de hand van een artikel op tom's hardware, dat dateert van 13 april. Je zou beter moeten weten dat tweakers.net geen dingen kopieert Jilke. Overigens is de tekst zelf best wel verschillend.

[Reactie gewijzigd door Marc Rademaker op 14 april 2009 17:21]

wat maakt het nou uit voor die-hard gamers die alleen maar voor het beste gaan.
Er zijn mensen die alleen voor de meeste fps gaan an dat gaat nu eenmaal gebaard met een beetje geluid en wat hogere stroomkosten
Het is niet alleen het feit dat er een (kleine) markt voor deze kaarten is, maar de marketing speelt ook een rol. Als mensen deze kaart zien of er over lezen dan denken ze positief over ATI/AMD en zijn ze ook eerder geneigd om een ATI kaart te kopen. Welke kaart ze dan kopen maakt dan niet eens meer uit.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True