Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 76 reacties

AMD heeft dinsdag zijn snelste videokaart tot nu toe officieel gelanceerd: de ATI Radeon HD 4870 X2. De kaart is voorzien van twee RV770-gpu's en 2GB gddr5-geheugen.

AMD heeft naar eigen zeggen met de 4870 X2-kaart 's werelds snelste grafische kaart in handen: de twee gpu's zouden niet alleen sneller zijn dan de snelste kaart die Nvidia momenteel voert, maar deze laatste ATI-kaart zou ook zuiniger zijn. AMD belooft dan ook betere prestaties, zowel op het vlak van ruwe rekenkracht als prestatie uitgedrukt per vierkante millimeter chipoppervlak.

De R700, zoals AMD zijn gecombineerde gpu's noemt, heeft een rekenkracht van 2,4Tflops en een die-oppervlak van 520mm2. De belangrijkste rivaal, de Nvidia GTX280, haalt 0,93Tflops met een chipoppervlak van 576mm2. De prestaties per watt, een maat voor de energie-efficiëntie van grafische kaarten, bedraagt voor de X2 ongeveer 8,4Gflops/watt terwijl de GTX280 krap 4Gflops/watt haalt. Daarbij moet wel opgemerkt worden dat de HD 4870 X2 op papier maar liefst maximaal 286W verstookt; het door AMD gemeten verbruik bedroeg in de praktijk 263W.

De RV770-chips in de 4870 X2 worden op 55nm gebakken en hebben een kloksnelheid van 750MHz. De kaart is uitgerust met met 800 streamprocessors per RV770-gpu en 1GB gddr5-geheugen met een bandbreedte van 115GB/s per core. Beide gpu's communiceren via een pci-e 2.0-brug met elkaar, waarbij 5GB/s full duplex beschikbaar is. Opmerkelijk is dat de sideport, met eveneens 5GB/s aan bandbreedte beide kanten op, is uitgeschakeld. AMD heeft dit softwarematig gedaan, voornamelijk omdat de extra bandbreedte op dit moment niet nodig is. Volgens het bedrijf is de sideport in te schakelen wanneer daartoe noodzaak is.

In de tests van AMD presteerde de ATI HD 4870 X2 aanzienlijk beter dan zowel ATI-kaarten als de grafische kaarten van concurrent Nvidia. Zo werd de HD 4870 X2 in een één-tegen-één gevecht tegen de GTX280 van Nvidia gezet en presteerde de ATI-kaart ruwweg 1,5 tot 2 maal beter dan de Nvidia-kaart. Ook vergeleken met een vergelijkbare configuratie, twee HD 4870 in crossfire-opstelling met in totaal 1GB geheugen, bleek de extra 512MB geheugen per core van de X2-kaart een, zij soms het marginaal, verschil te maken.

Overigens heeft Tweakers.net zelf ook het vuur aan de schenen van een ATI HD 4870 X2 gelegd. Uit onze review, waarin de videokaart het tegen de GTX 280 van Nvidia moet opnemen, blijkt dat de ATI-kaart gemiddeld niet overtuigend sneller is omdat de relatieve prestaties flink fluctueren tussen verschillende benchmarks. In 3DMark Vantage worden bijvoorbeeld uitstekende scores neergezet, terwijl Devil May Cry 4 teleurstellende resultaten laat zien. Een groot deel van dit probleem is inherent aan de gebruikte techniek: het is onrealistisch om te verwachten dat crossfire in alle gevallen perfect werkt.

De Radeon HD 4870 X2 heeft een adviesprijs van 450 euro, zodat de X2 vrijwel dezelfde prijs heeft als twee losse 4870-videokaarten.

ATI Radeon HD 4870 X2
Moderatie-faq Wijzig weergave

Reacties (76)

Toch vreemd dat in dit artikel enkel info uit het persbericht word overgenomen waardoor hier staat dat de kaart 1,5 tot 2x sneller is terwijl de redactie zelf ook tests heeft gedaan en daarin concludeerd dat de kaart niet overtuigend kan winnen en dat de nV kaart in sommige benches zelfs sneller is.
hier nog een test van hardware.info
en de 4870X2 presteert wel een stuk better dan de GTX280

http://www.hardware.info/...ct/ATI_Radeon_HD_4870_X2/
Hier de review van Tweakers.net.
Heb je het nieuwsbericht wel gelezen? Het nieuwsfeit is dat die kaart dus nu wel officieel uit is en onderaan staat een link naar onze review...
Wat volgens mij net is aangepast voor zijn comment. ;)
Ben nu eigenlijk nog meer benieuwd naar het antwoord van Nvidia, deze prestaties waren wel te verwachten
De review van Tweakers.net zelf zegt toch iets anders dan de uitkomsten van AMD zelf:
Zoals bovenstaande grafiek laat zien is het AMD gelukt om met de 4870 X2 de prestatiekroon terug te pakken van Nvidia. De kaart is echter gemiddeld niet overtuigend sneller, doordat de relatieve prestaties flink fluctueren tussen verschillende benchmarks.
...
De GTX 280 is goedkoper, gemiddeld niet veel langzamer, energiezuiniger en stiller onder belasting. De Radeon HD 4870 X2 is sneller, stiller in idle-modus en heeft laten zien de potentie te hebben om in sommige gevallen de GTX 280 flink in het stof te laten happen. Hoe je deze factoren weegt is een persoonlijke keuze, maar het is niet zo dat één van deze twee videokaarten overduidelijk de beste keus is.

[Reactie gewijzigd door tigger op 12 augustus 2008 08:50]

even kijken, tweakers heeft gekozen voor :
-crysis. okee die moet er in zitten maar is gigantische pro-nvidia/SLI.
- company of heroes. een game die met deze kaarten en op deze resolutie gewoon CPU limited lijkt. (scores op verschillende resoluties zijn ook bijna precies het zelfde)
- call of juarez : goed kan ik niks op aan merken.
- devil may cry 4 : ok oudere game waar het driver team nog niet aan heeft gewerk bij ATI... maar of he nu echt interestant is of je 100 of 124FPS hebt?
- half life 2... tja zelfde verhaal als devil may cry.
en de synthetische benchmark vantage

pak dan oblivion als oude game, die kan de kaarten nog een beetje laten werken op deze wat lagere resoluties.
en als tegenhanger van crysis had er zeker COD4 bij gemoeten. een moderen populaire game met een aparte engine die wat ATI vriendelijker is.
en UT3 misschien, een neutraler engine die in heel veel games gebruikt word en gaat worden.

ik wacht iniedergeval xbit tom, extreme en anand even af voor ik conclusies ga trekken.

[Reactie gewijzigd door Countess op 12 augustus 2008 11:49]

op techgage.com staat al een hele uitgebreide stresstest
daar zie je bv. de conclusie tussen de games op de aller hoogste resolutie.

Best interessant om te zien, en tot zover verslaat de ATI kaart elke andere kaart die er is.

De woorden van techgage:
Pros
*Unbelievable performance, fastest single card solution available.
* Expensive, but reasonably-priced all things considered.
* Currently costs less than two separate HD 4870's.
Cons
*The most power-hungry card on the planet.
* Runs hot. Never touch after a long gaming-session.

[Reactie gewijzigd door Sjnuffelke op 12 augustus 2008 12:53]

Devil May Cry 4 is nog niet zo ontzettend oud hoor.

En Half Life 2 wordt nog altijd zeer veel gespeeld, de engine wordt ook voor andere spellen gebruikt, en er komen nog nieuwe episodes voor uit. Daarnaast kan het qua graphics ook nog goed mee met de rest. Dus absoluut geen verkeerde keuze voor een benchmark.

Ik had inderdaad wel bijvoorbeeld nog graag UT3 of een andere Unreal3 engine game erbij gezien. Ook mis ik een RTS als World in Conflict, RTS engines zijn toch altijd heel anders als 1st/3rd person engines en dergelijke.
Om eerlijk te zijn, is die test niet echt heel erg goed gemaakt waar het om deze kaarten gaat. De resoluties gebruikt zijn resoluties die beter passen bij het segment van HD4850's en HD4870's. De X2 en de GTX280 laten veel beter zien wat ze kunnen op hogere resoluties met alle AF en AA volopen.

Daarnaast, als je de goedkoopste 280 in pricewatch neemt en die vergelijkt met de goedkoopste X2 (die slechts sinds vandaag in de pricewatch staan feitenlijk), dan is het huidige verschil slechts 40 euro. Het is waarschijnlijk dat de X2 nog wel een beetje daalt in de nabije toekomst, waarbij die wel heel erg dicht bij de 280 gaat komen, terwijl de potentiele kracht van de X2 ver voorbij de 280 gaat. Drivers zullen nog aardig wat kunnen verbeteren de komende maanden.
Inderdaad de keuze van testresoluties is ronduit treurig en maakt de review vrijwel verwaarloosbaar, de grote verschillen voor deze kaarten zullen zich echt pas in de zwaarste resoluties openbaren, niet echt Tweakwaardig.

[Reactie gewijzigd door fevenhuis op 12 augustus 2008 15:19]

Toch blijf ik vinden dat je op zo'n manier de vergelijking een beetje krom trekt. Een enkele kaart vergelijken met een dubbele (het is een pcb maar wel twee gpu's).

Buiten dit is het geweldig om te zien dat ATI zo'n kaart weet neer te zetten. En tegen dit verbruik, want ook in verbruik zijn het twee kaarten en deel dat dan eens door twee, dan heb je 143w per kaart en dat vind ik voor een high end kaart erg netjes.
Het is maar net hoe je het bekijkt. Je koopt gewoon 1 kaart, het maakt niet uit hoe deze is opgebouwd, dus ik vind dat je juist moet vergelijken met single kaart.
Nou dat vind ik niet. Je gaat ook een Q9*** niet vergelijken met een E8***. Ja het is inderdaad één processor maar ook hier zou je de vergelijking krom trekken.
Waarom niet? Als beide een vergelijkbare prijs hebben waarom mag je die dan niet met elkaar vergelijken. Uiteindelijk gaat het om de performance die je krijgt voor een bepaalde prijs of maximaal haalbare performance. Het maakt niet zoveel uit hoe die performance wordt verkregen. (misschien verbruik in acht genomen)

[Reactie gewijzigd door Blastpe op 12 augustus 2008 09:02]

Zit wat in, maar je ziet het wel vaak dat ze dual- en quadcores in dezelfde benchmark verwerken. Zoek maar een op E8400 review, elke review bevat quadcores terwijl het om de dualcore E8400 gaat. Mja dat is meer als extra denk ik dan, want het zijn meerdere processoren, hier gaat het om 2 kaarten.
Waarom niet, je maakt toch een simpele afweging, welke is het beste voor dingen die ik ga doen...

Bij procesoren is het zelfs zo dat mensen eerder gaan kiezen voor meer cores als deze een gelijkaardige prestatie neerzet als een dual.... (dat is toekomstgerichter ?)

Net zoals er veel benchmarks zijn die dual en quad naast elkaar zetten en er per programma nogal wat verschillen kunnen zijn is het zo dat bepaalde spellen er baat bij hebben en andere dan weer niet...
Dat klopt als je op die manier zoekt ga je kijken naar wat je nodig hebt dan kun je zo een op een vergelijken.

Ik doelde met mijn opmerking meer op het pure prestatievlak. Ik vind persoonlijk dat je dit zo niet (geheel eerlijk) kunt vergelijken en dan conclusies trekken (wederom over de pure prestaties). Om maar een hele andere vergelijking te trekken: Je gaat niet een een auto met een viercilinder vergelijken met een met een achtcilinder. Dat zou ook krom zijn.


De opmerking van Blastpe ben ik het inderdaad wel mee eens, als de prijs vergelijkbaar is dan kun je die twee met elkaar vergelijken onder het mom van: "Hoeveel prestatie (lees frames) krijg ik per euro." Hier had ik nog niet bij nagedacht.
[...]

"Hoeveel prestatie (lees frames) krijg ik per euro." Hier had ik nog niet bij nagedacht.
Is dat niet waar elke GPU review op uit is? Of mis ik hier iets?
erger nog, ik wil deze vergelijken tov. mijn 9800.
Naar prijs en prestatie en speelbare games.
is het zinvol om over te schakelen ? of is dit nog steeds weggesmeten geld en wacht ik nog wat tot ik duidelijke winst heb ?
Tuurlijk wint deze kaart, maar is die winst genoeg om een nieuwe kaart te rechtvaardigen ?

hangt van de gespeelde games af natuurlijk.
Hmmm, je hebt nu de Ati Radeon 9800.... Volgens mij stamt die uit 2002.. Is het dan zinvol om te upgraden naar deze nieuwe Ati? Even denken, ik kom er nog op terug.... ;)
Ik denk eerder de 9800 van nvidia ;)
denk je niet dat hij het over zijn Nvidia 9800 heeft? 8)7
Dual met single meten kan best, het gaat er toch om hoeveel bang for bucks je kan krijgen? En daar komt de ATI dit keer toch echt als winnaar uit, maakt niet uit hoe die opgebouwd is, zolang je als consument maar de beste kaart kunt kopen voor de laagste prijs, zeker als ook het energieverbruik vergelijkbaar is.

[Reactie gewijzigd door les_paulde op 12 augustus 2008 14:20]

Maargoed, zoals je ziet presteert de GTX280 net wat minder dan de HD4870X2, dus de single kan zich 'meten' met de dual, wat zou het dan worden als je een GTX280X2 krijgt....
Een GTX280X2 zou dan wel veel kosten, waarschijnlijk zoveel als twee HD4870X2 kaartjes. Dus dan kun je op die manier beginnen testen.
ach duurt nog tot 28 augustus voordat deze leverbaar zijn (is ook een nieuwe pc aan het knutselen...)
als prestatie uitgedrukt per vierkante millimeter chipoppervlak.
Creatief met cijfertjes.....

Performance per watt / euro / dBa en absolute performance zijn de enige die tellen.

Of de chip nu 100 of 150mm2 is boeit echt helemaal niemand. Als de PCB maar aan de ATX grote standaarden houd.
Als nog blijft het allemaal dicht bij elkaar zitten. Nu zal Nvidia weer met een X2 GTX280 komen of weer een hoger geclockte GT200 komen met een kleinere procedé. (Kzie net gisteren kleiner procedé aangekondigd)
ATI is gelukkig wel weer helemaal bij. Maar de 4870 is niet zo'n klasse verschil als wat de Radeon 9800pro en 8800GTX waren toen ze uitkwamen.

[Reactie gewijzigd door KappeNou op 12 augustus 2008 08:52]

Het gaat niet zozeer om het dicht bij lekaar zitten.

Met deze kaart heeft AMD/ATI een leidende rol van nVidia overgenomen en zitten ze op alle fronten met goede kaarten van budget tot ttopend en ook hun on board graphics op mobo's zijn erg goed. Dat valt ook goed in de smaak bij computerbouwers die graag populaire hardware in hun systemen willen opnemen.

Zo'n leidende rol telt en omdat de kaarten van ATI al goed presteren direct bij het uitkomen is er meest ook nog wel wat verdere stijging door driververbetering.

Op zich zou dit potentieel voldoende moeten zijn om te zorgen dan AMD/ATI het komende half jaar marktleider wordt in het grafische kaarten segment.
Dat hangt echter natuurlijk ook af van de deals die ze met OEM leveranciers kunne sluiten.
Het grote voordeel tegenover 2 losse kaarten blijft dat je tenminste geen crossfire mobo moet hebben :)
Dat ziet er een gigantisch lange kaart uit...
hmmm vraag me af wat een betere keus zou zijn

een nehalem proc met nvidia kaartje of....
een deneb proc met ati kaartje.

persoonlijk denk ik ,dat de 2de keus wat vriendelijker is voor je beurs ;)
betreft de stroom rekening

[Reactie gewijzigd door ionisys op 12 augustus 2008 12:34]

je vergeet nehalem met een ati kaartje? |:(
lijkt me zo de beste keus
Het is echt niet dat een ati kaart beter presteerd op een amd/ati bordje + proc
voor snelheid zul je waarschijnlijk toch een intel moeten pakken.
maar voor je energie rekening?

ik weet het niet.
schijnt dat de deneb procs heel wat minder energie verslinden dan de huidige phenoms.
Sorry maar het idee achter 'minder verbruik' wordt toch wat verkeerd gezien...
Als iedereen zulke kaarten, van 200Watt en meer, zou kopen zou ons energieverbruik erg stijgen.
Al die energiewetten tegenwoordig... en dit mag allemaal zomaar?
Ik hou ook wel van grafisch geweld, maar ik vind dat 200Watt en meer erover is...
Je voelt dit ook op jaarbasis!
Kweet niet of je het wist maar je hebt al minimum 2 zonnepanelen nodig om je grafisch paardje te kunnen laten draaien.
Ik doe zelf elektronica en besef hoe elektronica snel evolueerd met alle gevolgen van dien...
Al die discussies over auto's die minder verbruiken, maar er wordt 'weinig' (lood mag al niet meer in soldeertin zitten, maar is een kleine stap) gedaan tegen het ontwikkelen van elektronica, wat meestal enorm veel chemicalien en vuile metalen bevat.
Ik weet niet of er een goede oplossing is, we zullen alleszins vollen tap blijven produceren!
als je zelf electronica doet realiseer je je misschien ook dat een kaartje hier of daar een druppel op een hete plaat gooien is. Als industriele bedrijven energie besparen maak je pas echt verschil. Corus alleen al is al goed voor 4% van nederlands energieverbruik.

Die paarduizend grafische kaartjes die af en toe op full load staan maken geen moer uit, vergeleken met wat er in de industrie bespaard kan worden.

En dat van die twee zonnepanelen.. Op het moment dat je computer uit is, laad je zonnepaneel de accu op die je gebruikt om te gamen, ik neem aan dat je dat uitgangspunt genomen hebt, en niet een computer die de hele dag aan staat he?

[Reactie gewijzigd door Bert2000 op 12 augustus 2008 12:55]

Ja 2 zonnepanelen van 100Watt die op full power energie leveren, gewoon theoretisch gezien.
Je hebt een standpunt, als de industrie minder zou verbruiken zou het al helpen.
Toch zijn alle consumenten samen (ruwe gok) den helft van al het verbruik....
Okay, maar je hebt inderdaad gelijk dat er nog veel winst te behalen valt bij het verminderen van energie voor electronica in het algemeen
Hele slechte gok vriend, consumentenverbruik is iets van 5%. Voor die paar gekken die deze kaart kopen hoef je hun fun niet te verstieren met milieugeblaat...
Mooie kaart van AMD weer. Ze hebben nu toch duidelijk de betere kaarten in handen, Nvidia kan hier voorlopig iig niks tegenin brengen. precies wat AMD nodig had, als het nu ook nog wat beter zou gaan met de CPU divisie, maar het is een begin.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True