Door Marc Rademaker

Redacteur

Twee HD 4890's in CrossFire versus de GTX295

18-04-2009 • 08:45

92

Multipage-opmaak

Inleiding

AMD’s snelste videokaart is op dit moment de HD 4870X2. Hoewel AMD eerder had gesteld niet van plan te zijn een HD 4890X2 uit te brengen, een dubbele versie van de nieuwe HD 4890, is de halfgeleideronderneming daar nu op teruggekomen: AMD zou met een aantal partners gaan samenwerken om toch een HD 4890X2 op de markt te brengen. De specificaties van deze kaart staan nog niet vast, mede vanwege problemen met het verbruik, waar AMD overigens wel reeds een oplossing voor zou hebben gevonden.

Tweakers.net heeft dus nog geen HD4890X2 in bezit, maar we kunnen wel alvast een HD 4890X2 simuleren door twee HD 4890-kaarten in CrossFire op te stellen. De HD 4890X2 zou AMD’s snelste videokaart worden; daarom bekijken we in deze review ook de snelste kaart van Nvidia, de GTX295. Omdat bij deze kaarten de prestaties voorop staan, zijn zowel de HD4890’s in Crossfire als de GTX295 overgeklokt, om nog meer fps uit de kaarten te persen.

Het vermoeden bestond dat de cpu van het testsysteem, de standaard op 3,2Ghz overgeklokte Intel Core i7 920, mogelijk een beperkende factor was bij het grafische geweld van de twee HD 4890’s en de GTX295. Of dat inderdaad zo is, is getest door het verhogen van de kloksnelheid van de cpu: de benchmarks met de overgeklokte gpu’s zijn tweemaal gedraaid, eerst met de cpu op 3,2GHz en vervolgens op 3,6GHz.

HD 4890's in CrossFire

Specificaties

De HD 4890 kwam eerder al uitgebreid aan bod. Omdat de HD 4870 het tegen de HD 4890 moet afleggen, zouden twee HD 4890’s in CrossFire in theorie eveneens sneller moeten zijn dan de HD 4870X2, een videokaart met twee RV770-gpu’s aan boord. De prestaties van twee HD 4870’s in CrossFire liggen over het algemeen zeer dicht bij die van een HD 4870X2. Ervan uitgaande dat dit ook voor de HD 4890 geldt, zou een test van twee gecombineerde HD 4890’s een goede indicatie van de prestaties van de HD 4890X2 moeten geven.

De GTX295 van Nvidia maakt gebruik van een opbouw die vergelijkbaar is met die van de HD 4870X2: op één videokaart worden twee gpu’s ingezet die met elkaar samenwerken, in het geval van Nvidia door middel van sli. Op dit moment is de GTX295 de snelste videokaart op de markt, maar met de komst van de HD 4890X2 zou daar weleens verandering in kunnen komen. Opvallend is dat de GTX295 dezelfde gpu’s aan boord heeft als de GTX275; feitelijk kan de GTX295 gezien worden als twee GTX275’s die in sli zijn opgesteld. Wel heeft de GTX275 hogere kloksnelheden dan de GTX295.Asus EAH4890 2

Asus Radeon HD4890
Merk Asus
Type EAH4890/HTDI/1GD5
Technische specificaties
Videochip RV790 XT
Videochipklok 850MHz
Aantal streamprocessors
800
Geheugengrootte 1GB
Geheugentype gddr5
Geheugenklok 975MHz
Productieprocedé 55nm
Interfaces
Card-interface pci-e 2.0 16x
Verbinding (video uit) 2x dvi, hdmi
Koeling actieve koeling

MSI GTX295 OC

MSI Geforce GTX295
Merk MSI
Type N295GTX-M201792
Technische specificaties
Videochip GT200b
Videochipklok 655MHz
Aantal shaders 2x 240
Shaderklok 1404MHz
Geheugengrootte 2x 796MB
Geheugentype gddr3
Geheugenklok 1050MHz
Productieprocedé 55nm
Interfaces
Card-interface pci-e 2.0 16x
Verbinding (video uit) 2x dvi, 1x hdmi
Koeling actieve koeling

Testopstelling

De redactie van Tweakers.net heeft de opzet van videokaartreviews enigszins op de schop genomen. Voortaan zullen de kaarten steeds met het onderstaande Core i7-systeem getest worden. Bovendien wordt dan telkens dezelfde reeks games gebruikt, zodat de resultaten van de reviews gemakkelijker onderling vergelijkbaar worden. Wel zal de lijst met spellen indien nodig aangepast of uitgebreid worden.

Het testsysteem is opgetrokken rond een Core i7 920-processor, die op 3,2GHz is geklokt met een verhoging van de bclk tot 160MHz. De keuze voor het besturingssysteem viel op de 64bit-versie van Windows Vista Ultimate met Service Pack 1 en alle beschikbare patches geïnstalleerd. De ATI-kaarten worden via versie 9.3 van de Catalyst-drivers aangestuurd. Voor de benchmarks zijn de games Call of Duty: World at War, Crysis: Warhead, Far Cry 2, Stalker: Clear Sky en World in Conflict uitgezocht. Ook van deze games zijn, voor zover beschikbaar, alle patches geïnstalleerd. Waar mogelijk is van de interne benchmarks van de games gebruikgemaakt.

Testsysteem
Moederbord Gigabyte GA-EX58-DS4
Processor Intel Core i7 920 @ 3,2GHz
Geheugen 6GB ddr3: 3x OCZ3X1333LV6GK 8-8-8
Harde schijven 500GB Samsung Spinpoint F1 HD502IJ
Videokaarten 2x Asus Radeon HD4890 1GB
MSI Geforce GTX295 1792MB
Koeler OCZ Gladiator
Voeding OCZ Silencer 750EPS12V

Intels X58-platform zal naar verwachting nog geruime tijd de prestatiekroon in handen houden. Dit platform zal bij het uitvoeren van de benchmarks niet snel een bottleneck vormen. Ook biedt het platform de mogelijkheid om videokaarten zowel in sli- als in CrossFire-modus te draaien. We streven ernaar om altijd de nieuwste drivers te gebruiken, en als er bèta-drivers gebruikt zijn, wordt dat vermeld.

Elke game is getest op de resoluties 1600x1200 en 1920x1200. De instellingen verschillen per game en zullen daarom telkens vermeld worden. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige ingame-settings, die naar beneden zijn bijgesteld als de videokaart onvoldoende fps wist te produceren. Wel is er altijd 16xAF toegepast; bij games die dat niet ondersteunen is deze instelling afgedwongen met behulp van ATI's CCC of Nvidia's Control Panel.

Overklokken en instellingen

Met de introductie van de HD 4890 heeft AMD een aantal veranderingen op overklokgebied doorgevoerd. De meegeleverde drivers voorzien bijvoorbeeld in de mogelijkheid om de gpu over te klokken naar 1000MHz, wat een stuk hoger dan voorheen is. De geheugenklok kan zelfs naar 1200MHz worden opgekrikt. Voor het overklokken van de videokaarten is gebruikgemaakt van ATI’s CCC en de stabiliteit is met Furmark getest. Uiteindelijk is er gekozen voor een enigzins behoudende overklok van 925MHz voor de gpu en 1100MHz voor het geheugen. Het voltage is op de standaardwaarde blijven staan.

Nvidia’s GTX295 is met Rivatuner overgeklokt. Preciezer gezegd: Rivatuner is gebruikt om de GTX295 onder te klokken naar de standaardsnelheden van 576MHz, 1242MHz en 999MHz, aangezien de geteste GTX295 een overgeklokt model van MSI betrof. Vervolgens zijn de standaardsnelheden van de MSI GTX295 weer in ere hersteld. De teller van de gpu kwam op 655MHz te staan, de shaders werden weer op 1404MHz geklokt en het geheugen kreeg een minimale boost naar 1050MHz.

In CCC is verder de adaptive aliasing op de hoogste kwaliteit gezet, wordt de toepassing van AA/AF aan de applicatie overgelaten, en is mipmapping op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat de antialiasing transparancy-modus op multisampling en is de texture quality op high quality ingesteld.

Asus EAH4890 3

Stalker: Clear Sky

In Stalker: Clear Sky zetten de HD 4890’s op de hoge instellingen, met sun rays, zeer acceptable framerates neer; ze lijken zelfs nog iets betere gemiddelde fps dan de GTX295 neer te zetten. Het spel heeft vooral baat bij een zo hoog mogelijke gpu-snelheid: het hoger klokken van de processor maakt minder verschil. In overgeklokte toestand weet de GTX295 de achterstand te verkleinen, maar ook dan blijven de gekoppelde HD 4890’s een fractie sneller.

Een kleine test wees overigens uit dat een cpu-klok van 3,2GHz duidelijk hogere framerates oplevert dan een cpu-klok van 2,66GHz, dus een snelle cpu is bij deze game wel degelijk van nut.

Stalker Clear Sky - 1920x1200 - High- 0xAA/16xAF
2x HD4890 27/56
2x HD4890 OC 30/60
2x HD4890 OC - 3,6GHz 29/59
GTX295 27/51
GTX295 OC 30/57
GTX295 OC - 3,6GHz 30/58
Frames per seconde, hoger is beter

Bij een resolutie van 1600x1200 blijft er amper nog verschil over: de gemiddelde framerates zijn bij de ATI-kaarten iets hoger, de minimale framerates zijn bij de GTX295 een tikje hoger, al gaat het daarbij slechts om één schamele frame per seconde.

Stalker Clear Sky - 1600x1200 - High- 0xAA/16xAF
2x HD4890 26/63
2x HD4890 OC
29/67
2x HD4890 OC - 3,6GHz 30/69
GTX295
27/59
GTX295 OC
30/63
GTX295 OC - 3,6GHz 31/66
Frames per seconde, hoger is beter

CoD: World at War

De benchmarks in Call of Duty zijn lastig te interpreteren. Blijkbaar kon het spel niet goed overweg met de extra grafische rekenkracht van de overgeklokte HD 4890’s. Er is hier echter wel een duidelijke stijging van de minimale framerates te zien wanneer de cpu wordt overgeklokt.

De GTX295 komt, vooral door hogere minima neer te zetten, als duidelijke winnaar uit de bus. Het overklokken van de videokaart levert een duidelijke en consistente prestatieverbetering op, en ook het overklokken van de cpu heeft aantoonbaar voordeel.

Call of Duty: World At War - 1920x1200 - Max - 4xAA/16xAF
2x HD4890 58,3/85,5
2x HD4890 OC 57,8/80
2x HD4890 OC - 3,6GHz 64/86,2
GTX295 66/89,1
GTX295 OC 69/89,3
GTX295 OC - 3,6GHz
74/90,5
Frames per seconde, hoger is beter

De testen bij 1600x1200 geven een vergelijkbaar resultaat: ook hier is de GTX295 sneller, al is het verschil met de HD 4890's kleiner dan bij 1920x1200.

Call of Duty: World At War - 1600x1200 - Max - 4xAA/16xAF
2x HD4890 66,7/87,8
2x xHD4890 OC 65/86,7
2x HD4890 OC - 3,6GHz 70,3/89,3
GTX295 72,6/89,8
GTX295 OC 73/90,1
GTX295 OC -3,6GHz 76,3/90,6
Frames per seconde, hoger is beter

Crysis Warhead

In Crysis Warhead op 1920x1200 is het verschil tussen de standaard geklokte en de overgeklokte HD 4890’s op de hoogste resolutie amper significant wanneer de Core i7-processor standaard wordt geklokt, maar met een overgeklokte cpu blijkt het overklokken van de HD 4890's opeens wel een duidelijke prestatiewinst op te leveren. Bij een resolutie van 1600x1200 leveren de overgeklokte ATI-kaarten ook bij een niet-overgeklokte cpu betere prestaties: daar lijkt Warhead vooral van de extra grafische rekenkracht te profiteren.

De test met de GTX295 levert een ander verhaal op. De overgeklokte GTX295 toont slechts een minimale fps-stijging ten opzichte van de standaard geklokte GTX295: de minima blijven zelfs exact gelijk. Door de cpu van 3,2GHz naar 3,6GHz over te klokken stijgen de minimale framerates met twee fps.

Een duidelijke winnaar is hier niet aan te wijzen. De HD 4890’s zetten iets hogere minima neer, maar de gemiddelde framerates blijven juist weer achter bij de gemiddelde framerates die de GTX295 neer weet te zetten.

Crysis Warhead - 1920x1200 - Enthusiast - 0xAA/16xAF
2x HD4890 14/27
2x HD4890 OC 14/28
2x HD4890 OC - 3,6GHz 15/29
GTX295 13/30
GTX295 OC 13/35
GTX295 OC - 3,6GHz 15/35
Frames per seconde, hoger is beter

Op de resolutie van 1600x1200 bleek zich een merkwaardig verschijnsel voor te doen. De minima schieten bij de GTX295 in de laatste test, met de processor op 3,6GHz, de lucht in. De test werd meerdere keren uitgevoerd, maar leverde steeds dezelfde resultaten op.

Crysis Warhead - 1600x1200 - Enthusiast - 0xAA/16xAF
2x HD4890 14/30
2x HD4890 OC 16/32
2x HD4890 OC - 3,6GHz 16/32
GTX295 15/37
GTX295 OC 15/37
GTX295 OC - 3,6GHz 25/38
Frames per seconde, hoger is beter

Far Cry 2

De twee HD 4890’s in CrossFire presteren flink beter dan een enkele HD 4890, maar in Far Cry 2 moeten ze het tegen de GTX295 toch afleggen. Vooral wanneer de GTX295 wordt overgeklokt laat de Nvidia-kaart het duo HD 4890's zijn hielen zien.

Vreemd genoeg lijken de HD 4890’s hier slechter te presteren wanneer ze worden overgeklokt. Ook het opvoeren van de cpu-kloksnelheid verbetert de prestaties niet, terwijl de GTX295 vooral op 1600x1200 gretig van de extra cpu-rekenkracht gebruikmaakt.

Far Cry 2 - 1920x1200 - Ultra High - 4xAA/16xAF
2x HD4890 59,5/80
2x HD4890 OC 57,8/82,9
2x HD4890 OC - 3,6GHz 58/86,4
GTX295 63,9/81,4
GTX295 OC 67,2/86,4
GTX295 OC - 3,6GHz 68,8/90
Frames per seconde, hoger is beter

Op de lagere resolutie vergroot de GTX295 zijn voorsprong nog iets verder. Zowel het overklokken van de videokaart als het nog sterker overklokken van de cpu zorgt voor hogere minima en gemiddelden.

Far Cry 2 - 1600x1200 - Ultra High - 4xAA/16xAF
2x HD4890 58,6/86,4
2x HD4890 OC 58,9/88,7
2x HD4890 OC - 3,6GHz 59,9/90,1
GTX295 66,6/87,2
GTX295 OC 69,1/91,5
GTX295 OC - 3,6GHz 73,2/95,6
Frames per seconde, hoger is beter

World in Conflict

Vergeleken met een enkele HD 4890 bieden de HD 4890's in CrossFire amper een stijging van de minimale framerates, en ook het opjutten van de cpu biedt hier geen prestatievoordelen. De gemiddelde framerates zijn met twee HD 4890's echter stukken hoger, waardoor sommige delen van World in Conflict zich met het ATI-duo een stuk vloeiender laten spelen dan met slechts één HD 4890.

Aangezien de minimale framerates in sommige testruns zelfs beneden de 10fps kwamen te liggen, kan er niet heel veel waarde aan de minimale scores gehecht worden. Afgaande op de gemiddelde framerates moet de GTX295 als nipte winnaar worden aangewezen.

World in Conflict - 1920x1200 - Maximum - 4xAA/16xAF
2x HD4890 15/56
2x HD4890 OC 16/55
2x xHD4890 OC - 3,6GHz 15/58
GTX295 16/57
GTX295 OC 16/59
GTX295 OC - 3,6GHz 17/62
Frames per seconde, hoger is beter

Op de resolutie van 1600x1200 lijkt het erop dat de HD 4890's iets hogere minima neerzetten. De verschillende testruns leverden hier consistentere resultaten op, zonder scores onder de tien fps. Ook hier is de gemiddelde score weer in het voordeel van de GTX295, die bovendien beter van toegenomen cpu-kracht lijkt te kunnen profiteren.

World in Conflict - 1600x1200 - Maximum - 4xAA/16xAF
2x HD4890 17/57
2x HD4890 OC 18/59
2x xHD4890 OC - 3,6GHz 17/58
GTX295 16/60
GTX295 OC 17/63
GTX295 OC - 3,6GHz 17/66
Frames per seconde, hoger is beter

Energieverbruik en geluidsproductie

*Geluid

De HD 4870’s waren in hun introductiedagen niet de stilste videokaarten op de markt. De koeler deed zijn werk, maar liet op het gebied van geluidsproductie behoorlijk wat te wensen over. Met de komst van de HD 4890 is daar weinig aan veranderd. In 2d-modus is de ventilator nog wel stil, maar zodra de gpu belast wordt gaat de fan-snelheid rap omhoog, en dat is te horen.

Geluidsproductie (dBA)
2x HD4890 - idle 45
2x HD4890 - load 61,2
GTX295 - idle 48,1
GTX295 - load 59,4

De GTX295 is in 2d-modus hoorbaar luider dan de twee HD4890's, maar de videokaart is dan ook een stuk koeler. Wat betreft de temperatuur kan de ventilator gerust op een wat lager toerental draaien, maar dat moet dan wel handmatig ingesteld worden. De ventilator gaat pas hoorbaar harder draaien als de gpu's écht warm worden.

De HD 4890's werden eerst een tijdje met rust gelaten en behaalden toen een minimale temperatuur van 57 graden Celsius. Bij de geluidsmeting werd een waarde van 45dBA opgetekend. Door de videokaarten vervolgens met de Furmark-stresstest te belasten, werden de kaarten behoorlijk heet, met een temperatuur van 82 graden. Daarbij werd een geluidsproductie van 61,2dBA geregistreerd: een aanzienlijke verhoging.

De GTX295 is in 2d-modus slechts 47 graden warm, maar produceert dan wel 48,1dBA aan geluid. Wederom werd Furmark gebruikt om de gpu aan het werk te zetten, waarna een temperatuur van wel 92 graden werd gemeten. De koeler draaide daarbij op vol vermogen en produceerde daarbij 59,4dBA aan geluid. De kaart is dus stiller dan de HD 4890's, maar groot is het verschil niet.

*Energie

De hoge temperatuur en de snelheid waarmee de fans rond moesten draaien zijn niet vewonderlijk, aangezien in Furmark het stroomverbruik van de HD 4890's van 239W naar maar liefst 600W opliep. Daar moet bij gezegd worden dat dit het vermogen is dat uit het stopcontact getrokken werd: de voeding, die ruwweg een rendement van 80 procent zal hebben, geeft dan pakweg 500W aan de verschillende onderdelen door.

Overigens kan het idle-verbruik eenvoudig omlaag gebracht worden door het geheugen onder te klokken. Dat levert per videokaart al gauw een besparing van 20W op. Het is jammer dat AMD het blijkbaar niet voor elkaar kreeg om de geheugenklok automatisch naar de minimale waarde van 490MHz te verlagen.

De GTX heeft de CrossFire-opstelling van de HD 4890's tuk als het gaat om energieverbruik. In idle-modus wordt slechts 173W verbruikt: net zoveel als een enkele HD 4890. In Furmark werd uiteindelijk een stroomverbruik van 452,8W gemeten, wat goed overeenkomt met het verbruik dat tijdens de benchmarks werd waargenomen. Zowel idle als onder load verbruikt de GTX295 dus aanzienlijk minder dan twee HD 4890's.

Vermogensopname (W)
2x HD4890 - load 600
2x HD4890 - idle 239
GTX295 - load 453
GTX295 - idle 173

Om alles in perspectief te zetten werd ook naar het stroomverbruik gedurende de verschillende benchmarks gekeken. Het hoogste vermogen dat met twee HD 4890's werd gemeten lag rond de 500W. Met een dergelijke configuratie kan er dus van worden uitgegaan dat er tijdens het gamen ruwweg 500W verstookt zal worden.

600,9W verbruik

Conclusie

Het aanwijzen van een winnaar is lastig: de scores hangen duidelijk mede van de gebruikte game af. In ieder geval zijn twee HD 4890's niet overtuigend sneller dan een GTX295, en in een tweetal spellen moeten de HD 4890's zelfs ruimschoots het onderspit delven. Heel vreemd is die bevinding niet, want Nvidia is al sinds tijden heer en meester in de game-engine die gebruikt wordt in zowel Call of Duty: Modern Warfare als in Call of Duty: World at War. Een relativering is dat er 'slechts' vijf games zijn getest. Populaire spellen als Race Driver: GRID en het nieuwe spel HAWX vallen vaak uit in het voordeel van AMD's videokaarten.

Bovendien moet worden opgemerkt dat er beta-drivers van Nvidia zijn gebruikt, waarvan binnenkort een whql-versie uit zal komen. Nvidia claimt dat deze driver in drie van de gebruikte spellen een flinke prestatiewinst ten opzichte van de oudere drivers oplevert. AMD heeft onlangs versie 9.4 van zijn drivers uitgebracht; die versie zou het prestatieverlies dat versie 9.3 ten opzichte van versie 9.2 introduceerde weer goedmaken. Toch lijkt de conclusie gerechtvaardigd dat als AMD de prestatiekroon terug wil, de chipontwerper een HD 4890X2 met hogere kloksnelheden dan de huidige HD 4890 uit moet brengen. Wat betreft het verbruik is de GTX295 wel de duidelijke winnaar.

De prijzen ontlopen elkaar niet veel: twee HD 4890's zijn in de Pricewatch voor een totaal van 420 euro te vinden, terwijl de GTX295 minimaal 435 euro moet opbrengen.

In een volgende review zal de HD 4890 het opnemen tegen een GTX260 van Asus en een GTX275 van Point of View. Er wordt ingezoomd op het echte overklokpotentieel van de Asus EAH4890, waarvan met de meegeleverde software de spanning eenvoudig verhoogd kan worden. Tevens zal in die review uit de doeken worden gedaan waarom een hogere spanning de prestaties van de HD 4890 ook negatief kan beïnvloeden.

AMD Radeon HD 4890 AMD Radeon HD 4890 AMD Radeon HD 4890 AMD Radeon HD 4890 HD 4890 CF Review HD 4890 CF Review HD 4890 CF Review HD 4890 CF Review HD 4890 CF Review HD 4890's Furmark Load

Reacties (92)

92
84
10
8
0
4
Wijzig sortering
1920x1200 is eignelijk ook te laag. Dat kun je met een HD4890 nog prima draaien. Dit soort kaarten komen tot hun recht op 2560x1600 en met Max AA en AF. Ik merk dat 1920x1200 met een kaart prima ging maar toen ik naar 2560x1600 ging was de performance echt slecht. je gaat dan ook van 2.3 mpixel naar 4 mpixel dat elke keer gerenderd moet worden. In crossfire was de performance wel weer acceptabel. Dit geld eigenlijk ook voor de GTX295. Jammer dat die 2560x1600 reso niet mee genomen is.
Daarom is de CPU ook overgeklokt denk ik. Die wordt op 1920*1200 al dan niet een bottleneck, wat goed te zien is als je de scores van overklokt en niet overklokt met elkaar vergelijkt.
Ik ben het met je eens dat op 2560*1600 de kaarten wat meer uitgedaagd worden, maar zoveel mensen zijn er niet die gamen op die resolutie. In deze review is die resolutie wel meegenomen. Waarschijnlijk zijn er nog zat andere reviews waar ze dit wel gedaan hebben, dus daar kun je ook altijd nog kijken.
ja precies ja een radeon 4890 is nu eigenlijk de beste keus in prijs prestatie en vaak de ongeveer €30-40 meer prijs t.o.v de 4870 512mb wel waard. Maar als je echt cheap uit wil zijn heb je 2 4830 kaartjes in xfire voor nog een kleine €20-30 minder. Daarom vraag ik me dan ook af wat de pro's en con's zijn in benchmarks bij dergelijke xfire setups.
Een note over de S.T.A.L.K.E.R. Clear Sky benchmarks. S:CS is een DirectX10.1 game. Ik weet niet of in deze test automatisch gebruik wordt gemaakt van het DX10.1 path voor de Radeon en voor de GeForce van het DX10.0 path... of dat de Radeons geforceerd worden om op het DX10.0 path te werken... Misschien is dat handig om er bij te vermelden. Er zit namelijk 1 grote catch aan vast.

Het DX10.1 path wordt namelijk gebruikt in deze game om betere Image Quality te krijgen doordat HDR correct AA wordt toegepast (zie bv bladeren, gras, hekwerk, bomen) en ook schaduwen worden op een mooiere manier weergegeven. In technische termen uit de patchnotes:
- Added MSAA for alpha-tested objects ("alpha-to-coverage" for DX10.0, custom "alpha-to-coverage" for DX10.1 for better performance, native DX10.1 implementation for better quality).
- Added new min/max shadowmap technique (which takes advantage of DX10.1 when available) allows to speed up high quality sunshafts rendering for top video boards and high resolutions.
DX10.1 kan gebruikt worden om aan performance in te winnen (zoals gebeurt in HAWX, Stormrise, Assassin's Creed en Battleforge), maar in dit geval heeft de developer er voor gekozen om de gewonnen performancewinst om te zetten in een IQ verhoging waardoor de performance dus ongeveer gelijk staat aan die van de competitie. Als de Radeon dus op het DX10.1 path draait (wat het defaultpath is in S:CS voor AMD) dan verzetten de HD4890 Radeons evenredig gezien dus meer werk dan GTX295 met een betere IQ op ongeveer dezelfde snelheid.

Dit alles kan aangetoond worden met IQ vergelijkingen. Misschien een tip om dit in de toekomst op te nemen in reviews.

[Reactie gewijzigd door CJ op 29 juli 2024 09:40]

Een mooie review die de prestaties van de 2 mogelijkheden (295/2x HD2890) goed vergelijkt en een leuke indicatie geeft van de mogelijke prestaties van een HD 4890X2.


Een klein puntje van kritiek:
Bij de overklok is de 295 procentueel harder overgeklokt dan de 4890's.

576MHz naar 655MHZ en 1242MHz naar 1404MHz voor de 295 geeft respectievelijk een 13,7% en 13,0% overklok.
Van 850 naar 925 voor de HD4890's geeft echter een 8,8% overklok.

Over de maximale overklok van deze kaarten wil ik geen uitspraak doen, ze kunnen waarschijnlijk allebei harder dan dit, maar zo krijg je wellicht wat misleidende resultaten.
In het vervolg is het misschien handig om ze allebei (295/2x4890) ongeveer evenveel over te klokken OF om er duidelijk bij te vermelden dat één kaart/kaartcombi een hardere overklok heeft meegekregen.

Verder toch een dikke + voor deze review!
ziet er goed uit een 4890 xfire alleen het stroomverbruik is inderdaad nogal hoog. Maar AMD/ATI heeft een goede concurrent met een 4890x2 kaart voor de gtx295 in huis als ze deze op de markt weten te zetten en het stroomvebruik wat terug weten te dringen. In de meeste benchmarks is de 4890 xfire bijna of zelfs sneller dan de gtx295. we hebben gezien dat de 4870x2 ongeveer 10% - 20% meer winst heeft dan een 4870 xfire setup als je deze nummers een beetje mee neemt zou een 4890x2 sneller moeten zijn dan een gtx295. Ik vermoed dat een radeon 4890x2 een stuk goedkoper te produceren is dan een GTX295 vanwege het verschil in GPU formaat en geheugenbus en de huidige prijzen kenende lijkt het mij dat een radeon 4890x2 op de zelfde plaats komt te staan in prijs als waar de 4870x2 tot nu toe stond dus toch een redelijk stukje goedkoper dan de GTX295. voor prijzen dicht tegen de €400-450 aan zijn dit best wel prijzige kaarten in tijden van de economische crisis.
Maar eerlijk is eerlijk de 8800 GTX was een paar jaar geleden nog een €100 duurder toen deze uitkwam.
Een 8800GTX heeft zelfs nog tegen de 700 euro gekost bij de release, meen ik.

En hoe verwacht je nu dat we uit de economische crisis raken als jij je geld niet uit je portefeuille haalt? ;)
Neen, de 8800GTX was 600 Euro bij introductie, de 8800Ultra die daarna uitkwam was bij introductie 700 Euro. ;)
Euhm, waarom geen 3D Mark score? En toch wel bedroevend weinig game getest vind ik. Hadden gerust een 10 tal games kunnen testen imo.
3Dmark is in mijn optiek een nietszeggende benchmark. Het enigste wat je er mee kunt doen is kijken of je systeem niet onderpresteert ten opzichte van een vergelijkbaar systeem. Een 3Dmark score zegt echter niets over ingame prestaties. De HD4890's scoren namelijk hoger, maar kan die hogere score niet omzetten naar meer fps in de benchmarks. Nietszeggend dus.
enigste
Als journalist toch wel handig om te weten: 'enige'.
Hehe :D , ik denk dat Nvidia een flinke kluif aan de 4890X2 gaat hebben...

Het is inderdaad jammer dat er maar vijf spellen getest zijn, maar ik denk dat de over alle spellen toch ongeveer gelijk zullen uitkomen. Maar ik verwacht dat de 4890X2 toch weer een stuk(je) sneller zal worden dan de GTX295, want hij zal op een veel hogere frequentie lopen dan de hier geteste 4890's.

Maarja, voorlopig zal ik toch met m'n 9800GX2 moeten blijven zitten :P
Enigste wat Nvidia doet is de naam van de videokaart veranderen en zeggen dat het een nieuw type is maar, in werkelijkheid is dit gewoon een oude videokaart met een nieuwe sticker....
En dat is ook mijn reden dat ik ben overgestapt naar ATI, ATI is tenminste eerlijk en betrouwbaar, met mede dat de videokaarten aanzienlijk ook veel beter zijn dan die van Nvidia, vergeleken in prijs en kwaliteit verhouding..
Dus mijn bericht aan iedereen, STAP OVER OP ATI!! Mijn mening vind ik :)
Tja, ieder zijn mening. Ik heb vaak genoeg gekut gehad met ATI en zijn drivers. Ik laat ATI liever links liggen. ieder zijn mening. Om nu direct te zeggen dat iedereen naar ati moet, nee. Mij krijg je echt niet zover, en zo zijn der wel meer. Omgekeerd net zo. Gewoon lekker laten zo, ook alleen maar mooier voor de concurentie ;)

Ontopic: nette review. Echter:
Heel vreemd is die bevinding niet, want Nvidia is al sinds tijden heer en meester in de game-engine die gebruikt wordt in zowel Call of Duty: Modern Warfare als in Call of Duty: World at War. Een relativering is dat er 'slechts' vijf games zijn getest. Populaire spellen als Race Driver: GRID en het nieuwe spel HAWX vallen vaak uit in het voordeel van AMD's videokaarten.
Mag ik vragen waarom spellen als HAWX en Grid dan niet getest zijn? Want ik zou het dan een beetje appels met peren vergelijken vinden. COD is meer op nvidia gebouwt, en Crysis al net zo. Nvidia heeft mijn voorkeur, ook al betaal je daar vaak iets meer voor. Maar op deze manier vindt ik reviewen wel beetje unfair.

Tevens: op die foto's staan eigenlijk alleen maar ati kaartje. Waarom niet van beide wat?

[Reactie gewijzigd door GoldenBatt op 29 juli 2024 09:40]

HAWX en Grid heb ik op de planning staan. Nu kon dat vanwege de omstandigheden helaas nog niet. Even een benchmark setup opzetten en wat spellen draaien is er helaas niet bij. Foto's zijn gemaakt tijdens het benchmarken van de HD 4890's, omdat die nieuw zijn. Foto's van de gtx295 ontbreken omdat die onbewust minder interessant leek, en ik er dus niet aan gedacht heb. Zal daar de volgende keer wel aan proberen te denken :)
Ik vind ATI niet slecht ofzo, want heb ook een Sapphire 3850 AGP in me main pc zitten.

Maar persoonlijk heb ik toch liever nvidia. Ik heb al een paar keer kaarten van beide fabrikanten gehad.

Maar ten eerste heb je met overklokken met een nvidia kaart altijd meer speling, dus kan altijd nog net wat meer ocen dan een ATI kaart

Drivers zijn wat makkelijker, en ook ondersteuning van 3rd party software als rivatuner en noem maar op..

Koeling is vaak net iets beter van een nvidia kaart dan een ATI kaart. Een ati kaart maakt vaak meer herrie dan dat ie echt goed aan het koelen is, terwijl bij nvidia dit vaak andersom is.

Ook staat ati ook wel bekend om een iets hogere stroom verbruik. (als voorbeeld zou je idd de 4890 kunnen noemen en de x1800xt / x1900xt series.. Voor die tijd was het een hoop stroom meer dan een nvidia kaart zoals de 7900GT..

Ik ben niet nvidia minded(aangezien ik ook een ati heb), maar zo is het wel als ik markt al een paar jaar hebt gevolgd.

[Reactie gewijzigd door Robin4 op 29 juli 2024 09:40]

Het is verre van logisch om te verwachten dat de X2 op een hogere frequentie gaat lopen dan een enkele 4890. Als ze de zelfde MHz halen zou het al knap zijn. Bij Nvidia hebben de dual gpu oplossingen altijd een flink lagere frequentie.
Het stroomverbruik en de warmte zijn moeilijk te voorspellen maar de X2 zal nooit 4 pci-e power aansluitingen hebben en het dus met heel wat minder power moeten doen.
Daardoor zal de snelheid omlaag moeten en zal hij het niet snel winnen van de gtx295.
Ja, maar dat is juist de vraag. Erg wordt namelijk gespeculeerd dat de HD4890X2 wel degelijk op een hogere frequentie gaat lopen dat de gewone HD4890.
According to reports, the new card will have both GPUs running at least at 1 GHz core clock speed. Depending on the SKU, customers should be seeing 2 GB and 4 GB cards. The specs are not fully confirmed yet, but we'll let you know when we hear anything different.
http://www.tomshardware.c...cs,7531.html#xtor=RSS-181
Het echte verbruik ligt niet zo hoog als de TDP van 190W doet vermoeden. Van 240W naar 500W = 260W verschil, is maximaal 130W per kaart. Maar in die benchmarks werd de cpu ook gebruikt, het geheugen ook, etc. Het verbruik zal dus eerder op 100W per kaart liggen.

In een gesprek met engineers van Asus kwam verder naar voren dat AMD al een oplossing heeft voor het verbruik-probleem. Ik zie een 1000MHz HD 4890X2 niet gebeuren, maar 900/950, who knows.
Als zo'n kaart echt maar 100W zou verbruiken mag je toch een uitleggen waarom er 2x de 6pins pci-e power aansluiting op zit. Het slot zelf levert 75W en 1 6pins stekker ook 75W. 150W was dan toch meer dan genoeg...

De berekening die je maakt slaat dan ook nergens op. Het verbruik ging van 240 naar 600. Dat is dus 360/2=180W per kaart. Je kan de efficientie van de voeding wel gaan berekenen maar doe dat dan wel met beide getallen. En natuurlijk verbruikt een kaart idle altijd nog wel iets.
Barco, de 600W was in Furmark. ATI-kaarten staan er om bekend dat ze dan extreem veel verbruiken. In spellen verbruiken de kaarten 'maar' 500W. Ten opzichte van 240W is dat 260W = 130W per kaart. Ga er maar vanuit dat spellen het geheugen en de cpu ook gebruiken, en je zit op een getal lager dan 130W per kaart. Simple as that.

Waarom er 2 pci-e zespins connectors op zitten? Voor worst case scenerario's, In de test met één enkele HD 4890 in idle vs load is het verschil 185W. In Furmark piekt echter één cpu kern, puur gokwerk, maar die kan zo 20-30W verbruiken. Maar zelfs als die geen rol speelt, is het maximum wat wij zagen 185W, in Furmark. Vertaal dat naar games, en je zit waarschijnlijk op een gebruik van 50W lager (het verbruik met twee HD 4890's lag 100W lager in games dan bij Furmark). En dat getal is dan wel inclusief cpu/ram/hdd.

TDP komt simpelweg niet overeen met het exacte verbruik. Ik heb dit in het forum al aangegeven, maar AMD zou al een oplossing hebben gevonden voor het verbruik, en de warmte die daarbij vrij komt.
Wie weet gebruikt de 4890 wel niet de volledige power van 2 keer zespins. De power die een enkele kaart nodig heeft zou dan namelijk op 225 watt uitkomen (75W van het PCI-E slot + 2* 75 van de stekkers). Met 2 keer achtpins kom je voor de 4890X2 al een heel eind, eventueel aangevuld met een extra zespins.
Ze zullen sowieso wel een beetje moeten dimmen, want ~300W is met een enkele koeler lastig af te voeren als je het geluidsniveau nog enigszins binnen de perken wilt houden.
Het is helemaal niet verre van logisch want hetzelfde hebben ze gedaan bij de 38xx serie van ATI... De 3870 liep standaard op 775 mhz en de standaard 3870x2 liep op 825mhz, dat is een dikke 50mhz hogere core. Verwacht maar hetzelfde bij de 48xx serie...
offtopic:Ik zou nog maar eens kijken naar de grafieken, het verhaaltje lijkt telkens niet te kloppen met de bar-diagrammen? En ook de waarden naast de staafdiagrammen zitten volgens mij soms verkeerd om?

verder een nette review, erg duidelijk. Toch heel bizar te zien dat zulke totaal verschillende kaarten, met totaal andere ontwerpen soms toch precies hetzelfde aantal fps uitpoepen.

[Reactie gewijzigd door DaOverclocker op 29 juli 2024 09:40]

Nette test.

de dBA tabel klopt niet, idle en load verwisseld tov de txt.

Wat me verder erg tegen valt is t enorme verbuik onder load van zowel de sli als de enkele GTX295 600 om 400 watt is en computersysteem op zich en waarvoor om een handvol meer fps?
Een andere redacteur en ik hebben hier naar gekeken, maar we zien niet wat er fout zou zijn.

En, de HD 4890's trokken 500W tijdens het benchmarken. Dat is 400W na de efficiëntie van de voeding meegerekend te hebben. Dus zo erg is het nou ook weer niet.
de HD4890 sli trekt dus 360W extra (load vs idle) en de GTX 295 280 W extra (load vs idle) er vanuitgaande dat t verbruik van t randsysteem voor beide situaties gelijk blijft. Dit blijf ik enorm veel vinden. Lijkt er steeds meer op dat je voor t hk gebruik (surfen/email/txt verwerking) beter een energie zuinige pc (nettop/laptop/Athlon EE/Intel LV) naast je game beest kunt hebben. De aanschafprijs haal je er binnen redelijke termijn wel uit.
Correct, maar 'load' wordt bereikt in games, niet op de desktop of tijdens het surfen, dan verbruikt de PC iets meer dan 173W als het gaat om de GTX295, dat is toch nog wel acceptabel? Andere videokaarten, zoals een GTX275 of GTX260, trekken ook al gauw 170W in idle-modus. Een GTS250 gaat al richting 140-150W.
Het klinkt weinig ja, maar het is ontzettend veel als je het vergelijkt met een 40W idle verbruik van een setup met bv een atlhonX2 4850e 45W, 780G onboard graphics en een zuinige hdd.
Ik zie het hier al een paar maal fout gaan maar ATi kent helemaal geen SLi, SLi is van Nvidia. ATi's tegenhanger heet CrossFire of CrossFireX. Jongens leer de termen dan weet je ook waar je over spreekt. :/
Waarom is er in een aantal games niet ook met 8x AA getest. In bijvoorbeeld Far Cry 2 en World at War moeten beide opstellingen dit prima aankunnen.
Klopt, maar het benchmarken nam met de drie verschillende settings, en dat maal twee videokaarten al erg veel tijd in beslag. Met een beetje geluk wordt er in de nabije toekomst ook op een 30"-scherm getest, en kan er ook gekeken worden naar hogere AA-instellingen.
Mooie review! Ben erg benieuwd wat de 4890X2 gaat doen, ongetwijfeld gaat deze goedkoper worden dan de GTX295 en zal het energieverbruik hopelijk ook wel wat afnemen.

Jammer vind ik alleen dat er geen grafiekje is bijgeplakt van een enkele 4890 en 275 uit de vorige reviews. Miste verder alleen een benchmark van GTA IV gezien een enkele 4890 hier al wat moeite mee heeft (qua ram iig)
De GTX275 wordt nog getest, en een extra grafiekje van enkel de HD 4890 had er nogal een rotzooitje van gemaakt. SLI/Crossfire schaling is echter een interessant onderwerp, en zal in de toekomst ook onderzocht worden.

Op dit item kan niet meer gereageerd worden.