Door Hielko van der Hoorn

ATi Radeon HD 2900 XT review

14-05-2007 • 08:54

183

Singlepage-opmaak

Conclusie

Zoals de benchmarks laten zien is ATi er met de Radeon HD 2900 XT er niet in geslaagd om nVidia de prestatiekroon te ontnemen. De beste prestaties worden geleverd door de al zes maanden geleden geïntroduceerde GeForce 8800 GTX of de onlangs geïntroduceerde GeForce 8800 Ultra. ATi heeft echter goed begrepen dat de prestaties slechts één onderdeel van de vergelijking zijn, de prijs is minstens zo belangrijk. Met een prijs van circa 350 euro is de kaart aanzienlijk goedkoper dan de topmodellen van nVidia en wordt er voornamelijk geconcurreerd met de ongeveer 270 euro kostende GeForce 8800 GTS 320MB en de 330 euro kostende GeForce 8800 GTS 640MB. Hierbij moet opgemerkt worden dat de twee GeForce 8800 GTS-varianten ongeveer gelijkwaardig presteren: alleen op hoge resoluties telt de hogere geheugencapaciteit mee.

Vergeleken met deze videokaarten komt de Radeon HD 2900 XT goed uit de vergelijking. Als je op zoek bent naar een goede videokaart in het 300 à 400 euro prijssegment is de Radeon HD 2900 XT momenteel de beste oplossing. De kaart is niet alleen het snelste, maar biedt ook enkele extra features zoals de universal video decoder, hdmi, cfaa en tessellation. Vooral voor de goedkopere leden van de Radeon HD 2000-familie en de Mobile-varianten is de universal video decoder een pre. Het is ideaal voor een htpc en de accubesparing die mogelijk is bij het kijken van een hd-film is niet gering. ATi heeft een interessante serie videokaarten op de markt gezet met de Radeon HD 2000-serie, maar het is jammer dat een high-end Radeon HD 2900 XTX-model ontbreekt.

Jetway X29XTEN512Q Radeon HD 2900 XT

Dankwoord: Met dank aan Dollarshops voor het leveren van de Jetway Radeon HD 2900 XT.

Reacties (183)

183
182
67
7
1
98
Wijzig sortering
Ik voel weer een prijsvraag aankomen :7
leuke kaart aan de benchmarks te zien, alleen jammer dat het verbruik hoger ligt dan dat van de GTS, voor energiezuinige mensen is dat misschien al een reden om toch voor een 8800 GTS te gaan. Trouwens, voor benchmarks op hogere resoluties:

http://www.hardware.info/...ct/ATI_Radeon_HD_2900_XT/
Dat ziet er ff anders uit...
O.a. bij Stalker doet de 8800GTS het bij harware.info héél slecht bij 1600x1200, terwijl bij Hardocp de 8800GTS duidelijk de winnaar is. Ik zet mijn geld op Hardocp :7
Anoniem: 47200 14 mei 2007 09:03
hmmm het wordt een kritieke periode voor AMD/ATI volgens mij, aan de ene kant heeft ATI dus problemen met Nvidia, immers het is in mijn ogen erg veelzeggend dat je 6 maanden later iets introduceert wat niet sneller is dan het 6 maanden oude ding van je concurrent.

En aan de andere kant verkeert AMD's eigen cpu divisie in zwaar weer vanwege de Core architectuur van Intel. Barcelona lijkt niet opgewassen te zijn tegen de nieuwe Intels (al is dat nog maar gissen) maar als ik dit lees dan denk ik dat de lucratieve dure game systemen voorlopig opgebouwd zullen zijn rondom Intel cpu's en Nvidia GPU's (geen goed nieuws dus voor AMD/ATI).
Ik vind je opmerking onterecht.

In jou ogen komt een concurrent nu pas met een product wat even goed presteerd. Daarintegen zal het me verbazen als nVidia reeds werkende drivers heeft! Dat ATI er misschien iets langer over doet, heeft te maken waarschijnlijk voor de consument dat ze alle puntjes op de i wilde zetten en ze wel direct met goede drivers komen. Daarintegen is de prijs zowiezo beter dan nVidia. En ook een reden van vertraging zou zijn de overname door AMD, dit hebben ze ook niet zomaar gedaan. Als je hier dieper in gaat graven, weet je de reden, en snap je dat het zowiezo iets langer heeft geduurt.

Met AMD hetzelfde verhaal. Wat Intel doet, gewoon 2 dual cores tegen elkaar aan plakken. AMD wil een native quadcore etc. Als AMD met iets nieuws komt, is het vaak een grotere technologische ontwikkeling. AMD heeft toch ook zelf gezegt 'ja, dat hadden wij ook veel eerder kunnen doen'. Ze doen dit om hun naam hoog te houden. AMD heeft zich voor mij bewezen, Intel nog niet voor mij. Een goed merk behoeft geen reclame, het is wel Intel / nVidia die je overal ziet ;) Ik heb zoveel marketingonzin gehoort, als je beweert 100% sneller te zijn en in de praktijk blijkt het maar 10% sneller, is de concurrent voor mij beter.

Een potentiëel probleem met de mindere prestatie van deze videokaarten, van wat je liever verwacht, is de grote parallellisatie wellicht. Pas als hier op geoptimaliseerd is, kan je een extreme winstverwachting hebben. En dan is het toch echt puur in het voordeel van de 320 streamprocessors van de ATI 2900. Ik vind een gelijke prestatie op sommige vlakken, en toch een compleet andere techniek, al een verdiende pluim.

Ik meen te herinneren dat er in het verleden ook zo iets geprobeerd is met de 3Dlabs Wildcat VP. In maar enkele benchmarks scoorde deze goed, in extreem veel baggerslecht. Met DX10 komt het vanzelf wel goed met de 2900.

[edit]
Het getuigt aan de manier van modereren dat enige kennis van zaken ver te zoeken is. Inzichtvol (+2) is een overbodige / flame naar ATI/AMD. Overbodig (0) is deze flame teniet te doen en aan te halen van het verder kijken dan de neus lang is.

Als er een optimaal samenwerkingsverband tot stand gebracht wordt om samen een zeer geavanceerd rekencluster te ontwikkelen, en je net in de overname zit, kunnen dingen wel eens iets uit lopen. Als hierdoor fouten in de chip sluipen, en die opgelost moesten worden, wees dan blij dat ze het uit stellen. nVidia had met de 8800 ook een fout zitten, die last minute omgesoldeerd is. Als dit zo vlak voor een release gedaan wordt, wekt dat voor mij geen betrouwbaarheid. Zeker als je er een testperiode overheen kon doen, en je topmodel evenveel functionaliteit te geven als je midrange, dan had je bij de release stabiele drivers.

Maar er zitten helaas weer te veel game fanaten te modereren, die eigenlijk aan hun schoolwerk hadden moeten zitten. Leg het kuddedierinstinct eens naast jullie neer. DX 10 is next gen.
Daarintegen zal het me verbazen als nVidia reeds werkende drivers heeft!
NVIDIA heeft reeds werkende drivers ja en als je andere reviews zou lezen dan zul je merken dat de ATI drivers niet zonder problemen zaten.
Dat ATI er misschien iets langer over doet, heeft te maken waarschijnlijk voor de consument dat ze alle puntjes op de i wilde zetten en ze wel direct met goede drivers komen.
Dit is natuurlijk onzin, de kaart was gewoon niet goed genoeg en had een zoveelste respin nodig. Had niks met de drivers te maken.
Daarintegen is de prijs zowiezo beter dan nVidia.
Waarom kost deze kaart dan meer dan een GTX320 en GTS640? Kaarten die evengoed presteren?
Ik vind een gelijke prestatie op sommige vlakken, en toch een compleet andere techniek, al een verdiende pluim.
Hoezo? ATI heeft een kleiner procedee nodig (80nm) en een grotere geheugenbus (512bit) om een kaart te maken die veel meer verbruikt en trager is dan de concurrent. Hoe kan deze techniek dan een pluim verdienen?
ATi heeft de kaart in Maart uitgesteld, om de drivers verder te Tweaken. Niets mis mee. Zo verkom je dat je slechte drivers hebt tijdens de launch (zoals het 3/4 maanden duurde voordat nvidia pas Vista drivers had voor de 8800)
Dus jij denkt dat nVidia de G80 had moeten uitstellen van november naar april (of nog later) omdat de drivers voor Vista - op dat moment nog niet eens verkrijgbaar - niet af waren, terwijl alles in XP als een trein liep? Dat ze die nieuwe techniek gewoon in de kast hadden moeten laten liggen en de buitenkans om hun marktaandeel, omzet en winst te vergroten hadden moeten opgeven voor een OS waar de eerste consumenten pas maanden later aan zouden beginnen?

Ik zeg niet dat het niet vervelend was voor Vista-gebruikers, maar zakelijk gezien is het scenario wat ik beschrijf natuurlijk waanzin. ATi had het écht niet anders gedaan als hun R600 in november klaar was geweest. Nu is het echter een halfjaar later en ligt de situatie heel anders: Vista wordt nu al massaal gepushed door alle grote pc-bouwers.
@ CJ aka als de grootste ATI fan die .nl ooit gekend heeft.
De benchmarks van de meeste sites laten anders zien?
Ok laten we eens kijken dan. Een samenvatting van conclusies van reviews die de XT vergelijken met de GTS640:

VRzone:I'd say that there is no clear winner between the 8800 GTS and X2900XT, the GTS displayed more consistent performance behavior while the X2900XT fluctuates around due to the in-matured driver.

[H]:The Radeon HD 2900 XT is late to the party and unfortunately is bringing with it performance that cannot compete. The GeForce 8800 GTS 640 MB is $50 cheaper, performs better, and draws a lot less power than the 2900 XT

Guru3D: Sometimes it has a hard time keeping up with a 320MB 8800 GTS

Techpowerup: it makes a terrific option for those who want more performance than a GeForce 8800 GTS can deliver and don’t want to pay for a GeForce 8800 GTX.

Hexus: The HD 2900 XT is also speedy enough to give the GTS 640 better than it receives, and it should sell well.

DH: In fact overall the XT is slower than the GTS when it matters.

TR: Ultimately, though, we can't overlook the fact that AMD built a GPU with 700M transistors that has 320 stream processor ALUs and a 512-bit memory interface, yet it just matches or slightly exceeds the real-world performance of the GeForce 8800 GTS. The GTS is an Nvidia G80 with 25% of its shader core disabled and only 60% of the memory bandwidth of the Radeon HD 2900 XT. That's gotta be a little embarrassing.

HH: the Radeon HD 2900 XT and standard GeForce 8800 GTS traded victories, but more often than not the GTS pulled ahead

We zien dus slechts 2 sites die de XT beter vinden.
Dit is natuurlijk onzin, de kaart was gewoon niet goed genoeg en had een zoveelste respin nodig. Had niks met de drivers te maken.
"Zoveelste respin"? Pardon? Als je even kijkt naar de core-pics, dan zie je dat dit gewoon de A13 revisie is en dat is heel vaak de uiteindelijke revisie bij ATI GPUs. A11 was de eerste sample, A12 hier ging inderdaad wat mis (engineer was vergeten connectie te maken met bepaalde onderdelen binnen de GPU), A13 final.
Waarom kost deze kaart dan meer dan een GTX320 en GTS640? Kaarten die evengoed presteren?
De benchmarks van de meeste sites laten anders zien?
Hoezo? ATI heeft een kleiner procedee nodig (80nm) en een grotere geheugenbus (512bit) om een kaart te maken die veel meer verbruikt en trager is dan de concurrent. Hoe kan deze techniek dan een pluim verdienen?
Wat ben je weer heerlijk simplistisch bezig HaLDoL/Aval0ne. Je wilt gewoon zien wat je wilt zien en hebt voor de rest oogkleppen op he?

In dat kleiner procede heeft AMD wel een soundchip, betere videoprocessing mogelijkheden, snellere geometry shaders, een tesselation unit en meer dingen ingebouwd, daar waar nVidia voor de video-output een compleet aparte chip moest bouwen (NVIO), want daarvoor was het 90nm proces niet voldoende geschikt en zou de chip te groot/heet worden.

Tel daarbij op de verschillen in architectuur. Een grotere geheugenbus wil niet automatisch zeggen dat je een betere performance hebt. Andere dingen spelen ook mee, zoals texture units, aantal ROPs etc (waar NV de bovenhand heeft).

Maar goed, dat maakt jou natuurlijk allemaal niets uit, want als er ATI/AMD op staat wordt het al door je afgekraakt.
Sites met een beperkte review wil ik eraan toevoegen. Van het gehalte "tweakers.net" :+
aval0ne: zoek eens een bezigheid. Je zo opwinden over hardware is dwaas en zinloos.

Als je mensen wilt overtuigen zal dat niet lukken door zo te briezen, maar door nuchter met cijfers en specifieke voor- en nadelen te komen, zodat iedereen daar zelf zijn conclusies uit kan trekken.

Ati kaarten zijn niet gelijk aan nvidia kaarten dus je kan onmogelijk absoluut zeggen welke van de twee het beste is. Wat je ermee wil bereiken is eerder de factor die je voor één van de twee merken doet kiezen.

K?

Een leuke opsomming van huidige data over de nieuwe HD2900XT:
http://madshrimps.be/vbulletin/showthread.php?t=33239
1) Je zou toch de enige zijn die nu zou zeggen dat nvidia goede drivers heeft (ik heb het dan over Vista)

2) ATi heeft de kaart in Maart uitgesteld, om de drivers verder te Tweaken. Niets mis mee. Zo verkom je dat je slechte drivers hebt tijdens de launch (zoals het 3/4 maanden duurde voordat nvidia pas Vista drivers had voor de 8800)

3) De 2900 is al vanaf 337 euro te krijgen, de 640 ook. Dus de prijs is gelijk.

4) Het procedee heeft toch niets met de prestaties te maken? De 2900 heeft nu eenmaal meer onder de motorkap, en zal daarom ook wel warmer worden en meer energie verbruiken, dat is een gewoon een keuze van ATi/AMD.
Het valt me op dat mensen nogal lopen te vitten op de drivers van nVidia, maar daarbij de nuancering dat het alleen de Vista-drivers zijn die problemen hebben (of misschien beter: hadden, want het ergste is duidelijk achter de rug) weglaten. Het was een paar maanden vervelend voor een klein groepje Vista-gebruikers, maar die konden ook op hun klompen aanvoelen dat ze tegen dit soort problemen aan gingen lopen als ze per se als één van de eersten over wilden stappen naar het nieuwste van Microsoft. De XP-massa had ondertussen nergens last van.
Deze kaarten zijn expliciet gemaakt voor Vista (DX10 zou volgens Microsoft alleen voorbestemt blijven voor Vista). Dus zijn de Windows XP drivers geheel oninteresant in de vergelijking. Terugwaartse compatibiliteit is zeer leuk, maar de kaarten zijn er niet voor ontworpen. Het had dan logischer geheten dat er juist problemen zouden zijn met de Windows XP drivers, om de nieuwe technologie compatible te houden. Gezien Vista enorm is uitgesteld, en met heisa en marketing, iedereen op Vista zat te wachten (diegeen die daar gevoelig voor zijn), had nVidia alle tijd onbenut gelaten. Zelfs een XGI Volari werkt flawless onder Vista.

Het groepje is veel groter dan je denkt.
Dus volgens jouw redenering kopen we deze Ati HD 2900 XT voor DX10 spellen, en spelen we daarna gewoon geen DX9 spellen meer :? |:(
Madrox, je trekt het uit zijn verband.

Ja, volgens mijn redenering is de 2900XT eigenlijk alleen interessant voor DX10 momenteel. DX10 is momenteel alleen voor Vista. De Vista drivers zijn zeer belangrijk en vinden prioriteit 1.

Nee, er zijn nieteens DX10 spellen. Daarom zou terugwaartse compatibiliteit ingebouwt moeten zijn. Deze zal je ook moeten vinden onder Vista. Gezien hetzelfde platform, dezelfde prioriteit 1.

Nee, Vista is een geflopt OS tot op heden. Onderbouwing kan ik wel geven, maar is off-topic. Waar het wel om gaat is de terugwaartse compatibiliteit naar een ander OS. Doe je dit niet, heb je een probleem als fabrikant. Maar omdat de videokaart DX9 compatible is en ontwikkeld is voor DX10, dit alleen te vinden is onder Vista en niet onder Windows XP, 2000 etc, heeft dit prioriteit nummer 2.

nVidia heeft laten blijken deze prioriteiten te hebben omgedraait, en daardoor dus veel eerder met de lancering dan Ati.

Ik heb dus nimmer iets gezegt wat kan suggereren dat er geen DX9 spellen meer gespeelt worden, want dan kan ik op mijn beurt suggereren dat jij geen DX9 spellen meer speelt als je over stapt naar Vista.

Neem als extra voorbeeld de 3Dlabs Wildcat Realizm 800. Deze kaart is ontworpen voor alleen CAD en met name modelling met extreem veel polygonen. Trekt in bepaalde situaties de modernste Quadro nog onderuit. Deze kaart is volledig DX9.0 compatible, maar presteerd dan als een Ati 9800XT.
Denk toch dat je de plank misslaat. DX9 is nog héél belangrijk voor de GPU-bakkers, alleen al omdat alles wat de klok slaat nu nog DX9 is. Ati zou hier een grote gote fout maken als ze zouden denken en handelen zoals jij zegt. Niks anders dan natte vingers werk van jouw kant dus, nergens kan je onderbouwen wat je nu zegt !

Wat is trouwens een zuivere DX10 kaart :?
Als de ATI HD2900XT een "zuivere" DX10 kaart is zoals jij veronderstelt; zou ik verwachten dat die kaart uberhaupt geen DX9 spellen kán draaien.

Begrijp echter wel wat je zegt. Maar ook al ontwerpen ze een chip toegespits naar ene bepaalde standaard, maakt dat het nog géén zuivere "iets" kaart. Je geeft zelf al het voorbeeld met die CAD-cam kaart. Uitermate geschikt voor CAd-Cam omdat die daarvoor ontworpen is, maar tegelijkertijd netzogoed ontworpen om met DX9 te kunnen omgaan. Het ene sluit het andere niet uit.

Een vrachtwagen is puur een ontwerp voor een speciek doel, het zal nooit een auto zijn; andersom ook. Kijk, da's pas een voorbeeld :+

Blijkbaar kunnen jouw "zuivere" DX10 kaarten nog prima met DX9 (of lager) spellen overweg. En da's maar goed ook :*)
Anoniem: 155599 14 mei 2007 09:05
Erg jammer dat ze een half jaar later nog steeds geen claim mogen maken op de performance kroon.
deze kaart is niet gemaakt om te concureren met de 8800gtx maar gts en dat doet deze kaart ook erg goed.

voor dezelfde prijs heb je de keus tussen de 8800gts of deze kaart 2900xt. (die bijna even goed presteert als de 8800gtx in sommige spellen)

de keus is dan snel gemaakt lijkt me

ik vind trouwens wel dat er nog steeds een behoorlijk gat zit tussen de 2600 pro en de 2900xt. dat moeten ze echt opvullen willen ze een beetje markt winnen.
en de geheugenbus van 128mbit is ook niet meer van deze tijd, dat moet toch echt een stuk hoger zijn bij de 2600pro
Daarom komt er in Q3 een kaart op basis van een RV670 core. Dat wordt waarschijnlijk één met een 256 bit geheugenbus en zou de naam HD 2900 Pro moeten dragen.
deze kaart is niet gemaakt om te concureren met de 8800gtx maar gts en dat doet deze kaart ook erg goed.
Dat ligt er maar aan hoe je het bekijkt. Uiteindelijk moesten ze hem wel tegenover de GTS zetten, maar ik geloof geen seconde dat ATi intern niet de doelstelling had om ook een concurrent voor de GTX uit te brengen.
en zelfs als dat zo was, het maakt toch niets uit???
het gaat erom dat deze kaart op dit moment zo geprijsd is en dat de prestaties zo zijn dat hij een waardige concurrent is voor de 8800gts... daarbij maakt het toch niet uit of het oorspronkelijk bedoeld is geweest om beter te zijn.

er komt nog een 2900xtX trouwens dus je weet nooit wat dat gaat brengen
Wat jij uit het oog verliest, is dat ATI die 2900XTX nu al uit had willen brengen, maar dat ze dat te elfder ure niet konden doen omdat bleek dat er iets mis was met de geheugen implementatie. Dat ze met alleen de 2900XT er vervolgens nog een leuk marketing verhaal omheen kletsen, om net te doen alsof het allemaal zo bedoeld was, betekent natuurlijk niet dat een beetje tweaker daar niet dwars doorheen kan kijken.
Dat is dan natuurlijk ook de HD 2900 XTX.. (je weet wel die monsterkaart van 29 cm) (OEM versie)
@dangerpaki
Maar voorlopig heeft nVidia alleen maar de Ultra uitvoering uitgebracht van de 8800. Zij hebben nog de mogelijkheid om een 8900 of 8950 uit te brengen net zoals bij de 7x00 serie.
Die zal dan vast wel bedoeld zijn om de kroon vast te houden.
128 mbit geheugenbus? :o

Wat een über-kaart!

Dit moet uiteraard 128 bit worden ;)
Wat vind jij gaaf aan een 128 milibit bus?
deze kaart is niet gemaakt om te concureren met de 8800gtx maar gts en dat doet deze kaart ook erg goed.
De 2900 XT lijkt mij DE high-end kaart van deze serie. Als ATI/AMD niet meer zou gaan concurreren op het high-end niveau dan is het einde zoek. nVidia heeft de 8800 GTX al een half jaar uit en dus zou het niet gek zijn als ze binnenkort een energiezuiniger en/of goedkoper model introduceren. Ongeacht de prijs zullen veel mensen toch het snelste van het snelste willen.

De benchmarks zullen ATI/AMD ook wel erg tegenvallen, want vooraf werd de 2900 XT toch geïntroduceert als de kaart die alle concurrentie zou moeten wegblazen.
De HD 2900 XTX dan? Dat monster van 29cm?
dat zal ook wel gebeuren paar drivers verder in dX10 games. :)

Maar top high-end? er is er maar ééntje de XT.
ATI kan nog naar boven uitbreiden en naar onder met
XTX
XTX P
XTX PE
naar onder
GT
pro
XL
LE


Denk zo'n 3 á 4 modelen en toch zeker nog een er boven mischien wel twee. Zoú 'n R600 op 65nm kunnen zijn 'n R650

De 12" kaart is 'n OEM HD2900XT met 1GB GDDR4 5% hogere core clock. PResteerd dus als 'n xT wirdt vaak gezien als een xTX maar is dat dus niet.

'n xTX die moet minstens 800Mhz draaien en op 80nm houd dit een ver over 200watt aan vermogen. Volgens mij d eredend at ie niet komt aangezien AMD?ATI een marge moet aanhouden van 300Watt met OC in gedachte en dan de koeler? 3 slot's.

OEM kunnen efficent hun OEM kasten ontwikkelen om zo'n kneppert efficient te intergreren. daarom die 12" is ene Kast intergraal design isue.

Zo'n OEM computertje wordt dan toch interresant.
Tja, niet overtuigend maar de kracht van de ATI kaart zal wel liggen in DX10, even afwachten dus. Overigens wel natuurlijk een uitstekende prijs/prestatie verhouding.

Zeer benieuwd of er in Juli ook Core 2 duo laptops verschijnen met de HD 2600 XT :+
maar de kracht van de ATI kaart zal wel liggen in DX10
DIt is echt de laatste strohalm waar ati fans zich aan vastklampen. Wel laten we deze myhte eens en voor altijd ontkrachten met een DX10 game benchmark:
http://www.guru3d.com/article/Videocards/431/17/
http://www.presence-pc.co...-Radeon-2900-XT-22674/23/
Uit je eigen benchmark:
Performance, well it has to be said: the HD 2900 XT definitely shows potential in DX10, doesn't it? Sure it's no GeForce 8800 GTX, but for the money in this demo it shows excellent performance.
Benchmark was van 'Call Of Juarez', persoonlijk kijk ik meer naar Crysis uit, waar nog geen echte benchmarks van zijn.

En zo is het. Tweakers zegt het ook nog mooi op het einde:
"de Radeon HD 2900 XT er niet in geslaagd om nVidia van de prestatiekroon af te stoten." "ATi heeft echter goed begrepen dat de prestaties slechts één onderdeel van de vergelijking zijn, de prijs is minstens zo belangrijk." "Als je op zoek bent naar een goede videokaart in het 300 à 400 euro prijssegment is de Radeon HD 2900 XT momenteel de beste oplossing."
Scheelt mij weer een hoop tikwerk.. :D
Techreport (en anderen) zeggen juist weer iets heel anders:
Ultimately, though, we can't overlook the fact that AMD built a GPU with 700M transistors that has 320 stream processor ALUs and a 512-bit memory interface, yet it just matches or slightly exceeds the real-world performance of the GeForce 8800 GTS. The GTS is an Nvidia G80 with 25% of its shader core disabled and only 60% of the memory bandwidth of the Radeon HD 2900 XT. That's gotta be a little embarrassing. At the same time, the Radeon HD 2900 XT draws quite a bit more power under load than the full-on GeForce 8800 GTX, and it needs a relatively noisy cooler to keep it in check. If you ask folks at AMD why they didn't aim for the performance crown with a faster version of the R600, they won't say it outright, but they will hint that leakage with this GPU on TSMC's 80HS fab process was a problem. All of the telltale signs are certainly there.
Andere reviews zijn veel uitgebreider dan deze mini-review van Tweakers; mijn voorkeur gaat dan ook uit naar die andere conclusies.
@Madrox: Ik vind dat ATi het juist goed doet (ben zeker geen fan boy, van jaren GeForce te hebben gehad nu eens een X1950 Pro (vanwege betere bang per buck). Ik heb geen voorkeur eigenlijk. Alleen wat ik zie is dat ATi nu met deze serie een hele andere weg ingeslagen is, en dat eigenlijk best wel aardig heeft gedaan. Als ATi weer een nieuwe serie uitbrengt 3x000 ofzo zal deze natuurlijk wel weer veel beter zijn. Om zomaar van architectuur te veranderen zitten vooral in begin wat knelpunten.

Qua prijs vind ik het net als tweakers een zeer nette kaart.

Tevens vergeet niet dat de drivers er meer eruit zullen halen, ook omdat dit een nieuwe architectuur is kunnen nog overal performance eruit geperst worden...

Tevens ontken ik niet dat nVidia ook een zeer nette serie heeft neergezet met de GeForce 8. Ik ben voornamelijk nieuwgierig naar de 2e generatie DirectX 10 kaarten. Daar zitten meestal allerlei tweaks in..

Dan zullen we zien wie de juiste beslissing heeft gemaakt. :) Eigenlijk ben ik wel blij dat ATi een andere manier gekozen heeft. Nu heb je wat meer keuze. Lijkt dat ATi meer voor features gaat etc terwijl nVidia nog zeer performance gericht is.
Anoniem: 9449 @aval0ne14 mei 2007 15:22
Je kan niet ontkennen dat het potentieel in de drivers (zowel DX9 als DX10) hoger is bij ATi dan bij nVidia. Omdat de 8800 al 6 maanden op de markt is neem ik aan dat nVidia hier toch meer tijd voor gehad heeft.

Misschien kan in de review nog toegevoegd worden welke drivers gebruikt zijn.
Uh Beta drivers en dan bedoel ik wachteers af totdat de driver alles uit G80 en R600 halen. En de betere DX10 titles uit zijn. Unreal 3 en Crysis.
Dan Dx10 Geoshaders en testalation unit daar licht de kracht. Uiteraard kan je Dx10 ook zonder toepassen. Dus Ik wacht op
MSFSX DX10 Patch die dev beweren dat de R600 geoshaders veel krachtioger zijn. En waarschijnlijk die kracht gaan utilizen.
Dice ook.
Crysis maybe?

Kan ook zijn dat FSAA en AF zo inhakt bij de R600 dat de Dx10 gain totaal teniet gedaan is.

Ik vraag me dan ook af of Drivers dit nog kunnen veranderen. De R600 is nogal op veel vlakken programable. Ook AA AF modes.

Met Vista XP en 32/64bit flavors OpengL en Linux Dx9 DX10 Drivers is er nogal wat te optimaliseren.
De kracht ligt ook in de meeste klap voor je euro! :)
Ik voel me bij deze performance/prestatie veel minder genaaid dan bij de 8800 GTS.

Hoge loadverbruiken bij dit soort kaarten ok, daar kom je voorlopig niet onderuit, maar het idle-verbruik bij de 8800 serie is rampzalig hoog. Ik ben erg benieuwd naar het verbruik in idle bij deze ATi 2xxx serie.
http://enthusiast.hardocp...M0MSwxNSwsaGVudGh1c2lhc3Q=
The Radeon HD 2900 XT is an inefficient power hog. Using the 2900 XT card will cost you more power than a GeForce 8800 GTX while delivering to you sub-8800 GTS performance. That is not a small difference in terms of performance per watt.
Ook hier scoort de HD 2900XT niet geweldig, net zoveel stroomverbruik als de 8800GTX en zo'n 20watt méér dan de 8800GTs. Bovendien valt de reviewers op, naarmate de temperatuur hoger is in de kast; het stroomverbruik toeneemt. Het opmerkelijke hierbij is dat dat bij Nvidia zo'n 10watt is (bij 55c csetemp), terwijl dat bij de Ati-kaart oploopt to zo'n 30watt.

En ik voel me bij deze kaart (2900XT) méér genaaid door de niet geweldige performance, bij gelijke prijs, méér stroomverbruik en méér herrie }>
Ja, inderdaad. je hebt helemaal gelijk.
sjongejonge... al die maanden voor niks gewacht :P
Als ze dat hogere energieverbruik net zo goed hebben gezien als de 'sub 8800GTS performance'... Nérgens in de test van tweakers presteert de 8800GTS beter dan de 2900XT..
@phreako

Ze hebben een 320MB versie getest op 1680x1050, misschien dat een 640MB versie wat dichter in de buurt komt.
Die ringbus zat ook al op de X1800 serie en de X1900 serie, die niet erg uitblinken qua stroomverbruik. Ik denk eerder dat het komt door het eerder aangehaalde leakage en die 700m transistors. Die lusten nog wel een aardig slokje.
Ik denk dat de HD2900XTX op 800Mhz wel de gTX aankan met gemak met drivers die er bijn alles uit halen. Aleen dan zit je met 250 á 300Watt.
Denk dat dat de reden is dat ie is uitgesteld.

Sinds die ringbus is het vermogen groter geworden?

Voor €350 is het een goeie en full featured koopje.
Jammer dat de benchmarks zo beperkt zijn.
Zeker voor de mensen met een 24 inch scherm die op 1920x1200 draaien is het erg belangrijk om te weten hoe het geheugenverschil tussen de 8800GTS 640MB en de 2900XT 512MB zich vertaalt op die resolutie.

Het zou voor mij de doorslag geven of ik voor de GTS of de XT moet gaan...
Voor jou is de geheugenbandbreedte belangrijker wellicht dan de kwantiteit. Er zijn maar enkele spellen die meer dan 256MB geheugen willen, gemeten op 1680x1050. Op hogere resolutie wordt meer geheugen verbruikt, in mijn ogen zal deze bottleneck van minimaal vereist geheugen niet op 640MB liggen. Wel is uit de praktijk naar voren gekomen dat het 320MB model niet meer afdoende is op een res. van 1920x1200, met nieuwere spellen.

Zo zal de 8800GTS 320MB in elk geval geen keuze zijn. De 2900XT en 8800GTS 640MB zijn nagenoeg even duur. Ik zou zelf de keuze nemen voor de bandbreedte, en die is bij ATI veel hoger dan bij nVidia. 512bit vs 320bit.

Gezien het minieme verschil zal ik andere aspecten in acht nemen. Ik doel niet op het energie verbruik, maar driverondersteuning etc. Ik zie zelf ook een hoger potentieel bij ATI mocht er echt effectief gebruik gemaakt gaan worden van DX10. Echter is dit niet tastbaar.
De 2900XT en 8800GTS 640MB zijn nagenoeg even duur. Ik zou zelf de keuze nemen voor de bandbreedte, en die is bij ATI veel hoger dan bij nVidia. 512bit vs 320bit.
De GTS is goedkoper. Ik denk dat de consument en de tweaker niet naar de bandbreedte kijkt, maar wel naar prestaties, stroomverbruik, warmteontwikkeling en luidruchtigheid van het koelsysteem. Op al deze punten moet de XT onderdoen.
Gezien het minieme verschil zal ik andere aspecten in acht nemen. Ik doel niet op het energie verbruik, maar driverondersteuning etc.
Waarom geen energieverbruik? Dit lijkt me toch een zeer belangrijk punt.
Ik zie zelf ook een hoger potentieel bij ATI mocht er echt effectief gebruik gemaakt gaan worden van DX10. Echter is dit niet tastbaar.
Je ziet het maar je kan het niet staven. Zo win je geen discussies. Kijk naar de DX10 benchmark op guru3d en doe dan een uitspraak.
Het verschil tussen 337 en 327 euro is maar 10 euro, goedkoper echter marginaal.

Het verschil in energieverbruik ligt maar op 15 Watt, daarvoor krijg je wel extra functionalitiet betreft hardware acceleratie op de GPU, wat op de CPU veel meer bespaart dan die 15 Watt. Het is dus een tie, dan verbruik je 15W meer, dan bespaar je het weer. Dus het is per applicatie afhankelijk en dus oninteressant als je het echt mee neemt. Wil je energie besparen neem je geen dergelijke kaart. Geen 8800GTX, geen 2900XT.

De opbouw van het koelsysteem is identiek. Per definitie zou het goedje evenluidruchtig moeten zijn. Mocht een 2900XT meer lawaai maken dan de 8800GTX, wil dit waarschijnlijk alleen zeggen dat hij stock sneller draait. Kwestie van toerental terug brengen.

De prestaties kan je nu nog niet zuiver meten. Het is een zuivere DX10 kaart, er zijn nog geen DX10 games. Hier is mijn vermoeden dat de 2900XT beter zal presteren, gezien DX10 games meer geoptimaliseerd zullen zijn voor parallellisatie, waar ATI overdrijft met 320 stream processoren. Neem dan als vergelijking CPU's, een quad core doet soms onder voor een dual core, dual core voor single core, omdat applicaties in één thread lopen. Optimalisatie. Nu drukken de GPU ontwikkelaars dit door en zal er een optimalisatie plaats gaan vinden.

Geoptimaliseerde programma's kunnen clusters aan spreken. 320 processoren zijn samen 300x zo snel als één computer.

Vaak trekt men dan een vergelijking dat een single core 3000MHz sneller is dan een quad core 2800MHz, uitgaande van dezelfde IPC. Multithreaded zit je op 3000MHz vs 11200MHz.

320x 742 = 237,44GHz
96x 1200 = 115,20 GHz

Er is dus een veel groter potentiaal. Benchmarks zeggen mij niets, helemaal niet als het voor de makers van DX10 benchmarks ook een ontastbaar punt is. Daar vergelijk je andere punten, om in te schatten welke het beste uit de bus zou kunnen komen, als de tijd er wèl rijp voor is. Dan is het al zowiezo logisch om te voorspellen dat met zoveel geweld er een stukje inefficientie in sluipt, en je dan graag terug wil vallen naar het L2 cache, die geheel afwezig is bij de 8800GTS. Een dubbel voordeel.

[edit]
Ik klink momenteel sterk als een ATI fanboy, ik heb dit geweld niet nodig en hangt naar tevredenheid een 7600GS in mijn PC. Het is dus geen kwestie van merk vooroordeel.

[edit2]
[quote]
Heb je ook nog goede koopadviezen
[/quote]
Ik krijg vaker mensen langs met jouw manier van praten. Die komen later terug "had ik maar naar jou geluisterd".

Ik laat het geheugenbandbreedte in het midden, jij dikt het aan en hebt daarmee juist toegegeven dat de 2900XT superieur zou zijn aan de 8800GTS.

(Voor als je het niet snapt, zo redenneer jij. Jij noemt namelijk 2 quotes met exact dezelfde inhoud tegenstrijdig. Dat het een mix van allerlij onderdelen is, wat het totaalplaatje levert, helemaal gelijk. Hoe presteren de kaarten onder Doom 4? Quake 5? etc. Inderdaad, hedendaagse benchmarks zijn puur t/m DX 9.0c. Ze zeggen geen zak over de 8 duizend serie van nVidia en ATI 2900XT. Daarbuitengelaten zijn benchmarks willekeurig, en helemaal een DX 10 benchmark zonder dat er in de praktijk een DX 10 spel is. Dan ga je de componenten bij elkaar optellen, hoe het plaatje er uit kan komen te zien. En hier heeft de 2900XT meer in zijn mars. Wie ermee het efficients om kan springen is pas van belang als DX10 zijn echte intrede doet)
Het is dus geen kwestie van merk vooroordeel.
Oke, laten we daar dan vanuitgaan. Wil je dan eens de HD 2900XT vergelijken met een 8800GTS ipv een GTX. Daar, waar die gezien wat ik zie overal lees ook thuishoort!

Dan ziet het plaatje er ineens héél anders uit.

- scoort +/- gelijk dan de 640Mb versie van de 8800GTS
- verbruikt gemiddeld tussen de 20watt(idle) en 100watt méér
- is ongeveer net zo duur
- maakt behoorlijk méér geluid
- is een heethoofd

Dat zijn niet bepaald voordelen, zou ik zeggen; integendeel. oke, nu enkele voordelen:

Tesselator unit (programmeerbaar)
Understanding tessellation is very easy; it simply means having a shape repeated without overlapping or gaps between them.

en..
Currently in DirectX 10 having a tesselator processor is not required. However, in future versions of DirectX the tesselator is part of the pipeline and will be required. Eventually NVIDIA will have to add this in as well.

en..
ATI is currently ahead of the game as far as this technology goes. However, it is one of those things that has to be utilized by the game developer. The game developer has to specifically make their games utilize the tesselator engine, if they do not it is simply a piece of hardware in the GPU which goes un-utilized. This somewhat reminds us of Truform, ATI never could get support with that feature. However, this is a different scenario because the tesselator will be part of the DirectX spec in the future. It is helpful to game developers to have it in there now so they can start experimenting with it.
Een twijfelachtig plusje voor de toekomst dus, tesselator zal door de programmeurs gebruikt moeten worden in de nieuwe generatie spellen; tenminste, als ze dat willen dan en/of nodig vinden.

Kan verder weinig voordelen ontdekken, mogen ze er zijn hoor ik dat wel.
Hardware Junk: Ik zou zelf de keuze nemen voor de bandbreedte, en die is bij ATI veel hoger dan bij nVidia. 512bit vs 320bit.
Da's bijna net zo'n nutteloos argument als "meer geheugen onboard=altijd beter"; wat je vaak hoorde. Bandbreedte zegt maar een klein beetje; het is de mix van onderdelen wat het totale plaatje levert. En dat bewijzen de benchmarks dan ook; 512bit = ruim 50% meer dan 320bit, dat zie je nergens terug in de benchmarks; verre van.

Heb je ook nog goede koopadviezen :?

LOL
Hardware Junk: Voor jou is de geheugenbandbreedte belangrijker wellicht dan de kwantiteit
Klinkt nogal tegenstrijdig met de opmerking die je eerder maakte, als je het mij vraagt. Immers; voor jou is de geheugen-bandbreedte dé doorslaggevende factor! (zie eerste qoute)
Ik denk dat de consument en de tweaker niet naar de bandbreedte kijkt, maar wel naar prestaties, stroomverbruik, warmteontwikkeling en luidruchtigheid van het koelsysteem.
Haaa, grapjas. Wat was dat ook alweer met Intel en z'n Pentium 4?
Mocht een 2900XT meer lawaai maken dan de 8800GTX, wil dit waarschijnlijk alleen zeggen dat hij stock sneller draait. Kwestie van toerental terug brengen.
Lijkt me niet een mogelijke oplossing aangezien veel reviewers al verklappen dat de kaart behoorlijk heet wordt.
Het is een zuivere DX10 kaart, er zijn nog geen DX10 games.
De G80 is net zo goed een zuivere DX10 kaart, what's your point?
Hier is mijn vermoeden dat de 2900XT beter zal presteren, gezien DX10 games meer geoptimaliseerd zullen zijn voor parallellisatie, waar ATI overdrijft met 320 stream processoren
Het is bekend dat ze promoten met 320, maar als je dezelfde bereking loslaat op de G80 dan heeft die er 256 die op bijna dubbele snelheid lopen en dus vrijwel gelijk aan elkaar. Sterker nog de G80 heeft een voordeel dat er niet geoptimaliseerd hoeft te worden en vrijwel direct goed zal werken.
Het grappige is dat de HD 2900XT wint van de 8800GTX op hele hoge resoluties. Als je 8xAA/16xAF, 2560x1600 draait dan wint de HD 2900XT in 5 van de 8 spellen van een 8800 GTX. (Bij Fear is hij zelfs 78 % sneller dan de 8800 GTX)

http://it-review.net/inde...id=1&limit=1&limitstart=7
Ik neem die review met een korreltje zout, alleen al omdat ik niet kan lezen wat er staat 8-)
je rukt het een beetje uit zijn verband.
Ik zie 4 duidelijke overwinningen en 1x 0.1fps sneller.
Die waarde kun je niet serieus meenemen als overwinning.

Blijft het in 4 van de 8 games sneller en 1 gelijkspel.


Verder word 2560x1600 nauwelijks gebruikt.

Het overgrote merendeel gebruikt niet hoger dan 1900x1200. En dan wint Nvidea op zo'n beetje alles score behalve company of heroes.
Dat valt ook nog wel tegen. Bij 1920x1200 -- de enige de facto HD resolutie op dit moment -- haalt de 2900XT maar 55 fps tegenover 70 van de 8800GTX. En bij FarCry komt de 2900XT maar tot een zielige 66, en wordt door de 8800GTX met een whopping 109 behoorlijk om zijn oren geslagen. En in STALKER moet AMD het met een miezerige 18 fps wel heel erg afleggen. Oy vey.
Ik snap niet dat niet de 640MB versie van de 8800GTS gebruikt is om te vergelijken. Hoewel de 320MB versie een prima kaart is, is de 640MB versie in een paar gevallen behoorlijk sneller. Niet echt een eerlijke vergelijking vind ik.

Daarbij wordt ook niet vermeld dat de 2900XT 60 watt meer verbruikt dan de 8800GTS.
We hadden uiteraard ook het liefst de 640MB-versie meegenomen als vergelijking, maar zoals ook al in de review wordt vermeld zijn we net bezig met het opzetten van de VideoMark 2007-testmethodiek waardoor de hoeveelheid vergelijkingsmateriaal dat beschikbaar was niet zo groot was.
Niet zo groot als je geen AA en AF gebruikt maar dat doen jullie wel dus moet je je conclusie ook zo aanpassen.
ik denk niet dat er erg veel verschil is tussen het ene en het andere qua geheugen verschil. Verdubbeling maakt uit, maar 10-20%... mwoah
Erg handig dit. Alleen wel jammer dat jullie het niet hebben vergeleken met de stock GTX en de 640MB GTS versie (dit is toch al een redelijk hoge resolutie). Het geeft imo nu een beetje een vertekend beeld.

Hm dilemma, ga ik nou voor de GTS320 of deze 2900XT...
GTS320 en deze XT zitten in een andere prijscategorie en aangezien ze bij ati graag met prijscategorien werken moet je eerder naar een GTS640 kijken.
Zoals de benchmarks laten zien is ATi er met de Radeon HD 2900 XT er niet in geslaagd om nVidia van de prestatiekroon af te stoten
Het is een van beide:

- Van de troon afstoten / onttronen
- De kroon ontnemen / afnemen :Y)
http://www.tomshw.it/grap...14&page=ati_hd_2900_xt-24

Hier trouwens wat DX10 (Voor CoJ is inmiddels een DX10 benchmark tool uit) benchmarks :)
:o Nouja dat moest ook wel he, met al die extra technieken aanboord + meer shaders. Jammer dat de 2900XT geen 1Gb geheugen had, dan zou hij ook nog veel sneller zijn op hogere resoluties
Anoniem: 14038 14 mei 2007 10:28
Wat ik hier mis is een verwijzing naar de beeldkwaliteit van de deelnemers.
Die nieuwe ATI heeft wel van die leuke features onboard, maar voegen ze daadwerkelijk ook iets toe aan het beeld?
En wat snelheid betreft lever ik liever wat fps in als het er beter uit ziet.
Qua beeldkwalteit zitten ze op gelijke voet met de 8800 serie, de Nvidia is in sommige gevallen een fractie beter; marginaal en eigenlijk verwaarloosbaar.

Op dit item kan niet meer gereageerd worden.