Nieuwe benchmarks Radeon HD 2900XT

Terwijl AMD in Tunesië een select gezelschap journalisten tekst en uitleg geeft over de R600-architectuur, zijn de eerste benchmarkresultaten en de exacte specificaties van de ATi Radeon HD 2900XT al uitgelekt.

Na een aantal vertragingen heeft AMD nu eindelijk zijn zaakjes op orde, zodat nieuwe videokaarten rond de R600-architectuur in grote getale van de lopende band kunnen rollen. Naast de high-end Radeon 2900-serie, waarvan verschillende versies medio mei op de markt moeten komen, heeft ATi voor het middensegment en de budgetmarkt respectievelijk de 2600- en 2400-serie in de planning. De gelekte details geven inzicht in de mogelijkheden van de Radeon HD 2900XT, een kaart die het moet gaan opnemen tegen de GeForce 8800GTS van nVidia. Om het grafisch geweld van nVidia aan te kunnen, heeft AMD de 2900XT voorzien van 320 stream-processors voor het aansturen van de unified shaders. De 8800GTS heeft 96 stream-processors, maar door een andere architectuur van nVidia zijn niet direct conclusies te trekken over de prestaties. De R600-gpu is geklokt op 742MHz en communiceert middels een 512-bits brede geheugeninterface met 512MB gddr3-geheugen op 1,65GHz.

De 24,1 centimeter lange kaart wordt actief gekoeld en slokt twee sloten op. Verder ondersteunt de R600-gpu uitvoer van hdmi-audio en -video, maar het door DailyTech geteste exemplaar heeft twee dual-link dvi-aansluitingen. De benchmarks zijn uitgevoerd op een Intel D975XBX2, voorzien van een Intel Core 2 Extreme QX6700 cpu en 2GB ddr2-geheugen op 800MHz. De kaart werd onder Windows XP getest met een aantal populaire games en het onontkoombare 3DMark06. De 2900XT houdt zich prima staande tegenover de 8800GTS en weet in enkele spellen de nVidia-kaart te verslaan. Het systeem haalde een 3DMark06-index van 11.447 punten, terwijl de 8800 GTS-configuratie het met 9.836 moest stellen. AMD belooft dat de HD 2900XT - adviesprijs 449 dollar - voldoende voorradig zal zijn. Het bedrijf komt ook nog met de HD 2900XTX op de markt, waarbij het geheugen is verdubbeld tot 1GB en geklokt op 2,2GHz.

ATi Radeon HD 2900XT

Door Dimitri Reijerman

Redacteur

25-04-2007 • 11:21

134

Bron: DailyTech

Lees meer

AMD gaat over op 65nm met de R600
AMD gaat over op 65nm met de R600 Nieuws van 18 maart 2007

Reacties (134)

134
132
43
5
0
74
Wijzig sortering
Tja de resolutie van deze test zegt genoeg namelijk: 1280x1024. En daar heb je gewoon een CPU bottelnek. Ze hadden iets van 1920x1200 moeten testen met AA en AF aan.
En toch is in beide gevallen de CPU gelijk, en toch is er een verschil :+ Blijkt dus dat de AMD kaart wel degelijk beter zijn best doet dan de Nvidia kaart.
Ja daarom en ik denk dus dat de HD2900 XT in hoge resoluties nog veel en veel sneller zal zijn.
@Astennu:
Helemaal met je eens, er zit niet voor niets een HDMI aansluiting op om deze kaart te testen op een dikke HD-TV. En ik lees ook niks over AA & AS, waar Ati kaarten altijd beter uit de verf mee komen... Of zouden ze bij dailytech nogsteeds met een 17" monitor zitten?

En hoezo: De 2900XT houdt zich prima staande tegenover de 8800GTS en weet in enkele spellen de nVidia-kaart te verslaan? Staande houden? Ik zie verschillen van 20%+.

Al met al, een beetje een zwakke review met oude spellen (kom op, Cod2? Half life 2? ). En waar is de 8800GTX in deze vergelijking?
Jep ik denk dat op de hoge resoluties die 8800 GTS niet eens meer in de buurt kan komen van de HD 2900 XT
Anoniem: 63628 @Astennu26 april 2007 22:48
8800GTS is de concurrent van de 2900XT, er komt ook nog een 2900XTX met 1GB geheugen, dat is de concurrent van de 8800GTX.
Euh is alles oke met de redactie? Men zegt hier in dit verslag:

De 2900XT houdt zich prima staande tegenover de 8800GTS en weet in enkele spellen de nVidia-kaart te verslaan.

Maar als je zelf de review leest zie je dat de Ati kaart de 8800GTS 640mb in elke benchmark verslaat!

http://www.dailytech.com/...enchmarks/article7043.htm

Daar komt nog bij dat de drivers van Ati momenteel niet het onderste uit de kan halen en nivida's drivers al een paar updates hebben gehad. En nog steeds verslaat de Ati kaart zelf de nvidia kaart in het teritorium van nvidia FEAR dus ;)
Maar als je zelf de review leest zie je dat de Ati kaart de 8800GTS 640mb in elke benchmark verslaat!
Kijk nog eens goed
Daar komt nog bij dat de drivers van Ati momenteel niet het onderste uit de kan halen en nivida's drivers al een paar updates hebben gehad.
Nu zijn de drivers van NVIDIA ineens goed en die van ATI slecht?
Ja, oke de nvidia kaart is sneller in HL2 maar toch de kaart verslaat nog steeds de nvidia kaart in de meerderheid van de benchmarks en de conclusie van de redactie op tweakers is nog steeds verkeerd.

En iedereen weet dat er bij de nieuwe kaarten altijd flinke prestatieswinsten bijkomen naar een paar driverupdates. Dus ik zeg niks over de kwaliteit van de drivers maar gewoon een algemeen bekent feit?

Daarnaast werd de ATI kaart gedraaid op een RC4 driver versie, waardoor de uiteindelijke resultaten kunnen verschillen (c) Hardware.info
Die van nVidia zijn ook niet goed maar die forceware 156.x zorgen wel voor een boost.

En het is belaggelijk dat ze na een half jaar nog steeds geen goede drivers hebben voor hun top kaart :r

Oudere producten krijgen niet eens meer nieuwe drivers :r :r :r :r :r :r

Mijn 7600 Go gaat dus vervangen worden voor een RV630 mobility.
Kijk eens naar de kleine lettertjes :7 Halflife 2 is opnieuw getest en daarin was NVIDIA wel sneller
De 2900XT houdt zich prima staande tegenover de 8800GTS en weet in enkele spellen de nVidia-kaart te verslaan.
in enkele? in alle geteste spellen weet hij de nvidia te verslaan als ik naar de bron kijk.
of slaat het enkele alleen op het feit dat er maar een paar games getest zijn?
Half-life 2 score al eens bekeken? Verder valt het allemaal wat tegen , de kaart is te duur om een GTS concurrent te zijn en weet deze 6 maand oude kaart amper te verslaan.
Maar de test boeit niet echt, hogere resoluties met AA en AF en IQ vergelijkingen lijken me veel interessanter
uhm ja daar scoorde deze kaart zelfs 100% meer als de 8800GTS (omdat de 8800GTS iets verkeerd doet).
edit (ok nieuwe benchmark, verschil is minimaal en voor beide meer als hoog genoeg)

maar oblivion is hij bijna 20% sneller en bij call of duty zelfs richting de 40% sneller.

en hij is niet te duur, hij is maar 40-50 euro duurder omgerekend met btw erbij. het prestaties verschil meer dan waard.
Je moet wel weten dat de HD 2900 tegenover een 640 MB variant werd gezet, niet tegen die met 320 MB.
Je vraag wordt beantwoord in het stukje onder de link naar de bron. Van de 6 geteste games in deze korte review is de nVidia maar in 1 geval sneller ( 5% na een herinstallatie, want in eerste instantie kwam ie niet verder dan ongeveer 50% van de ATi ). De winst van de ATI zit bij games zo tussen enkele procenten tot ongeveer 25% op de geteste resolutie.

Bij SPECviewperf 9 zijn de verschillen nog wat groter en wint de ATi op alle fronten en is dan tot ruim 40% sneller.

Aangezien deze kaart gelijk geprijst is met de 8800 GTS denk ik dat ATi hier eindelijk weer es voor de dag kan komen en nVidia het vuur flink aan de schenen legt met deze kaart(en).
Anoniem: 131035 @CARman25 april 2007 12:06
Over die spec Viewperf 9 resultaten: uit de reacties onder het artikel blijkt dat deze kaart alle werkstation features kon gebruiken (dwz, hij functioneert in viewperf als FireGL, ipv Radeon). Deze features zijn normaal bij een Radeon uitgeschakeld

Dit schept een zeer scheef beeld, aangezien nu onterrecht de indruk wordt gewekt dat een consumer kaart de Quadro FX-5500 kan verslaan.
De XT is de high end kaart van AMD nu aangezien de XTX weer naar later uitgesteld is. Deze staat tegenover de snelste kaart van NVIDIA, zijnde de GTX. Het is duidelijk dat de GTX veel en veel sneller is dan de GTS en dus een betere concurrent van de XT zal zijn.

De prijs heeft hier niets mee te maken, het is net omdat de XT niet aan de GTX kan tippen dat AMD zijn kaart lager prijst dan de GTX. Het is altijd zo geweest, de snelste kaart is altijd duurder.
GTX prestaties voor een GTS prijs?
ik weet wel wat ik zou kopen iniedergeval.
prijs heeft hier dus alles mee te maken.

edit @ jejit
449 dollar....lezen is moeilijk he.

Dat wordt gewoon 450 euro ipv de 400 die op het forum wordt gespeculeerd.
ja voor mij soms wel ja want ik ben dyslectisch maar desondanks had ik dat toch al lang gelezen.

maar ik ben het gewoon niet eens met je door jouw uit je duim gezogen aannames.
zoals hierboven als met meerdere voorbeelden is aangetoond dollar prijs =! euro prijs.

edit 2 : OWNED
pricewatch: Sapphire Radeon HD2900 XT 512 MB DDR3 (PCI-e, 2x DVI, HDMI)
bedankt voor de tip devilsprophet :)
449 dollar....lezen is moeilijk he.

Dat wordt gewoon 450 euro ipv de 400 die op het forum wordt gespeculeerd.

Gewoon een stuk duurder dan 8800GTS en maar heel iets goedkoper dan de 8800GTX.

En als de 8800GTX alsnog beter presteert, dan neemt de gemiddelde highend gamer echt wel de 8800GTX hoor.
@bejit:

Zoals hier al eerder is aangetoond: de 2900XT wordt verkocht voor €380 - veel minder dan jouw €450. Dus het regeltje van prijs in dollar = lokale prijs in euro's gaat niet op, helaas.
passief gekoeld met een ventilator? :+
of zijn de midrange kaartjes passief gekoeld?
Wat mij opvalt aan deze kaart:
1. 3x zoveel stream-processors (lijkt mij duurder om zo een gpu-chip te maken),
2. hoger geklockte core-speed (lijkt mij dat er minder yields hiervan uit een pannekoek gaan), en
3. een 512-bits geheugenbus (uit de budget kaarten van nvidia weten we dat een 256-bits bus duurder is om te maken dan een 128-bits, dus dit zal ook gelden voor een 512-bits bus t.o.v. 256).
4. Alleen de 3dmark06 en workstation-score is 20% sneller dan de nvidia-kaart...voor de rest van de game-resultaten liggen deze kaarten heel dicht bij elkaar en winnen ze om de beurt.

En hij is dan misschien 20% sneller dan de kaart van nvidia, maar hij zal dus ook ongeveer 20% duurder worden...Daarbij beloven vooral de eerste 2 genoemde punten een minder goed overklockresultaat te geven dan de nvidia kaart. Dus of deze kaart een betere koop is, zal voornamelijk afhangen van zijn directx 10 prestaties en prestaties op hoge resoluties met AA en AF aan...(en daarin scoorde ati tot nu toe altijd beter dan nvidia, dus dat beloofd wat)
1. 3x zoveel stream-processors (lijkt mij duurder om zo een gpu-chip te maken),
Die SP's zijn een mooi marketingpraatje van ATI. In werkelijkheid heeft de R600 "maar" 64 unified shader pipelines, die ook nog eens op bijna de helft van de snelheid van de SP's in de 8600GTS draaien. Het enige voordeel dat de R600 dan weer heeft is dat je 1 vector operatie kan uitvoeren per clock per pipeline, terwijl de G80 daar 4 SP's voor nodig heeft.
Al zegt dat natuurlijk lang niet alles. De architecturen zijn zo verschillend dat je beter naar benchmarks kunt kijken om te zien welke de beste is.
nvidia gebruikt een 320bit bus niet 256bit (vandaar ook de vreemde hoeveelheden geheugen die ze gebruiken)
ze gebruiken het als een soort tussen oplossing omdat ze 512bit te hoog gegrepen vonden.
achteraf misschien niet eens zo gek gezien de vertraging die de r600 heeft opgelopen.

de 3 keer meer stream processoren maakt niet persee verschil omdat die van nvidia groter zijn omdat ze er min of meer een paar bij elkaar gevoegt hebben. qua hoeveelheid transistoren zullen ze elkaar niet zo veel ontlopen denk ik, in iniedergeval lang geen 300%. niet genoeg om echt uit te maken op de prijs iniedergeval

de hogere kloksnelheid is onder andere mogelijk gemaakt door het wat hogere verbruik(vcore vrij hoog maken), en de kleinere productie process, zonder dat de yields daar onder hoeven te leiden.

en de game resultaten van call of duty (richting de 40%) en oblivion (20+%) geven toch wel aan dat deze kaart veel potentie heeft. deze benchmarks zijn ook gedraaid met pre-beta drivers. ik verwacht dat het verschil de eerste paar driver releases nog wel vergroot word.
behalve dat de eerste paar driver releases van nieuwe kaarten altijd extra performance geven, en die "eerste paar" heeft nvidia al wel gehad nu.
daarbij waren deze van ATI pre-beta drivers en zijn die van nvidia release drivers.
zeker geen loos argument.

en over die vcore, daar had ik beter kunnen zeggen dat ze het gedaan zouden kunnen hebben.
ik gaf alleen wat voorbeelden van hoe je toch een hogere kloksnelheid zou kunnen krijgen zonder dat het slecht hoeft te zijn voor je yields.

en dat je het over budget GPU's had had ik al gezien maar daar hoeft deze gpu niet mee te concurreren en dus ook niet met de goedkopere prijs daarvan.
deze GPU moet conruren met de nvidia's met een 320bit bus, en die is wel wat goedkoper maar ook niet zo veel goedkoper, en zou je de zelfde bandbreedte willen krijgen met een 320bit interface worden je geheugen modules veel duurder.
dus wat is je punt nu?
Anoniem: 117832 @RuudBurger25 april 2007 11:26
Alleen bij de high-end kaarten draait de fan }>
Dat is geen fan, maar een windmolen, die door convectie wordt aangedreven!

De R600 is klimaat neutraal! B-)
ik zou het toch eerder een tornado met PCI-E interface noemen :+
Ik lees begin tweede alinea toch echt "De 24,1 centimeter lange kaart wordt actief gekoeld"
Als dat spel passief gekoeld kan worden, zal het stroomverbruik hoogstwaarschijnlijk een stuk lager liggen dan 240 Watt.
na de overnamen door AMD zijn ze deze gpu op 65nm gaan maken, en dus kloppen die eerdere 240 watt cijfers niet meer.

edit : nee dat ook weer niet, maar 60-80 watt er af is goed mogenlijk.
dat pasief gekoeld zal idd wel een foutje zijn, of allen gelden als je niet 3d bezig bent ofzo.
Het is niet dat het verbruik plots naar 100 Watt is gegaan door enkel een die-shrink, toch?
kan wel als je bij die shrink ineens meer opties hebt om lekstroom te verminderen. Dan heb ik het over dingen zoals ISO en low K.

En je kunt niet zo maar een shrink doen van 80nm naar 65. Wel van 90nm naar 80nm. Maar dat is omdat 80nm een halfnode is. Bij 65nm zul je vaak toch wat dingen aan moeten passen.
Sinds wanneer is het feit of iets passief gekoeld wordt een indicatie voor het stroomverbruik?
Sinds het stroomvervbruik recht evenredig is met de warmteproductie, Wet van behoud van Energie.
Ja en je punt is? Een passief gekoelde kaart die 90°C wordt is niet te verkiezen boven eenzelfde actief gekoelde kaart die daarmee maar 50°C warm wordt.

Actief of passief koelen zegt niets over stroomverbruik, wel iets over de koelcapaciteiten van het koelblok.
Het punt is dat een kaart als de X1900XT die actief gekoeld wordt niet passief te koelen is met een normaal koelblok.

Als jij 200W probeert af te voeren met gewoon koper moet je daar een gigantisch koeblok voor hebben, fabrikanten zullen dus kiezen voor de goedkopere actieve oplossing.
Anoniem: 175233 @aval0ne25 april 2007 11:55
Sinds de koelblokken op een grafische kaart geen 1 meter breed kunnen zijn.

Maarre... die passieve koeling is zeer zeker een tikfout.
Lijkt me vrij logisch toch? Een kaart die enorm veel stroom vreet is onmogelijk passief te koelen (tenzij je een huge-ass koeler monteert, maar dat zal de klant wel niet zo waarderen)
De richtprijs voor de 8800GTS was € 469,-
De richtprijs voor deze kaart is € 450,-

Als je bedenkt dat de 880GTS 640mb nu al voor veel minder te krijgen is waarom zou de uiteindelijke prijs van deze kaart ook niet lager uitvallen ?

Een gefotoshopte 8800 kaart ?

Dacht het even niet... zoek maar eens 8800GTS en 8800GTX foto's op. De s-video aansluiting zit bij alle 8800 kaarten helemaal aan de zijkant. Bij deze kaart precies in het midden > typisch ATi. Ten tweede zit de aansluiting van de fan stekker op een heel andere plek. Ook zitten er bij de 8800 kaarten een rijtje condensators achterop de kaart bij deze kaart zijn die niet te vinden.

Coolermaster had de koeler voor de 8800 serie ontworpen. Mss heeft ATi Coolermaster ook wel in de armen genomen om een koeler te ontwikkelen vandaar veel overeenkomst op het gebied van de koeler.
Bedenk ook dat ATi een groot voordeel heeft, omdat deze kaarten op 65nm gefabriceerd worden. De 'die' van de R600-core is veel kleiner dan die van de G80, wat economisch voordeel oplevert voor ATi.
En welk groot voordeel levert dat ons als consument op? Voorlopig heb ik alleen maar vertragingen en een veel te hoog stroomverbruik gezien. Mooie voordelen zijn dat.
Anders moet je de officiële berichtgeving maar afwachten. Dat stroomverbruikverhaaltje is ondertussen al betrekkelijk oud en afgezaagd geworden.
De kaart staat al voor 380 euro in de pricewatch, dus jouw 450 euro klopt niet helemaal.
De s-video aansluiting zit bij alle 8800 kaarten helemaal aan de zijkant.
ctrl-c
ctrl-v
Ben ik de enige die het vreemd vind dat ze eerst de HD 2900XT laten uitlekken en later pas de XTX?

2 mogelijkheden, of deze XT kan de strijd goed aan met een 8800GTX of er zijn nog altijd problemen maar dan met de XTX.

Het zou super zijn als dit kaartje voor zo'n 400 euro (dollar vs euro + btw) te koop zal zijn en net zo snel of sneller is dan een 8800GTX.

Heb altijd Nvidia gehad vanwege betere drivers maar in de software van Nvidia ben ik het laatste jaar toch wel hevig teleurgesteld.
Als dat al zo zou zijn dan zouden ze er nog een fan op gooien en hem verder klokken tot je de fan nodig hebt om de voorsprong verder te vergroten.
Ben je gek? wie heeft er belang bij om bijvoorbeeld 50% voorsprong te hebben?

Het beste is goed genoeg, of je kaart 10% sneller of 50% sneller is dan de concurrentie is niet zo heel belangrijk, de echte enthousiastelingen kopen hem toch wel, pers je meteen alles eruit wat erin zit dan heb je het probleem dat het later moeilijk wordt om nóg iets snellers te maken.
De XTX launch is weer uitgesteld naar een latere datum.
Waar heb je dat gehoord ? het artikel spreekt over 2 versies op de 18e mei, namelijk de HD 2900XT & HD 2900XTX
Misschien kan ik dan Diablo2 met 1200 fps spelen ipv 1100

:+
Anoniem: 207027 25 april 2007 12:13
Ik ben eerder benieuwd naar het middensegment, dus of de 2600** de 8800 GTS 320 mb qua prijs en prestaties aankan.. De 2900xt is me nog net ff wat te duur..
Dus is daar al wat van bekend?
Anoniem: 173041 25 april 2007 12:17
Op http://www.sallandautomatisering.nl/ kun je hem pre-orderen voor 380,- :) Mooie prijs dacht ik zo!

Op dit item kan niet meer gereageerd worden.