Vandaag heeft ATi zijn eerste generatie DirectX 10-videokaarten, de Radeon HD 2000-familie, officieel geïntroduceerd. Tweakers.net kreeg voor de lancering de kans om de Radeon HD 2900 XT-videokaart aan de tand te voelen. Onze bevindingen vind je in deze review.
De kaarten
Voordat we dieper zullen ingaan op de architectuur van de videokaart eerst een overzicht van Radeon HD 2000-familie. Naast de Radeon HD 2900 XT introduceert ATi tegelijkertijd modellen voor gebruikers met een kleinere portemonnee en voor notebooks. De Radeon HD 2900 XT wordt voorlopig het topmodel van de familie, maar qua prijs concurreert de videokaart niet met de top uit de nVidia-stal. De kaart heeft een adviesprijs van 399 dollar hetgeen omgerekend naar euro’s en rekeninghoudend met btw overeenkomt met circa 350 euro. Hiermee concurreert de kaart qua prijs direct met de 640MB-variant van de GeForce 8800 GTS. Een XTX-versie die de strijd met de GeForce 8800 GTX of GeForce 8800 Ultra aan moet gaan zal waarschijnlijk nog geïntroduceerd worden, maar deze kaart heeft ATi nog niet officieel aangekondigd en het zal nog wel enkele maanden duren alvorens deze verschijnt.
ATi Radeon
HD 2400 Pro
HD 2400 XT
HD 2600 Pro
HD 2600 XT
HD 2900 XT
Stream processing units
40
120
320
Kloksnelheid
525MHz
700MHz
600MHz
800MHz
742MHz
Multiply-Add-rate
42GFlops
56GFlops
144GFlops
192GFlops
475GFlops
Pixel processing rate
4,2 Gpixels/s
5,6 Gpixels/s
14,4Gpixels/s
19,2Gpixels/s
47,5Gpixels/s
Triangle processing rate
262 Mtri/s
350 Mtri/s
600Mtri/s
800Mtri/s
742Mtri/s
Texture units
4
8
16
Render Back-Ends
4
4
16
Geheugencapaciteit
256MB gddr3 128/256MB gddr2
256MB gddr4 256MB gddr3 256MB gddr2
512MB gddr3
Geheugeninterface
64bit
128bit
512bit
Geheugenklok
400MHz
800MHz
400MHz
1100MHz
828MHz
Geheugenbandbreedte
6,4GB/s
12,8GB/s
12,8GB/s
35,2GB/s
106GB/s
Transistors
180 miljoen
390 miljoen
700 miljoen
Procestechnologie
65G+
65G+
80HS
Aansluitingen
vga dvi tv-out incl. hdmi-adaptor
2x dvi tv-out incl. hdmi-adaptor
2x dvi /w hdcp tv-out incl. hdmi-adaptor
Leverbaar per
1 juni
14 mei
Voor de desktop komt ATi initieel met vijf verschillende videokaarten. Voor de onderkant van de markt, het sub-100$-segment, heeft ATi de Radeon HD 2400-serie. De middenmoot wordt gevormd door de Radeon HD 2600-serie die het segment tussen de 99 en 199 dollar moet opvullen en de bovenkant van de markt wordt bediend met de Radeon HD 2900 XT. Hiermee zet ATi direct bij de lancering al een redelijk uitgebreide familie DirectX 10-videokaarten neer: nVidia had bij de lancering van haar DirectX 10-kaarten alleen twee high-end-modellen, maar daar is ondertussen al verandering in aangebracht. Wat wel opvalt is dat er qua prijs een flink gat zit tussen de HD 2600 en HD 2900 XT, en dat er geen ultra high-end-videokaart in het assortiment zit. De ATi Radeon HD 2900 XT is per direct leverbaar. De overige videokaarten zullen over twee weken, op de eerste van juni, in de winkelschappen verschijnen.
ATi Mobility Radeon
HD 2300
HD 2400
HD 2400 XT
HD 2600
HD 2600 XT
Segment
Entry Level
Mainstream Thin & Light
Mainstream Thin & Light
Performance Thin
Gaming Enthusiast
Kloksnelheid
450-480MHz
350-450MHz
500-600MHz
400-500MHz
600-700MHz
Geheugenklok
400-550MHz
400-500MHz
600-700MHz
550-600MHz
700-750MHz
Proces
90nm
65nm
65nm
65nm
65nm
DirectX-versie
DX9.0c
DX10
DX10
DX10
DX10
UVD
yes
yes
yes
yes
yes
PowerPlay-versie
6.0
7.0
7.0
7.0
7.0
Geheugeninterface
64/128bit
64bit
64bit
64/128bit
64/128bit
Leverbaar per
mei/juni
juli
juli
juli
juli
Ook voor het mobiele segment komt ATi met vijf nieuwe videokaarten. Het goedkoopste model is de Mobility Radeon HD 2300 en het topmodel is de Mobility HD 2600 XT. De Mobility Radeon HD 2300 is ontworpen voor notebooks met een prijs tussen de 799 en 999 dollar, de Mobility Radeon HD 2400-serie is voor notebooks met een prijs tussen de 999 en 1199 dollar en voor notebooks met een prijs boven de 1199 dollar is de Mobility Radeon HD 2600-serie. Het opnemen van de Mobility HD 2300 in de productfamilie is enigszins misleidend. Deze kaart heeft wel de ‘Unified Video Decoder’, maar zoals ook te zien is in bovenstaande tabel is het geen DirectX 10-chip. Voor DirectX 10 is de Radeon HD 2400-serie of beter nodig. Verwacht wordt dat de eerste notebooks met de Mobility Radeon HD 2300 in mei of juni op de markt zullen verschijnen terwijl de eerste notebooks met de Mobility Radeon HD 2400 of 2600 in juli zullen verschijnen.
De voor- en achterkant van de Jetway Radeon HD 2900 XT
De R600-architectuur
De R600-architectuur kenmerkt zich door het gebruik van unified shaders, een brede 512bit-geheugenbus en een enorm parallellisme. De Radeon HD 2900 XT is in het bezit van maar liefst 320 ‘stream processing units’ die zowel vertex-, pixel- als geometry-shaders kunnen verwerken. Hiermee kiest ATi voor een andere weg dan nVidia. Ook de nVidia GeForce 8x00-serie maakt gebruik van unified shaders, maar het topmodel heeft er ‘slechts’ 128. Het verschil is dat de shaders van ATi op dezelfde kloksnelheid lopen als de rest van de chip (742MHz) terwijl nVidia de shaders veel hoger klokt. Een ander belangrijk verschil in architectuur is het gebruik van een 512bit-geheugenbus terwijl nVidia niet verder komt dan 384bit bij de GeForce 8800 GTX.
De R600 is de tweede chip van ATi die gebruik maakt van unified shaders. De Xenos die gebruikt wordt in de Xbox 360 maakt ook al van deze techniek gebruik, maar ten opzichte van deze chip is er in de R600 veel verbeterd. De gpu ondersteunt DirectX 10 volledig, de command processor is verbeterd om efficiënter kleine opdrachten te kunnen verwerken, de dispatch processor kan latency beter verbergen en de stream processing units zijn gerangschikt als 5-way superscalar shaderprocessors. Wat dit precies inhoudt en wat dit betekent voor de prestaties van de gpu zullen we in de volgende secties behandelen.
ATi heeft een enorm aantal shaderprocessors geïntegreerd in de R600. Er zijn 320 shaderprocessors aanwezig die allemaal vertex-, pixel- en geometry-shaders kunnen verwerken. Om dit enorme aantal te bereiken heeft ATi een belangrijke concessie gedaan: de shader-processors zijn gerangschikt in groepen van vijf waarbij slechts één shaderprocessor alle functionaliteit bezit. Alle shaderprocessors kunnen 32-bit floatingpoint getallen vermenigvuldigen en optellen, maar de ingewikkelde operaties zoals SIN, COS, LOG en EXP zijn voorbehouden aan de dikke processor. Deze operaties worden relatief weinig gebruikt waardoor het geen probleem is dat 80 procent van de processors deze niet kunnen uitvoeren.
Een uitdaging bij een dergelijke grote hoeveelheid processors die tegelijkertijd kunnen werken is om alle processors aan het werk te houden. De ‘Ultra-Threaded Dispatch Processor’ heeft de taak om iedereen aan het werk te houden. De dispatchprocessor heeft verschillende queues met werk die naar een shaderprocessor gestuurd worden zodra deze niks te doen heeft. Wanneer een programma dat draait op een shaderprocessor moet wachten, bijvoorbeeld voor het ophalen van een texture uit een geheugen, wordt deze direct in de command queue gezet en wordt een ander programma gestart. Het eerste programma gaat weer verder met de uitvoering zodra de texture geladen is in het lokale geheugen en de dispatchprocessor het groene licht geeft. De dispatchprocessor kan honderden threads tegelijkertijd in de queues hebben waardoor de shaderprocessors altijd aan het werk gezet kunnen worden en latencies voor bijvoorbeeld het benaderen van extern geheugen nauwelijks merkbaar zijn.
Een ander verschil tussen de R600 en de vorige generatie videokaarten van ATi is het gebruik van cachegeheugens. DirectX 10-programma’s kunnen bijna een ongelimiteerde lengte hebben en gebruik maken van veel variabelen waardoor het onmogelijk is om alles altijd lokaal op te slaan. De R600 maakt daarom gebruik van een cache om tijdelijke variabelen te bewaren en zonodig te verplaatsen naar het externe geheugen. Ook bij de texture units zien we een toevoeging: de R600 is de eerste videochip die een L2-cache heeft tussen de texture units en het externe geheugen. De Radeon HD 2900 XT is in het bezit van 256KB L2-cachegeheugen, de Radeon HD 2600-serie is uitgerust met 128KB L2-cachegeheugen en de Radeon HD 2400-serie moet het doen met alleen een L1-cache.
De R600 herbergt vele nieuwe mogelijkheden dankzij de ondersteuning van DirectX 10, maar er zijn meer nieuwe features aanwezig. De belangrijkste features: tessellation, CFAA en UVD zullen we op de volgende pagina’s uitgebreid bespreken. Wat verder het vermelden waard is, is de ondersteuning om op volle snelheid 64bit hdr-textures te kunnen filteren hetgeen circa 7x sneller is dan de Radeon X1000-serie. 128Bit floating point textures kunnen op halve snelheid gefilterd worden. Verder is er een nieuw textureformaat toegevoegd (RGBE 9:9:9:5) voor 32bit hdr-textures, kan er gewerkt worden met textures met een resolutie van 67 megatexel en is de compressie van de Z- en stencil-buffers verbeterd.
Ook worden 'depth stencil textures' met 'percentage closer filtering' ondersteund waardoor de kaart zogenaamde zachte schaduwen snel kan tekenen. Als laatste is PowerPlay 7 het vermelden waard. Deze feature zorgt ervoor dat delen van de chip zover mogelijk worden uitgezet wanneer deze niet gebruikt worden om zo notebookgebruikers langer te kunnen laten werken op één accu. Volgens ATi kan PowerPlay 7 zorgen voor 15 tot 32 minuten extra werktijd met een accu ten opzichte van PowerPlay 6.
Tessellation
Een van de belangrijke features waarmee ATi de Radeon HD 2000-serie wil onderscheiden van de concurrentie is tessellation. Deze feature is overgenomen van de Xenos-gpu die gebruikt wordt in de Xbox 360 en maakt het mogelijk om objecten met veel detail op het scherm te zetten zonder dat alle polygonen van het model individueel opgeslagen moeten worden. Dit maakt het niet alleen mogelijk voor gameontwikkelaars om kleine modellen te gebruiken, doordat de extra polygonen allemaal lokaal op de videokaart aangemaakt worden is dit ook nog eens aanzienlijk sneller.
Bovenstaande illustratie laat goed zien wat mogelijk is met tessellation. De basis is een model met een beperkt aantal polygonen waardoor het gezicht te hoekig is om realistisch te zijn. Met tessellation wordt het aantal polygonen aanzienlijk opgeschroefd en vervolgens wordt er nog meer detail toegevoegd met behulp van displacement mapping. Het toevoegen van extra polygonen is mogelijk omdat van elke polygoon niet alleen beschreven is wat zijn hoekpunten zijn, maar ook aan welke wiskundige vergelijking het oppervlak voldoet (praktisch altijd een soort van kromme). Dit is wat men noemt een hogere orde oppervlak.
Deze oppervlakken worden gebruikt in professionele 3d-tekenprogramma’s en worden vaak gebruikt in computergegenereerde filmbeelden. De tessellation van de R600-serie is flexibel en kan overweg met verschillende soorten hogere orde oppervlakken zoals Bezier, N-Patches, B-Splines, NURBs, NUBs en ‘Loop and Catmull-Clark’ subdivision surfaces. Het gaat te ver voor dit artikel om in te gaan op de verschillende soorten oppervlakken, maar als je geïnteresseerd bent in meer informatie zijn er uitstekende stukken op onder andere Wikipedia te vinden over dit onderwerp.
Het gebruik van tessellation is niet nieuw voor ATi. In 2001 introduceerde het bedrijf al een vorm van tessellation met TruForm, maar deze techniek is nauwelijks gebruikt omdat het niet flexibel was. Met TruForm werden alle oppervlakken simpelweg ronder gemaakt, iets dat vaak niet de bedoeling is. Deze flexibiliteit is er wel bij de Radeon HD 2000-serie en doordat gameontwikkelaars deze feature ook bij de Xbox 360 kunnen gebruiken is het te verwachten dat de verbeterde techniek meer succes zal hebben. Xbox 360-spellen maken er al gebruik van en bij een port naar de pc kan dit simpel meegenomen worden.
Het valt echter te bezien of de techniek direct zal aanslaan. Tessellation is geen onderdeel van de huidige DirectX 10-standaard en aangezien het merendeel van de videokaarten de techniek niet ondersteunt is het voor gameontwikkelaars niet aantrekkelijk om te gebruiken. De nieuwe versie van DirectX gaat de techniek ondersteunen, maar op de korte termijn zal je er als gebruiker weinig mee kunnen. Potentie heeft de techniek wel, zoals de onderstaande slide uit een presentatie van AMD laat zien.
CFAA
De tweede unieke feature van de Radeon HD 2000-familie die we belichten is CFAA, oftewel custom filter anti-aliasing. Deze methode belooft een betere kwaliteit dan de huidige technieken en kan in tegenstelling tot tessellation direct in bijna elk spel gebruikt worden.
De huidige anti-aliasing technieken maken gebruik van een simpele boxfilter om de uiteindelijke kleur van een enkele pixel te bepalen. Binnen het oppervlak van een enkele pixel worden enkele samples genomen. Deze samples worden bij elkaar opgeteld en vervolgens gedeeld door het aantal samples waardoor een gemiddelde kleur ontstaat. Bij deze techniek zorgt het toevoegen van meer samples per pixel niet voor een evenredige toename in beeldkwaliteit. Betere prestaties kunnen bereikt worden door ook samples te gebruiken die buiten de pixelgrenzen vallen en de gewichten van de samples in het eindresultaat niet uniform mee te laten wegen.
Met CFAA is het wel mogelijk om samples buiten de pixelgrenzen te gebruiken met non-uniforme gewichten. Hierdoor kunnen bijvoorbeeld bovenstaande filters geïmplementeerd worden. De 12x CFAA narrow tent filter kent het meeste gewicht toe aan samples die uit het centrum van de pixel komen wat resulteert in een scherp beeld. De 16x CFAA wide tent filter kent meer gewicht toe aan samples die buiten het pixelcentrum zijn genomen waardoor dit filter beter in staat is om ‘kartels’ te verwijderen, maar dit gaat ten koste van de scherpte. Doordat verschillende soorten filters geïmplementeerd kunnen worden kan de gebruiker kiezen wat belangrijker is: een scherper beeld of minder kartelige objecten.
Een ander type filter die ATi beschikbaar maakt met CFAA is een filter dat kijkt of een bepaalde pixel randen van polygonen bevat en daarmee bepaalt hoeveel samples er genomen moeten worden. Wanneer een rand gedetecteerd wordt dan worden meer samples genomen in de richting van de rand terwijl een pixel zonder randen gefilterd wordt met minder samples en een simpele boxfilter. Deze methode zorgt voor een maximale anti-aliasing waar dit het meest nodig is zonder dat de prestaties er onder te lijden hebben. Alle CFAA-filters zijn softwarematig in de driver gedefinieerd. Nieuwe filters kunnen toegevoegd worden door middel van een driverupdate en bestaande filters kunnen geüpdate worden.
UVD
De laatste belangrijke feature die we apart zullen bespreken is de universal video decoder. De huidige generatie videokaarten is in staat om het weergeven van high-definition video’s te versnellen. Met de Radeon HD 2000-serie gaat ATi een stap verder. In de R600-chip zit een speciaal stukje hardware dat het decoderen van de video voor zijn rekening neemt waardoor de processor en de videokaart niet zwaar belast worden. Hierdoor is het mogelijk om 1080p hd-media te kijken op een systeem met een budgetprocessor en wordt de accu niet zo snel leeg geslurpt wanneer een notebook hd-media afspeelt.
De UVD is in staat om beeldmateriaal dat gecodeerd is met vc-1 of h.264 te ontcijferen. Het belangrijkste component van de bovenstaande pipeline is de entropy decode. Dit gedeelte wordt bij de huidige generatie videokaarten door de cpu gedaan en is erg rekenintensief. Zeker bij het gebruik van de geavanceerdere Cabac-compressie moet de processor hard werken: bij een 2,8GHz Pentium 4 neemt alleen deze stap 47,8 procent van de rekentijd in beslag bij een film met een bitrate van 40Mbps. Door deze stap in hardware te doen kan er een aanzienlijke winst geboekt worden.
Een Core 2 Duo-systeem met een 2,0GHz-processor heeft ruim 80 procent van de cpu-cycles nodig voor het weergeven van een 1080p hd-dvd. Wanneer de processor wordt geassisteerd door een Radeon X1000-gpu zakt de belasting naar circa 65 procent, maar de echte winst wordt pas gemaakt door de UVD. Wanneer deze wordt gebruikt heeft de processor net iets meer dan tien procent van de cpu-cycles nodig waardoor een aanzienlijke energiebesparing gemaakt kan worden. Volgens ATi zakt het opgenomen vermogen van de Core 2 Duo-notebook van 52 watt naar 37 watt, een besparing van 40 procent.
Het efficiënt afhandelen van high-definition video is niet de enige eigenschap die vooral de goedkope kaarten uit de Radeon HD 2000-familie geschikt maakt voor htpc’s. Alle kaarten zijn standaard uitgerust met tenminste één dvi-aansluiting die door middel van een verloopstukje omgetoverd kan worden tot een hdmi-aansluiting. Deze aansluiting kan gebruikt worden om beveiligde films met hdcp af te spelen. De hdcp-encryptiesleutels zijn ingebakken in de R600-chip en niet zoals bij de huidige generatie videokaarten in een externe CryptoRom. Hierdoor is de hdcp-ondersteuning niet afhankelijk van de videokaartproducent. De hdmi-aansluiting kan naast beeld ook audio versturen. Om dit mogelijk te maken is een audiocontroller ingebakken in de chip die via de pci-express-bus de audiodata van de geluidskaart kan doorsturen naar de hdmi-aansluiting.
Benchmarks
We hebben van Jetway een Radeon HD 2900 XT gekregen die we getest hebben met behulp van onze VideoMark 2007-testmethodiek. De geteste games zijn Battlefield 2142, Call of Duty 2, Company of Heroes en The Elder Scrolls IV: Oblivion. De prestaties van de kaart hebben we getest op 1680x1050 met 4x anti-aliasing en voor de liefhebbers zijn er ook resultaten van 1280x1024 zonder anti-aliasing en 1024x768 met 4x anti-aliasing in de Tweakers.net Benchmark Database te vinden. Omdat we pas recentelijk de VideoMark 2007-benchmarkset hebben samengesteld is de hoeveelheid vergelijkingsmateriaal helaas beperkt. We hebben de Radeon HD 2900 XT vergeleken met de onlangs geteste Sparkle Calibre GeForce 8800 GTX en de Sparkle GeForce 8800 GTS 320MB. Tevens hebben we het high-end-model van de ATi's vorige generatie meegenomen in de vergelijking. De door ons geteste Jetway X29XTEN512Q Radeon HD 2900 XT-kaart is identiek aan het referentie-ontwerp van ATi, alleen de sticker op de koeler is anders.
De eerste benchmark die we gedraaid hebben is Battlefield 2142. We zien dat de Radeon HD 2900 XT uitstekende prestaties neer weet te zetten: de kaart is bijna even snel als de veel duurdere Sparkle Calibre GeForce 8800 GTX. Vergeleken met de goedkopere GeForce 8800 GTS 320MB wordt een overtuigend verschil neergezet: de Radeon HD 2900 XT is 38 procent sneller. Bij deze benchmarkresultaten moet in het achterhoofd gehouden worden dat de hier geteste GeForce 8800 GTX geen standaard model is: de Sparkle Calibre GeForce 8800 GTX is standaard een krappe 10 procent overgeklokt.
In Call of Duty 2 presteert de Radeon HD 2900 XT minder goed. De Sparkle Calibre GeForce 8800 GTX is maar liefst 45 procent sneller dan de Radeon HD 2900 XT en zelfs de Radeon 1950 XTX zet een hogere framerate neer. Daar staat wel tegenover dat de kaart wel veel en veel sneller is dan de GeForce 8800 GTS 320MB, maar liefst 116 procent. Waarschijnlijk speelt de lage geheugencapaciteit van de GeForce 8800 GTS 320MB hier een rol in.
In Company of Heroes presteert de Radeon HD 2900 XT niet onaardig, maar ook niet uitzonderlijk. De Sparkle Calibre GeForce 8800 GTX is 25 procent sneller dan de Radeon HD 2900 XT die op zijn beurt weer 40 procent sneller is dan de GeForce 8800 GTS 320MB. Vergeleken met ATi’s topmodel van de vorige generatie, de Radeon 1950 XTX, is de Radeon HD 2900 XT bijna tweemaal zo snel.
De laatste benchmark laat een vergelijkbaar beeld zien, maar met minder verschillen tussen de scores. De Sparkle Calibre GeForce 8800 GTX is 11 procent sneller dan de Radeon HD 2900 XT en de Radeon HD 2900 XT is 19 procent sneller dan de GeForce 8800 GTS 320MB.
Conclusie
Zoals de benchmarks laten zien is ATi er met de Radeon HD 2900 XT er niet in geslaagd om nVidia de prestatiekroon te ontnemen. De beste prestaties worden geleverd door de al zes maanden geleden geïntroduceerde GeForce 8800 GTX of de onlangs geïntroduceerde GeForce 8800 Ultra. ATi heeft echter goed begrepen dat de prestaties slechts één onderdeel van de vergelijking zijn, de prijs is minstens zo belangrijk. Met een prijs van circa 350 euro is de kaart aanzienlijk goedkoper dan de topmodellen van nVidia en wordt er voornamelijk geconcurreerd met de ongeveer 270 euro kostende GeForce 8800 GTS 320MB en de 330 euro kostende GeForce 8800 GTS 640MB. Hierbij moet opgemerkt worden dat de twee GeForce 8800 GTS-varianten ongeveer gelijkwaardig presteren: alleen op hoge resoluties telt de hogere geheugencapaciteit mee.
Vergeleken met deze videokaarten komt de Radeon HD 2900 XT goed uit de vergelijking. Als je op zoek bent naar een goede videokaart in het 300 à 400 euro prijssegment is de Radeon HD 2900 XT momenteel de beste oplossing. De kaart is niet alleen het snelste, maar biedt ook enkele extra features zoals de universal video decoder, hdmi, cfaa en tessellation. Vooral voor de goedkopere leden van de Radeon HD 2000-familie en de Mobile-varianten is de universal video decoder een pre. Het is ideaal voor een htpc en de accubesparing die mogelijk is bij het kijken van een hd-film is niet gering. ATi heeft een interessante serie videokaarten op de markt gezet met de Radeon HD 2000-serie, maar het is jammer dat een high-end Radeon HD 2900 XTX-model ontbreekt.
Dankwoord: Met dank aan Dollarshops voor het leveren van de Jetway Radeon HD 2900 XT.
leuke kaart aan de benchmarks te zien, alleen jammer dat het verbruik hoger ligt dan dat van de GTS, voor energiezuinige mensen is dat misschien al een reden om toch voor een 8800 GTS te gaan. Trouwens, voor benchmarks op hogere resoluties:
O.a. bij Stalker doet de 8800GTS het bij harware.info héél slecht bij 1600x1200, terwijl bij Hardocp de 8800GTS duidelijk de winnaar is. Ik zet mijn geld op Hardocp
hmmm het wordt een kritieke periode voor AMD/ATI volgens mij, aan de ene kant heeft ATI dus problemen met Nvidia, immers het is in mijn ogen erg veelzeggend dat je 6 maanden later iets introduceert wat niet sneller is dan het 6 maanden oude ding van je concurrent.
En aan de andere kant verkeert AMD's eigen cpu divisie in zwaar weer vanwege de Core architectuur van Intel. Barcelona lijkt niet opgewassen te zijn tegen de nieuwe Intels (al is dat nog maar gissen) maar als ik dit lees dan denk ik dat de lucratieve dure game systemen voorlopig opgebouwd zullen zijn rondom Intel cpu's en Nvidia GPU's (geen goed nieuws dus voor AMD/ATI).
In jou ogen komt een concurrent nu pas met een product wat even goed presteerd. Daarintegen zal het me verbazen als nVidia reeds werkende drivers heeft! Dat ATI er misschien iets langer over doet, heeft te maken waarschijnlijk voor de consument dat ze alle puntjes op de i wilde zetten en ze wel direct met goede drivers komen. Daarintegen is de prijs zowiezo beter dan nVidia. En ook een reden van vertraging zou zijn de overname door AMD, dit hebben ze ook niet zomaar gedaan. Als je hier dieper in gaat graven, weet je de reden, en snap je dat het zowiezo iets langer heeft geduurt.
Met AMD hetzelfde verhaal. Wat Intel doet, gewoon 2 dual cores tegen elkaar aan plakken. AMD wil een native quadcore etc. Als AMD met iets nieuws komt, is het vaak een grotere technologische ontwikkeling. AMD heeft toch ook zelf gezegt 'ja, dat hadden wij ook veel eerder kunnen doen'. Ze doen dit om hun naam hoog te houden. AMD heeft zich voor mij bewezen, Intel nog niet voor mij. Een goed merk behoeft geen reclame, het is wel Intel / nVidia die je overal ziet Ik heb zoveel marketingonzin gehoort, als je beweert 100% sneller te zijn en in de praktijk blijkt het maar 10% sneller, is de concurrent voor mij beter.
Een potentiëel probleem met de mindere prestatie van deze videokaarten, van wat je liever verwacht, is de grote parallellisatie wellicht. Pas als hier op geoptimaliseerd is, kan je een extreme winstverwachting hebben. En dan is het toch echt puur in het voordeel van de 320 streamprocessors van de ATI 2900. Ik vind een gelijke prestatie op sommige vlakken, en toch een compleet andere techniek, al een verdiende pluim.
Ik meen te herinneren dat er in het verleden ook zo iets geprobeerd is met de 3Dlabs Wildcat VP. In maar enkele benchmarks scoorde deze goed, in extreem veel baggerslecht. Met DX10 komt het vanzelf wel goed met de 2900.
[edit]
Het getuigt aan de manier van modereren dat enige kennis van zaken ver te zoeken is. Inzichtvol (+2) is een overbodige / flame naar ATI/AMD. Overbodig (0) is deze flame teniet te doen en aan te halen van het verder kijken dan de neus lang is.
Als er een optimaal samenwerkingsverband tot stand gebracht wordt om samen een zeer geavanceerd rekencluster te ontwikkelen, en je net in de overname zit, kunnen dingen wel eens iets uit lopen. Als hierdoor fouten in de chip sluipen, en die opgelost moesten worden, wees dan blij dat ze het uit stellen. nVidia had met de 8800 ook een fout zitten, die last minute omgesoldeerd is. Als dit zo vlak voor een release gedaan wordt, wekt dat voor mij geen betrouwbaarheid. Zeker als je er een testperiode overheen kon doen, en je topmodel evenveel functionaliteit te geven als je midrange, dan had je bij de release stabiele drivers.
Maar er zitten helaas weer te veel game fanaten te modereren, die eigenlijk aan hun schoolwerk hadden moeten zitten. Leg het kuddedierinstinct eens naast jullie neer. DX 10 is next gen.
Daarintegen zal het me verbazen als nVidia reeds werkende drivers heeft!
NVIDIA heeft reeds werkende drivers ja en als je andere reviews zou lezen dan zul je merken dat de ATI drivers niet zonder problemen zaten.
Dat ATI er misschien iets langer over doet, heeft te maken waarschijnlijk voor de consument dat ze alle puntjes op de i wilde zetten en ze wel direct met goede drivers komen.
Dit is natuurlijk onzin, de kaart was gewoon niet goed genoeg en had een zoveelste respin nodig. Had niks met de drivers te maken.
Daarintegen is de prijs zowiezo beter dan nVidia.
Waarom kost deze kaart dan meer dan een GTX320 en GTS640? Kaarten die evengoed presteren?
Ik vind een gelijke prestatie op sommige vlakken, en toch een compleet andere techniek, al een verdiende pluim.
Hoezo? ATI heeft een kleiner procedee nodig (80nm) en een grotere geheugenbus (512bit) om een kaart te maken die veel meer verbruikt en trager is dan de concurrent. Hoe kan deze techniek dan een pluim verdienen?
ATi heeft de kaart in Maart uitgesteld, om de drivers verder te Tweaken. Niets mis mee. Zo verkom je dat je slechte drivers hebt tijdens de launch (zoals het 3/4 maanden duurde voordat nvidia pas Vista drivers had voor de 8800)
Dus jij denkt dat nVidia de G80 had moeten uitstellen van november naar april (of nog later) omdat de drivers voor Vista - op dat moment nog niet eens verkrijgbaar - niet af waren, terwijl alles in XP als een trein liep? Dat ze die nieuwe techniek gewoon in de kast hadden moeten laten liggen en de buitenkans om hun marktaandeel, omzet en winst te vergroten hadden moeten opgeven voor een OS waar de eerste consumenten pas maanden later aan zouden beginnen?
Ik zeg niet dat het niet vervelend was voor Vista-gebruikers, maar zakelijk gezien is het scenario wat ik beschrijf natuurlijk waanzin. ATi had het écht niet anders gedaan als hun R600 in november klaar was geweest. Nu is het echter een halfjaar later en ligt de situatie heel anders: Vista wordt nu al massaal gepushed door alle grote pc-bouwers.
@ CJ aka als de grootste ATI fan die .nl ooit gekend heeft.
De benchmarks van de meeste sites laten anders zien?
Ok laten we eens kijken dan. Een samenvatting van conclusies van reviews die de XT vergelijken met de GTS640:
VRzone:I'd say that there is no clear winner between the 8800 GTS and X2900XT, the GTS displayed more consistent performance behavior while the X2900XT fluctuates around due to the in-matured driver.
[H]:The Radeon HD 2900 XT is late to the party and unfortunately is bringing with it performance that cannot compete. The GeForce 8800 GTS 640 MB is $50 cheaper, performs better, and draws a lot less power than the 2900 XT
Guru3D: Sometimes it has a hard time keeping up with a 320MB 8800 GTS
Techpowerup: it makes a terrific option for those who want more performance than a GeForce 8800 GTS can deliver and don’t want to pay for a GeForce 8800 GTX.
Hexus: The HD 2900 XT is also speedy enough to give the GTS 640 better than it receives, and it should sell well.
DH: In fact overall the XT is slower than the GTS when it matters.
TR: Ultimately, though, we can't overlook the fact that AMD built a GPU with 700M transistors that has 320 stream processor ALUs and a 512-bit memory interface, yet it just matches or slightly exceeds the real-world performance of the GeForce 8800 GTS. The GTS is an Nvidia G80 with 25% of its shader core disabled and only 60% of the memory bandwidth of the Radeon HD 2900 XT. That's gotta be a little embarrassing.
HH: the Radeon HD 2900 XT and standard GeForce 8800 GTS traded victories, but more often than not the GTS pulled ahead
We zien dus slechts 2 sites die de XT beter vinden.
Dit is natuurlijk onzin, de kaart was gewoon niet goed genoeg en had een zoveelste respin nodig. Had niks met de drivers te maken.
"Zoveelste respin"? Pardon? Als je even kijkt naar de core-pics, dan zie je dat dit gewoon de A13 revisie is en dat is heel vaak de uiteindelijke revisie bij ATI GPUs. A11 was de eerste sample, A12 hier ging inderdaad wat mis (engineer was vergeten connectie te maken met bepaalde onderdelen binnen de GPU), A13 final.
Waarom kost deze kaart dan meer dan een GTX320 en GTS640? Kaarten die evengoed presteren?
De benchmarks van de meeste sites laten anders zien?
Hoezo? ATI heeft een kleiner procedee nodig (80nm) en een grotere geheugenbus (512bit) om een kaart te maken die veel meer verbruikt en trager is dan de concurrent. Hoe kan deze techniek dan een pluim verdienen?
Wat ben je weer heerlijk simplistisch bezig HaLDoL/Aval0ne. Je wilt gewoon zien wat je wilt zien en hebt voor de rest oogkleppen op he?
In dat kleiner procede heeft AMD wel een soundchip, betere videoprocessing mogelijkheden, snellere geometry shaders, een tesselation unit en meer dingen ingebouwd, daar waar nVidia voor de video-output een compleet aparte chip moest bouwen (NVIO), want daarvoor was het 90nm proces niet voldoende geschikt en zou de chip te groot/heet worden.
Tel daarbij op de verschillen in architectuur. Een grotere geheugenbus wil niet automatisch zeggen dat je een betere performance hebt. Andere dingen spelen ook mee, zoals texture units, aantal ROPs etc (waar NV de bovenhand heeft).
Maar goed, dat maakt jou natuurlijk allemaal niets uit, want als er ATI/AMD op staat wordt het al door je afgekraakt.
aval0ne: zoek eens een bezigheid. Je zo opwinden over hardware is dwaas en zinloos.
Als je mensen wilt overtuigen zal dat niet lukken door zo te briezen, maar door nuchter met cijfers en specifieke voor- en nadelen te komen, zodat iedereen daar zelf zijn conclusies uit kan trekken.
Ati kaarten zijn niet gelijk aan nvidia kaarten dus je kan onmogelijk absoluut zeggen welke van de twee het beste is. Wat je ermee wil bereiken is eerder de factor die je voor één van de twee merken doet kiezen.
1) Je zou toch de enige zijn die nu zou zeggen dat nvidia goede drivers heeft (ik heb het dan over Vista)
2) ATi heeft de kaart in Maart uitgesteld, om de drivers verder te Tweaken. Niets mis mee. Zo verkom je dat je slechte drivers hebt tijdens de launch (zoals het 3/4 maanden duurde voordat nvidia pas Vista drivers had voor de 8800)
3) De 2900 is al vanaf 337 euro te krijgen, de 640 ook. Dus de prijs is gelijk.
4) Het procedee heeft toch niets met de prestaties te maken? De 2900 heeft nu eenmaal meer onder de motorkap, en zal daarom ook wel warmer worden en meer energie verbruiken, dat is een gewoon een keuze van ATi/AMD.
Het valt me op dat mensen nogal lopen te vitten op de drivers van nVidia, maar daarbij de nuancering dat het alleen de Vista-drivers zijn die problemen hebben (of misschien beter: hadden, want het ergste is duidelijk achter de rug) weglaten. Het was een paar maanden vervelend voor een klein groepje Vista-gebruikers, maar die konden ook op hun klompen aanvoelen dat ze tegen dit soort problemen aan gingen lopen als ze per se als één van de eersten over wilden stappen naar het nieuwste van Microsoft. De XP-massa had ondertussen nergens last van.
Deze kaarten zijn expliciet gemaakt voor Vista (DX10 zou volgens Microsoft alleen voorbestemt blijven voor Vista). Dus zijn de Windows XP drivers geheel oninteresant in de vergelijking. Terugwaartse compatibiliteit is zeer leuk, maar de kaarten zijn er niet voor ontworpen. Het had dan logischer geheten dat er juist problemen zouden zijn met de Windows XP drivers, om de nieuwe technologie compatible te houden. Gezien Vista enorm is uitgesteld, en met heisa en marketing, iedereen op Vista zat te wachten (diegeen die daar gevoelig voor zijn), had nVidia alle tijd onbenut gelaten. Zelfs een XGI Volari werkt flawless onder Vista.
Ja, volgens mijn redenering is de 2900XT eigenlijk alleen interessant voor DX10 momenteel. DX10 is momenteel alleen voor Vista. De Vista drivers zijn zeer belangrijk en vinden prioriteit 1.
Nee, er zijn nieteens DX10 spellen. Daarom zou terugwaartse compatibiliteit ingebouwt moeten zijn. Deze zal je ook moeten vinden onder Vista. Gezien hetzelfde platform, dezelfde prioriteit 1.
Nee, Vista is een geflopt OS tot op heden. Onderbouwing kan ik wel geven, maar is off-topic. Waar het wel om gaat is de terugwaartse compatibiliteit naar een ander OS. Doe je dit niet, heb je een probleem als fabrikant. Maar omdat de videokaart DX9 compatible is en ontwikkeld is voor DX10, dit alleen te vinden is onder Vista en niet onder Windows XP, 2000 etc, heeft dit prioriteit nummer 2.
nVidia heeft laten blijken deze prioriteiten te hebben omgedraait, en daardoor dus veel eerder met de lancering dan Ati.
Ik heb dus nimmer iets gezegt wat kan suggereren dat er geen DX9 spellen meer gespeelt worden, want dan kan ik op mijn beurt suggereren dat jij geen DX9 spellen meer speelt als je over stapt naar Vista.
Neem als extra voorbeeld de 3Dlabs Wildcat Realizm 800. Deze kaart is ontworpen voor alleen CAD en met name modelling met extreem veel polygonen. Trekt in bepaalde situaties de modernste Quadro nog onderuit. Deze kaart is volledig DX9.0 compatible, maar presteerd dan als een Ati 9800XT.
Denk toch dat je de plank misslaat. DX9 is nog héél belangrijk voor de GPU-bakkers, alleen al omdat alles wat de klok slaat nu nog DX9 is. Ati zou hier een grote gote fout maken als ze zouden denken en handelen zoals jij zegt. Niks anders dan natte vingers werk van jouw kant dus, nergens kan je onderbouwen wat je nu zegt !
Wat is trouwens een zuivere DX10 kaart
Als de ATI HD2900XT een "zuivere" DX10 kaart is zoals jij veronderstelt; zou ik verwachten dat die kaart uberhaupt geen DX9 spellen kán draaien.
Begrijp echter wel wat je zegt. Maar ook al ontwerpen ze een chip toegespits naar ene bepaalde standaard, maakt dat het nog géén zuivere "iets" kaart. Je geeft zelf al het voorbeeld met die CAD-cam kaart. Uitermate geschikt voor CAd-Cam omdat die daarvoor ontworpen is, maar tegelijkertijd netzogoed ontworpen om met DX9 te kunnen omgaan. Het ene sluit het andere niet uit.
Een vrachtwagen is puur een ontwerp voor een speciek doel, het zal nooit een auto zijn; andersom ook. Kijk, da's pas een voorbeeld
Blijkbaar kunnen jouw "zuivere" DX10 kaarten nog prima met DX9 (of lager) spellen overweg. En da's maar goed ook
deze kaart is niet gemaakt om te concureren met de 8800gtx maar gts en dat doet deze kaart ook erg goed.
voor dezelfde prijs heb je de keus tussen de 8800gts of deze kaart 2900xt. (die bijna even goed presteert als de 8800gtx in sommige spellen)
de keus is dan snel gemaakt lijkt me
ik vind trouwens wel dat er nog steeds een behoorlijk gat zit tussen de 2600 pro en de 2900xt. dat moeten ze echt opvullen willen ze een beetje markt winnen.
en de geheugenbus van 128mbit is ook niet meer van deze tijd, dat moet toch echt een stuk hoger zijn bij de 2600pro
Daarom komt er in Q3 een kaart op basis van een RV670 core. Dat wordt waarschijnlijk één met een 256 bit geheugenbus en zou de naam HD 2900 Pro moeten dragen.
deze kaart is niet gemaakt om te concureren met de 8800gtx maar gts en dat doet deze kaart ook erg goed.
Dat ligt er maar aan hoe je het bekijkt. Uiteindelijk moesten ze hem wel tegenover de GTS zetten, maar ik geloof geen seconde dat ATi intern niet de doelstelling had om ook een concurrent voor de GTX uit te brengen.
en zelfs als dat zo was, het maakt toch niets uit???
het gaat erom dat deze kaart op dit moment zo geprijsd is en dat de prestaties zo zijn dat hij een waardige concurrent is voor de 8800gts... daarbij maakt het toch niet uit of het oorspronkelijk bedoeld is geweest om beter te zijn.
er komt nog een 2900xtX trouwens dus je weet nooit wat dat gaat brengen
Wat jij uit het oog verliest, is dat ATI die 2900XTX nu al uit had willen brengen, maar dat ze dat te elfder ure niet konden doen omdat bleek dat er iets mis was met de geheugen implementatie. Dat ze met alleen de 2900XT er vervolgens nog een leuk marketing verhaal omheen kletsen, om net te doen alsof het allemaal zo bedoeld was, betekent natuurlijk niet dat een beetje tweaker daar niet dwars doorheen kan kijken.
@dangerpaki
Maar voorlopig heeft nVidia alleen maar de Ultra uitvoering uitgebracht van de 8800. Zij hebben nog de mogelijkheid om een 8900 of 8950 uit te brengen net zoals bij de 7x00 serie.
Die zal dan vast wel bedoeld zijn om de kroon vast te houden.
deze kaart is niet gemaakt om te concureren met de 8800gtx maar gts en dat doet deze kaart ook erg goed.
De 2900 XT lijkt mij DE high-end kaart van deze serie. Als ATI/AMD niet meer zou gaan concurreren op het high-end niveau dan is het einde zoek. nVidia heeft de 8800 GTX al een half jaar uit en dus zou het niet gek zijn als ze binnenkort een energiezuiniger en/of goedkoper model introduceren. Ongeacht de prijs zullen veel mensen toch het snelste van het snelste willen.
De benchmarks zullen ATI/AMD ook wel erg tegenvallen, want vooraf werd de 2900 XT toch geïntroduceert als de kaart die alle concurrentie zou moeten wegblazen.
dat zal ook wel gebeuren paar drivers verder in dX10 games.
Maar top high-end? er is er maar ééntje de XT.
ATI kan nog naar boven uitbreiden en naar onder met
XTX
XTX P
XTX PE
naar onder
GT
pro
XL
LE
Denk zo'n 3 á 4 modelen en toch zeker nog een er boven mischien wel twee. Zoú 'n R600 op 65nm kunnen zijn 'n R650
De 12" kaart is 'n OEM HD2900XT met 1GB GDDR4 5% hogere core clock. PResteerd dus als 'n xT wirdt vaak gezien als een xTX maar is dat dus niet.
'n xTX die moet minstens 800Mhz draaien en op 80nm houd dit een ver over 200watt aan vermogen. Volgens mij d eredend at ie niet komt aangezien AMD?ATI een marge moet aanhouden van 300Watt met OC in gedachte en dan de koeler? 3 slot's.
OEM kunnen efficent hun OEM kasten ontwikkelen om zo'n kneppert efficient te intergreren. daarom die 12" is ene Kast intergraal design isue.
Tja, niet overtuigend maar de kracht van de ATI kaart zal wel liggen in DX10, even afwachten dus. Overigens wel natuurlijk een uitstekende prijs/prestatie verhouding.
Zeer benieuwd of er in Juli ook Core 2 duo laptops verschijnen met de HD 2600 XT
Performance, well it has to be said: the HD 2900 XT definitely shows potential in DX10, doesn't it? Sure it's no GeForce 8800 GTX, but for the money in this demo it shows excellent performance.
Benchmark was van 'Call Of Juarez', persoonlijk kijk ik meer naar Crysis uit, waar nog geen echte benchmarks van zijn.
En zo is het. Tweakers zegt het ook nog mooi op het einde:
"de Radeon HD 2900 XT er niet in geslaagd om nVidia van de prestatiekroon af te stoten." "ATi heeft echter goed begrepen dat de prestaties slechts één onderdeel van de vergelijking zijn, de prijs is minstens zo belangrijk." "Als je op zoek bent naar een goede videokaart in het 300 à 400 euro prijssegment is de Radeon HD 2900 XT momenteel de beste oplossing."
Techreport (en anderen) zeggen juist weer iets heel anders:
Ultimately, though, we can't overlook the fact that AMD built a GPU with 700M transistors that has 320 stream processor ALUs and a 512-bit memory interface, yet it just matches or slightly exceeds the real-world performance of the GeForce 8800 GTS. The GTS is an Nvidia G80 with 25% of its shader core disabled and only 60% of the memory bandwidth of the Radeon HD 2900 XT. That's gotta be a little embarrassing. At the same time, the Radeon HD 2900 XT draws quite a bit more power under load than the full-on GeForce 8800 GTX, and it needs a relatively noisy cooler to keep it in check. If you ask folks at AMD why they didn't aim for the performance crown with a faster version of the R600, they won't say it outright, but they will hint that leakage with this GPU on TSMC's 80HS fab process was a problem. All of the telltale signs are certainly there.
Andere reviews zijn veel uitgebreider dan deze mini-review van Tweakers; mijn voorkeur gaat dan ook uit naar die andere conclusies.
@Madrox: Ik vind dat ATi het juist goed doet (ben zeker geen fan boy, van jaren GeForce te hebben gehad nu eens een X1950 Pro (vanwege betere bang per buck). Ik heb geen voorkeur eigenlijk. Alleen wat ik zie is dat ATi nu met deze serie een hele andere weg ingeslagen is, en dat eigenlijk best wel aardig heeft gedaan. Als ATi weer een nieuwe serie uitbrengt 3x000 ofzo zal deze natuurlijk wel weer veel beter zijn. Om zomaar van architectuur te veranderen zitten vooral in begin wat knelpunten.
Qua prijs vind ik het net als tweakers een zeer nette kaart.
Tevens vergeet niet dat de drivers er meer eruit zullen halen, ook omdat dit een nieuwe architectuur is kunnen nog overal performance eruit geperst worden...
Tevens ontken ik niet dat nVidia ook een zeer nette serie heeft neergezet met de GeForce 8. Ik ben voornamelijk nieuwgierig naar de 2e generatie DirectX 10 kaarten. Daar zitten meestal allerlei tweaks in..
Dan zullen we zien wie de juiste beslissing heeft gemaakt. Eigenlijk ben ik wel blij dat ATi een andere manier gekozen heeft. Nu heb je wat meer keuze. Lijkt dat ATi meer voor features gaat etc terwijl nVidia nog zeer performance gericht is.
Je kan niet ontkennen dat het potentieel in de drivers (zowel DX9 als DX10) hoger is bij ATi dan bij nVidia. Omdat de 8800 al 6 maanden op de markt is neem ik aan dat nVidia hier toch meer tijd voor gehad heeft.
Misschien kan in de review nog toegevoegd worden welke drivers gebruikt zijn.
Uh Beta drivers en dan bedoel ik wachteers af totdat de driver alles uit G80 en R600 halen. En de betere DX10 titles uit zijn. Unreal 3 en Crysis.
Dan Dx10 Geoshaders en testalation unit daar licht de kracht. Uiteraard kan je Dx10 ook zonder toepassen. Dus Ik wacht op
MSFSX DX10 Patch die dev beweren dat de R600 geoshaders veel krachtioger zijn. En waarschijnlijk die kracht gaan utilizen.
Dice ook.
Crysis maybe?
Kan ook zijn dat FSAA en AF zo inhakt bij de R600 dat de Dx10 gain totaal teniet gedaan is.
Ik vraag me dan ook af of Drivers dit nog kunnen veranderen. De R600 is nogal op veel vlakken programable. Ook AA AF modes.
Met Vista XP en 32/64bit flavors OpengL en Linux Dx9 DX10 Drivers is er nogal wat te optimaliseren.
De kracht ligt ook in de meeste klap voor je euro!
Ik voel me bij deze performance/prestatie veel minder genaaid dan bij de 8800 GTS.
Hoge loadverbruiken bij dit soort kaarten ok, daar kom je voorlopig niet onderuit, maar het idle-verbruik bij de 8800 serie is rampzalig hoog. Ik ben erg benieuwd naar het verbruik in idle bij deze ATi 2xxx serie.
The Radeon HD 2900 XT is an inefficient power hog. Using the 2900 XT card will cost you more power than a GeForce 8800 GTX while delivering to you sub-8800 GTS performance. That is not a small difference in terms of performance per watt.
Ook hier scoort de HD 2900XT niet geweldig, net zoveel stroomverbruik als de 8800GTX en zo'n 20watt méér dan de 8800GTs. Bovendien valt de reviewers op, naarmate de temperatuur hoger is in de kast; het stroomverbruik toeneemt. Het opmerkelijke hierbij is dat dat bij Nvidia zo'n 10watt is (bij 55c csetemp), terwijl dat bij de Ati-kaart oploopt to zo'n 30watt.
En ik voel me bij deze kaart (2900XT) méér genaaid door de niet geweldige performance, bij gelijke prijs, méér stroomverbruik en méér herrie
Als ze dat hogere energieverbruik net zo goed hebben gezien als de 'sub 8800GTS performance'... Nérgens in de test van tweakers presteert de 8800GTS beter dan de 2900XT..
Die ringbus zat ook al op de X1800 serie en de X1900 serie, die niet erg uitblinken qua stroomverbruik. Ik denk eerder dat het komt door het eerder aangehaalde leakage en die 700m transistors. Die lusten nog wel een aardig slokje.
Ik denk dat de HD2900XTX op 800Mhz wel de gTX aankan met gemak met drivers die er bijn alles uit halen. Aleen dan zit je met 250 á 300Watt.
Denk dat dat de reden is dat ie is uitgesteld.
Sinds die ringbus is het vermogen groter geworden?
Voor €350 is het een goeie en full featured koopje.
Jammer dat de benchmarks zo beperkt zijn.
Zeker voor de mensen met een 24 inch scherm die op 1920x1200 draaien is het erg belangrijk om te weten hoe het geheugenverschil tussen de 8800GTS 640MB en de 2900XT 512MB zich vertaalt op die resolutie.
Het zou voor mij de doorslag geven of ik voor de GTS of de XT moet gaan...
Voor jou is de geheugenbandbreedte belangrijker wellicht dan de kwantiteit. Er zijn maar enkele spellen die meer dan 256MB geheugen willen, gemeten op 1680x1050. Op hogere resolutie wordt meer geheugen verbruikt, in mijn ogen zal deze bottleneck van minimaal vereist geheugen niet op 640MB liggen. Wel is uit de praktijk naar voren gekomen dat het 320MB model niet meer afdoende is op een res. van 1920x1200, met nieuwere spellen.
Zo zal de 8800GTS 320MB in elk geval geen keuze zijn. De 2900XT en 8800GTS 640MB zijn nagenoeg even duur. Ik zou zelf de keuze nemen voor de bandbreedte, en die is bij ATI veel hoger dan bij nVidia. 512bit vs 320bit.
Gezien het minieme verschil zal ik andere aspecten in acht nemen. Ik doel niet op het energie verbruik, maar driverondersteuning etc. Ik zie zelf ook een hoger potentieel bij ATI mocht er echt effectief gebruik gemaakt gaan worden van DX10. Echter is dit niet tastbaar.
De 2900XT en 8800GTS 640MB zijn nagenoeg even duur. Ik zou zelf de keuze nemen voor de bandbreedte, en die is bij ATI veel hoger dan bij nVidia. 512bit vs 320bit.
De GTS is goedkoper. Ik denk dat de consument en de tweaker niet naar de bandbreedte kijkt, maar wel naar prestaties, stroomverbruik, warmteontwikkeling en luidruchtigheid van het koelsysteem. Op al deze punten moet de XT onderdoen.
Gezien het minieme verschil zal ik andere aspecten in acht nemen. Ik doel niet op het energie verbruik, maar driverondersteuning etc.
Waarom geen energieverbruik? Dit lijkt me toch een zeer belangrijk punt.
Ik zie zelf ook een hoger potentieel bij ATI mocht er echt effectief gebruik gemaakt gaan worden van DX10. Echter is dit niet tastbaar.
Je ziet het maar je kan het niet staven. Zo win je geen discussies. Kijk naar de DX10 benchmark op guru3d en doe dan een uitspraak.
Het verschil tussen 337 en 327 euro is maar 10 euro, goedkoper echter marginaal.
Het verschil in energieverbruik ligt maar op 15 Watt, daarvoor krijg je wel extra functionalitiet betreft hardware acceleratie op de GPU, wat op de CPU veel meer bespaart dan die 15 Watt. Het is dus een tie, dan verbruik je 15W meer, dan bespaar je het weer. Dus het is per applicatie afhankelijk en dus oninteressant als je het echt mee neemt. Wil je energie besparen neem je geen dergelijke kaart. Geen 8800GTX, geen 2900XT.
De opbouw van het koelsysteem is identiek. Per definitie zou het goedje evenluidruchtig moeten zijn. Mocht een 2900XT meer lawaai maken dan de 8800GTX, wil dit waarschijnlijk alleen zeggen dat hij stock sneller draait. Kwestie van toerental terug brengen.
De prestaties kan je nu nog niet zuiver meten. Het is een zuivere DX10 kaart, er zijn nog geen DX10 games. Hier is mijn vermoeden dat de 2900XT beter zal presteren, gezien DX10 games meer geoptimaliseerd zullen zijn voor parallellisatie, waar ATI overdrijft met 320 stream processoren. Neem dan als vergelijking CPU's, een quad core doet soms onder voor een dual core, dual core voor single core, omdat applicaties in één thread lopen. Optimalisatie. Nu drukken de GPU ontwikkelaars dit door en zal er een optimalisatie plaats gaan vinden.
Geoptimaliseerde programma's kunnen clusters aan spreken. 320 processoren zijn samen 300x zo snel als één computer.
Vaak trekt men dan een vergelijking dat een single core 3000MHz sneller is dan een quad core 2800MHz, uitgaande van dezelfde IPC. Multithreaded zit je op 3000MHz vs 11200MHz.
320x 742 = 237,44GHz
96x 1200 = 115,20 GHz
Er is dus een veel groter potentiaal. Benchmarks zeggen mij niets, helemaal niet als het voor de makers van DX10 benchmarks ook een ontastbaar punt is. Daar vergelijk je andere punten, om in te schatten welke het beste uit de bus zou kunnen komen, als de tijd er wèl rijp voor is. Dan is het al zowiezo logisch om te voorspellen dat met zoveel geweld er een stukje inefficientie in sluipt, en je dan graag terug wil vallen naar het L2 cache, die geheel afwezig is bij de 8800GTS. Een dubbel voordeel.
[edit]
Ik klink momenteel sterk als een ATI fanboy, ik heb dit geweld niet nodig en hangt naar tevredenheid een 7600GS in mijn PC. Het is dus geen kwestie van merk vooroordeel.
[edit2]
[quote]
Heb je ook nog goede koopadviezen
[/quote]
Ik krijg vaker mensen langs met jouw manier van praten. Die komen later terug "had ik maar naar jou geluisterd".
Ik laat het geheugenbandbreedte in het midden, jij dikt het aan en hebt daarmee juist toegegeven dat de 2900XT superieur zou zijn aan de 8800GTS.
(Voor als je het niet snapt, zo redenneer jij. Jij noemt namelijk 2 quotes met exact dezelfde inhoud tegenstrijdig. Dat het een mix van allerlij onderdelen is, wat het totaalplaatje levert, helemaal gelijk. Hoe presteren de kaarten onder Doom 4? Quake 5? etc. Inderdaad, hedendaagse benchmarks zijn puur t/m DX 9.0c. Ze zeggen geen zak over de 8 duizend serie van nVidia en ATI 2900XT. Daarbuitengelaten zijn benchmarks willekeurig, en helemaal een DX 10 benchmark zonder dat er in de praktijk een DX 10 spel is. Dan ga je de componenten bij elkaar optellen, hoe het plaatje er uit kan komen te zien. En hier heeft de 2900XT meer in zijn mars. Wie ermee het efficients om kan springen is pas van belang als DX10 zijn echte intrede doet)
Oke, laten we daar dan vanuitgaan. Wil je dan eens de HD 2900XT vergelijken met een 8800GTS ipv een GTX. Daar, waar die gezien wat ik zie overal lees ook thuishoort!
Dan ziet het plaatje er ineens héél anders uit.
- scoort +/- gelijk dan de 640Mb versie van de 8800GTS
- verbruikt gemiddeld tussen de 20watt(idle) en 100watt méér
- is ongeveer net zo duur
- maakt behoorlijk méér geluid
- is een heethoofd
Dat zijn niet bepaald voordelen, zou ik zeggen; integendeel. oke, nu enkele voordelen:
Tesselator unit (programmeerbaar)
Understanding tessellation is very easy; it simply means having a shape repeated without overlapping or gaps between them.
en..
Currently in DirectX 10 having a tesselator processor is not required. However, in future versions of DirectX the tesselator is part of the pipeline and will be required. Eventually NVIDIA will have to add this in as well.
en..
ATI is currently ahead of the game as far as this technology goes. However, it is one of those things that has to be utilized by the game developer. The game developer has to specifically make their games utilize the tesselator engine, if they do not it is simply a piece of hardware in the GPU which goes un-utilized. This somewhat reminds us of Truform, ATI never could get support with that feature. However, this is a different scenario because the tesselator will be part of the DirectX spec in the future. It is helpful to game developers to have it in there now so they can start experimenting with it.
Een twijfelachtig plusje voor de toekomst dus, tesselator zal door de programmeurs gebruikt moeten worden in de nieuwe generatie spellen; tenminste, als ze dat willen dan en/of nodig vinden.
Kan verder weinig voordelen ontdekken, mogen ze er zijn hoor ik dat wel.
Hardware Junk: Ik zou zelf de keuze nemen voor de bandbreedte, en die is bij ATI veel hoger dan bij nVidia. 512bit vs 320bit.
Da's bijna net zo'n nutteloos argument als "meer geheugen onboard=altijd beter"; wat je vaak hoorde. Bandbreedte zegt maar een klein beetje; het is de mix van onderdelen wat het totale plaatje levert. En dat bewijzen de benchmarks dan ook; 512bit = ruim 50% meer dan 320bit, dat zie je nergens terug in de benchmarks; verre van.
Heb je ook nog goede koopadviezen
LOL
Hardware Junk: Voor jou is de geheugenbandbreedte belangrijker wellicht dan de kwantiteit
Klinkt nogal tegenstrijdig met de opmerking die je eerder maakte, als je het mij vraagt. Immers; voor jou is de geheugen-bandbreedte dé doorslaggevende factor! (zie eerste qoute)
Ik denk dat de consument en de tweaker niet naar de bandbreedte kijkt, maar wel naar prestaties, stroomverbruik, warmteontwikkeling en luidruchtigheid van het koelsysteem.
Haaa, grapjas. Wat was dat ook alweer met Intel en z'n Pentium 4?
Mocht een 2900XT meer lawaai maken dan de 8800GTX, wil dit waarschijnlijk alleen zeggen dat hij stock sneller draait. Kwestie van toerental terug brengen.
Lijkt me niet een mogelijke oplossing aangezien veel reviewers al verklappen dat de kaart behoorlijk heet wordt.
Het is een zuivere DX10 kaart, er zijn nog geen DX10 games.
De G80 is net zo goed een zuivere DX10 kaart, what's your point?
Hier is mijn vermoeden dat de 2900XT beter zal presteren, gezien DX10 games meer geoptimaliseerd zullen zijn voor parallellisatie, waar ATI overdrijft met 320 stream processoren
Het is bekend dat ze promoten met 320, maar als je dezelfde bereking loslaat op de G80 dan heeft die er 256 die op bijna dubbele snelheid lopen en dus vrijwel gelijk aan elkaar. Sterker nog de G80 heeft een voordeel dat er niet geoptimaliseerd hoeft te worden en vrijwel direct goed zal werken.
Het grappige is dat de HD 2900XT wint van de 8800GTX op hele hoge resoluties. Als je 8xAA/16xAF, 2560x1600 draait dan wint de HD 2900XT in 5 van de 8 spellen van een 8800 GTX. (Bij Fear is hij zelfs 78 % sneller dan de 8800 GTX)
je rukt het een beetje uit zijn verband.
Ik zie 4 duidelijke overwinningen en 1x 0.1fps sneller.
Die waarde kun je niet serieus meenemen als overwinning.
Blijft het in 4 van de 8 games sneller en 1 gelijkspel.
Verder word 2560x1600 nauwelijks gebruikt.
Het overgrote merendeel gebruikt niet hoger dan 1900x1200. En dan wint Nvidea op zo'n beetje alles score behalve company of heroes.
Dat valt ook nog wel tegen. Bij 1920x1200 -- de enige de facto HD resolutie op dit moment -- haalt de 2900XT maar 55 fps tegenover 70 van de 8800GTX. En bij FarCry komt de 2900XT maar tot een zielige 66, en wordt door de 8800GTX met een whopping 109 behoorlijk om zijn oren geslagen. En in STALKER moet AMD het met een miezerige 18 fps wel heel erg afleggen. Oy vey.
Ik snap niet dat niet de 640MB versie van de 8800GTS gebruikt is om te vergelijken. Hoewel de 320MB versie een prima kaart is, is de 640MB versie in een paar gevallen behoorlijk sneller. Niet echt een eerlijke vergelijking vind ik.
Daarbij wordt ook niet vermeld dat de 2900XT 60 watt meer verbruikt dan de 8800GTS.
We hadden uiteraard ook het liefst de 640MB-versie meegenomen als vergelijking, maar zoals ook al in de review wordt vermeld zijn we net bezig met het opzetten van de VideoMark 2007-testmethodiek waardoor de hoeveelheid vergelijkingsmateriaal dat beschikbaar was niet zo groot was.
Erg handig dit. Alleen wel jammer dat jullie het niet hebben vergeleken met de stock GTX en de 640MB GTS versie (dit is toch al een redelijk hoge resolutie). Het geeft imo nu een beetje een vertekend beeld.
Hm dilemma, ga ik nou voor de GTS320 of deze 2900XT...
Nouja dat moest ook wel he, met al die extra technieken aanboord + meer shaders. Jammer dat de 2900XT geen 1Gb geheugen had, dan zou hij ook nog veel sneller zijn op hogere resoluties
Wat ik hier mis is een verwijzing naar de beeldkwaliteit van de deelnemers.
Die nieuwe ATI heeft wel van die leuke features onboard, maar voegen ze daadwerkelijk ook iets toe aan het beeld?
En wat snelheid betreft lever ik liever wat fps in als het er beter uit ziet.
Qua beeldkwalteit zitten ze op gelijke voet met de 8800 serie, de Nvidia is in sommige gevallen een fractie beter; marginaal en eigenlijk verwaarloosbaar.