Door Hielko van der Hoorn

ATi Radeon 9800 Pro review

17-03-2003 • 23:12

63

Singlepage-opmaak

Conclusie

ATi heeft met de Radeon 9800 Pro een product op de markt gezet waaraan het topmodel van nVidia niet kan tippen. De GeForce FX heeft moeite genoeg op de Radeon 9700 Pro bij te houden en de Radeon 9800 Pro die gemiddeld ruim twintig procent sneller is, is simpelweg teveel voor de GeForce FX.

Radeon 9800 Pro logoEen ander belangrijk punt is koeling en de geluidsproductie van de twee kaarten. Waar nVidia een ingewikkelde constructie nodig heeft die één PCI-slot in beslag neemt en een ongeëvenaarde hoeveelheid geluid produceert weet ATi een relatief simpel en stil koelertje te gebruiken. Wellicht is dit nog wel het grootste voordeel van de Radeon 9800 ten opzichte van de GeForce FX. Al loopt een spel perfect, als dat vergezeld moet worden door een stofzuigergeluid word je toch niet blij.

Om de overwinning voor ATi helemaal compleet te maken zal de Radeon 9800 Pro hoogstwaarschijnlijk ook nog eens 'vriendelijker' geprijsd worden dan de GeForce FX 5800 Ultra. Helemaal vast staat dit nog niet aangezien beide kaarten slecht tot niet verkrijgbaar zijn op het moment. Hoe dan ook, het moge duidelijk zijn dat ATi op het moment de beste videokaart in huis heeft met de Radeon 9800 Pro. Wellicht dat nVidia het leiderschap weer kan overnemen met de NV35 in het komende kwartaal, maar voorlopig is ATi king of the hill.

Radeon 9800 Pro logo

Reacties (63)

63
61
42
8
0
2
Wijzig sortering
de 9600 is toch 0.13 micron, mooi een kaartje om het te proberen. Bij nvidia moest het goed gaan.

Ik denk dat iedereen zich hier nog kan herinneren hoeveel problemen AMD met 0.13 micron had. Daardoor lopen ze nu nog steeds achter.

Ik denk dat de 0.13 micron wordt gebruikt op de volgende hi end kaart. Die naar mijn inschatting aangekondigd wordt als nvidia zijn nieuwe kaart op de markt brengt. Hopelijk niet, want dan heeft ati vertrouwen in de 9800 pro.

Ik zou zo zeggen NVIDIA laat maar eens zien wat je kan.
Valt me wel op bij die beeldkwaliteits test wat een ongelovelijke fout nVidia maakt met die mipmaps. Voor 6,4% performance winst hebben ze de kwaliteit drastisch laten dalen. Terwijl we nu al bij elke vergelijkende benchmarc van de GeForce FX zien dat hij wordt afgerekend op beeldkwaliteit.

Als ze in de drivers die mipmaps aan zetten was hij weliswaar wat langzamer, maar die afrekeningen op beeldkwaliteit wordt door 95% van de high-end gamer als een reden gezien om een ATi te kopen, zo zie je dat ook hier. De high-end gamer kijkt tegenwoordig naar meer dan FPS. Omdat het allemaal al zo lekker loopt met de hedendaagse videokaarten. Erg jammer van nVidia dit, en een erg stomme fout :|.

Hopenlijk zetten ze in de volgende drivers de mipmaps standaard op HQ!
En die FX5800 is gewoon dik duurder dan de al "oude" ATi Radeon 9700 Pro !! Met geen enkele benchmark is de GF sneller.

Echt onvoorstelbaar hoe goed ATi er dan nog eens uitkomt met deze nieuwe kaart. Ik ben er echt verbaasd van!
En die FX5800 is gewoon dik duurder dan de al "oude" ATi Radeon 9700 Pro !!
Dat is onzin. En dan heb ik het natuurlijk over Amerikaanse prijzen aangezien men het daar altijd over heeft.

De GeForceFX 5800 kan je nu al pre-orderen voor ongeveer $325. Hier of hier om maar even twee voorbeelden te noemen. Deze prijs staat al vanaf dag een vast, de prijs is dus nog niet gezakt.

De Radeon 9700Pro, die al maanden op de markt is, kan je op dit moment bestellen voor een prijs van $302 (hier). Nu zie je dat het verschil in prijs tussen de Radeon 9700Pro en de GeForceFX 5800 nog geen tien procent is. Niet echt een groot verschil zou ik denken.

Reactie op de conclusie van Hielko van der Hoorn:
Om de overwinning voor ATi helemaal compleet te maken zal de Radeon 9800 Pro hoogstwaarschijnlijk ook nog eens 'vriendelijker' geprijsd worden dan de GeForce FX 5800 Ultra.

Dat de Radeon 9800Pro waarschijnlijk goedkoper zal worden dan de GeForceFX 5800Ultra is denk ik niet waar. Naja, misschien een poos na de introductie van beide videokaarten.

Ik zal even de situatie schetsen van hoe het er nu uitziet:

De GeForceFX 5800Ultra kan je nu pre-orderen voor een prijs van $395. Dat kan, om maar even een voorbeeld te noemen, hier enhier.

De Radeon 9800Pro kan je ook al pre-orderen. Met een prijs van rond de $400 is dat ongeveer gelijk aan de prijs van de GeForceFX 5800Ultra. Micro-Pro en ENPC.com bieden deze kaart al aan. Hij zal dan rond April aankomen.

Ati zal de komende tijd de high-end sector domineren. Dat lijkt bijna zeker. Zeker met de komst van de R350, een verbeterde R300, heeft Ati een grote kans om de titel te behouden. De NV35 van nVidia, eigenlijk verbeterde NV30, zal er voor zorgen dat nVidia niet al teveel terrein verliest.
De Radeon 9700Pro, die al maanden op de markt is, kan je op dit moment bestellen voor een prijs van $302 (hier). Nu zie je dat het verschil in prijs tussen de Radeon 9700Pro en de GeForceFX 5800 nog geen tien procent is. Niet echt een groot verschil zou ik denken.
Alleen jammer dat dit de GeForce FX 5800 non-Ultra is die qua prestaties aanzienlijk langzamer is dan de Ultra-variant en dus ook een stuk langzamer is dan de Radeon 9700 Pro.
De GeForceFX 5800Ultra kan je nu pre-orderen voor een prijs van $395. Dat kan, om maar even een voorbeeld te noemen, hier enhier.

De Radeon 9800Pro kan je ook al pre-orderen. Met een prijs van rond de $400 is dat ongeveer gelijk aan de prijs van de GeForceFX 5800Ultra. Micro-Pro en ENPC.com bieden deze kaart al aan. Hij zal dan rond April aankomen.
In de pricewatch staan de GeForce FX kaarten op het moment voor prijzen ronde de E 500-550. De Radeon 9800 staat er nog niet in, maar de verwachte marktprijs is E 475, iets minder dus dan de GeForce FX. Het is natuurlijk goed mogelijk dat de GeForce FX kaarten nog verder in prijs zullen dalen, simpelweg omdat ze als ze duurder zijn dan een Radeon 9800 Pro er geen hond is die ze zal kopen.
Uhm, bij de codecreatures benchmark is de FX toch écht sneller, moeilijk hoor lezen |:(
Ja maar die test is in samenwerking met Nvidia gemaakt. Niet heel erg representatief dus....
Het is maar wat je belangrijk vind... Ik persoonlijk zou gaan voor ATI omdat die een betere beeldkwaliteit levert.
Wil je echter veel FPS, dan moet je gaan voor de FX
En als je weer andere drivers gebruikt is de FX veel sneller. (Ik vraag me af wat drivers nog kunnen veranderen aan beide producten.)
Aangezien beide kaarten dik boven de 85fps zitten met zo'n beetje elke resolutie is de monitor zeg maar de bottleneck. Gamen is met beide kaarten al supervloeiend. Dan zou de logische keuze gewoon 1 van de 2 ATi's zijn. En je hebt erg gedetailleerde beeldkwaliteit én je kunt die € 100,- ergens anders in pompen!

Lijkt mij geen moeilijke keuze. Ik zou in ieder geval niemand begrijpen die nog een FX gaat kopen, behalve als de prijs lager komt te liggen dan de ATi bijv.
Daar valt anders nog niets zinnigs over te zeggen. De benchmarks voor de FX moeten nog komen, de kaart is nog niet eens op de markt. Verder wordt dat FPS-getalletje steeds minder belangrijk, de grote chipbouwers halen daar toch zo langzamerhand wel imposante scores mee. Wat volgens mij inderdaad wel interessant is, is de kwaliteit van het beeld wat zo'n kaart neerzet. Liever 100 FPS vloeiend met een scherp gestoken beeld zoder rafels dan 200 FPS met een wazig beeld en fletse kleuren.
Anoniem: 79683 18 maart 2003 14:56
Wat zou deze kaart nou gaan kosten? Rond de € 500,-?
Als ik een gokje mag wagen:

Ik denk dat deze kaart bij introductie zo'n €400 zal gaan kosten, dat kosten de snelste kaarten de laatste tijd allemaal ongeveer als ze net nieuw zijn.

€400 is blijkbaar wat de rijke early inovators overhebben voor de snelste kaart.

Zo interessant om te merken hoe het bijna niemand opvalt dat prijzen altijd min of meer gelijk blijven in verhouding tot inflatie. De nieuwste videokaart/CPU/harde schijf kosten ongeveer evenveel als de nieuwste videokaart/CPU/harde schijf van een paar jaar terug met inflatiecorrectie.

Prijzen worden niet bepaald door produktiekosten maar door waar de verkoper denkt het meeste mee te kunnen verdienen (dus zo duur mogelijk dat het nog lekker verkoopt).

Eerste les Reklame & Marketing.

[edit] typo

[reactie op Hielko] Eh, als ik de posts die dat beweren kon vinden zou ik misschien zien waarom zij gelijk hebben en ik niet. Tenzij het opeens stukker beter gaat met de economie over een paar maanden of we gigantische inflatie hebben in de tussentijd blijf ik erbij dat hij rond de 400 euro zal kosten. (en dan heb ik het niet over import of pre-order versies maar als hij daadwerkelijk hier in de winkels ligt)
Ik denk dat je fout gegokt hebt, zoals je ook al kon lezen in enkele reacties boven je zal de prijs meer in de buurt van de E500 komen (iets daaronder, E 475 ongeveer).
Die koeling valt best mee als je het vergelijkt met de draconische koelmaatregelen die nVidia nam voor de GeForce FX... En daarbij is de kaart nog sneller ook. Wel raar, zou nVidia een hitteprobleem hebben waardoor ze de GeForce FX niet sneller konden klokken? :?
Lijkt me onlogisch voor een kaar die op 500/1000 Mhz loopt! Als ze deze nog sneller hadden willen klokken, dan had je een 2e case erbij moeten nemen voor de koeling van je GPU ;) . Maar idd, ze zullen wel een hitteprobleem hebben, anders zou je er niet zo'n puinzuiger op zetten.

Voor de rest is deze review natuurlijk oud nieuws qua verhoudingen. Aardig dat ook even de overklok functies worden meegenomen, maar overall verandert er met deze review niets aan het plaatje wat alle tweakers op dit moment hebben van Ati en nVidia, nl. dat Ati dus King of the Hill is. Alleen jammer dat er alleen op 1024x768 werd getest. Zo'n kaart koop je natuurlijk voor de hoge resolutie.

offtopic:
Oli4100 vraagt zich af welke gek een FX Ultra gaat kopen...... :?
Lijkt me onlogisch voor een kaar die op 500/1000 Mhz loopt
De keuze van een 128-bit brede bus is niet de meest verstandige geweest. Maar we weten niet waarom nVidia heeft gekozen voor de 128-bit brede geheugenbus. Een 256-bit brede bus had kunnen zorgen voor een snelheid van het geheugen van "slecht" 250MHz (500MHz DDR) waardoor de totale bandbreedte niet veranderd.
Maar idd, ze zullen wel een hitteprobleem hebben, anders zou je er niet zo'n puinzuiger op zetten.
Vergeet niet dat het koelmeganisme van de GeForceFX niet alleen negatieve aspecten heeft. Zo zal de temperatuur in de kast lager zijn met een GeForceFX en FlowFX dan een kast met de Radeon 9700Pro of Radeon 9800Pro.

Dit komt omdat de Radeon 9700Pro/9800Pro de lucht in de kast gebruikt voor de koeling. Deze lucht koelt de heatsink van de Radeon waardoor de lucht heter wordt. Deze lucht blijft vervolgens in de kast waarna deze hete lucht langs de processor vloeit en uit eindelijk de uitgang vind achterin de kast.

Het design van de Flow FX zorgt weliswaar voor heel wat kabaal, maar hoe zijn de prestaties eigenlijk? Ik kan mij voorstellen dat bijna niemand zal zeggen dat de geluidsproductie van het koelmechanisme van de GeForceFX niet hinderlijk is, maar het voordeel is dat er koele lucht vanuit buiten de kast het koelmechanisme wordt binnengezogen. Vervolgens stroomt deze koele lucht langs de kern van de GeForceFX en vervolgens de koelribben en dan de uitgang. Hierdoor zal de temperatuur van de lucht in de kast lager zijn; de lucht in de kast hoeft immers niet de GeForceFX te koelen. Hierdoor is de lucht die de heatsink van de processor koelt ook minder heet wat dus een groot voordeel is.
Het design van de Flow FX zorgt weliswaar voor heel wat kabaal, maar hoe zijn de prestaties eigenlijk? Ik kan mij voorstellen dat bijna niemand zal zeggen dat de geluidsproductie van het koelmechanisme van de GeForceFX niet hinderlijk is, maar het voordeel is dat er koele lucht vanuit buiten de kast het koelmechanisme wordt binnengezogen. Vervolgens stroomt deze koele lucht langs de kern van de GeForceFX en vervolgens de koelribben en dan de uitgang. Hierdoor zal de temperatuur van de lucht in de kast lager zijn; de lucht in de kast hoeft immers niet de GeForceFX te koelen. Hierdoor is de lucht die de heatsink van de processor koelt ook minder heet wat dus een groot voordeel is.
Daar zou ik niet helemaal op rekenen. Hoewel de kaart frisse lucht gebruikt voor de koeling en deze lucht ook weer meteen naar buiten blaast, komt er nog heel wat warmte in de kast terecht. De achterkant van de kaart is bijvoorbeeld passief gekoeld met een grote koperen heatsink, en al die warmte die daarvanaf komt, komt gewoon in de kast terecht.

Ook zit er aan de bovenkant van de kaart heel wat koper dat hitte uitstraalt in de kast. Het totaal hiervan zal misschien minder zijn dan het totaal aan Watt dat de Radeon 9800 produceert, maar het is zeker niet weinig. Als je de kaart aanraakt als ie aan het werk is dan voelt ie goed warm aan, dus zo goed werkt die koeler ook niet.
Grotendeels gebruikt ie toch dezelfde lucht weer? De luchtinlaat zit toch naast de luchtuitlaat?
En ik geloof niet dat er 100% nieuwe lucht gaat terechtkomen in de inlaat :?
Ik vin het och maar een lelijk ding, en het neemt daarentegen ook nog eens 2 sloten in beslag ipv 1
Wat mij vooral opvalt is dat CodeCreatures op de FX sneller is dan op de 9800Pro.

Zou het zo kunnen zijn dat de ATi kaarten wel DX9 compatible zijn, maar dat ze onder een echt DX9 spel gewoon sloom presteren ? Als de FX de 9800Pro nu al achter zich laat bij een 'demo' van een intensief DX8.1 spel, wat gebeurt er dan als spellen echt DX9 gaan gebruiken ?

Iedereen roept wel dat de FX een mislukkig is en dat nVidia voorlopig de plank behoorlijk heeft mis geslagen, maar als ik dit zo zie dan zou ik zeggen dat nVidia wel degelijk goed gegokt heeft en dat als de echte DX9 spelletjes uitkomen de ATi kaarten op eens door de mand gaan vallen..

Dit gaat wel om ontwikkelingen op de langer termijn. Want het duurt altijd ff voor dat developers al die nieuwe extra's gaan gebruiken..

Ja ja, denk daar maar eens over na :)

Ohja, en of iedereen nou eens wil ophouden met dat geklaag over dat ene PCI slot :( Iedereen die zo'n kaart aanschaft en er een echte game PC omheen bouwd zet toch al zo min mogelijk extra's in die kast.

Een uitzondering: tenzij die ruimte inbeslag wordt genomen door zo'n enorm lawaaierige koeler. Naar mijn idee is dat het punt waar de meeste mensen over (gaan) struikelen. Die PC's zijn al zo lawaaierig tegenwoordig :'(
Anoniem: 56005 @Boushh18 maart 2003 15:29
Als de DX9 features op de GFX beter uit de verf zouden komen dan op de 9700/9800 zou je dat moeten kunnen zien aan de 3dMark3 bench, die gemaakt is om DX9 kaarten te testen. Aangezien de ATI kaarten rondjes rennen om de nVidia kaarten in 3dMark3 zit het wel snor met de DX9 performance van de nieuwe ATI kaarten.

Het lijkt me waarschijnlijker dat CodeCreatures optimalisaties heeft voor Geforce kaarten of veel gebruik maakt van weinig voorkomende instructies die niet goed geoptimaliseerd zijn in de ATI drivers.
Het feit dat er binnen 3DMark03 juist zo'n groot verschil zit verbaast mij juist. Bij de meeste tests liggen de FX en de 9700 Pro gelijk. Maar in 3DMark03 zit daar ineens een behoorlijk groot verschil tussen :?

Dat CodeCreatures samen met nVidia ontwikkeld zou worden mag naar mijn idee geen verschil maken als de test op basis van DX wordt gedaan. Als ik mij niet vergis is DX bedoelt als laag tussen de hardware en de software. DX biedt x funkties, en de kaart kan x funkties (of een gedeelte daarvan) hardwarematige ondersteunen. Niet ondersteunde funkties worden softwarematig uitgevoerd.

Wat jij zegt zou betekenen dat CodeCreatures maar voor een gedeelte gebruik maakt van DX en voor de rest de kaart direct aanspreekt.

Wellicht zit ik er naast, maar zo heb ik het altijd begrepen. En als dat zo is, dan zegt deze test van een werkelijk DX8.1 spel juist weer wel wat :)
Zo werkt het niet helemaal. Direct functies aanspreken wordt niet gedaan, alles gaat gewoon via DirectX 8. Maar wat bijvoorbeeld gedaan kan worden om Geforce kaarten beter uit de verf te laten komen is bepaalde functies - die misschien in een echt spel niet voorkomen - gebruiken waar de architectuur van de Radeon niet goed op berekent is. Dat dit het geval is bij de Codecreatures benchmark wil ik niet zeggen, maar dat is wel DE methode om benchmarks te beinvloeden.
Ik vind dit eigenlijk een non-issue. De 9800pro koop je niet om de volgende generatie spellen mee te kunnen spelen (DX9 gebaseerd) omdat je die ws in low-res (1024x768 of misschien wel 800x600) moet draaien om een beetje fatsoenlijke fps te krijgen. J emoet een kaart kopen om de huidige spellen goed te spelen en met de 9800pro kun je alle huidige spellen spelen met AA en aniso en de hele FB op max en toch nog een nette fps hebben.
Jij koopt misschien een kaart alleen voor de huidige generatie spellen, maar ik kan je verzekeren dat de meeste mensen langer willen doen dan 6 maanden met hun videokaart. Die willen er ook nog steeds mee kunnen werken over 1 of zelfs 2 jaar!
Codecreatures is samen met nVidia ontwikkelt. Niet echt representatief dus. 3dmark03 daarentegen is volledig dx9. Daar is de ATi wel degelijk sneller in
Anoniem: 24822 18 maart 2003 22:07
Sorry, maar de 43.00 drivers zijn nou niet echt ideaal om te testen... Bij 3Dmark 2003 is bijvoorbeeld duidelijk te zien aan de score dat de kaart gelocked blijft in 2D modus (300/600) Met de goede drivers moet die kaart veel dichter in de buurt komen van de R9800 Pro.

Dat komt niet zoals jullie zeggen door geoptimaliseerde drivers voor 3Dmark, maar het is gewoon een driverfout in de 43.00 die hem op 300/600 houd.
hmm de 43.00 driver geven juist de echte snelheid weer. Wat zijn benchmark drivers? O zijn dat drivers waar de IQ drastisch lager is en de "prestatie" hoger liggen.

Op 300/600 zou die namelijk nog veel langzamer zijn!!!
Anoniem: 24822 @paragon20 maart 2003 13:06
"Performance" drivers schelen geen +/- 2000 punten.

Er zijn er al een heel aantal die hetzelfde probleem geconstateerd hebben met de 43.00 drivers. Bijvoorbeeld:

http://forum.computertotaal.nl/phpBB2/viewtopic.php?t=86390&postdays=0 &postorder=asc&start=0
http://www.hardwarezone.com/articles/articles.hwz?cid=3&aid=657&page=9
Wat grappig, de linkjes die je geeft spreken je zelf tegen. Ik quote van hardware zone:
There was this rumor that the earlier driver had defaulted to rendering at 16-bit Floating Point color precision while ATI’s RADEON 9700 Pro does it at 24-bit color precision at all times. While 3D Mark 2003 was testing the MSI FX5800 Ultra-TD8X, we noted that after the installation of new drivers, many of the scenes seemed more vibrant and dynamic; especially in Game Test 2: Battle of Proxycon and Game Test 4: Mother Nature. It could well be the truth that the new drivers had defaulted to 32-bit FP color precision during 3D Mark 2003, but we cannot say if this was so for other tests.

NVIDIA supports only 16-bit or 32-bit FP color precision and it isn’t quite clear when the driver chooses which mode or if it uses some defined logic depending on the data input. It is known, however, that using 16-bit FP color precision would result in twice the performance of 32-bit FP color precision and half the bandwidth required. Looking at the results and with regards to the image quality mentioned, this statement seems to hold true.
Dan moet ik je teleurstellen, ik weet meer dan 100% zeker dat de ventilator tijdens 3DMark03 een oorverdovend geluid begon te maken.

Maar om nog even terug te komen op je allereerste post, daarin beweer je dat de 43.00 niet geschikt zouden zouden zijn om te benchmarken. Ik hoop dat je begrijpt dat de 42.72 drivers dat ZEKER niet zijn gezien het vals spelen met de kleuren nauwkeurigheid.
Dat stukje bedoelde ik ook niet ;) Hoewel je wel performancewinst haalt ui die 'çheat' gaat het mij hierom:
The detailed results for 3D Mark 2003 revealed the correct GPU and memory clock speeds for that iteration only. All other runs where the results have been drastically affected by the new driver, had reflected incorrect GPU and memory clock speeds of 300/600MHz (core/memory), which represents the speed in 2D environment. Coincidentally, the difference in clock speeds are near the 50% mark too and it could have contributed by the low scores
Heb je die kaart toevallig nog? Dan moet je eens op het geluid letten. Als de kaart overswitched van 300/600 naar 500/1000 dan moet je de fan op horen spinnen, iets wat je dan niet hoort als je 3Dmark2003 draait met de 43.00 drivers.
Sorry hoor, maar als je deze 2 superkaarten mag testen zorg je toch voor een CRT beeldscherm die wel hoge resoluties aankan ?? :)

En waarom is 3DMark2001 niet meegenomen in de tests ? :?
Tja, ik had er niet aangedacht cq opgerekent dat er een LCD-scherm aanwezig was. En ook op 1024x768 kan je prima uitspraken doen over de prestaties van de kaarten, maar ik had ook veel liever ook nog getest op 1600x1200 natuurlijk.

En 3DMark 2001 heb ik niet gebruikt omdat dat programma niet werkt als er DirectX 9 geinstalleerd is waardoor het niet erg practisch is om te gebruiken.
En 3DMark 2001 heb ik niet gebruikt omdat dat programma niet werkt als er DirectX 9 geinstalleerd is waardoor het niet erg practisch is om te gebruiken.
3DMark 2001 werkt niet als DirectX9 is geinstalleerd? Werkt hier prima. Misschien ligt het aan de nVidia detonators. Probeer andere een nieuwere versie. En met die Radeon zou het ook gewoon moeten werken.
Anoniem: 66476 @Hielko24 maart 2003 20:29
dan moet je even de nieuwste build van 3dmark 2001 ophalen - die doet het wel met dx9 ;-)
Ik hoop dat ATi gauw overstapt op 0.13 micron, dan krijg je nog betere prestaties.
Nou niet alleen van de overstap naar een ander (kleiner) productie-proces hoor ... ;) Intressant is eerder hoe snel ze ze dan kunnen klokken en hoeveel groter de core kan worden (denk aan uitbreidingen aan logicablokken of onchip caches.)

Ze hebben voor de 9800 snelheden in gedachte die eigenlijk niet bij 0,15micron horen (max 400Mhz wordt er algemeen gedacht) maar ATI schijnt erg veel vertrouwen te hebben in hun huidige produktie-process. Bovendien kan ik me ook goed voorstellen dat ze niet tegen de problemen op willen lopen die gepaard gaan met de overgang naar nieuwe technieken op dit (voor ATI) kritieke moment.
Anoniem: 64613 18 maart 2003 17:20
Ja als je weet dat de gf fx beter presteerd met 42.68 en 42.72 in 3Dmark03 met je het ook daarmee testen anders is het alsof dat je de ATI's bechmarkt met hun slechtste drivers dus......
[sarcasme]
Ja, dat zal de vergelijking echt een heel stuk eerlijker maken... Een GFX driver gebruiken die alleen geschreven is om goed te scoren in 3dmark. :P
[/sarcasme]

De kaarten zijn getest met de laatste versie van de drivers die ook bij de kaarten gebundeld zullen worden, zoals het hoort.

Op dit item kan niet meer gereageerd worden.