ATi Radeon 9500 Pro leverbaar en sneller dan verwacht

Onze goede vriend Anand neemt weer eens een kritisch kijkje naar ATi's Radeon 9500 Pro. ATi heeft de Radeon 9500 Pro onder handen genomen om er een aantal extra frames uit te persen. De 9500 Pro maakt niet meer gebruik van een aangepast 9700-bord, maar heeft een nieuwe boardlayout. Er is ook gekozen voor 128MB aan geheugenchips van Hynix, in plaats van de Samsung-chips op het pre-productiemodel. De chip communiceert via een 128-bit brede bus met de R300-core, in plaats van de originele dubbele 64-bits bus.

De grootste performancewinst moet de Radeon 9500 Pro echter hebben van de nieuwe drivers die worden meegeleverd, de Catalyst 2.4's. De Radeon 9500 Pro presteert in vrijwel alle benchmarks net een paar procent minder dan nVidia's GeForce 4 Ti-4600. Als FSAA en anisotropische filtering worden ingeschakeld laat de 9500 Pro de 4600 echter ver achter zich. In UT2003 botmatch op 1024x768 streeft de 9500 Pro zelfs z'n grote broer, de 9700 Pro, voorbij:

ATI is very concerned about making sure the Radeon 9500 Pro is a success, as it targets a much larger volume price point. Thanks to an improved driver, new board design with an optimized layout and a full 128MB of memory the card is able to compete with the GeForce4 Ti 4600 instead of being just barely faster than the Ti 4200. (...) Should NVIDIA be worried? Every day that they don't have competing products out in the channel is another opportunity to increase ATI's sales, we'll leave that decision to the market and you.

Als het ATi lukt de kaart voor het eind van het jaar in grote aantallen de deur uit te krijgen zal nVidia het best benauwd krijgen. Het €200-segment is voor videokaartfabrikanten namelijk "booming business" en ATi heeft daar op dit moment weinig te bieden. Aan de overkant is het echter nog niet stil: nVidia heeft voor het eerste kwartaal van 2003 een lager geklokte GeForce FX in de planning, de NV31. Of deze op tijd komt om marktaandeel van ATi weg te snoepen is nog maar de vraag.

ATi Radeon 9500 Pro Box

Door David Menting

Nieuwsposter

29-11-2002 • 00:17

61

Submitter: Wouter Tinus

Bron: AnandTech

Lees meer

Reacties (61)

61
59
44
23
2
0
Wijzig sortering
ik ben het niet eens met het geblaat van degene die zeggen dat game ontwikkelaars een game developen en zich richten op mainstream. Waar baseer je dat op? Het feit dat als er een game uitkomt deze meestal geschikt is voor de mainstream markt?

Game ontwikkelaars (vooral bij 'grote' games) richten zich op high-end of misschien nog wel een stukje hoger. Dit omdat een gemiddelde goede game ongeveer 3 a 4 jaar kost om te ontwikkelen, het is niet zo dat het laatste jaar de engine pas wordt ontworpen, dat lijkt me logisch. De engine moet dus ontworpen worden 4 jaar van te voren.. en ontwikkelaars moeten een inschatting maken wat over 4 jaar nodig zal zijn. Men richt zich daarom ook niet op main stream, want dan zou de game al zwaar verouderd zijn tegen de tijd dat het product de winkels in gegooid wordt. Het is alleen zo dat de videokaarten steeds sneller geproduceert worden en steeds sneller met nieuwe versies uitkomen, waardoor de games alsnog niet "helemaal geschikt" zijn voor highend c.q. alles eruit halen. Je kunt dat een inschattingsfout noemen, maar dat had je toch moeilijk kunnen voorspellen.

De game ontwikkelaars die op het moment bezig zijn met ontwikkelen hebben zich ook al op direct x9.1 gericht, zo weet ik het van een paar, maar de games zullen over 2 jaar pas in de schappen liggen.. misschien zal er tegen die tijd al een directx10 zijn, je weet het niet en ook dan zal er weer gekankerd worden op de game ontwikkelaars die zogenaamd zich richten op de mainstream..
ik ben het niet eens met het geblaat van degene die zeggen dat game ontwikkelaars een game developen en zich richten op mainstream. Waar baseer je dat op? Het feit dat als er een game uitkomt deze meestal geschikt is voor de mainstream markt?
Simpel. Wat begint nu mainstream te worden? Juist... DX8 kaarten zoals de Radeon8500/9000/GF4Ti-serie. En wat zien we nu?? Er komen steeds meer games uit (zo meteen een hele vloedgolf) die goed gebruik maken van DX8 (en dan niet alleen het mooie water zoals in Morrowind).

Of dit is 1) ongelovelijk goed getimed of 2) de gamedevelopers hebben zich verkeken op de snelle ontwikkelingen in videokaart land, want de hi-end kaarten van toen beginnen nu af te zakken omdat er een nieuwe generatie staat aan te komen.

Kijk naar een DoomIII. Tegen de tijd dat die op de markt komt zal de GeForceFX en Radeon9500/9700 helemaal ingeburgerd zijn op de mainstreammarkt. Dan is het voor hun mogelijk om redelijk Doom III te spelen. Natuurlijk zullen er dan ook hi-end kaarten zijn zoals een R350 of NV35, maar denk maar niet dat Doom III gebruik zal maken van al die extra functies. Ja... het zal gebruik maken van de brute kracht, maar niet van de DX9.1 functies.

Of kijk naar UT2K2. Net uit gebracht en die speelt prima op een Radeon8500/Radeon9000/GF4MX440/Ti4200/Xabre400. Weliswaar misschien niet met alle opties op max. Maar het is goed speelbaar op die kaarten. En dat zijn de kaartjes die nu mainstream zijn.

Als een gamedeveloper een game maakt die uitsluitend door de high-end markt gespeeld kan worden uit brengt, dan verdient een gamedeveloper dus helemaal nada noppes niets. Het grote geld ligt gewoon in de mainstreammarkt. Dat geldt voor kaartenbakkers, maar ook voor gamedevelopers.

Natuurlijk kijkt men jaren vooruit, maar ik denk dat men meer een inschatting probeert te maken van de technieken die over een jaartje of twee in de mainstreammarkt mogelijk zijn. En doordat fabrikanten als ATi nu DX9 technieken richting de mainstream drukken met hun goedkope 9500-serie, staat niets de gamedevelopers in de weg om wat sneller DX9 games te maken, vooral niet met handige zaken als Cg en Rendermonkey.
3 tot 4 gaat lang niet voor alle games op. Reken maar dat een groot deel van de games binnen 1,5 tot 2,5 jaar in elkaar gezet worden. 3 tot 4 jaar vooruit kijken wat betreft features is IMO een Btje koffiedik kijken. Ook zijn er games die een doorontwikkeling zijn van hun oudere broetjes, kijk naar Unreal en de unreal warfare engine. Deze engine is continue in ontwikkeling, dit verkort de ontwikkeltijd dus ook aanzienlijk.
Maybe een Btje offtopic, maar moest het ff kwijt.

Terugkomend op de 9500Pro :D nVidia voelt een wel hele hete adem in hun nek nou. Niks mis mee, ze zullen er nu bijvoorbeeld ook alles aan doen om tegen de tijd dat de FX en het kleine boertje daadwerkelijk te krijgen zijn er ook goed presterende drivers zijn die zoveel mogelijk uit de kaart halen.

* 786562 Da
Je kan er veel over zeggen, maar deze kaart bewijst in feite dat het mogelijk is om high-end (laten we het nu maar zo noemen) prestaties te brengen voor een middle-class prijs. De prijs/performance ratio van deze kaart ligt gewoon heel erg goed en ik denk persoonlijk dat dit best wel eens een regelrechte hit kan worden.

Waar ati misschien wel voor moet oppassen is het feit dat mensen die twijfelden een R9700 te kopen (waaronder ikzelf) nu serieus overwegen een R9500pro te kopen voor de helft van de prijs. De R9500pro is half zo duur, maar zeer zeker niet 2x zo slecht. Hierdoor zal de afzet van radeon9700 kaartjes misschien wel wat minder worden, hoewel deze over een paar maanden natuurlijk wordt overgenomen door de R9900 en de 9700 misschien wel af zal zakken naar de huidige doelgroep van de 9500, waardoor de 9500 misschien wel in de budgetklasse komt, waardoor hij nog aantrekkelijker wordt (concurrentie voor de Xabre 600?)
oewel deze over een paar maanden natuurlijk wordt overgenomen door de R9900 en de 9700 misschien wel af zal zakken naar de huidige doelgroep van de 9500, waardoor de 9500 misschien wel in de budgetklasse komt
Ja, want die dingen kosten niets om te maken...

Waarschijnlijker is, dat na het uitkomen van de 9900 de 9700 PRO gewoon niet meer gemaakt wordt. Kijk naar het verleden: nVidia stopte ook met de GF2 Ultra toen de GF3 uitkwam, hoewel ze nog gewoon GF2's maakten.
de reden dat de gf 2 ultra niet meer gemaakt werd en de gf2 nog wel toen de gf3 uitkwam was omdat het prestatie verschil tussen gf3 en gf2 ultra eigenlijk nihil was terwijl nvidia zei dat ie flink sneller zou worden, de gf2 ultra was dus een serieuze bedreiging voor de gf3. verder was ie een stuk duurder om te maken dan een gf2(heel snel geheugen destijds)

bij de radeon 9900 mogen we wel verwachten dat ie weer een tik sneller is dan de 9700, dan kan het zo gaan als jij beschrijft, maar ook zoals dr.lowtune beschrijft. we zullen wel zien, maar wat zeker is is dat ati in elk segment de beste kaart wil hebben voor de beste prijs
Bedoel je niet de 9700 Pro ipv de 9700?

Die 9700 is ook een flink stuk goedkoper dan de 9700 Pro en levert nog een veel betere performance dan de 9500 Pro. Lijkt me ook een zeer interessante kaart.

ATI heeft nu een zeer sterke product range staan.
9700 Pro, 9700 en 9500 Pro lijken allemaal uitmuntende prijs/performance verhouding te hebben.
Eigenlijk is de 9000(Pro) hun enige kaart waar ze op dit moment concurrentie hebben.

Dit moet voor ATI wel de beste kerst sinds jaren worden.
Dat is zeer gunstig voor ATI!
Prijs is ook mooi gekozen ;)
Ik denk dat ik er 1 voor mijn systeem ga helen!

Wat is btw heet grootste verschil in 2x 64 bits bus of 1x 128?
2x64=128

De nieuwe bus zal dus ongeveer gelijk presteren. Bij grotere transfers (>64bit) iets beter, bij kleinere waarschijnlijk iets minder goed.
t was toch zo dat een 128bit bus maximaal 128bit per clock kan versturen? dus als je een package van 96bit verstuurt dat je de resterende 32bit niet meer kunt gebruiken? zo zat het iig en daarom had nvidia voor zn geforces gebruik gemaakt van een 4*32 bit bus ipv 1*128bit

edit:
argh, WAAROM wordt die post van Aksel naar 0 gemod? hij stelt een technische vraag waar menig tweaker geen antwoord op weet, David Menting en ik proberen daar een antwoord op te geven wat uiterst handig is voor mensen die er meer over willen weten, zorg dan dat deze replies altijd zichtbaar zijn...
...had nvidia voor zn geforces gebruik gemaakt van een 4*32 bit
4*64bit (Toms Hardware) dus ;) B-)

[edit]
idd bibabolle maar dat was kennelijk voornamelijk marketing technisch geblaat ;) lol

bron: nVnews[quote]

The 256-bit graphics controller on the GeForce3 has been partitioned into four 64-bit memory controllers each of which communicate with each other and the load and store units on the graphics processing unit.

* Note that although the memory controller on the GeForce is 128-bits wide, the use of Dual Data Rate memory effectively increases the flow of data to 256-bits per clock cycle. DDR makes the bus function like a bus that works twice as fast, rather than twice as wide, but the net benefit is similar.
[/quote]
ik zie het idd staan maar een geforce 3 heeft echt GEEN 256 bit bus hoor, dat kan ik je verzekeren ;)
mischien dat ie dat maximaal aankan(dus als ze van 128bit naar 256bit zouden gaan dat je 4*64 krijgt ipv 8*32)
gedult is een schone zaak ;)
pcies :Y)

Echter de keuze van Nvidia voor een 24-bits Z-buffer is daarom in mijn ogen een beetje vaag :) maar goed ;) zal wel goed te comprimeren zijn.. lol
Goed kunnen spellen ook bibabolle.... ;)
lol... helen nog wel...

je weet dat dat verboden is? :+

[/edit] *zucht*... waarom schijnt humor hier altijd zo moielijk te begrijpen te zijn? [edit]
Het grootste verschil is waarschijnlijk de achterliggende controller.

2*64bit:
Om die 2 kanalen optimaal te benutten is een 'cross-bar' controller nodig, vergelijkbaar met de cross-bar controller in de geforce 3 (4*64bit). Deze controller is moeilijk te maken (tenminste als je het echt goed wil doen).

1*128bit:
Om het kanaal optimaal te benutten kunnen er alleen overdrachten plaats vinden van 128MB, of de controller moet in staat zijn om 2*64 om te zetten naar 1*128

Hierdoor ontstaan de volgende problemen:
2*64bit: De 'cross-bar' geheugen-controller wordt complexer, groter en dient sneller te zijn in het verwerken van de gegevens dan de 1*128 variant.
Bovendien neemt het aantal on-chip buffers toe, in ieder geval 1 voor elke 'cross-bar'.
2*64bit:Het PCB waar de chip op plaats moet nemen bevat meer sporen (ook al is dit niet het grootste probleem) wat het duurder maakt.

1*128bit: Een transfer onder de 128 bit levert verlies aan bandbreedte op. Een bitje snel wijzigen is er dus niet bij, want het kost je op zijn minste een clockcycle
1*128bit: Een breeder datapad vereist betere afscherming, en zeker als je het die 128bit ook wil gebruiken op hoge snelheden. Dit maakt het PCB duurder.

Ik kan nog wel wat verzinnen ;) maar goed :7
Andere reviews kun je hier vinden:

Hot Hardware
Tech Report
Firing Squad
Beyond 3D

En allemaal komen ze tot dezelfde conclusie. De Radeon9500Pro heeft heel erg veel potentieel en er zijn weinig redenen meer om een Ti4200 te kopen (of zelfs een Ti4600 wanneer het op FSAA en AF aankomt).

Edit: Dankzij kaarten als deze (en de gewone 9500) is ATi de eerste fabrikant die DX9-kaarten naar de mainstream-markt brengt. Wie had ooit gedacht dat het zo snel zou gebeuren? Mocht deze kaart een succes worden, dan kan het zelfs zo zijn dat de mainstream markt een DX9 kaart heeft, voordat Microsoft de final versie van DX9 heeft uitgebracht...

Ze presenteren de kaart de ene maand, en de volgende maand worden ze afgeleverd aan de winkels. Petje af dus voor de agressievere productcycle van ATi.
Allemaal mooi en aardig maar we moeten ons niet blindstaren op DX9. Het zijn allemaal leuke features die belooft worden maar het zal nog zeker een jaar duren voordat de eerste DX9 games op de markt verschijnen. En tegen die tijd zullen de videokaarten weer dubbel zo snel zijn dus voor vele gamers is dat al weer een reden om te upgraden. DX9 compatablity is natuurlijk wel fijn want dan weet je dat je je videokaart niet binnen een jaar hoeft af te schrijven.
Klopt. Maar nu kunnen de game-developers niet meer als smoes gebruiken dat "er maar een klein aantal mensen DX9 kaarten hebben, en dat het niet rendabel is om een game voor dat platform te ontwikkelen". Gamedevelopers ontwikkelen vaak games naar de DX-kaart die in de mainstream geaccepteerd is. Dit waren tot nu toe DX8 kaarten, dus komt er straks een golf van echte DX8 games aan.

Dit smoesje is gewoon te vaak gebruikt bij vorige DX versies. En nu de mainstream markt ook tegen redelijke prijzen een DX9 kaart in z'n bezit kan krijgen, staat niets de ontwikkeling van DX9 games in de weg.

Of zie ik het nou te simpel?
Anoniem: 63887 @CJ29 november 2002 13:15
naar wat er in mijn labiele grijze massa is opgeslagen duurt het ontwikkelen en maken van een game 2 tot 3 jaar.... ik denk dus niet dat er erg veel developers nu eerder met een dx9 game komen... of zijn dit pas laatste fase beslissingen of zit ik gewoon fout?
The Source vrijdag 29 november 2002 - 00:42
DX9 compatablity is natuurlijk wel fijn want dan weet je dat je je videokaart niet binnen een jaar hoeft af te schrijven.
DX9 is nog niet uit of de plannen en code voor 9.1 is alweer klaar (op een bug-hunt na ;) ) Het zal dus dan ook wel niet zo heel lang duren voordat DX 10 eraan komt (Radeon 10000 ???, aangezien Radeon9900 ook al aangekondigt is)
DX9 compatablity is natuurlijk wel fijn want dan weet je dat je je videokaart niet binnen een jaar hoeft af te schrijven.
Het betekent dat je er altijd nog met een leuk bedrag vanaf komt na een jaar plezier :*).
En allemaal komen ze tot dezelfde conclusie. De Radeon9500Pro heeft heel erg veel potentieel en er zijn weinig redenen meer om een Ti4200 te kopen (of zelfs een Ti4600 wanneer het op FSAA en AF aankomt).
Ben ik niet helemaal met je eens. Voor een bedrag dat lager ligt dan de goedkoopste 9500Pro kun je tegenwoordig een hoger geclockte Ti4200 kopen, die beter presteert dan een Ti4600.
Dan wordt de keus al wat moeilijker en wordt het meer de vraag of je een slordige €50 meer wilt betalen voor wat betere prestaties m.b.t. FSAA en AF.

/edit: 0: informatief, hoe moet ik dat opvatten? :)
De review sites komen niet alleen tot de conclusie dat je beter een 9500Pro kan kopen dan een oude GF4Ti, omdat een 9500Pro betere prestaties levert m.b.t. FSAA en AA. Heel belangrijk is: DirectX9.0-compliancy, dus beter voorbereid op toekomstige games.

Dan kan het wel zijn dat je goed overklokbare Ti4200s voor een lagere prijs zal kunnen kopen, maar die kaarten zullen nooit hardwarematig de DirectX9 functies ondersteunen. En naast de goede normale prestaties en prestaties met FSAA en AF aan, ligt daar juist de meerwaarde van deze kaarten.

Niet alle mensen hebben geld om om de zoveel maanden een nieuwe kaart te kopen. Ik denk dat de mainstream markt vrij gevoelig zal blijken te zijn voor de term DX9, ook al komt er voorlopig nog niet echt een game uit die gebruik maakt van alle extra's van DX9.

Als ik moest kiezen dan wist ik het wel en had ik die E50,- extra er graag voor over.
Wat DirectX9.0-compliancy betreft: dat is een veelgehoord argument en niet voor het eerst (heb soortgelijke verhalen gehoord bij de eerste DX8 kaarten). Maar wat gebeurd er in de praktijk? Tegen de tijd dat je daadwerkelijk spellen zult spelen die DX9.0 volledig ondersteunen, zijn we waarschijnlijk een jaartje verder en gaat en voldoet een kaart die al een jaar eerder gekocht is, nauwelijks meer.
Ik hoef nu niet per se een DX9-compatible-kaart te hebben, het komende jaar speel ik alleen nog maar DX-8 spellen en als het dan eindelijk zover is, zijn de DX9-kaarten tenminste betaalbaar (zoals de Ti4200 nu is).
Ik hoef nu niet per se een DX9-compatible-kaart te hebben, het komende jaar speel ik alleen nog maar DX-8 spellen en als het dan eindelijk zover is, zijn de DX9-kaarten tenminste betaalbaar (zoals de Ti4200 nu is).
Natuurlijk is DX9 compliancy niet alles. Maar brute kracht is dat wel. Ik wil best geloven dat deze kaart traag is op het moment dat DX9 games gaan verschijnen in de schappen. Maar ook in oudere DX games zal dit kaartje het goed doen (vooral met alle opties aan).

En dan is het toch mooi meegenomen dat je èn een DX9 kaart heb èn brute kracht (gewoon als in AA & AF) èn het ook nog eens betaalbaar is (net zoals de Ti4200). :7
Reageer hier nog maar eens een keer, wanneer je Doom3 opgestart hebt over 4 maanden ofzo :9~
Als een reactie op WC-eend, en anderen die ik in meerdere tweakers threads zo zie redeneren:

de architectuur van zo'n videokaart staat al meer dan een jaar voor deze uitkomt vast. Het ontwikkelen van een chip als een R300 of Nv30 is dermate ingewikkeld dat hier niets meer aan veranderd kan worden als reactie op de concurrent. NV30 had iets meer dan 100 dagen geleden al zijn tapeout, dat wil zeggen dat deze (op het verwijderen van een aantal trace-bugs) 3 maanden geleden al in zijn huidige vorm bestond.

Het heeft dus voor ATI geen enkele zin om een "spelletje" te spelen met Nvidia, Nvidia doet heus wel zijn best om zo snel mogelijk de Geforce FX op de markt te krijgen, door de problemen met het 0.13 micron proces zijn ze hier helaas niet echt in geslaagd.

Ga er maar van uit dat de release van de 9500 precies zo is als ATI maanden geleden gepland had. De versie die de reviewers een maand geleden hadden was zo snel als ze hem draaien konden
Ga er maar van uit dat de release van de 9500 precies zo is als ATI maanden geleden gepland had. De versie die de reviewers een maand geleden hadden was zo snel als ze hem draaien konden
Je hebt wel gelijk als je zegt dat het allemaal volgens plan verloopt. Maar dat zegt natuurlijk niets over de 'spelletjes' die ATi nu speelt met nVidia. Zelfs die spelletjes kunnen gepland zijn. En daar ging het me juist om.

ATi kan al maanden op papier hebben staan dat ze eerst een brakke preproductiemodel laten testen om iedereen te misleiden, zodat ze een maand later met een supergoed presterend product te komen, wanneer niemand dat meer verwacht had.

De pre-productiemodellen die ze in oktober getest hadden waren inderdaad zo snel als ze gedraaid konden worden... Maar het waren TOTAAL VERSCHILLENDE modellen dan de kaarten die nu getest zijn. Dat waren namelijk gewoon gemodde Radeon9700Pro kaarten die:
1. lager geklokt waren
2. 2x64 bits controllers uitgeschakeld hadden
3. en daardoor maar 64MB geheugen konden aanspreken.
En dat was allemaal omdat de echte PCBs nog niet klaar waren.

Anandtech kwam tot de conclusie dat de prestaties niet veel beter zouden worden op de final versie, ondanks dat er bv nieuw PCB en 128MB op zou komen. Maar nu is dus het tegendeel bewezen.
Padman,

Je verhaal klinkt heel logisch, maar het klopt toch niet met wat op AnandTech staat. Daar vertellen ze namelijk dat de lay-out van de kaart er totaal anders uitziet dan de versie die ze vorige maand hebben getest. Bovendien zit er nu ander geheugen op de kaart. Zelf vind ik het overigens wel vreemd dat de lay-out veranderd is, binnen een maand...
Maar het lijkt me toch niet dat ze van te voren al wisten dat ze met deze kaart zouden komen, maar daarvoor eerst een kaart met andere lay-out zouden maken...
Ik kan me trouwens niet aan het idee onttrekken dat ATi hier een heel gemeen spelletje heeft gespeeld met nVidia...

Een maand geleden lieten ze diverse reviewsites met pre-productie modellen spelen en de oordelen over de Radeon9500Pro waren toen zeer teleurstellend... Ik betrapte mezelf er op dat ik ook best teleurgesteld was en er meer van had verwacht.

nVidia die heeft dit natuurlijk gezien en zag dit als een kans om wat meer rek in de levensduur van hun Ti serie te gooien, door veel reclame te maken voor hun 8xAGP kaarten. Die dachten waarschijnlijk dat ze niets van deze Radeon te vrezen hadden...

En nu een kleine maand later komt ATi *pats boem* met final versie van die Radeon9500Pro die de vloer aanveegt met de Ti4200 en zelfs ook de Ti4600 (en helemaal met AF en AA).

Ik vind 't wel heel erg toevallig en goed getimed allemaal.... :7
Ik kan me trouwens niet aan het idee onttrekken dat ATi hier een heel gemeen spelletje heeft gespeeld met nVidia...
En dat heeft ATI van nVidia geleerd
Release van de 8500.
nVidia komt dan plots klaps met nieuwe detonator drivers.
Ati zou eigenlijk dan de snelste zijn maar door het spelletje van nVidia dus niet.

Nu is het een anderverhaal.
Toen hield nVidia drivers achter dehand van 'n kaart die al een tijdje op de markt is.

nu met ATI die stoomd een nieuw produktvariant klaar waarvan die driver toen met grote waarschijnlijkheid niet beschikbaar waren.

De geoptimaliseerde drivers komen vaak veel later ook bij nVidia en natuurlijk ook bij ATI

Mij lijkt die stelling juist andersom en geld niet in deze situatie

Elke kaart met beta drivers zal niet zijn uiteindelijke performance zien bij een preview of rond release

Maar een driver releasen voor een veteranen kaart tijdens een release van een concurerrende produkt dat is pas onder de gordel.

Dit lijkt mij op valse beschuldiging van nVidia streken tov ATI

nVidia houd dus graag drivers achter als de concurentie met iets nieuws komt.

Mocht ATI dat doen met de 9700PRo als de GeforceFX komt dan staan ze gelijk.
En dat heet concurrentie :).

Ik ben heel blij met deze grote Ati-nVidia war. Je krijgt nu hele goede videokaarten voor 200 euro, een paar maanden geleden nog niet.

Ik vind het slim van ATi om de Radeon 9500 Pro precies nu in de strijd te gooien voor die lage prijs, dat is precies in het ti4200 segment en de Ati presteert beter en heeft Dx.9.0. Dus dat betekent gelijk weer een prijsverlaging van de ti4200's :).

En Ati heeft ook nog de R350 achter de hand als de GeForce FX toch iets sneller blijkt te zijn dan verwacht en voor de toekomstige Nv3X'en.

En Ati heeft interesantere Spec's dan nVidia, als een leek een computer koopt krijkt hij vaak naar de getalletjes. Als die leek dan 4200 en 9500 ziet, of Dx8 t.o.v. Dx9 weet diegene meestal dan al wat hij wil.
Anoniem: 71775 @typhon29 november 2002 11:20
Dat de huidige kaarten beter zijn dan een paar maanden geleden heeft er meer mee te maken met de vooruitgang van de techniek. Je krijgt dus nu gewoon een betere kaart voor je geld dan een paar maanden geleden, dat vind ik vrij logisch. Als voorbeeld, een paar jaar geleden betaalde je net zoveel voor een 486 systeem als nu voor een p4 systeem.
nVidia houd dus graag drivers achter als de concurentie met iets nieuws komt.

Mocht ATI dat doen met de 9700PRo als de GeforceFX komt dan staan ze gelijk.
Hier wil ik nog even op reageren, want ik las op het Rage3D-forum en nVNews-forum iets dat precies hetzelfde suggereerde.

De Radeon9700Pro zou nu namelijk op zo'n 65% van z'n volle vermogen draaien. Als de GeForceFX echt in de winkel te krijgen is, dan zou dit opgekrikt moeten zijn naar zo'n 85%. En daarna zou dit dan langzamerhand naar 100% moeten gaan.

Als dit waar is, dan heeft ATi goed gekeken naar de spelletjes van nVidia.
Anoniem: 71775 @CJ29 november 2002 11:23
Ook drivers moeten ontwikkeld worden. Het zal beslist niet zo eenvoudig zijn om meteen een driver te maken die foutloos is en de kaart optimaal benut. Zo werkt het al jaren dat drivers pas naar een paar updates optimaal zijn! Windows kent service packs bijvoorbeeld!
De 9500 Pro wordt getest met de nieuwe drivers (en oude) terwijl de 9700 Pro wordt getest met de oude drivers. Dit omdat de nieuwe drivers op de 9500 Pro voor een winst van 10% zorgen echter de 9700 Pro wordt er niet sneller door (soms trager). Het is wel leuk om te zien dat de 9500 Pro soms sneller is dan de 9700 Pro...
En dan nu weer mijn eewige vraag:
Hoe is de performance op linux?

Die nieuwe unified drivers schijnen toch ook nog niet alles te zijn en verre van vergelijkbaar met windows performance. Toch absoluut zonde. Ati had allang een klant erbij gehad als ze dat heel iets beter deden.
Als ik dit zo lees.....waarom nog voor een 9700 of Ti4X00 gaan?Als de prijs echt zo rond de €200 komt te liggen, dan is dit echt een "koopje". Maar Ati zal er toch een kluif aan hebben om marktaandeel van Nvidia af te snoepen, want velen huiveren nog steeds voor de driver problemen ( wat volgens mij nu toch ondertussen opgelost is)
Simpel, wat de 9700 Pro betreft.

Die is dus op zo'n beetje alle fronten een stuk sneller dan de Ti4600. Ga je dus voor pure perfomance, dan is de 9700 Pro nog steeds top of the bill. En zijn die nieuwe drivers dan niet ook beter voor de perfomance van de 9700 Pro ? Want in de review lees ik dat de 9700 Pro nog met de 'oude' drivers is getest.

Maar wel heel mooi om de zien dat de 9500 Pro zich kwa prijs redelijk kan meten aan de Ti4200/Ti4400 en ze gewoon voorbij steeft. En de Ti4600 op de hielen zit kwa perfomance voor een flink stuk lagere prijs.
Er wordt hier in deze thread wel gezegd dat de 9500Pro (Final) de Radeon 9700Pro soms zelfs voorbij streeft, maar dat vind ik een beetje onduidelijk eigenlijk.
Er staan inderdaad 2 of 3 benchmarks waar dat grafisch zo is voorgesteld, maar de begeleidende tekst is als volgt:

---
Botmatch is mostly CPU and driver limited, which is why we see such a big performance gain here. With the shipping 9500 Pro drivers, the two 9700 cards perform just slightly better than the 9500 Pro.
---

Zou de grafiek dan fout zijn? Niet dat het heel veel uitmaakt, want de resultaten liggen daar erg dicht bijelkaar. Maar je mag toch aannemen dat wanneer de 9500Pro sneller is dan de 9700Pro bij een test, dat Anand dat er wel met uitroeptekens bijzet.
Anandtech heeft de Radeon9500Pro getest met Catalyst 2.4. Deze Catalyst drivers (v.6200) zorgen voor een enorme prestatieboost op 9500Pro kaarten, maar in mindere mate op andere kaarten.

En om te laten zien dat Catalyst 2.4 voor een enorme prestatieboost zorgt heeft hij blijkbaar versie 2.3 gebruikt voor de 9700(Pro).

Ik denk dat de prestatieboost voor de 9700(Pro) kaarten met de volgende drivers komt. De 6228-drivers zoals die in de DX9 drivers zitten, zorgen er bij mij namelijk voor dat alles veel sneller draait. :7

Op dit item kan niet meer gereageerd worden.