High End 3D videokaarten shootout

De redactie van Sharky Extreme heeft een shootout gehouden tussen aan aantal van de snelste videokaarten die op dit moment op de markt zijn, te weten:

  • 3dfx Voodoo5 5500 AGP 64MB SDR
  • ASUS AGP-V7700 Deluxe 32MB DDR
  • ATI RADEON 32MB DDR
  • Creative Labs Annihilator 2 32MB DDR
  • ELSA GLADIAC GeForce2 GTS 32MB DDR
  • Hercules 3D Prophet II GTS 32MB DDR
  • Leadtek WinFast GeForce2 GTS 32MB DDR
  • PowerColor PowerGene GTS 2 32MB DDR

Al dit 3D geweld werd dit keer eens niet alleen getest op Quake3, maar ook werd er gekeken naar beeldkwaliteit, FSAA, DVD decoding, Re-Volt, drivers, prijzen, het bijgeleverde softwarepakket en eventuele extra features als Tv-out. De Elsa Gladiac GeForce2 GTS kwam als winnaar uit de bus:

As you can see from final scorecard there are a few omissions. Namely the GeForce 2 Ultra (which isn't out yet), the Radeon 256 64MB and the Voodoo5 6000 (also not out yet) as well as 64MB GeForce2 GTS cards are all absent. Apart from the cards not out yet, our reasoning behind omitting them is simple. They were over the $300 range and thus we'll do a separate shoot-out (currently being worked on) later on this month.[break]
Sharky HE video shootout resultaten
[/break]Conclusion
With the games now officially closed let me just say a word to all eight finalists that sometimes take themselves too seriously. First of all if you made it this far, think of it in this way. You made it to the final and in doing that you've done your company proud. There isn't a single card in this round-up that isn't worthy of being called a world class performer. It just depends on what you're looking for. And if you still don't like how you placed, do some more training and come back next year with better fill rates, FSAA quality and/or some faster Quake III scores. Send us a formal complaint via Email or get chatty with us on www.sharkyforums.com.

Lees de 34(!) pagina's hier. Rik01 was de eerste die dit nieuws submitte, hij en alle anderen worden daarvoor bedankt.

Door Wouter Tinus

09-10-2000 • 15:06

33

Bron: Sharky Extreme

Reacties (33)

33
33
17
5
1
12
Wijzig sortering

Sorteer op:

Weergave:

wat opvalt is dus de effectifiteit van ddr...
alle kaarten hebben 32 mb ddr , er is er maar een met 64 ...en dat is sdr.
en die scoort ook nog eens het slechtst
inderdaad, maar je ziet 'n aantal dingen over het hoofd:
1) de 64MB kaar gebruikt 'n andere GPU dan de kaarten met 32MB.
2) 'n andere benadering kan ervoor zorgen dat je DDR prestaties kan evenaren met SDR geheugen. Bewijs, de Kyro (tile-based-rendering) is ongeveer evensnel als 'n Geforce DDR, en verslaat 'n Geforce 2 GTS in alles waar je met 'n grote overdraw te maken hebt. Uiteraard lever je in op snelheid onder applicaties die maar weinig overdraw hebben (zoals Quake).
inderdaad, maar je ziet 'n aantal dingen over het hoofd:
1) de 64MB kaar gebruikt 'n andere GPU dan de kaarten met 32MB.
2) 'n andere benadering kan ervoor zorgen dat je DDR prestaties kan evenaren met SDR geheugen. Bewijs, de Kyro (tile-based-rendering) is ongeveer evensnel als 'n Geforce DDR, en verslaat 'n Geforce 2 GTS in alles waar je met 'n grote overdraw te maken hebt. Uiteraard lever je in op snelheid onder applicaties die maar weinig overdraw hebben (zoals Quake).
Ik ben misschien artelijk, maar ik zie geen nut in het halen van 150 fps terwijl m'n monitor maar op 85Hz refreshed..... Volgens mij kun je met 85Hz refresh rate niet meer zien dan 85 fps. Alles wat meer is, is overkill! Kan beter door de kaart aan de beeld-qualiteit worden besteedt!
Ten Eerste is Hz en FPS TOTAAL verschillend en kun je het niet vergelijken zoals jij doet.

Ten Tweede die 150 haal je in 640 x 480. Als je een beetje kwaliteit wil (lees mooi beeld) dan zakt die FPS al snel onder de 100.


* 786562 Rene
Hoe moet ik dat zien verschillend? ('k ben geen echte gamer, vandaar :) )
Als m'n monitor op x Hz werkt, dan kan ik dus ook maar x frames per seconde zien. Niet meer. Dus als ik 'n framerate heb van x+y, wordt er dus in werkelijkheid y frames te veel verstuurd naar de videokaart.
'k weet niet, maar volgens mij is dat verspilling van processorkracht en kan dat min of meer beter gebruikt worden voor andere dingen zoals het afhandelen van je pretpook, je ramplank of je rat...
Als ik het zo hoor, heb ik het idee dat onze programeerhelden bij ID en anderen gewoon alles achter elkaar afrakelen... Ie:
1) input devices afscannen
2) nieuwe spelsituatie berekenen
3) framebuffer sturen
4) goto 1)
Ik vraag me dus af of dat niet beter kan:
1) vraag current refresh-rate op in registry
2) input devices afscannen
3) nieuwe spelsituatie berekenen
4) if 1/time_elapsed < 1/refrash-rate goto 2
5) framebuffer sturen
6) goto 2
FPS is hoeveel frames per seconde een VGA kaart kan _genereren_. In een simpele situatie (in een spel) zijn het veel FPS, als er ineens 20 mannetjes in je beeld komen (ik noem maar wat) dan moet je CPU/GPU al die textures en polygonen gaan berekenen, het aantal FPS zakt dus.

De refresh rate is iets heel anders, namelijk hoevaak je VGA kaart het _gegenereerde_ beeld _per seconde_ naar je monitor stuurt. Is dit 60 Hz dan zit je naar een stroboscoop te kijken, is het 100 Hz dan staat het beeld strak. Dit zijn dus 2 onafhankelijke begrippen die door de RAMDAC van je VGA kaart worden verwerkt tot een goed computerbeeld.

Het is dus niet zo dat een videokaart wordt beperkt door de monitor die er aanhangt, die is namelijk _passief_.
In 3D Winbench 99 was dat wel zo:
als ik mijn monitor op 85hz had staan, kreeg ik nooit scores hoger dan 85FPS. Overigens vind ik dit heel erg vreemd: als ik UT speel met 800x600x32 HQ, is mijn framerate veel hoger dan wanneer ik speel met 640x480x16 LQ.
FreeRider, ik denk niet dat je m'n standpunt begrepen hebt.

Wat heb je aan 100fps als je monitor op 85Hz draait? Die 15 fps meer die kun je niet zien! Zou dus mooier zijn als de de tijd om de 15 frames te berekenen en naar de 3D kaart te sturen zou worden gebruikt voor andere dingen?

Trouwens ik maak op uit je reaktie dat het aantal fps flink kan teruglopen op het moment dat scenes complexer worden. Er is dus nog flink wat werk aan de winkel voor NVidea.
(tussen haken, de Kyro, en in mindere mate de Radeon, heeft 'n veel stabielere fps dan de GeForce!)
Tja dit is eigenlijk een hele globale vergelijking waarbij ze bij sharky toch wat dingen worden vergeten/ondergewaardeerd.

De Geforce kaarten zijn wat 3D beeldkwaliteit heel goed gewaardeerd en ik denk dat dat komt omdat de drivers zo volwassen zijn en geen glitches veroorzaken. Bij de V5 en Radeon zijn de drivers nog wat inmature. Maar de pure scherpte van de textures en effecten is bij deze 2 kaarten gewoon wat beter dan bij een Geforce.

Ook de desktop quality is wat minder bij de Geforce maar dat merkt de gemiddelde gamer niet. Ik werk zelf met photoshop op 1600x1200 op een 19" en dan wil je toch mooie scherpe beelden. Matrox is king wat dat betreft maar ook 3dfx staat bekend om hele goeie 2d kwaliteit en ik vermoed dat de Radeon ook heel goed is.

Verder is t idd jammer dat FDAA niet zo zwaar meetelt want dat vind ik toch wel HET punt om een V5 op te kopen.

Ook zouden ze best wat meer mogen vertellen over de drivers. D3d weten we nu wel maar hoe zit t met OpenGL, nVidia is daar volgens mij koning. En de V5 heeft Glide, ook niet onbelangrijk omdat sommige spellen daar nou eenmaal goed gebruik van maken.
Aan 64mb heb je dan ook pas wat in erg hoge resoluties of bij spellen als Unreal Tournament 2 waarvan de technology demo er ontzettend vet uit ziet (zie PC Games (duits maandblad) van deze maand)
Maar in deze review zit de 64 MB SDR op de Voodoo. Dat kun je niet vergelijken met 64 MB op een Geforce. De SDR op de Voodoo is feitelijk 2 channels van 32 MB ram, effectief even snel als 1 DDR channel met dezelfde klok frequentie. De reden waarom de '64 MB SDR kaart (Voodoo)' langzamer is dan de '32 MB DDR kaart (Geforce)', is dat de Voodoo minder fillrate heeft dan de Geforce.
Zonoskar, je moet 's proberen om (bij een goede player, dus niet de wmp) bij de properties van de mpeg4 decoder de cpu meer aan te spreken. dan gaat de kwaliteit erg hard vooruit. ik heb hetzelfde probleem met m'n tnt2 ultra alleen m'n cpu trekt het net vloeiend op de laagste cpu quality. op de hoogste ben ik alle blokjes kwijt maar ook het vloeiende :`(

try it, you'll like it
Is dit een reply op een ander posting van mij :) Maareh, wat noem je dan een goede player (yep, ik gebruikte wmp == windows media player?)
met image quality word toch beeldkwaliteit bedoelt?

ik hoorde juist zoveel reacties dat de beeldkwaliteit van voodoo/ati vele malen beter was dan die van de gf2 maar hier blijkt weer uit dat hij net zo mooi is als de ati en de voodoo is zelfs slechter...

is wel vreemd...


* 786562 -the
Waar mensen het meestal over hebben als ze klagen over de beeldkwaliteit is een wazige windows desktop (2D). De image quality hier heeft betrekking op een plaatje die met de 3D engine van de kaart getekend is, dit heeft dus niets te maken met de windows desktop die zou nog steeds wazig kunnen zijn (en is het volgens mij ook bij de Geforce's. Bij mijn CLAP in ieder geval boven de 1024x768 wel).
Dat is een bekend probleem bij de CLAP en CLAP Pro. Dat kwam er bij de eerste testen al uit en werd toen afgeschoven op slechte Drivers. Ik zou zeggen download eens drivers vanaf de CL site en kijk eens als dat wat verbetering brengt.

Zo niet, jammer toch maar eens wat meer reviews lezen...


* 786562 Rene
Ik wist dat dit een probleem was, echter op mijn 17" Eizo draaide ik op m'n vorige kaart ook maar (een beetje fatsoenlijk) maximum 1024x768, en daarin is de CLAP best ok. Ik zie het verschil in ieder geval niet met m'n Mill-II die ik voorheen had. Pas boven de 1024x768 ga je verschil zien. Anyway, de CLAP-I DDR was goedkoop en zeer goed over te klokken (hij loopt op 170/333, normaal op 120/300). Dat je zoiets met driver kunt oplossen lijkt me redelijk onzin (ik gebruik nu de ref. 6.18 en ik zie echt geen verbetering), want hoe kun je nou het video-outputfilter veranderen (== hardware) met drivers? Dit alles ter info natuurlijk :)

* 786562 zonoskar
Als je nu de minst intressante horizontale kolom weg laat (bundle) dan komt er toch een hele andere score uit.
Nog iets: Die Image quality geldt alleen voor de 3D kwaliteit, NIET voor de 2D (windows desktop) kwaliteit. Weer een 'oversight' van SE. Ik denk (net als hierboven al gezegt) dat ATI een betere keuze is dan een GeForce GTS.
Ik mis toch de Radeon 64... Die kun je niet zomaar afdoen als een Radeon 32 die op hoge resoluties wat beter presteert, aangezien de Radeon 64 het geheugen op 183 MHz heeft lopen en de 32 MB versie maar op 166 MHz. Ook hadden ze wel een GeForce 2 Ultra toe mogen voegen aangezien deze kaart ook zeker wel high end is (of valt dat onder too expensive-end?)

Ok wanneer moet je nou een 32 MB versie kopen en wanneer een 64 mb versie? Alleen als je systeem snel genoeg is om op hogere resoluties dan 1024x768 te spelen loont het om een videokaart met 64 mb DDR te kopen, anders schiet het niet echt op en is het eigenlijk zonde van het geld...
They were over the $300 range and thus we'll do a separate shoot-out (currently being worked on) later on this month.
Zegt genoeg ;)
Als je alles ff vergelijkt komen alle kaarten bijna hetzelfde eruit.. Vooral inderdaad als je Bundle eruit haalt.

Wat ook raar is de "zo uit de duim gezogen" punten telling per onderdeel. Want om nou de DVD kwaliteit/Ease of User en Bundle even zwaar mee te rekenen als Image Quality (Daar koop je toch een HighEnd kaart voor??? VooDoo 3 is ook snel als je de kwaliteit van het beeld naar beneden schroeft...) Komt niet goed over....
De vraag of 64MB zinvol is kan je op dit moment niet beantwoorden, het is tenslotte aan de Games-industrie of ze daar wel of geen gebruik van gaan maken en of je er dus iets in de toekomst aan hebt.
Tenslotte waren bij het uitkomen van Quake3 demo ook niet erg veel videokaarten waarmee je het spel fatsoenlijk (+60fps) kon spelen op hoge kwaliteit 800*600.

Op dit item kan niet meer gereageerd worden.