Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties
Bron: Sharky Extreme

De redactie van Sharky Extreme heeft een shootout gehouden tussen aan aantal van de snelste videokaarten die op dit moment op de markt zijn, te weten:

  • 3dfx Voodoo5 5500 AGP 64MB SDR
  • ASUS AGP-V7700 Deluxe 32MB DDR
  • ATI RADEON 32MB DDR
  • Creative Labs Annihilator 2 32MB DDR
  • ELSA GLADIAC GeForce2 GTS 32MB DDR
  • Hercules 3D Prophet II GTS 32MB DDR
  • Leadtek WinFast GeForce2 GTS 32MB DDR
  • PowerColor PowerGene GTS 2 32MB DDR

Al dit 3D geweld werd dit keer eens niet alleen getest op Quake3, maar ook werd er gekeken naar beeldkwaliteit, FSAA, DVD decoding, Re-Volt, drivers, prijzen, het bijgeleverde softwarepakket en eventuele extra features als Tv-out. De Elsa Gladiac GeForce2 GTS kwam als winnaar uit de bus:

As you can see from final scorecard there are a few omissions. Namely the GeForce 2 Ultra (which isn't out yet), the Radeon 256 64MB and the Voodoo5 6000 (also not out yet) as well as 64MB GeForce2 GTS cards are all absent. Apart from the cards not out yet, our reasoning behind omitting them is simple. They were over the $300 range and thus we'll do a separate shoot-out (currently being worked on) later on this month.[break]
Sharky HE video shootout resultaten
[/break]Conclusion
With the games now officially closed let me just say a word to all eight finalists that sometimes take themselves too seriously. First of all if you made it this far, think of it in this way. You made it to the final and in doing that you've done your company proud. There isn't a single card in this round-up that isn't worthy of being called a world class performer. It just depends on what you're looking for. And if you still don't like how you placed, do some more training and come back next year with better fill rates, FSAA quality and/or some faster Quake III scores. Send us a formal complaint via Email or get chatty with us on www.sharkyforums.com.

Lees de 34(!) pagina's hier. Rik01 was de eerste die dit nieuws submitte, hij en alle anderen worden daarvoor bedankt.

Moderatie-faq Wijzig weergave

Reacties (33)

wat opvalt is dus de effectifiteit van ddr...
alle kaarten hebben 32 mb ddr , er is er maar een met 64 ...en dat is sdr.
en die scoort ook nog eens het slechtst
inderdaad, maar je ziet 'n aantal dingen over het hoofd:
1) de 64MB kaar gebruikt 'n andere GPU dan de kaarten met 32MB.
2) 'n andere benadering kan ervoor zorgen dat je DDR prestaties kan evenaren met SDR geheugen. Bewijs, de Kyro (tile-based-rendering) is ongeveer evensnel als 'n Geforce DDR, en verslaat 'n Geforce 2 GTS in alles waar je met 'n grote overdraw te maken hebt. Uiteraard lever je in op snelheid onder applicaties die maar weinig overdraw hebben (zoals Quake).
inderdaad, maar je ziet 'n aantal dingen over het hoofd:
1) de 64MB kaar gebruikt 'n andere GPU dan de kaarten met 32MB.
2) 'n andere benadering kan ervoor zorgen dat je DDR prestaties kan evenaren met SDR geheugen. Bewijs, de Kyro (tile-based-rendering) is ongeveer evensnel als 'n Geforce DDR, en verslaat 'n Geforce 2 GTS in alles waar je met 'n grote overdraw te maken hebt. Uiteraard lever je in op snelheid onder applicaties die maar weinig overdraw hebben (zoals Quake).
Ik ben misschien artelijk, maar ik zie geen nut in het halen van 150 fps terwijl m'n monitor maar op 85Hz refreshed..... Volgens mij kun je met 85Hz refresh rate niet meer zien dan 85 fps. Alles wat meer is, is overkill! Kan beter door de kaart aan de beeld-qualiteit worden besteedt!
Ten Eerste is Hz en FPS TOTAAL verschillend en kun je het niet vergelijken zoals jij doet.

Ten Tweede die 150 haal je in 640 x 480. Als je een beetje kwaliteit wil (lees mooi beeld) dan zakt die FPS al snel onder de 100.


* 786562 Rene
Hoe moet ik dat zien verschillend? ('k ben geen echte gamer, vandaar :) )
Als m'n monitor op x Hz werkt, dan kan ik dus ook maar x frames per seconde zien. Niet meer. Dus als ik 'n framerate heb van x+y, wordt er dus in werkelijkheid y frames te veel verstuurd naar de videokaart.
'k weet niet, maar volgens mij is dat verspilling van processorkracht en kan dat min of meer beter gebruikt worden voor andere dingen zoals het afhandelen van je pretpook, je ramplank of je rat...
Als ik het zo hoor, heb ik het idee dat onze programeerhelden bij ID en anderen gewoon alles achter elkaar afrakelen... Ie:
1) input devices afscannen
2) nieuwe spelsituatie berekenen
3) framebuffer sturen
4) goto 1)
Ik vraag me dus af of dat niet beter kan:
1) vraag current refresh-rate op in registry
2) input devices afscannen
3) nieuwe spelsituatie berekenen
4) if 1/time_elapsed < 1/refrash-rate goto 2
5) framebuffer sturen
6) goto 2
FPS is hoeveel frames per seconde een VGA kaart kan _genereren_. In een simpele situatie (in een spel) zijn het veel FPS, als er ineens 20 mannetjes in je beeld komen (ik noem maar wat) dan moet je CPU/GPU al die textures en polygonen gaan berekenen, het aantal FPS zakt dus.

De refresh rate is iets heel anders, namelijk hoevaak je VGA kaart het _gegenereerde_ beeld _per seconde_ naar je monitor stuurt. Is dit 60 Hz dan zit je naar een stroboscoop te kijken, is het 100 Hz dan staat het beeld strak. Dit zijn dus 2 onafhankelijke begrippen die door de RAMDAC van je VGA kaart worden verwerkt tot een goed computerbeeld.

Het is dus niet zo dat een videokaart wordt beperkt door de monitor die er aanhangt, die is namelijk _passief_.
In 3D Winbench 99 was dat wel zo:
als ik mijn monitor op 85hz had staan, kreeg ik nooit scores hoger dan 85FPS. Overigens vind ik dit heel erg vreemd: als ik UT speel met 800x600x32 HQ, is mijn framerate veel hoger dan wanneer ik speel met 640x480x16 LQ.
FreeRider, ik denk niet dat je m'n standpunt begrepen hebt.

Wat heb je aan 100fps als je monitor op 85Hz draait? Die 15 fps meer die kun je niet zien! Zou dus mooier zijn als de de tijd om de 15 frames te berekenen en naar de 3D kaart te sturen zou worden gebruikt voor andere dingen?

Trouwens ik maak op uit je reaktie dat het aantal fps flink kan teruglopen op het moment dat scenes complexer worden. Er is dus nog flink wat werk aan de winkel voor NVidea.
(tussen haken, de Kyro, en in mindere mate de Radeon, heeft 'n veel stabielere fps dan de GeForce!)
Tja dit is eigenlijk een hele globale vergelijking waarbij ze bij sharky toch wat dingen worden vergeten/ondergewaardeerd.

De Geforce kaarten zijn wat 3D beeldkwaliteit heel goed gewaardeerd en ik denk dat dat komt omdat de drivers zo volwassen zijn en geen glitches veroorzaken. Bij de V5 en Radeon zijn de drivers nog wat inmature. Maar de pure scherpte van de textures en effecten is bij deze 2 kaarten gewoon wat beter dan bij een Geforce.

Ook de desktop quality is wat minder bij de Geforce maar dat merkt de gemiddelde gamer niet. Ik werk zelf met photoshop op 1600x1200 op een 19" en dan wil je toch mooie scherpe beelden. Matrox is king wat dat betreft maar ook 3dfx staat bekend om hele goeie 2d kwaliteit en ik vermoed dat de Radeon ook heel goed is.

Verder is t idd jammer dat FDAA niet zo zwaar meetelt want dat vind ik toch wel HET punt om een V5 op te kopen.

Ook zouden ze best wat meer mogen vertellen over de drivers. D3d weten we nu wel maar hoe zit t met OpenGL, nVidia is daar volgens mij koning. En de V5 heeft Glide, ook niet onbelangrijk omdat sommige spellen daar nou eenmaal goed gebruik van maken.
Aan 64mb heb je dan ook pas wat in erg hoge resoluties of bij spellen als Unreal Tournament 2 waarvan de technology demo er ontzettend vet uit ziet (zie PC Games (duits maandblad) van deze maand)
Maar in deze review zit de 64 MB SDR op de Voodoo. Dat kun je niet vergelijken met 64 MB op een Geforce. De SDR op de Voodoo is feitelijk 2 channels van 32 MB ram, effectief even snel als 1 DDR channel met dezelfde klok frequentie. De reden waarom de '64 MB SDR kaart (Voodoo)' langzamer is dan de '32 MB DDR kaart (Geforce)', is dat de Voodoo minder fillrate heeft dan de Geforce.
Zonoskar, je moet 's proberen om (bij een goede player, dus niet de wmp) bij de properties van de mpeg4 decoder de cpu meer aan te spreken. dan gaat de kwaliteit erg hard vooruit. ik heb hetzelfde probleem met m'n tnt2 ultra alleen m'n cpu trekt het net vloeiend op de laagste cpu quality. op de hoogste ben ik alle blokjes kwijt maar ook het vloeiende :`(

try it, you'll like it
Is dit een reply op een ander posting van mij :) Maareh, wat noem je dan een goede player (yep, ik gebruikte wmp == windows media player?)
ATI een 10 voor DVD kwaliteit, mooi. Maareh, weet iemand of dat ook voor DiVX filmpjes geldt? Op m'n Geforce zien DiVX-jes er walgelijk uit, macroblockken all-over-the-place :( Ook MPEGjes en DVDtjes zien er niet uit, dus ik hoop dat de ATI ook voor DiVX de goede keuze is.

PS: in de link naar sharky's mainpage zit een 'k' te weinig :)
Persoonlijk heb ik nergens last van. Het beeld bij mij is gewoon super, maar een deel is ook afhankelijk van je processor en die Tbird 900 met Radeon 64MB vivo van mij wil wel.
Ik heb ook gewoon een geforce 1 ddr en alles (dvd/mpeg/divx) ziet er fantastisch uit...dus het zal waarschijnlijk ergens anders aan liggen.
met image quality word toch beeldkwaliteit bedoelt?

ik hoorde juist zoveel reacties dat de beeldkwaliteit van voodoo/ati vele malen beter was dan die van de gf2 maar hier blijkt weer uit dat hij net zo mooi is als de ati en de voodoo is zelfs slechter...

is wel vreemd...


* 786562 -the
Waar mensen het meestal over hebben als ze klagen over de beeldkwaliteit is een wazige windows desktop (2D). De image quality hier heeft betrekking op een plaatje die met de 3D engine van de kaart getekend is, dit heeft dus niets te maken met de windows desktop die zou nog steeds wazig kunnen zijn (en is het volgens mij ook bij de Geforce's. Bij mijn CLAP in ieder geval boven de 1024x768 wel).
Dat is een bekend probleem bij de CLAP en CLAP Pro. Dat kwam er bij de eerste testen al uit en werd toen afgeschoven op slechte Drivers. Ik zou zeggen download eens drivers vanaf de CL site en kijk eens als dat wat verbetering brengt.

Zo niet, jammer toch maar eens wat meer reviews lezen...


* 786562 Rene
Ik wist dat dit een probleem was, echter op mijn 17" Eizo draaide ik op m'n vorige kaart ook maar (een beetje fatsoenlijk) maximum 1024x768, en daarin is de CLAP best ok. Ik zie het verschil in ieder geval niet met m'n Mill-II die ik voorheen had. Pas boven de 1024x768 ga je verschil zien. Anyway, de CLAP-I DDR was goedkoop en zeer goed over te klokken (hij loopt op 170/333, normaal op 120/300). Dat je zoiets met driver kunt oplossen lijkt me redelijk onzin (ik gebruik nu de ref. 6.18 en ik zie echt geen verbetering), want hoe kun je nou het video-outputfilter veranderen (== hardware) met drivers? Dit alles ter info natuurlijk :)

* 786562 zonoskar
Ik mis toch de Radeon 64... Die kun je niet zomaar afdoen als een Radeon 32 die op hoge resoluties wat beter presteert, aangezien de Radeon 64 het geheugen op 183 MHz heeft lopen en de 32 MB versie maar op 166 MHz. Ook hadden ze wel een GeForce 2 Ultra toe mogen voegen aangezien deze kaart ook zeker wel high end is (of valt dat onder too expensive-end?)

Ok wanneer moet je nou een 32 MB versie kopen en wanneer een 64 mb versie? Alleen als je systeem snel genoeg is om op hogere resoluties dan 1024x768 te spelen loont het om een videokaart met 64 mb DDR te kopen, anders schiet het niet echt op en is het eigenlijk zonde van het geld...
They were over the $300 range and thus we'll do a separate shoot-out (currently being worked on) later on this month.
Zegt genoeg ;)
Als je nu de minst intressante horizontale kolom weg laat (bundle) dan komt er toch een hele andere score uit.
Ik vind dat de FSAA/Quality ondergewaardeert wordt, want een 3dfx kaart koop je uiteindelijk daarvoor.
En als je die "ease of use" ook weg laat, wat voor de tweaker toch niet interesant is dan wordt nog veel anders.
Nog iets: Die Image quality geldt alleen voor de 3D kwaliteit, NIET voor de 2D (windows desktop) kwaliteit. Weer een 'oversight' van SE. Ik denk (net als hierboven al gezegt) dat ATI een betere keuze is dan een GeForce GTS.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True