Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 64 reacties
Bron: X-bit Labs

X-bit Labs heeft uitgezocht welke grafische kaart het beste bij welk budget past. Dit leverde een round-up op van 17 moderne grafische kaarten die in maar liefst 30 spellen werden getest. Hetzelfde deed X-bit Labs ook al in februari dit jaar, toen het de snelheid van 27 verschillende grafische kaarten toetste in dertig verschillende spellen. Het aanbod van grafische kaarten is ondertussen echter veranderd, en ook worden niet meer dezelfde spellen gespeeld als in begin 2005. Dat neemt echter niet weg dat bepaalde klassiekers als FarCry, Half-Life 2 en Unreal Tournement 2004 nog steeds op de lijst staan als spellen waarin de snelheid wordt gemeten. Van de volgende kaarten wordt er per categorie gekeken welke de snelste is:

*Ultra High End

  • GeForce 7800 GTX SLI 256MB
  • GeForce 7800 GTX 256MB
  • GeForce 6800 Ultra SLI 256MB

* High End

  • GeForce 7800 GT 256MB
  • GeForce 6800 Ultra 256MB
  • GeForce 6800 SLI 128MB
  • GeForce 6600 GT SLI 128MB
  • Radeon X850 XT Platinum Edition 256MB
  • Radeon X850 XT 256MB

*Performance-Mainstream

  • GeForce 6800 GT 256MB
  • GeForce 6800 128MB
  • Radeon X800 XL 256MB

*Mainstream

  • GeForce 6600 GT 128MB
  • Radeon X700 Pro 256MB

*Entry-Level (prijs<$149)

  • GeForce 6600 128MB
  • Radeon X700 256MB
  • Radeon X600 XT 128MB

Als testplatform heeft X-bit Labs deze keer gekozen voor een AMD Athlon 64 4000+. Dit betekent echter wel dat de resultaten niet zonder meer te vergelijken zijn met de resultaten van februari. X-bit Labs gebruikte toen namelijk een Intel Pentium 4 560 als basis voor het testplatform. Aan het einde van de rit komt X-bit Labs met een aantal conclusies per categorie die in de volgende tabel zijn te vinden. Hierbij moet worden opgemerkt dat in de categorie Performance-Mainstream het de ATi Radeon X800 XL is die over het algemeen het snelste is. De GeForce 6800 GT zit echter dicht in de buurt en is lager geprijsd, waardoor dit ook een aanrader is. X-bit Labs betreurt ook dat het niet de Radeon X800 GT heeft kunnen testen als mainstream-kaart. Deze kaart is namelijk naar verwachting een geduchte concurrent voor de GeForce 6600 GT:

CategorieWinnaar
Ultra High EndGeForce 7800 GTX SLI
High EndGeForce 7800 GT
Performance-MainstreamGeForce 6800 GT
Radeon X800 XL
MainstreamGeForce 6600 GT
Entry-LevelRadeon X700
Moderatie-faq Wijzig weergave

Reacties (64)

ik vind het op zich een mooie vergelijking, aangezien er uitgebreid beide kampen bestudeerd worden...

wel vind ik het nogal pro-GeForce, aangezien er SLI-setups bekeken worden. dat zijn in mijn ogen geen kaarten (maar 2 losse) en er wordt ook geen crossfire setup meegenomen...

-typo-
wel vind ik het nogal pro-GeForce, aangezien er SLI-setups bekeken worden. dat zijn in mijn ogen geen kaarten (maar 2 losse) en er wordt ook geen crossfire setup meegenomen...

-typo-
Nee doh, schattebout.

Crossfire is ook zo lekker verkrijgbaar. :+
En moest ATi als winnaar uit de test komen, was de test pro-ati geweest?
Het gaat erom wat jij kunt kopen. Een SLI-opstelling is een optie (ook al is hij erg duur) en uit een test als deze kun je bijvoorbeeld zien welke SLI-opstelling voor jou zinvol zou kunnen zijn (als 2x6600 getest was geworden, zou je ook mooi kunnen zien dat dat onzin is).
Crossfire is niet verkrijgbaar en waarschijnlijk heeft Xbit er ook geen kaarten voor, dus kun je het ze niet kwalijk nemen dat het niet getest wordt.
Waar zijn de X800GT en de X800?
Toch wel een misser van deze test. Deze kaarten zijn juist gemaakt om de GF6600gt tegenstand te bieden.

@ Ackermans1973
De GF6800 256Mb ontbreekt, maar biedt niet zo veel meerwaarde t.o.v. GF6800 128Mb. Daarnaast zal de GF6800 256Mb het nooit kunnen winnen van de 6800GT en X800XL die in hetzelfde segment vallen.
Ik vind het jammer dat ze er niet iets uit de FX5* serie inzetten of iets uit de Radeon 9* serie... Ik neem aan dat veel gamers nog deze kaarten hebben en het is een betere vergelijking voor mij (FX5900XT zelf) om te zien wat mijn kaart presteert vergeleken met een 7800GTX...

Aan de andere kant toch mooi dat het zo'n grote benchmark is! Zo kan je tenminste echt goed verschil zien als hetzelfde systeem wordt gebruikt...
De nieuws post
17 moderne GPU's getest in 30 games

Dus die F5* serie is hier dus niet van toepassing.

Ga eens googlen dan vind je genoeg roundups van oude kaarten.

Tomshardware
Een roundup uit zomer 2005
http://graphics.tomshardw...aphic/20050705/index.html :Y)
Ja ik vind van de ene kant dat je alleen enkele losse kaarten met elkaar mag vergelijken zolang er nog geen crossfire is, maar van de andere kant is SLI er nu eenmaal en daar haal je nu eenmaal de hoogste scores mee, zolang er nog geen concurrentie is.

Zonder SLi is de 7800 gewoon de snelste en maakt gehakt van de X850 XT en de X850XT maakt weer gehakt van de rest. :)
Ze kunnen er ook niet aan doen dat crossfire nog nergens te bespeuren valt. Wat niet te koop is kan je ook niet testen.
Hier is het ultieme bewijs dat de huidige generatie superdure 3d kaarten geen enkele ruk voorstelt:

http://www.xbitlabs.com/a...isplay/2005-17gpu_15.html

Zelfs met 1200 euro aan 3dkaarten kan je nog geen 45 fps halen.

Btw, de demo is alweer een half jaar oud.

Er zullen wel reacties zijn als "de beta is niet geoptimaliseerd, de nieuwste geheime beta die ik heb is 4 keer sneller, etc" <dream on.

Waarom zou je al 500 euro uitgeven om spellen ouder dan 1 jaar soepel te mogen spelen?

Age of empires 2 of half life zal vast wel soepel lopen, een 3d kaart koop je echter voor de allernieuwste spellen en deze benchmark laat zien dat geen enkele 3d kaart, laat staan 2 in staat zijn om die fatsoenlijk te weergeven.

Mod dit gerust omlaag, het veranderd toch niks aan de waarheid.

edit: de waarheid van sommigen is dat je voor een XXX bedrag de allernieuwste spellen kan doen. De waarheid is echter dat je ze alleen kan spellen als je bepaalde grafische functies van het spel doet uitzetten, dwz dat je niet het spel ziet zoals de maker het bedoeld heeft. Maar dat maakt toch niks uit als je geld wil neertellen om jezelf voor de gek te houden.

edit2:

hoe durven ze zoiets in Gods naam "Ultra High End" te noemen? Als je naar de framerates van Fear kijkt, dan zou die categorie beter:

"Barely Enough for New Games"

kunnen heten.

Het idee dat ik er al 2 zou moeten kopen, is toch belachelijk?
ELiA.net,

Je bekijkt het verkeerd. Je mag blij zijn dat je met die 900¤ videokaarten ( ja, je kan 2 GTX sli kopen voor 450¤/ stuk ) zo een extreem settings kan spelen. En de GT's zijn nog pak goedkoper, met bijna zelfde speed.

Die 45fps resultaten zijn letterlijk overkill. Waarom moet je 16 * AF draaien in een game dat vrij donker is meestal, en beperkte lengte dat je kan zien met al die tunnels etc.

Ik draai het op 1600*1200 + Alles max behalve softshadows wat nooit dropt onder 30fps ( en dat men een 3200+, en geen 4000+ zoals deze review ). Meestal rond de 50 & 60 fps. Dit met 2 * AA & 0 * AF. Trust me, het verschil tussen deze settings & 4*AA & 16*AF zie je niet.

Je moet echt screenshots gaan nemen & gaan inzoemen om verschillen op te merken. En dat noem ik persoonlijk, overkill.

Meestal loopt de development van de games achter op de hardware. Voor een keer hebben we een spel dat enorm knappe graphics heeft, en die de hardware enorm taxed. Je moet niet verwachten dat er nog zwaardere games gaan uitkomen. FEAR is een nieuw generatsie game, en nu gaan we voor het volgende jaar of 2 dit als standaard gaan beginnen krijgen. En dan begint de volgende cyclus van next gen. games.

En, nog een belangrijk punt, het is een beta versie. Meestal tussen de beta's & de final zitten de tweaks & optimizes. Met veel beta tests gezien waaraan ik mee deed. Over het laast ook, op een maand tijd was een mmorpg van onspeelbaar gegaan naar extreem speelbaar, toen men beginnen tweaken is. Van 60sec load times naar 10 a 15seconden. Van 1 cijfer fps naar boven de 30 fps. En men is nog bezig met optimizen.

En iets wat men ook niet mag vergeten. Veel games zijn cpu limited. In die gevallen kan je gewoon alles opendraaien van je GPU ( AA/AF/Hogere resolutsie's ).

Er is niemand die zegt dat je games moet draaien met AF hoger dan 16, AA hoger dan 4, of resolutsie's hoger dan 1024*800. Maar als je kaart het aankan, gebruik het dan.

O ja, niemand iets opgevallen aan die FEAR test? 4x + 16AA.

7800GTX 7 - 28
7800GT 9 - 30

Een grondige fout in de test, want de GT draait trager, met 4 minder pipes & 1 vertex shader minder, en hij zou sneller zijn?
Ik zag al meerdere vreemde dingen met de 7800GT gebeurn, in 1 test is ie de aller traagste, misschien eisen 30 spellen op allemaal verschillende settings toch op een gegeven moment een tol op de aandacht die de reviewer aan de resultaten kan schenken.

Verder ben ik het volkomen met je eens, de pixel shader effecten in FEAR zijn geweldig, en er is geen echte behoefte aan heel veel AA AF en een hoger resolutie, eigenlijk zijn de meeste Eye Candi dingen bedoelt om oudere spellen(vaak met dramatische mipmapping) er wat mooier uit te laten zien, wat hier gebeurt is een compleet synthetische rekenkracht test, erg leuk, maar de resultaten kunnen alleen gebruikt worden om de kaarten onderling te beoordelen, van een real-world situatie is in dit geval absoluut geen sprake.
als je het maar zwaar genoeg maakt dan draait het langzamer ja. Daarom hebben games settings, en die zet je dan wat lager. Zodat je het spel wel kan spelen.
Wat heeft dat nu weer met 'de waarheid' te maken? De mensen bij Sierra hebben een game gemaakt die niet normaal draait op hedendaagse hardware. Stelt daarmee de hardware geen ruk voor, of is de engine gewoon brak?

Heb jij de gegevens en de expertise om je beweringen hard te maken of zit je gewoon uit je nek te kletsen?
Lekker belangrijk hoe oud de demo is. Het spel komt als t goed is volgende maand uit.

Dat je verder willekeurig ander spel wel met alles max goed kan spelen doet er natuurlijk niet toe.

Is het zo raar dat men een spel probeert te maken dat nog een beetje door kan scalen met betere hardware?
Dan maar wat minder AA en AF.
ooit Grand Prix 2 gespeelt? spel is uit 1996 en kon op de toen allersnelste PC gespeeld worden op iets lager dan medium settings... (om een framerate van 25+ te kunnen hebben)

wie z'n schuld was dit nu? MicroProse (maker spel) of intel
de pentium200mmx kon het duidelijk niet trekken
Het is een demo inderdaad, geen final.

Ik weet niet of je de geleakte Doom3 alpha hebt gespeeld een tijd terug, maar als je die op een 'ultra-high-end pc met ultra-high-end video-setup' draaide dan haalde je nog amper 10 fps. Dat is in de final een stuk beter, omdat de code gewoon stukken verbeterd is.
Dat je weinig FPS haalt hoeft niet altijd aan de video-setup te liggen, het kan ook gewoon hele brakke code zijn.
Jongen, er is maar ÉÉN spel wat zo zwaar is en je klaagt nog. Misschien hadden ze dat spel dan niet zo absurd zwaar moeten maken..
vreemd dat op pagina 9 de 7800gt niet voorkomt in de test.
ik twijfel tussen de gt en gtx.

wat ik jammer vind is dat ik nergens op het net iets kan vinden over de kaarten in een gaming mode in hoge resolutie op een 24" scherm.
er zijn genoeg reviews die op ultrahoge resoluties testen. Probeer google eens.
Erg nette en complete review, ik vind 't alleen wel jammer dat ze niet ook World of Warcraft hebben meegepakt, ik had graag de prestaties willen zien in dat spel met de nieuwe nVidia en ATI kaarten aangezien de review van februari maar vrij weinig kaarten bevatte.
Toevallig net de 6800GT gekocht en ik speel Wow vrij veel, alle settings op z'n hoogst en toch nog 70-95 fps
:)
Iedereen die zeurt over beeldkwaliteit heeft zeker nog een non-DVI beeldscherm/CRT/TFT.
Als je eenmaal DVI hebt maakt het geen ene bal meer uit.
Hooguit de berekeningen/pipelines e.d. die dan nog bepalen hoe een beeld eruit gaat zien, maar uiteraard ZOU daar tussen de verschillende merken geen verschil in mogen zitten.
onzin.

verschil tussen DVI en D-SUB is dat videosignalen niet meer analoog worden verstuurt en weer omgezet wordt door een DAC naar digitaal. Directe en snellere digitale signaleren (24-bit per pixel) zorgen voor een strakkere beeld. Maar kwaliteit kan altijd beter, bv betere FSAA. Och er kan nog zoveel verbetert worden aan kwaliteit.

Verdiep je eens beter in pipelines enzo wat het precies doet :)
Interessant om te zien dat GPU's als de Radeon 9600 of zelfs de 9800 Pro niet eens meer onder het predikaat 'entry level' vallen...

Zelf had ik de X600 bijvoorbeeld als high-end ingeschat en nu blijkt het dus entry-level te zijn. Het lijkt me een typisch gevolg van de zéér snelle opvolging van nieuwe ontwikkelingen in de markt van grafische kaarten.
x600 is gewoon een budget kaart, daarvoor is hij ook op de markt gebracht.
Ik neem aan dat 6600 GT dezelfde core is als 6600, maar dan hoger geklokt met wat extra features enabled tov 6600. Dat is toch strikt gezien toch geen nieuw GPU of wel soms?
De 6600 heeft wel dezelfde GPU als de GT, maar de GT gebruikt GDDR3 ipv DDR.

klik

check onderaan de pagina

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True