Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Bron: ExtremeTech

Bij ExtremeTech is een uitgebreide review verschenen waarin zeventien videokaarten met elkaar vergeleken worden. De videokaarten die getest worden variëren in prijs van 80 dollar voor de Diamond Radeon X550 tot 600 dollar voor de XFX GeForce 7900 GTX XXX. De kaarten zijn getest met resoluties van 1024x768, 1280x1024 en 1280x1024 met 4x anti-aliasing en 8x anisotropic filtering ingeschakeld. Geen hoge resoluties, maar zelfs de laagste instellingen bleken voor de goedkoopste videokaarten al een zware opgave. Getest werd met 3DMark06, F.E.A.R., Call of Duty 2, Doom 3 en Half-Life 2.

Radeon X1900 (klein)Dat de duurdere videokaarten betere prestaties neerzetten zal niet als een verrassing komen. Interessanter is de vergelijking op het aantal 3DMarks per dollar en het aantal frames per seconde per dollar. Het blijkt dat de goedkoopste kaarten niet de beste prijs/prestatieverhouding weten neer te zetten, maar hetzelfde geldt voor de duurdere kaarten. Wel opmerkelijk is dat de prijs/prestatieverhouding van de duurdere kaarten relatief gezien flink toeneemt bij de hoogste resolutie, terwijl de goedkoopste kaarten hier een dramatische score neerzetten.

Welke videokaart de beste keus is hangt uiteraard af van de specifieke wensen van de gebruiker, maar in de review worden wel enkele aanbevelingen gedaan. De MSI RX1300 Pro is een goede keuze voor mensen met een krap budget terwijl de Radeon X1900 XT een prima keus is voor de bovenkant van de markt. Voor mensen die tussen deze extremen inzitten zijn de GeForce 7600 GT en GeForce 7900 GT-kaarten uitstekende deals.

Prestaties per dollar
Moderatie-faq Wijzig weergave

Reacties (53)

Volgensmij klopt het grafiekje niet helemaal. Zo gaat men over het algemeen uit van de huidige adviesprijzen. Maar als je naar de pw kijkt, kan je toch hele andere conclusies trekken.

Zo zie je daar bijvoorbeeld voor een kleine 300 euro een 7900gt staan, welke heel goed uit de test komt.
Als je nog verder kijkt in de pw zie je dat er voor een paar euro meer ook een Club3D x1800xt (256 MB) in staat, welke (hoewel een paar euro duurder) toch bijna in alle tests beter naar voren komt dan de 7900gt.

Toch is biedt de 7900gt volgens deze test een 1,5x zo goede prijs/fps verhouding, wat volgensmij een beetje scheef is.

(In de test wordt volgensmij trouwens uitgegaan van een x1800xt (512 MB) met zijn adviesprijs, maar dan is alles een beetje scheef, omdat de prijzen in de pw vaak sterk verschillen van de werkelijke adviesprijzen.)

edit:
Nog maar eens de pw gecheckt. Ik vind het toch maar een slechte test. Zo kost de goedkoopste X1900 XTX nu ¤ 463,- volgens de pw. En de goedkoopste 7900 GTX ¤ 478,50. De 7900 GTX zou wel een betere prijs/fps verhouding moeten bieden, terwijl ik gisteren nog een heel leuk grafiekje tegenkwam in op GoT in het ati nieuwsdiscussie topic, waarin de X1900 XTX toch duidelijk sneller was dan de 7900 GTX, na de laatste updates.
Heel belangrijk om te weten is dat de reviewers ZELF zeggen dat die grafiek niet helemaal 100 is. De reden is dat er een doom3 engine is gebruikt en de geforce werkt ERG goed met doom3. De makers zeggen het maar de nieuwsposter van tweakers pakt dit grafiekje...

http://common.ziffdavisin...1425,sz=1&i=123520,00.gif

dat is de 3dmarks per dollar grafiek en die geeft een veel beter beeld... Daar baseren de reviewers hun uiteindelijke conclusies dan ook sterker op..
zegt natuurlijk ook niet zoveel he, aangezien ati geloof ik over het algemeen wat beter is in 3dmark

het beste is gewoon als ze alles hadden opgeteld van alle tests en dan het gemiddelde hadden genomen. maar daar denken ze nooit aan |:(
De 7900 scoort anders beter in 3dmark dan de x1900, terwijl de x1900 imo wel wat beter is :P (oblivion, cod2?)
3DMark is tegengewoordig gewoon waardeloos als benchmark.

Kijk bv naar X1600XT en X1800GTO. In spellen is een GTO veel en veel sneller, maar in 3DMark maakt het maar weinig uit.

Wat dat betreft is die combinatie van 4 bekende spellen (waaronder Doom3) dan nog altijd stukken beter.
Misschien is de kaart van Ati wel beter, maar op andere gebieden dan hier getest! Als de X1900 XTX mooiere beelden geeft (waar hier niet op wordt getest), en de 7900 GTX meer fps (waar hier wel op wordt getest), komt de 7900 GTX natuurlijk beter uit de bus! 8-)
Als je nog verder kijkt in de pw zie je dat er voor een paar euro meer ook een Club3D x1800xt (256 MB) in staat, welke (hoewel een paar euro duurder) toch bijna in alle tests beter naar voren komt dan de 7900gt.
Als ik naar de tests in de review kijk komt in de meeste gevallen de 7900 GT XXX als beste er uit.
Enkele weken geleden heb ik voor een aankoop van een nieuwe VGA ook zo beredeneert en ben tot de conclusie gekomen dat dit "frames/euro" vergelijken flauwekul is. Ga je eenmaal relativeren dan zie je toch in dat een 7900GT beter is (voor het geld!) dan een 7600GT terwijl je met een 7600GT meer frames krijgt/euro. tja...
nVidia heeft net een prijsverlaging gehad, ATi niet?

Zowieso zijn de prijzen die ze in de test opgeven absoluut niet representatief. Ze hebben bijvoorbeeld de X800XL op $300 staan, terwijl die hier al voor een euro of 200 te krijgen is, als het niet goedkoper is.....

Leuke test, maar de conclusies zijn zo enorm tijdelijk... Als ATi volgende week zijn prijzen verlaagd verandert het hele plaat volledig, en kan het zomaar allemaal heel hard de andere kant op vallen.
Ja misschien moeten ze maar eens gewoon een php-scriptje maken die dit allemaal mooi uitrekend naar de gegevens van de pricewatch.

Tsja, voor mij spelen overigens meer factoren mee dan fps, dus of ik dit nou nodig heb?

Het bericht is iig niet echt interresant omdat het hier om dollars gaat (en dat wil per merk nog wel eens verschillen per land)
x1900xtx is al te krijgen rond de 450 euro op het moment, heb het artikel inet gelezen maar ik ga er van uit dat ze daar een veel hogere adviesprijs meenemen.
Tsja... als jij het zegt....

X800XL: 150 euro, 1880 3DMarks = 12.5 marks per euro
7900GTX: 500 euro, 6102 3DMarks = 12.20 marks per euro

Lijkt me dat die X800XL het wint dan?

Daarnaast hoor je mij echt niet beweren dat de X800XL de beste keuze is. Noch dat ATi uberhaupt betere prijs/kwaliteit bied op het moment.
Het enige wat ik zeg is dat een "marks per euro" of "euro per FPS" test volledig nutteloos is in een wereld die zo snel beweegt als die van grafische kaarten....
Waarom?
Ik vind dat deze grafiek een aardig model geeft van stand van zake nu in de videokaartwereld. De 7900 GT en 7600 GT zijn relatief ontzettend goedkoop. Dat zie je ook goed in deze grafiek terug. De rest van de grafiek klopt ook aardig. En met 3d mark moet je echt niet gaan vergelijken, fps zeggen veel meer.
Waarom?
Simpel: Omdat de prijzen morgen weer anders kunnen zijn....

Nog sterker: De prijzen zijn vandaag al anders. De X1800XT is al voor 350 euro te krijgen, niet de 500 die ze in de lijst aangeven. Terwijl de 7900GT gewoon de 350 euro kost die ze in dollars aangeven in de lijst. Daardoor zou de X1800XT plots dicht bij de 7900GT liggen.

Daarnaast is het een beetje raar om zo'n test met slechts 4 spellen te doen. Als de driver van 1 van de 2 wordt geupdate kan de lijst compleet omgegooid worden door specifieke optimalisaties voor 1 spel. Pak dan in ieder geval een stuk of 10, liever nog 20, spellen die op dit moment veel gespeeld worden (voeg ook wat non-FPS spellen toe zodat je niet alleen FPS prestaties meet. Neem WoW, Civ4, GalCiv2, DDO, ik noem maar wat)

Afijn; wat ik wil zeggen: De review is leuk, maar $/FPS of Marks/$ zijn tabellen die veel te vluchtig zijn om serieus te nemen.
Dat is wel het grote probleem bij dit soort testen.

Op zich is het hardstikke goed om prijs/prestatie verhoudingen te meten. Maar juist de laatste drie maand is er een prijzenoorlog aan de gang en is de volgende dag je test al weer achterhaald.

Als je op dit moment goed zoekt kun je inderdaad belachelijk goedkope X1800XT 256MB en 512MB kaarten krijgen. (308 euro voor een 256MB XT)
Daardoor wordt die X1800XT ineens heel interessant, terwijl je het ding voor normale prijzen altijd links zou laten liggen

Ik ben wel stomverbaasd over mensen die bang-for-buck ineens niet meer interessant vinden. Als ik een cpu of gpu koop dan kijk ik daar wel degelijk naar. Of kopen jullie ook allemaal FX en EE cpu's omdat die nou eenmaal de beste prestaties leveren?
Nee toch, dan koop je toch ook die cpu die voor 50% van de prijs 95% van de performance geeft?
Zegt Kasper 7900GT of zegt Kasper 7900GTX?

Jij wilt gewoon lezen wat jij wilt lezen he?
Geen X850 weer terwijl ik dat toch een betere kaart vind dan de X800 om te testen.
Er mist wel meer in, ze hebben niet eens met oblivion getest, het spel waar iedereen afgelopen 2 weken een nieuwe grafische kaart voor gekocht heeft.
Maar jouw 850 zit ergens tussen de 800 en de 7600 geloof ik.
Oblivion loopt zeer goed hier op 1680x1050 met een X800XT Aiw...
(p4 2.4)
Onder de x1000 serie ondersteunt nog geen HDR dus dan loopt het inderdaad prima maar mis je toch wat. Het zelfde geldt als je nog een geforce 5 of lager hebt.
Al dit komt omdat Oblivion Pixel shader 2.0 gebruikt en dus geen G70/G71/R580 nodig heeft. Ik denk dat dit toch bewust gedaan is want met pixel shader 3.0 weet ik niet of dit uberhaupt nog speelbaar werd. Wel is het zo dat HDR in combinatie met grote landschappen zo'n inpact op welke gpu dan ook schijnt te hebben dat je zelfs in SLI nog fps drops krijgt vaak. Hoewel met de 84.25 beta drivers schijn je een veel soepel lopende game te krijgen.
Dat is idd vreemd, de x850 is een refresh van de x800.
en de x800 xl (welke wel in de lijst staat) heeft toch ook een r480 core?

Beetje vreemd dat ze die dan er wel tussen doen..
Wat me opvalt is dat nvidia erg goed scoort op het plaatje. Ondangs weinig aanpassingen in de core. Alleen hogere clock en andere procede, terwijl ati toch al langer op 90nm zit. En dus toch eigenlijk een voorsprong had moeten nemen.
Heeft ATi gewacht op de komst van de nieuwe nvidia cores en daar hun stratigie op aangepast of heeft ATi echt het 90nm kruit verschoten en niet goed gebruikt?
Wat mij opvalt is het verschil tussen de X1600 XT en de 7600GT. Over het algemeen word gezegt dat de 7600GT beter presteert tegenover een lagere prijs, vooral in de fora van GoT lees ik het regelmatig terug. Hebben al deze mensen het toch mis? OF is de X1600 beter in combinatie met 4x AA en 8x AF?
let erop dat het hier om prijs per FPS gaat.. dus lager is beter.

hieruit blijkt dus dat de 7600GT en de 7900GT XxX de beste prestatie opleveren tegen lage prijs.
Dat is ook maar een aanname, de grafiek geeft alleen de ratio tussen fps en prijs weer en je kunt dat lezen als best buck for the frame, of er mee bedoeld dat de kaart beter is kun je er niet uit lezen aangezien de intentie ervan er niet bij vermeld is :)
Het is ook een wereld van verschil of ze als prijs de prijs van de videokaart zelf, of de totaalprijs van een doorsnee game-systeem met die videokaart erin, dat laatste zegt eigenlijk meer, mits het systeem een beetje gebalanceerd is.
Het probleem is dat er niet zo'n doorsnee systeem bestaat. Er is gewoon zoveel keuze in onderdelen. En wat moet je er dan wel bijnemen en wat niet. Voor iedereen zijn andere dingen belangrijk. En zelfs de gamepc die je vindt in de bbg is niet 'doorsnee'.
Dat laatste zegt juist niets als je van plan bent alleen je videokaart te upgraden...
moehahaha wat een review... tuurlijk joh.. je gaat budgetkaarten testen.. met een FX60 als cpu :S:S:S

ok leuk initiatief maar toch slaan ze de plank weer volledig mis..

stel ik denk: ik wil niet veel geld uitgeven maar toch doom3 leuk kunnen spelen op native res. van me 17" TFT..

dan zegt de review dit:
"Look at the fantastic value of eVGA's GeForce 7600 GS. This passively cooled video card will run Doom 3 just great at the perfectly reasonable resolution of 1280x1024."

zou ik ff lelijk bedrogen uitkomen als ik die kaart samen met een budget amd64 3000+ met gewoon valueram zou gaan gebruiken

want zeg nu zelf wanneer je een FX60 koopt koop je ook geen budget vid kaart...
Nogal wiedes dat je met zoon dikke CPU test.
tis een GPU benchmark en niet een CPU.

Nu weet je zeker dat de CPU niet de bottleneck is......
wat ik wil zeggen is dat die kaart welke ik aanhaalde in mijn eerste post boven de 60 FPS haalt, wat idd een acceptabele framerate is...

maar dat haalt ie never nooit met het systeem waar zon kaart meestal mee verkocht zal worden....

niemand die een 7600GS koopt, doet dat samen met een dikke vette cpu als een fx60...


Plus de cpu is hier alsnog de bottleneck hoor kijk maar naar die snelle kaarten die halen allemaal ongeveer even veel fps... pas wanneer je er AF en AA tegenaan gaat gooien wordt de cpu bottleneck voorbijgegaan...
Op lage res kan geen enkele cpu de hedendaagse top GPUs bijhouden...
Dat is al tijden zo, en waarom zou het ook anders moeten? Je koopt geen snelle videokaart om vervolgens op 1024x768 te gaan draaien.

Als je zo'n kaart flink laat werken heb je zelfs aan een 3000+ genoeg om hem bij te houden. Dan ziet alles er gelikt uit en haal je prima framerates. Natuurlijk is een snellere processor altijd beter, maar voor games is de videokaart een stuk belangrijker
Eigenlijk moeten we de bronresultaten (scores) van de kaarten in een database zetten en deze realtime tegen de pricewatch aan kunnen zetten. Op die manier weet je precies wanneer welke kaart het prijs/prestatie gezien goed doet, ook over een week/maand etc. Dan heeft de test blijvende waarde...
dan zou je ook het aantal haalbare fps op elke resolutie moeten neerzetten.

Straks word een x1300 zo goedkoop dat zijn ¤/fps ratio 3x minder is dan die van een x1900.
Zie je iedereen een x1300 kopen |:(
Dit is allemaal heel leuk, maar veel mensen willen tegenwoordig gewoon een goede videokaart om HD films af te spelen, dus een kaart met (h/x).264, WMV, en MPEG2 hardware acceleration, met hardware deinterlacing (inverse telecine) en subpixel scaling.

Ik zou daar wel eens wat benchmarks van willen zien.

Iemand ervaring met de NVidia 7xxx serie hiermee?
dat kan met bijna elke nieuwe videokaart. (volgens mij x1300 al). Men wil juist een dikke videokaart voor de fps :Y)

(Volgens mij heeft ati beste beeldkwaliteit, en ook de beste HD (hardware matige) ondersteuning)
Nou, voor mij geen ATI meer, ik heb nu de 9800Pro, maar de drivers zijn gewoonweg kut.. een beamer of een 2e monitor er aan hangen geeft al helemaal problemen (datie ineens desktops omdraait (1 en 2), met verschillende refreshrates heeftie al helemaal moeite mee, en dan nog niet te vergeten hoe klote die control center is... ik gebruik nu maar uit noodzaak de omega drivers want dat is tenminste nog een kleine verbetering..
Deze problemen heb ik nooit gehad met mijn nvidia kaart.. dus de volgende wordt voor mij weer gewoon nvidia.. (is ook beter voor unrealbased games, en die gaan er een zwik aankomen)..
Toch vreemd dat niemand anders die problemen kent.
Waarschijnlijk ook nooit bij ATI aangemeld?

Ik heb een 9700 pro en nog nooit een probleem gehad met een 2e monitor, een beamer of een TV. En die gebruik ik allemaal dagelijks.

Ook nooit last gehad dat ie de desktops zomaar omdraait. (terwijl ik mijn tweede desktop juist links heb staan terwijl rechts de default is)

En met verschillende refreshrates heeft ie totaal geen moeite.

En dat gewoon met de standaard drivers en control center.

Wellicht licht het ook een beetje aan de gebruiker?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True