Door Femme Taken

UX Designer

Testlog april/mei 2006: Videokaarten & harde schijven

25-05-2006 • 17:27

78

Multipage-opmaak

25 april: Videokaarten

nVidia GeForce 6800 aankondigingEen maand geleden heb je in Call of Duty 2, Half-Life 2: Lost Coast, Splinter Cell: Chaos Theory getest. De prestaties worden getest op twee verschillende widescreenresoluties: 1680x1050 en 1280x800. Breedbeeldgaming is sterk in opkomst en bovendien bieden de gebruikte resoluties een goede middenweg tussen de hoge 1600x1200 4:3-resolutie, de middelmatige 1280x1024 5:4-resolutie en de lage 1024x768 4:3-resolutie. Met uitzondering van Oblivion worden alle games getest met en zonder anti-aliasing. Over het algemeen worden de zwaarste grafische settings gebruikt. Dit levert bij met name Oblivion framerates op die niet altijd praktisch meer zijn, maar nog altijd wel een goed beeld geven van de prestatieverhoudingen tussen de videokaarten.

Met uitzondering van Oblivion wordt er voor alle games gebruikgemaakt van perfect reproduceerbare timedemo's. Omdat Oblivion geen timedemo-functionaliteit heeft, is er gekozen voor het meten van de framerate met behulp van FRAPS. De framerate wordt gemeten gedurende een 60 seconden lange rechtdoor-wandeling door een heuvelachtig landschap met bomen, struikgewas, gras en rotsblokken. De wandeling begint na het laden van een savegame en het activeren van auto-run. Ons mannetje loopt vervolgens een minuut lang rechtuit, zodat er toch een goed reproduceerbare test ontstaat.

Op dit moment zijn er vijf videokaarten getest: een Radeon 1900XTX, Radeon 1900XT en GeForce 7900GT van MSI, en een GeForce 7900GTX en 7600GT van Sparkle.

Een probleem met veel reviews waarin een grote hoeveelheid testresultaten wordt gepresenteerd is het ontbreken van overzicht. Welke videokaart produceert gemiddeld het meeste aantal frames? Om de resultaten van ons testwerk eenvoudig overzichtelijk te maken, wordt er over de resultaten van de zes games een gewogen en geïndexeerd gemiddelde berekend waarbij het indexgetal 100 gelijk is aan het minimaal gewenste prestatieniveau van gemiddeld 30 frames per seconde. Hieruit volgt de volgende vergelijking van de gemiddelde prestaties:

De gemiddelden zijn tevens een goede basis voor een vergelijking van de price/performance van de videokaarten. Een dergelijke vergelijking is ook interessant zodra er kaarten in SLI- en Crossfire-configuraties zijn getest.

De huidige high-end videokaarten lusten flink wat prik. Metingen van het energieverbruik mogen daarom niet ontbreken in reviews. Omdat het energieverbruik van de videokaart niet zomaar geïsoleerd kan worden (een deel wordt onttrokken aan het PCIe-slot en - bij zwaardere kaarten - een deel via de VGA-stroomconnector) wordt het energieverbruik van het gehele systeem aan het stopcontact gemeten. De metingen vinden plaats in idle toestand en onder vollast. Vooral de Radeon's hebben onder vollast een uitbundige energieopname:

Een groot deel van de hierboven opgenomen energie wordt omgezet in warmte. Deze warmte moet doorgaans via de lucht afgevoerd worden, wat meestal gepaard gaat met het gebruik van één of meerdere ventilatoren. Om een idee te geven van de geluidsproductie wordt de geluidsdruk gemeten op oorhoogte voor het bureau met het systeem in een open kast onder de tafel. Ook deze metingen worden gedaan in idle toestand en onder vollast, in het laatste geval nadat een uitgebreide warm-up heeft plaatsgevonden.

Tot zover de testresultaten die momenteel beschikbaar zijn. In de komende weken zullen er meer videokaarten toegevoegd worden en zullen er ook nieuwe testresultaten van harde schijven en RAID-adapters verschijnen. Verder wordt er gewerkt aan een test van een Sun Fire T2000 met een quad-core Ultrasparc T1-processor.

4 mei: Calibre P790 512MB

Halverwege april kondigde Sparkle de Calibre P790 512MB aan. Deze gekietelde GeForce 7900 GT-videokaart heeft een core clock van 500MHz en een geheugenclock van effectief 1400MHz. De Calibre P790 is daarmee wat beter uitgerust dan een standaard GeForce 7900 GT, die zijn core op 450MHz laat draaien en voorzien is van 256MB geheugen met een kloksnelheid van 1320MHz. In de Pricewatch wordt de Calibre P790 512MB aangeboden voor een prijs van 378 euro. Daarmee houdt de prijs mooi het midden tussen die van de GeForce 7900 GTX en de normale GeForce 7900GT met 256MB geheugen.

Begin deze week ontvingen we van Videomark 2006 Index

GPUVid RAMScore (VideoMarks)ATi Radeon 1900XTX 512MB 168,0nVidia GeForce 7900 GTX 512MB 167,9ATi Radeon 1900XT 512MB 160,3nVidia GeForce 7900 GT 512MB 145,3nVidia GeForce 7900 GT 256MB 127,3nVidia GeForce 7600 GT 256MB 88,9
VideoMark 2006 Index - Price/performance
VideokaartGPUVid RAMPrijsPrijs per punt
MSI NX7900GT T2D256E nVidia GeForce 7900 GT 256MB Sparkle Calibre 7900GT 512MB nVidia GeForce 7900 GT 512MB Sparkle SP-PX79XDH/512MB nVidia GeForce 7900 GTX 512MB deze pagina voor een complete vergelijking van testresultaten van de GeForce 7900 GT- en GTX-kaarten.

Positief is dat de hogere prestaties van de Calibre P790 GT 512MB nauwelijks negatieve gevolgen hebben voor het energieverbruik. Deze is slechts enkele watts hoger dan het energieverbruik van de MSI NX7900GT T2D256E GeForce 7900 GT-videokaart.

Ook de geluidsproductie is prima in orde. Idle is de Calibre P790 512MB veruit de stilste kaart die tot op heden is getest. Onder vollast is de kaart iets stiller dan de GeForce 7900 GT van MSI.

De conclusie is duidelijk: de Calibre P790 512MB biedt waar voor zijn geld en is een uitstekende keuze als de GeForce 7900 GTX net iets boven je budget is.

25 mei: Geluidsdruk harde schijven

In de Geluidsdruk Idle

Harde schijfInterfaceScore (dB(A))WD Raptor WD740ADFD 74GB SATA 40,7WD Raptor WD1500ADFD 150GB SATA 41,6WD Raptor WD740GD 74GB 00FLA1 SATA 42,1WD Raptor WD740GD 74GB 00FLC0 SATA 42,5WD Raptor WD360GD 36GB SATA 43,7Maxtor DiamondMax 11 400GB SATA 45,1Fujitsu MAY2073RC 73GB SAS 45,8WD Caviar RE2 400GB SATA 46,5Fujitsu MAW3300NC 73GB SCSI 47,8Fujitsu MAX3073RC 73GB SAS 49,7

Reacties (78)

78
78
29
3
1
39
Wijzig sortering
Jammer dat er gekozen is voor een widescreen resolutie. Uit een recente survey via Steam is gebleken dat maar +/- 3% van de Steam gebruikers, die meegedaan heeft aan de survey (711.282 gebruikers), gebruik maakt van een widescreen resolutie. De rest (+/- 96%) maakt gebruik van 4:3. Een echt goede vergelijking met de 4:3 gebruikers, de overgrote meederderheid, kun je dus niet maken.
Bij Oblivion is het lastig benchmarken vanwege de autogen foliage. Elke keer als je een savegame start, zal de begroeiing anders zijn. Worden de Oblivion savegame en de Q4 demo beschikbaar gesteld zodat we die zelf ook kunnen testen?
AuteurFemme UX Designer @biobak26 april 2006 12:56
Je hebt gelijk dat widescreen-resoluties nog maar door een beperkt aantal gamers worden gebruikt. Voor de prestatievergelijking is dat echter nauwelijks relevant. Er zijn naast de videokaart en de resolutie nog vele andere factoren die invloed hebben op de prestaties, zoals de processor (in het testsysteem momenteel een Athlon 64 X2 4200+) en de grafische settings van de game. Daardoor kunnen de resultaten in de benchmarks niet zomaar vertaald worden naar je eigen systeem.

Verder verschilt de 1680x1050 (1,76MP) niet dramatisch veel ten opzichte van 1600x1200 (1,92MP) en houdt 1280x800 een leuk midden tussen 1280x1024, 1280x960, 1280x768 en 1024x768.

Het belangrijkste wat de tests moeten doen is de verhoudingen tussen videokaarten blootleggen. Hoe presteren ze ten opzichte van elkaar en welke kaarten bieden de hoogste prestaties voor hun geld. Het is niet van belang of daar 4:3, 5:4 of 16:10 resoluties voor worden gebruikt, zolang de resolutie maar hoog genoeg is om de videokaart de bottleneck te laten zijn.

De gemiddelde framerate in de Oblivion-test blijkt zeer goed reproduceerbaar. De afwijking is meestal slechts 0,2fps op 30fps, dus nog geen procent. Er zitten soms wel runs tussen met een grotere afwijking maar daarom worden er vijf runs gedaan ipv drie zoals bij de andere games.
Steam users... waarvan een super groot deel nog CS 1.6 speelt en wat je als die hard op 800x600 of op 1024x768 doet. Is nou niet echt representabel voor algemene users, daarmee moet ik het wel met je eens zijn dat nog een laag percentage gamers op widescreen gamed maar wat zeker nog zal toenemen.
Geweldig initatief T.net!!

Ik heb in tijden niet zon overzichtelijke bench gezien. Ook al is hij lekker kort. Ik had me altijd al afgevraagd waarom T.net zo weinig videokaarten teste. Meestal ging het alleen maar om koeling of HDs.

Je zou wellicht nog een aantal polls op de forntpage kunnen zetten om de gemiddelde resolutie van de tweaker te bepalen. Dit zou zeker helpen bij het bepalen van de prioriteit die elke reso heeft om te testen. Ik denk zelf namenlijk dat t gross van de tweakers op 1280x1024/960 speelt.
Hier mis ik echt de 7800GTX 512!
zeer exclusief, en (zou beter moeten~) presteerd beter dan de 7900GTX

@de mensen hier onder mij.
theoretisch gezien heeft de 7800GTX 512 betere specs (qua geheugen, core was vrijwel gelijk)

en
@femme
ok, leuk om te weten! dan zullen we zien of de 7900GTX wel of niet beter presteerd dan de 7800GTX512
:9 weer een leuk project van t.net
gesponsord door VNU?
AuteurFemme UX Designer @un1ty25 april 2006 16:26
Er komen nog zeker meer videokaarten bij. Dit is slechts wat er momenteel getest is. Het is de bedoeling dat er ieder weekend getest gaat worden.
Onzin. De 7800GTX 512 is nooit sneller dan een 7900GTX. Kan gewoon niet.
Als je de reviews die op vele websites staan naleest kan je zien dat de 7800GTX-512 maar een fractie langzamer is dan de 7900GTX, en in een enkele test (daar waar het GDDR3 geheugen een grotere rol speelt) soms zelfs een fractie sneller is.
Als je een 7800GTX-512 bezit is het m.i. niet zinvol om deze in te ruilen voor een 7900GTX omdat het verschil te marginaal is om een 600 euro voor op te hoesten, tenzij het geld je op de rug groeit of zo..
Als je een langzamere kaart wilt upgraden dan is de 7800GTX-512 eigenlijk geen optie meer omdat die
a) bijna nergens meer te koop is.
b) geen betere prestaties geeft dan de 7900GTX
c) ook nog eens duurder is dan de 7900GTX.
Mogelijke reden hiervoor zou zijn dat de 7800GTX 512MB een generatie eerder is dan de 7900GTX
ben ik het niet helemaal mee eens, de 7800GTX is echt een enorme paperlaunch geweest, ik vind het alleen maar logisch dat die niet meegenomen wordt in de test. Logischerwijs vind ik het dan raar dat de 7900GTX wel wordt meegenomen in de test, terwijl zelfs Dell niet aan deze kaarten kan komen (sinds een paar dagen al iets meer), laat staan de gewone consument.
De 7800GTX was juist geen paper launch, maar was direct goed leverbaar toen hij werd uitgebracht. Misschien dat de 7800GTX 512 een paper launch was, maar die presteert sowieso minder dan een 7900GTX (let op, dat een standaard 7900GTX ook 512MB aan boord heeft).
De 7800GTX-512Mb was zeker geen paper-launch !
Op de dag van de release waren ze overal verkrijgbaar.
Ik heb er toen ook direct een kunnen kopen.
Maar de vraag was vele malen groter dan het aanbod - ondanks de erg hoge prijsstelling - en daarom ontstond er al snel een tekort.
Nu vind je deze kaart nergens meer te koop omdat de hele productie is overgegaan op andere modellen.
Uhmm ik mis hier iets volgens mij.
De 7800GTX op 550-1700 is sneller dan de 7900GTX op 650-1600?? Lijkt me toch niet das 100Mhz core vs 50Mhz mem. Komt bij dat de 7900 nog iets geoptimaliseerd is.

Edit beetje overbodig zie ik nu, kom net uit de n8dienst :z
als tweaker weet je toch gewoon dat in de meeste gevallen een snellere geheugenklokfrequentie veel meer invloed heeft dan een snellere GPU-klokfrequentie...
Dit kun je wel nagaan bij alle teste waar een kaart overgeclockt wordt. Daar is altijd te zien dat een verhoging van de geheugenklok veel gunstiger is dan die van de gpu..
Kan iemand mij vertellen hoe een nVidia 7900GT minder geluid maakt bij vollast (39,3 dB) dan in idle stand (39,7dB)?

Dat is toch zeer onlogisch? :?
AuteurFemme UX Designer @SneaZy25 april 2006 23:33
Wat een monotoom gezoem lijkt, veroorzaakt op de geluidsdrukmeter toch een behoorlijk fluctuatie in de meetwaarde. Kleine afwijkingen in het resultaat van deze test zijn daardoor mogelijk, ook al wordt er in dit geval een gemiddelde berekend over zo'n 20 samples.

Dit is enkel een probleem voor kaarten waarvan de ventilator geen variabel toerental heeft.
Het is onzin dat dat alleen een probleem is voor kaarten waarvan de ventilator geen variabel toerental heeft.

Als een constant toerental toch al dergelijke afwijkingen geeft, hetzij doordat het toerental niet echt constant is, hetzij doordat de meter niet erg nauwkeurig is, dan speelt dat probleem NET zo hard bij variabele fans.

Ook dan zal een toerental niet altijd even hoog zijn. En een meter die niet nauwkeurig is, wordt niet ineens nauwkeuriger als je een variabele fan gebruikt.

Het betekent gewoon dat het belangrijk is om naar de foutmarges van de meting te kijken. (Helaas is dat iets wat ik nog nooit in een review op internet ben tegengekomen :'( )

In dit geval lijken die marges dan vrij hoog te zijn, en daar zul je dan rekening mee moeten houden als de cijfers gaat vergelijken.
Zo'n verschil zit waarschijnlijk binnen de meetonnauwkeurigheid, en in de praktijk betekent dat dat er gewoon geen verschil is. Dat kan natuurlijk prima als de ventilator bijvoorbeeld niet temperatuurgestuurd is, of dat de kaart zelfs in idle al erg warm wordt :)

(edit: beetje dubbel :/ )
Geloof me: Als je één keer de fan van een high-end kaart op 100% hebt gehoord dan weet ik zeker dat je dat aanzienlijk meer herrie vindt dan diezelfde fan in idle stand
Dat heeft ook met de toonhoogte te maken. Een lagere toon is doorgaans minder irritant dan een hogere toon bij gelijk aantal dB(A).
Dan heb je ook nog zoiets als resonantie. Ik hoor bij constante toerentallen mijn pc ook altijd een beetje fluctueren. Meerdere ventilators + hdd's maken allemaal geluiden die enigsins fluctueren. In conbinatie met een behuizing om dit alles heen kan een dergelijk effect op de dB meter hebben. Vanwege de resonanties en schommelingen in frequenties die allemaal de geluidsterkte beinvloeden....
Een andere mogelijkheid is dat de meting inderdaad juist is.
Het zou kunnen dat bij volle belasting de videokaart meer stroom trekt, en er minder stroom naar de koeler gaat, waardoor die iets trager gaat draaien, en iets minder geluid maakt.
Optimaal is het niet, maar bij een koeler die niet temperatuur-gecontroleerd is lijkt me dit wel mogelijk.
De metingen vinden plaats in idle toestand en onder vollast.
Dan meet je ook het (extra) processor gebruik .. Op zich wel een realistische meeting natuurlijk, maar duidelijk niet alleen van de GPU.
Opzich is dit dan toch gerelateerd aan die videokaart,
want het wordt allemaal op hetzelfde systeem getest,
dus als bij een bepaald spel de processor meer wordt belast met een videokaart, dan met een andere video kaart, dan kun je dit toch het beste meenemen?

En als dit geen verschil heeft, dan maakt het toch niet uit als je het gaat vergelijken, omdat ze allemaal dezelfde basis hebben.
Nee maar je kan duidelijk zien dat Radeon kaarten meer stroom verbruiken. Het systeem is verder hetzelfde.

Neem bijvoorbeeld de 7900GTX dat systeem verbruikt idle 109W, stressed is dit 206W, dat is een toename van ongeveer 100W, een 1900XTX systeem verbruikt stressed 170W meer, dat is weer 70W meer dan het nvidia systeem.

Het lijkt me dus reeël dat je stelt dat de XTX 70W meer gebruikt dan de GTX, maar ik kan het natuurlijk ook fout hebben
Als ik dit zo zie dan snap ik niet dat mijn X800 Pro kaartje (256MB) in combinatie met een AMD64 3000+ en 1GB RAM Oblivion met vrijwel alles op high maar zonder AA moeiteloos kan trekken in een resolutie van 1280x960... Is er getest met 100 goblins tegelijk in zicht of zo???
Heb jij HDR aan of uit? Denk dat dat een gigantische performance verschil uitmaakt... :)
Denk dat hij weinig keus heeft, de X800 reeks ondersteund helemaal HDR...
Tegenwoordig wordt er bij deze 3D videokaarten heel hard geroepen dat ze ook oude games beter/mooier maken. Wat moet ik me hier bij voorstellen? Zou hier ook niet een qualiteitstest op uitgevoerd kunnen worden?

Er zijn nogal wat oude spellen die nog steeds weer populair blijken te zijn (Niet alleen SP, vaak blijken op LAN en via internet nog heel wat mensen mee bezig) bijv.:
Diablo 2
C&C (Voorral nu de 1st decade serie is uitgebracht)
GTA1/2

De fabrikanten spelen hier op in met hun "Deze laat uw oude game er nog mooier uit zien". Ik zou wel eens willen weten of hun woord wel waar is, wat er dan verbeterd en welke kaart hier dan wel het beste in is, voordat ik een nieuwe kaart koop.

Edit @Lokesz:
Ik weet niet of je bovengenoemde spellen wel eens hebt gespeeld, maar mijn Ge-force 2 GTS pakt die met gemak al op de hoogste instellingen. Natuurlijk kan ik een spel wat ik nu niet op de hoogste instellingen kan spelen op een hogere versie videokaart wel beter bekijken.
Het zal ook zeker liggen aan het spel. Hoe nauwkeurig is dit in elkaar gezet e.d.!
Als een spel zodanig is opgebouwd op de specificaties van een oudere kaart met bijbehorende pixelaantal wat toen als maximum gold dan zal het er zeker vloeiender uit gaan zien daar van beide het maximum omhoog is gegaan!
Je kan de oude games als Riddick op veel hogere kwaliteit zetten met een 7900GT dan met een 6600GT. Nogal vanzelfsprekend lijkt dat, maar destijds ging ik echt geen 500 euro voor een kaart betalen. Nu is de 7900GT rond de 300 euro en die kan alle pre-oblivion games uitstekend aan.
Je kan, bij Nvidia iedergeval, buiten het programma instellen met welke FSAA en AF je wilt werken.

Logisch kan je conluderen dan dat als je nu een hogere van beide hebt het er technische gezien beter uit moet zien. (Minder kartelig en minder wazig textures in de verte)

Het helpt iets maar verwacht geen wonderen. Ik vind zulke uitspraken meer de kant van marketing praat opgaan.
Mooie test, dit zal zeker wanneer ik een nieuwe video kaart ga kopen mijn keuze beinvloeden.

Ik heb wel op andere sites gekeken voor het kopen van een video kaart, maar omdat ze allemaal op anders systemen testen, was het imo niet echt een goede weergave welke nu het beste is.

Ik hoop een keer te kunnen zien wat mijn kaart in de bechmark doet.

Ik vraag me alleen af wat jullie met crossfire gaan doen, of laten jullie de dual opstellingen achterwegen?
//Misschien dat de pricewatch-shortcuts die aan de linkerkant staan, verwijzen naar de goedkoopste shop.

De 7900GT is al voor €255,-- te koop, tewijl de link aangeeft wat het testmodel kost(€290 in dit geval)
Het zou misschien mooi zijn als de prijs/prestatie verhouding realtime berekend word aan de hand van de pricewatch gegevens aangezien de prijzen van de videokaarten vaak veranderen.
De prestaties verandere ook constant, iedere driver doet wel iets. Is in praktijk niet haalbaar.
wat ik wel raar vindt is dat ze wel 1 v/d goedkoopste 7900GTX kaarten hebben genomen, maar niet de goedkoopste X1900XTX, want de XTX die zij hebben is 485 eurie.. en de goedkoopste in PW is 435 euro.. en goedkoopste 7900GTX in PW is ook 435 euro.. Dus dat de X1900XTX meer euro per punt is kan gewoon niet.. aangezien de X1900XTX evenduur is, maar op alle benchies wint... :? dubieus
Beter om de eenheid Sone gebruiken ipv dB(A). Is lastiger maar wel natuurgetrouwer.

Op dit item kan niet meer gereageerd worden.