Door Marc Rademaker

Redacteur

Test: een game-pc met twee GTX480-kaarten

10-04-2010 • 09:00

212

Multipage-opmaak

Inleiding

Op 27 maart bracht Nvidia de langverwachte GTX470- en GTX480-videokaarten uit. De kaarten zijn vanaf volgende week te koop en ook systeembouwers zullen dan hun eerste systemen met Nvidia's nieuwe topmodellen uitbrengen. Zo maakte de Nederlandse systeembouwer Paradigit al de zogenaamde Paradigit Extreme NRG-FF, die wordt uitgerust met maar liefst twee GTX480's.

Nvidia bracht twee GTX480-kaarten naar Paradigit en installeerde de noodzakelijke drivers op het eerste Extreme NRG-FF-systeem. Tweakers.net kreeg de mogelijkheid om het systeem te testen en te beoordelen. We keken naar de prestaties van wat voorlopig een van de snelste pc's zal zijn en we wierpen een kritische blik op de bouwkwaliteit en de gebruikte componenten. Uiteraard werd ook gekeken naar de geluidsproductie en het energieverbruik van deze monstermachine.

Paradigit Extreme

Specificaties

Merk en Type
Merk Paradigit
Type Extreme NRG-FF
Technische Specificaties
Moederbord
Asus P6T Deluxe V2
CPU Core i7 960
Geheugen 6GB Corsair Dominator 1600MHz
Videokaart 2x Asus GTX 480
Voeding 1200W FSP Everest Pro
Hdd 2TB Hitachi 7200RPM
Ssd 2x 80GB Intel X25-M G2
Randapparatuur
Cpu-koeler Scythe Mugen II Rev B
Dvd-speler Sony DVD±R/RW
Blu-ray Samsung BDROM/DVD±R/RW combo
Behuizing CoolerMaster HAF 932
Software
Besturingssysteem Microsoft Windows 7 Ultimate NL 64

Het systeem

Paradigit hing het etiket Extreme aan het systeem en dat lijkt een toepasselijke term. Twee 80GB grote 'Postvilles' in raid 0 fungeren als systeempartitie. Deze Intel-ssd's behoren op dit moment nog tot de snelste ssd's. Omdat er na de installatie van Windows 7 Ultimate 64bit nog ongeveer 130GB aan vrije ruimte overblijft, werd er ook een 2TB-hdd van Hitachi in de CoolerMaster HAF 932-behuizing geplaatst. Naast een simpele dvd-brander van Sony werd er ook een blu-ray-speler van Samsung in het systeem gebouwd.

Twee 80GB Postville ssd's

Het hart van het systeem bestaat uit een P6T Deluxe V2-moederbord van Asus, met daarop een Intel Core i7 960-cpu, die zijn werk op 3,2GHz doet. Op de 6GB Corsair-geheugen met een kloksnelheid van 1600MHz is Corsairs geheugenkoeler gemonteerd.

Asus P6T Deluxe V2 / Core i7 960 / Corsair Dominator

Ons eerste en enige punt van kritiek op al deze hardware betreft de standaard Intel-koeler op de Core i7 960. Een stockkoeler heeft niets te zoeken in een high-end systeem dat ruim 3000 euro moet gaan kosten. Paradigit besloot dan ook op het laatste moment om de stockkoeler te vervangen door een Scythe Mugen II, waarmee de cpu met gemak overgeklokt moet kunnen worden.

Het Asus-moederbord werd onder meer uitgekozen omdat de pci-e x16-slots vrij ver uit elkaar staan. Daardoor is er wat meer ruimte voor luchtcirculatie en dus voor warmteafvoer tussen de twee GTX480's, die nu al berucht zijn vanwege hun forse energieverbruik. In het door ons geteste systeem zitten, zoals gezegd, twee GTX 480's van Nvidia; in het uiteindelijke systeem zullen kaarten van Asus worden gemonteerd.

Twee GTX 480's

De HAF 932-behuizing kreeg eerder al een gunstige beoordeling van Tweakers.net en is met zijn ruime opzet en zijn scala aan casefans een goede keuze voor een dergelijk high-end systeem. De sidefan zorgt ervoor dat de videokaarten altijd van frisse lucht zijn voorzien, terwijl het kabelmanagement de airflow niet in de weg staat. De voeding is afkomstig van FSP, een Taiwanese fabrikant die onder meer voedingen voor OCZ, Zalman en Antec maakt. De voeding heeft het 80Plus Bronze-certificaat en zou 1200W aan vermogen moeten kunnen leveren.

GTX 480 SLI Systeem GTX 480 SLI Systeem

3DMark en PCMark Vantage

Omdat we ditmaal een volledig systeem testen, en niet enkel de videokaart, draaiden we de benchmarks 3DMark Vantage en PCMark Vantage. Deze benchmarks geven een algemeen beeld van de prestaties van de gehele pc. Ter vergelijking draaiden we deze tests ook op ons standaard testsysteem met de op 3,8GHz geklokte Core i7 920, het EVGA X58-moederbord, 6GB ddr3-ram, een Samsung F1 van 500GB en, voor deze gelegenheid, een Radeon HD 5970.

PCMark Vantage test zoals gezegd het gehele systeem, van cpu en videokaart tot harde schijf. Met zijn snelle cpu, de twee videokaarten en de ssd's in raid 0 zou het Extreme-systeem in deze benchmark goed uit de verf moeten komen.

PCMark Vantage
GPUScore (Punten)
GTX480 SLI
********
16.293
HD 5970
*****
9.230

Het systeem van Paradigit zet een monsterlijke score neer, met een hdd-score die maar liefst een factor tien hoger ligt dan die van onze simpele harddisk. De overige tests profiteren daar ook van, zo blijkt uit de score die ruim 75 procent hoger ligt dan bij ons referentiesysteem.

PCMark Score - Core i7 920 @ 3,8GHz, HD 5970, 500GB spinpoint PCMark Score - Paradigit systeem

3DMark Vantage legt de nadruk op de cpu en de gpu, en geeft over het algemeen een redelijke indicatie van de gameprestaties van een systeem. We geven alleen de gpu-scores, omdat de cpu-scores in systemen met Nvidia-videokaarten worden vertekend. De cpu-benchmarks van 3DMark Vantage gebruiken namelijk Nvidia's PhysX, waardoor een gedeelte van het werk door de gpu's wordt afgehandeld.

3DMark Vantage - Performance
GPUScore (Punten)
GTX480 SLI
********
28.359
HD 5970
*******
25.355
HD 5870
*****
18.365
GTX480
*****
17.445

Hoewel een enkele GTX480 net iets minder goed presteert dan een HD 5870, weten de twee GTX480's de HD 5970 vrij eenvoudig te verslaan. Dat is niet heel vreemd, aangezien de twee gpu's op de HD 5970 lager geklokt zijn dan de HD 5870-gpu. De sli-configuratie zet dan ook een mooie score neer.

3DMark Vantage 3DMark Vantage

Crysis Warhead & Bad Company 2

De game-benchmarks wijken wat af van onze reguliere opzet. Ten eerste is er alleen getest op een resolutie van 2560x1600 pixels, omdat een lagere resolutie domweg geen uitdaging voor twee GTX 480's in sli is. Ten tweede moet er worden opgemerkt dat het Paradigit-systeem volstrekt niet vergelijkbaar is met ons standaard testsysteem. Een directe vergelijking van de twee GTX480's in sli met eerder geteste videokaarten gaat dus mank, maar we geven toch wat andere testresultaten om een idee te geven van hoe snel de Paradigit-machine werkelijk is.

Crysis Warhead - 2560x1600 - Enthusiast - 0xAA/16xAF
GPUMinimum » Gemiddelde score (fps, hoger is beter)
HD 5870 X3
*****
+
***
28,2 / 41,5
GTX480 X2
******
+
**
30,3 / 39,2
HD 5970
****
+
**
19,8 / 29,2
GTX480
***
+
*
16,0 / 20,7

Crysis: Warhead is een van de zwaarste, maar ook een van de minst efficiënte games. Op 2560x1600 was het nog geen enkele setup gelukt om hogere minima neer te zetten dan 30fps, maar de twee GTX480-kaarten brengen daar verandering in. Drie HD 5870's in CrossFireX zetten slechtere minima neer, maar halen wel iets hogere gemiddelde framerates.

Bad Company 2 - 2560x1600 - max - 4xAA/16xAF
GPUMinimum » Gemiddelde score (fps, hoger is beter)
GTX480 X2
******
+
**
49,2 / 65,5
HD 5970
****
+
**0
35,5 / 54,1
GTX480
****
+
*
29,7 / 38,2
HD 5870
***
+
*
25,3 / 36,3

Terwijl een enkele GTX 480 nog een beetje moeite heeft om speelbare framerates te produceren, zijn de twee GTX480's zelfs tijdens de meest intensieve actiemomenten snel genoeg.

Dawn of War II & Far Cry 2

Dawn of War II: Chaos Rising werd voor het eerst gebenchmarkt voor de GTX480-review. Het spel maakt gebruik van de Essence Engine, die ook voor de Company of Heroes-serie werd gebruikt. Chaos Rising bleek bij de GTX480-review een zware kluif voor menig videokaart.

DoW II: Chaos Rising - 2560x1600 - max - 4xAA/16xAF
GPUMinimum » Gemiddelde score (fps, hoger is beter)
HD 5970
***
+
*****
32,3 / 80,5
GTX480 X2
***
+
****
35,0 / 74,4
HD 5870
**
+
*****
19,3 / 64,5
GTX480
**
+
****
16,8 / 55,3

De sli-opstelling in de Extreme lijkt het af te leggen tegen de HD 5970, maar de minima van de GTX480's liggen iets hoger, wat eigenlijk het belangrijkste is. De gemiddelde scores liggen onder andere wat lager omdat de cpu van het Paradigit-systeem op 3,2GHz is geklokt, terwijl de Core i7 in ons eigen testsysteem op 3,8GHz draait.

Far Cry 2 - 2560x1600 - Ultra high - 4xAA/16xAF
GPUMinimum » Gemiddelde score (fps, hoger is beter)
HD 5870 X3
******
+
**
90,2 / 122,7
GTX480 X2
******
+
**
95,3 / 121,8
HD 5970
***
+
*
52,4 / 72,4
GTX480
***
+
*
47,6 / 62,8

De twee GTX480's troeven nagenoeg alle videokaarten af, inclusief de drie HD 5870's in CrossFireX, die lagere minima produceren. Gezien de hoge framerates kan er net zo goed met achtvoudige anti-aliasing gedraaid worden, wat we dus ook even geprobeerd hebben...

Far Cry 2 - 2560x1600 - Ultra high - 8xAA/16xAF
GPUMinimum » Gemiddelde score (fps, hoger is beter)
GTX480 X2
******
+
**
74,3 / 99,1

Het mag duidelijk zijn dat de Extreme geen kind aan Far Cry 2 heeft.

DiRT 2 & Metro 2033

Het oude, vertrouwde DiRT 2 wordt met name gebenchmarkt vanwege de goede graphics en vanwege de ondersteuning voor DirectX 11.

DiRT 2 - 2560x1600 - DX11 - 4xAA/16xAF
GPUMinimum » Gemiddelde score (fps, hoger is beter)
GTX480 X2
******
+
**
79,2 / 105,3
HD 5970
****
+
*
59,0 / 67,3
HD 5870
***
+
*
38,8 / 47,3
GTX480
***
+
*
35,5 / 46,7

Het is vreemd om te zien, maar de twee GTX 480's zijn meer dan twee keer zo snel als een enkele GTX 480. De goede schaling valt deels te verklaren door het feit dat de hoeveelheid tesselation gelijk blijft, terwijl het aantal Cuda-cores verdubbelt. Hierdoor blijven er relatief meer Cuda-cores over om andere zaken af te handelen en dat heeft een gunstige invloed op de framerate.

DiRT 2 - 2560x1600 - DX11 - 8xAA/16xAF
GPUMinimum » Gemiddelde score (fps, hoger is beter)
GTX480 X2
******
+
**
70,3 / 91,4

Ook deze benchmark draaiden we nogmaals, maar dan met 8xAA. De performance-hit is vrij klein, wat gezien het verdubbelde aantal samples opmerkelijk is. Met 8xAA behoren de zogeheten jaggies tot het verleden.

Metro 2033 - 2560x1600 - DX11 - tess/dov uit
GPUMinimum » Gemiddelde score (fps, hoger is beter)
HD 5970
*****
+
***
27,5 / 42,0
GTX480 X2
*****
+
***
28,5 / 41,4
GTX480
*****
+
*
26,0 / 32,2
HD 5870
****
+
**
23,5 / 32,1

Ook Metro 2033 gebruikt DirectX 11, maar voor deze benchmark werden de DirectX 11-functies Depth of Field en Tesselation uitgezet, omdat ze tot zeer lage framerates leiden. Jammer genoeg zien we maar weinig winst ten opzichte van een enkele GTX 480.

Energieverbruik

Zoals gebruikelijk onderwerpen we het systeem aan een geluidstest en meten we het energieverbruik. Het systeem met de GTX 480's in sli wijkt echter af van ons eigen testsysteem. Er moet dan ook rekening gehouden worden met het feit dat Paradigit's systeem over meer apparatuur beschikt, zoals twee optische drives, twee extra ssd's en een aantal casefans, die bij ons gebruikelijke testsysteem ontbreken.

Eerst kijken we naar het vermogen dat uit het stopcontact wordt getrokken wanneer enkel de Windows 7-desktop wordt weergegeven. Daarma wordt Furmark gedraaid, waarmee de grafische kaarten maximaal belast worden.

Vermogensopname systeem - Idle
(watt, minder is beter)
GTX480 X2
**********
302
GTX480
******
171
HD 5870 X3
******
170
HD 5970
*****
159

Tot onze verbazing behoeft het systeem in de idle-stand maar liefst 302W. Ten opzichte van een enkele GTX480 is dat 131W extra. Dat valt niet te verklaren met de extra hardware in de Extreme; de oorzaak moet vermoedelijk bij de sli-opstelling gezocht worden. Nvidia heeft zijn zaakjes met de drivers kennelijk nog niet voor elkaar en verliest op dit punt flink terrein ten opzichte van AMD.

Vermogensopname systeem - Load
(watt, minder is beter)
HD 5870 X3
**********
796
GTX480 X2
**********
791
HD 5970
******
460
GTX480
******
454

Met behulp van Furmark worden de videokaarten tot het randje van hun kunnen gedreven. Opvallend genoeg lukt het de GTX480's om net zoveel energie te verbruiken als drie HD 5870's. Ten opzichte van een enkele GTX480 wordt er bijna 340W extra verbruikt, wat wederom maar voor een klein deel verklaard wordt door de aanwezigheid van extra componenten.

Overigens is Furmark een worst-case scenario: tijdens enkele spellen werd over het algemeen een opgenomen vermogen van 650W geconstateerd, met her en der pieken richting de 760W. Het is in elk geval duidelijk dat de 1200W-voeding weliswaar ruim bemeten, maar niet overdreven zwaar is.

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Geluidsproductie

Rest ons nog de geluidstest. De gemeten geluidsdruk is afkomstig van het gehele systeem, waarbij we zowel het systeem in rust als onder belasting van Furmark hebben gemeten.

Geluidsproductie (dBA, lager is beter)
Idle
**********
46,0
Load
**********
59,4

Wanneer er niet gegamed wordt, is de geluidsproductie van het systeem verre van storend: als het onder een bureau wordt geplaatst, zal het zelfs praktisch onhoorbaar zijn. Zodra er echter een spelletje wordt gestart, zullen de fans op de videokaarten een tandje bijschakelen. Het duurt wel even voor de videokaarten goed opgewarmd zijn; zodra dat echter het geval is, verandert het systeem in een beste stofzuiger.

In het filmpje wordt Furmark gedraaid, maar ook tijdens langere gamesessies, van minstens 20 minuten, zal het systeem met gemak tussen de 55 en 59dBA produceren.

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Conclusie

We durven het bijna niet te zeggen, maar de Paradigit Extreme NRG-FF moet 3499 euro kosten. Dat is een flinke smak geld, maar daar staat dan wel een van de snelst denkbare systemen tegenover. Als de onderdelen in onze Pricewatch bijelkaar gezocht worden, bedraagt de totaalprijs minstens 3000 euro. Uiteraard bespaar je op verzendkosten en je hoeft het systeem niet zelf te installeren, en bovendien krijg je een gebruiksklaar systeem dat binnen enkele seconden Windows opstart.

Het systeem dat Paradigit levert is goed afgewerkt, met de kabels waar mogelijk weggewerkt om de airflow zo min mogelijk te hinderen. De fan in het zijpaneel zouden wij liever op het moederbord dan aan een molex-connector aansluiten. Ook de achtpins-atx-connector loopt niet achter het moederbord langs, maar daar is de kabel waarschijnlijk te kort voor.

Ook bij het uiterlijk zijn wel wat kanttekeningen te plaatsen. De behuizing heeft wel een raampje in het zijpaneel, maar de binnenkant is niet zwart meegespoten. De blu-ray-speler is als enige onderdeel niet matzwart, maar glanzend afgewerkt. Ook lijkt de cpu, ondanks zijn kloksnelheid van 3,2GHz, de meest waarschijnlijke bottleneck voor het systeem: de twee GTX480's leveren nou eenmaal veel grafische kracht. Overklokken lijkt bij de Extreme dan ook de moeite waard te zijn.

Er wordt geen beeldscherm meegeleverd maar het is wel de moeite waard om daar flink in te investeren: een enkel scherm met een resolutie van 'slechts' 1920x1200 beeldpunten zal geen recht doen aan het Paradigit-monster. Overigens zal het in de nabije toekomst ook mogelijk zijn om drie schermen op de twee videokaarten aan te sluiten, maar Nvidia moet de benodigde 256-drivers nog uitbrengen.

Hoewel het systeem aan de prijzige kant is, is het niet extreem duur, gezien alle high-end componenten die er, vaak in tweevoud, in zitten. Paradigit geeft bovendien twee jaar garantie op het systeem. Voor degenen die een dergelijk systeem willen hebben, valt de meerprijs zeker te rechtvaardigen.

GTX 480 SLI Systeem GTX 480 SLI Systeem GTX 480 SLI Systeem GTX 480 SLI Systeem GTX 480 SLI Systeem GTX 480 SLI Systeem GTX 480 SLI Systeem GTX 480 SLI Systeem

Reacties (212)

212
207
119
4
0
23
Wijzig sortering
Ook bij het uiterlijk zijn wel wat kanttekeningen te plaatsen. De behuizing heeft wel een raampje in het zijpaneel, maar de binnenkant is niet zwart meegespoten. De blu-ray-speler is als enige onderdeel niet matzwart, maar glanzend afgewerkt. Ook lijkt de cpu, ondanks zijn kloksnelheid van 3,2GHz, de meest waarschijnlijke bottleneck voor het systeem: de twee GTX480's leveren nou eenmaal veel grafische kracht. Overklokken lijkt bij de Extreme dan ook de moeite waard te zijn.
Waarom zeg je dan niet gewoon dat het Coolermaster HAF 932 is ?
En in de review ervan is de conclusie ook al zo dat het niet echt een superkast is, waarom Paradigit er dan voor kiest is mijn een raadsel.

Als die Core I7 960 over zijn nek gaat van die twee GTX480's, waarom is er dan niet voor een 980X gekozen ?
Als het ASUS moet zijn, dan had ik een Asus Rampage Extreme II genomen (Persoonlijk had ik liever voor een Intel DX58SO gegaan) icm met een 980X, als je een Extreme systeem noemt, moet de overige hardware er ook naar zijn en dan moet je niet zeuren over het prijskaartje.
Als het geheel dan in een Lian-Li PC80 had gezeten dan heb tenminste ook echt airflow.
Ik heb toch een beetje moeite met deze review. Ik vind dat je als onafhankelijke review-site alle schijn van partijdigheid moet vermijden. Dit houdt in dat je beter niet 1 systeem van een computerbouwer kunt testen. Dat riekt naar reklame, ook al is het dat niet de bedoeling.

Los daarvan vind ik het een systeem wat geen enkele serieuze computergebruiker zou moeten overwegen. Het is veel te duur, warm en lawaaiig. Voor 1000 euro minder heb je een systeem wat vrijwel hetzelfde performed, stiller is en veel goedkoper.
Denk je echt dat Tweakers een onafhankelijke review-site is ?

Zover ik weet draait T.Net alweer een poosje met commercieele bedoelingen, maw; er moet geld verdient worden. Dan is het met de onafhankelijkheid algauw gedaan . . .

Wat wel of niet de bedoeling is, kunnen we alleen maar raden. Een simpel berichtje van iemand van de crew van T.Net, wie dan ook, zal mij niet overtuigen van het één of ander.
De enigen die het echt weten, zitten in de staf. En alles wat ze ons niet wensen te vertellen, om wat voor reden dan ook, zullen ze niet vertellen.

Als je het écht weten wil, moet je ertussen zitten }>
Tjonguh jonguh, wat een pessimisme. Het verhaal is vrij eenvoudig. Nvidia zou proberen meerdere GTX 480's te regelen. Paradigit had die, in hun systeem. Of we die wilden reviewen. Daar heb ik ja op gezegd, zonder tussenkomst van of Wilbert (hoofdredacteur) of de uitgever (Daniel). Wilde Paradigit publiciteit? Uiteraard. Wilde ik dat systeem testen: ja.

Behalve dat Paradigit's systeem vrij centraal staat, kun je nog veel meer uit de review opmaken. Verbruik/geluidsproductie van twee kaarten is gigantisch. SLI schaalt best goed. Twee GTX 480's in SLI zijn zo rap, dat een 3,2GHz Core i7 niet afdoende is.

Had ik de kaarten langer willen hebben? Jup. Dan had ik misschien een kortere review gedaan over het systeem, en een uitgebreidere over sli/tri-sli.

Heeft Tweakers.net commerciële banden met Paradigit? Niet voor zover ik weet. Paradigit staat niet eens in de pricewatch.

Dat eeuwige gezeur over onze motieven en of we al dan niet of wel objectief kunnen schrijven omdat we anders inkomsten mis zouden lopen wordt echt vermoeiend.
Onafhankelijk is niet hetzelfde als partijdig.

Maar verder mag ik aannemen dat deze review tot stand gekomen door een inzending van Paradigit. Dat zij hier ook nog eens commerciële banden hebben door middel van het uitbuiten van de pricewatch... Tsja daar haalt T.net haar geld vandaan. 't zal immers ergens vandaan moeten komen, toch?

Ik heb er niets op tegen.

zolang er maar een geldig en kritische review plaats vind, vind ik het best. Het moet wel over de kwaliteit gaan.
Als het systeem vervolgens geretourneerd wordt is er toch niets aan de hand? Dan heeft het met partijdigheid niets te maken. Als ik morgen eenzelfde systeem opstuur en ze kraken het helemaal af, terwijl ik meer aan CM en stilte gedaan heb, dan pas kun je spreken van partijdigheid.

Waarom zou tweakers dan nog überhaupt computers en producten testen overigens? Deze hele pagina is toch een groot inzichtelijk reclamebord?

Wat mij betreft hadden ze best wat kritischer mogen kijken naar kastkeuze, bouwkwaliteit etc.

[Reactie gewijzigd door thieske-bc op 25 juli 2024 02:37]

kwijl kwijl...
Idd. aardig duur maar aangezien ik net een nieuw systeem heb gekocht gaat dit em toch niet worden.
Hier zie je toch mooi dat bij high-end kaarten nvidea het overwicht heeft.
Hier zie je toch mooi dat bij high-end kaarten nvidea het overwicht heeft.
Is dat ook echt zo?

Tis eerder stuivertje wisselen met een 9 maanden oude videokaart.
Dus tis niet echt zo spectaculair imho.

Al helemaal niet omdat je het hier hebt over 2 x 400 euro + videokaarten tegen één enkele 500 euro videokaart.....

Dus vindt het nou niet bepaald een duidelijk overwicht.

Daarbij verwachten we allemaal dat ATI spoedig weer met een nieuwe kaart komt.
En dat de huidige kaarten weer in prijs gaan dalen.
Qua warmte, geluidsproductie en energieverbruik, is het allemaal wat slecht gesteld met de GTX480. Maar als je naar alle tests goed kijkt, dan kan je zien dat het nog steeds op bijna alle vlakken, de snelste single core videokaart is die er te bestellen is.

Daarnaast heb ik al even naar verschillende benchmarks gekeken op het internet en kan daaruit concluderen dat ze de drivers voor de GTX460 en GTX480 nog niet helemaal goed hebben. Je kan bijvoorbeeld zien (even tweakers genomen) dat de GTX480 het onder de test van Crysis Warhead, http://tweakers.net/revie...r-gpu-crysis-warhead.html het relatief slecht doet en dan bij Far Cry 2 http://tweakers.net/revie...onster-gpu-far-cry-2.html in eens de man is. Terwijl het hier toch echt over dezelfde engine gaat (uiteraard aangepast).
Daaruit kan ik wel een beetje opmaken dat de drivers nog genoeg geoptimaliseerd kunnen worden.

Al met al kan ik op dit moment wel zeggen dat het aanschaffen van de HD 5970 nog steeds de beste keus zou zijn, als je 500 + euro over hebt voor een videokaart. Hier heb je nog steeds (in de vorm van 1 videokaart), de beste performance, laag energieverbruik in idle en het geluidsproductie is hetzelfde als de GTX480(maar dan ben je wel met 2 GPU's bezig).
"Qua warmte, geluidsproductie en energieverbruik, is het allemaal wat slecht gesteld met de GTX480. Maar als je naar alle tests goed kijkt, dan kan je zien dat het nog steeds op bijna alle vlakken, de snelste single core videokaart is die er te bestellen is."

De GTX480 is simpelweg niet de snelste kaart. Waar iedereen nog steeds over valt is het idee dat 1 core het allemaal maar moet doen! Het gaat om het systeem, de video kaart wat het moet doen, niet de ene GPU core, maar wat de cores samen kunnen presteren. Dan is ATI op dit moment met zijn 5970 gewoon de snelste kaart die er is.

Er wordt ook geen vergelijkingen meer gemaakt met de single core van Intels tegen over de single cores van AMD! Wij kijken tegenwoordig hoe een PC in zijn geheel presteert. Dat is nu een systeem met een Intel i7 980X en daar hoort meerdere ATI 5970 bij.

Trouwens, twee 480 cores op één kaart, kan dat wel?
NVidia doet dit al zo lang met bijna elke serie kaarten die er zijn uit gekomen, elke keer leek het onmogelijk vanwege warmte / verbruik etc. maar toch zijn ze er steeds gekomen.
maar dit keer verbruikt hun single GPU bijna even veel als de dual van ATI.
dat is dus nog nooit voorgekomen.
en de PCI-E specs staan helemaal geen kaart toe die 2 keer zo veel verbruikt als een GXT480, of zelfs maar 50% meer.

ook nvidia moet zich aan de wetten van dit universum houden.
Het is niet verboden omdaar over heen te gaan, alleende licentie vervalt, nietsaan het handje dus.
Aan de andere kant is de nvidia single bijna even goed als de ati dubbel.. o_O als je het zo plat ziet dan is NVidia dus licht meerbruikend.

(NVIDIA FANBOY)
De kaart is dan ook gemaakt om op hoge temps te kunnen draaien, dat heeft op tweakers nog gestaan volgens mij of tomshardware. Zolang er geen fouten ontstaan en hopelijk qua ocen nog wat rekruimte zit vind ik daar niet een probleem in zitten. Het is alleen irritant als je koelers hebt die de warmte in de kast blazen ipv eruit, dan zit je met een een kookplaat in je pc.

Verder zal een x2 versie van deze kaarten waarschijnlijk een 480 zijn op 470 snelheden. Zelfde als de gtx 295 die in feite 2x 275 waren ipv 285.

Energie verbruik is wel om te huilen zo hoog.. vooral als je kijkt dat de prestaties hoewel indrukwekkend, niet echt denderend hoger zijn.
Trouwens, twee 480 cores op één kaart, kan dat wel?
Nee, niet zonder de kloksnelheden extreem te verlagen of zonder de 300W van de PCIe-specificaties te overschrijden. Dus praktisch niet, misschien enkel een 400W-versie als limited edition voor de pats.
Uhm, het is niet een single core videokaart, maar een single gpu kaart. Feitelijk zou je alle shaders kunnen rekenen als cores.
Klinkt misschien als muggenziften, maar je gaat wel heel erg door over hoe het een single core is.
Nouja, soms moet 1 'core' het ook allemaal doen als je software gebruikt die maar één gpu ondersteund, en heb je in die gevallen dus meer aan een GTX480 dan aan een 5970...

Heb hier op mijn werk een GTX295 en daar baal ik dus van bij sommige toepassingen...

[Reactie gewijzigd door Qualian op 25 juli 2024 02:37]

FacCry2 en Crysis warhead dezelfde engine? nee hoor, de dunia engine en de cryengine (2?) zijn toch niet hetzelfde.
dus je daarop gebaseerde conclusie is niet helemaal gerechtvaardigd (misschien klopt ie wel maar dan om andere reden).
De Dunia-Engine komt voort uit de CryEngine 1 en de CryEngine 2 komt ook voort uit de CryEngine 1, dus zijn ze wel enigszins met elkaar te vergelijken.

Ik doelde ook niet puur en alleen op deze games, want er zijn meer games waarvan je je afvraagt waarom die ineens bijvoorbeeld bijna slechter moeten presteren dan zelfs de 'oude' GTX285: http://tweakers.net/revie...-dow-ii-chaos-rising.html (sowieso is het minimum slechter bij de GTX480 ten opzichte van de GTX285 en de rest). Hier kan je dus goed zien dat ze nog veel moeten doen aan de drivers.
Enigsinds als in hoeveel.... dat weet niemand. Zo is de enige van HL1 heel verschillend dan die van Quake 2 terwijl ze beiden van de Quake 1 engine door ontwikkeld zijn. Daarnaast is het niet altijd gpu limited maar kan de engine ook een limiterende factor zijn.

Zo zijn er zelfs spellen met dezelfde engine met kleine aanpassingen die heel anders presteren.
De Dunia en Cry-engine zijn helemaal niet met elkaar te vergelijken. De Dunia-engine bestaat slechts uit 2 tot 3 procent van de Cry-engine.
(Bron: http://en.wikipedia.org/wiki/Far_Cry_2#Engine)
Maar weet jij welk deel precies die 2-3 procent is? Mogelijk een cruciaal gedeelte van de grafische renderen.
de performance is totaal anders.
dat zien we in de framerates
en de grafische kwaliteit is op de cryengine 2 vele malen hoger.
Leuk zon test met twee GTX480 kaarten, zullen wel echt supergraphics zijn! Alleen jammer dat er geen vergelijking is met bv. 2x 5870. Iedereen snapt dat 2 GTX480's sneller zijn dan een 5970 :/
Ja, alleen wanneer is een test eerlijk, in mijn ogen moet je gewoon in zo'n geval de snelste tegen de snelste zetten dus 5970 in xfire tegen 480 in sli.
Dat was ook mijn eerste gedachte toen ik de tests las, 2x 5970 kosten amper meer en zullen de vloer aanvegen met de SLI setup, helemaal als stroomverbruik wordt mee gerekend.
Als je nou ook even naar de prijs van die dingen kijkt, zie je dat twee GTX480 900e kost, en een 5970 514e.

Voor de 12% verbetering in 3DMark Vantage zou ik niet 75% meer willen betalen. Dat is natuurlijk mijn mening.
514 of 900 = 75% meer :?
Ja, het eerste wat ik ook dacht kwijl kwijl, naast dat het systeem een flinke smak geld kost (maar niet veel t.o.v. vroeger), is het een enorme energie verspiller.

Stel je voor dat je dag en nacht je pc aan laat staan. Hahahaha dan stijgt je energierekening met een paar euro's. Ach als je deze pc makkelijk kan betalen, kan je die rekening ook betalen.

Zou graag het systeem willen, al groeit bij mij het geld ook niet op mijn rug. :Y)
Wat ik me afvraag is of de GTX 480 ook in triple SLI werkt en wat de prestaties daar van zijn.

Wat ik me verder afvraag is hoe deze setups presteren bij nog hogere resoluties, bv. 3x1920x1200 of zelfs 3x2560x1600. Waarschijnlijk niet speelbaar met games zoals Crysis, maar games die nu op 2560x1600 100+fps halen zouden wel eens een baad hebben bij een nog hogere resolutie.
Door de manier waarop NVidia meerdere beeldschermen aanstuurt zal met drie schermen het aantal FPS waarschijnlijk met een factor vier verkleinen. Één GPU doet namelijk scherm A en scherm B, de tweede GPU doet scherm C. Dat betekent dus dat in plaats van één scherm voor twee GPU's, er ineens twee schermen voor één GPU zijn, vandaar de factor vier.
Dan heb je toch echt een factor 2 verlies, geen factor 4.
Als je de redenering van bwerg volgt, had je eerst 2 GPU's die elk een half scherm renderden, en dan nu doet GPU A 2 schermen en GPU B 1 scherm. bwerg beweert dat GPU B dan op halve kracht zou werken om zo vergelijkbare resultaten te halen als GPU A. Dit is dus factor 4 verlies.

Niet dat ik de mening van bwerg steun, ik heb geen idee van de schaling, maar ik leg je maar even uit wat hij bedoelde.
Volgens mij klopt dat niet... aangezien ze allebei andere dingen berekenen, en ze de beelden tussen beide kunnen uitwisselen, dus vast ook wel naar de andere kaart zijn DVI/HDMI/etc.
Euhm.. gtx480 x2 = 900,- (450,- per stuk is goedkoopste in PW).

Dat houd dus in, ruwweg, dat een 3x 5870 gelijk staat aan 2x 480 wat betreft prijs.

Als je je dan bedenkt dat de 3x 5870 er altijd beter voor staat (en soms zelfs een enkele 5970 a 550,-) lijkt het er sterk op dat je nvidia kaartjes nergens tegen zal komen behalve in de winkels.

Waarschijnlijk zou paradigit met 3x 5870 (of zelfs 2x 5870 of enkele 5970) een beter/sneller gamesysteem hebben met een stuk lager prijsje.

[Reactie gewijzigd door Xanaroth op 25 juli 2024 02:37]

Dan worden er volgens jou dus ook nergens Lian Li kasten verkocht voor belachelijke prijzen, zoals ik eerder ook al postte dat deze nvidia serie (het high-end gedeelte dan) echt voor de mensen is die alleen maar naar performance kijken en het een worst is hoeveel het ding kost en gebruikt aan stroom ;)
Nee 2gtx 480 zijn echt wel een pak sneller dan 2x5'870's.
Voor een sneller systeem beter slaat nergens op ben je dus beter af met de gtx480 in sli of zelfs 3way. Maar goed daar betaal je dan ook voor en het gekke is dat er best veel mensen zijn die zo'n syteem hebben. Ik ben zelf ook één van de extreme systemen.
Ik had zelf verder wel andere onderdelen gekocht maar dat is altijd weer persoonsafhankelijk
ik heb het al vaker gezegd, nvidia heeft deze ronde verloren. Als ati een kaart zou uitbrengen op basis van de 5870core en daar 50watt vermogen meer doorheen zou sturen, zou hij net zo goed presteren als de 480gtx. Het is net als bij een amerikaanse auto, daar heeft een 5 liter motor net zoveel vermogen als een japanse 1.8L.
En inderdaad een 5970 gaat gelijk op aan 480gtx en kost 300 euro minder... Nou moeten de drivers natuurlijk nog beter worden van de 480gtx, maar die gaan geen 300 euro meerprijs verantwoorden.
Mee eens, maar Nvidia kan niet achterblijven door ineens een heel seizoen geen enkele videokaart uit te brengen..

+ Mensen (nvidia fanboys) kopen toch wel de kaarten, omdat het een heel sterke ''community'' is.

Verkopen zullen de kaartjes dus tochwel ;)
Zelfde verhaal met die Amerikaanse motoren... Ik heb liever een bruut laag Amerikaans geluid uit mijn auto.. dan een lelijk jankend 1.8 liter geluidje ;)

Het ligt er dus aan wat je dan mooi vindt.... ;)
Zoek jij eens een GTX480 die €300,- duurder is dan een hd5970... overdrijven is ook wel een vak, maar ik ben het wel met je punt eens.
Of vergelijk je single hd5970 en GTX480? Dan zit er 450 euro tussen.

[Reactie gewijzigd door Santee op 25 juli 2024 02:37]

Hele mooie review, wat ik alleen betreur is dat de benchmarks iedere keer anders zijn.. de ene keer wordt een benchmark gedaan met 3x HD5870, de andere keer weer met een enkele.. zo raak je het overzicht een beetje kwijt in mijn ogen. Ik had liever de vergelijking gezien met een enkele HD5870, enkele GTX 480, HD 5870 SLI, GTX 480 SLI en HD5970. Nu heb je kris kras door elkaar een benchmark in verschillende games met verschillende kaarten, zo kan je toch niet mooi vergelijken? :) Nu kan je geen mooie conclusie geven van de kaarten opzich, nu enkel een conclusie van een HD5970 en GTX480 SLI, dat is ook heel mooi natuurlijk, maar voor het complete beeld een beetje jammer :).

[Reactie gewijzigd door __1337__ op 25 juli 2024 02:37]

Is inderdaad nogal verwarrend om te zien. Was hier een specifieke rede voor Marc? :) Want kwa prijs zullen 3x HD5870 met 'n beetje mazzel gelijk liggen aan 2x GTX480, dus prestaties vergelijken lijkt me op z'n minst eerlijk, en anders nog wel met 2x HD5870...
De HD 5870 X3-opstelling is alweer van enkele maanden geleden, en die hadden we niets in alle huidige nieuwe spellen getest. Staat wel op mijn lijstje (3x HD 5870 Eyefinity 6) De review gaat verder ook voornamelijk om het systeem, en niet zo zeer om puur en alleen de videokaarten. We hadden het systeem helaas te kort om uitgebreid naar GTX 480 SLI te kunnen kijken.
Uiteraard jammer, waren die benchmarks nog van voor de laatste driver update van AMD? Want dat zou ook nog iets kunnen schelen. Maar ik neem aan dat de benches die jullie van dit systeem hebben worden meegenomen in de vergelijking met nieuwe benchies met de EF6 edition? Of gaan daar eigen exemplaren voor gebruikt worden en het eigen T.Net testsysteem? ;)

[Reactie gewijzigd door Fid3lity op 25 juli 2024 02:37]

Afhankelijk van hoe lang we de hd 5870's EF 6-kaarten hebben, wil ik die gewoon benchen zodat ze vergeleken kunnen worden met twee/drie gtx 480's. En die worden dan gewoon in ons eigen systeem geplaatst. De benches van dit systeem hebben geen verdere waarde, vanwege de afwijkende cpu en hdd's... En ja, de hd 5870 x3 werd
nog getest met oude drivers.
je zus....zo'n 3500 euro, en dan niet eens water gekoeld...had ik niet verwacht. mijn alienware van 1700 is al water gekoeld en dat merk je

[Reactie gewijzigd door Verwijderd op 25 juli 2024 02:37]

Degelijke luchtkoeling is stukken beter dan de gemiddelde waterkoeling.
En ik moet geen water in mijn pc hebben, en zo zullen er nog wel veel zijn.
Qua koelprestaties is waterkoeling wel veel beter dan luchtkoeling hoor. Het is niet zo stil als veel mensen denken maar als je het geluid van de standaardkoelerts van de GTX480 hoort dan kan waterkoeling dat wel beter :) dus lijkt me ook wel toepasselijk in deze pc.
Het hangt heel er af van waar je het mee vergelijkt.
Vaak kan een high end lucht koeling (mists goede air flow in de kast) net zo goed koelen als low end waterkoeling.
High end waterkoeling met een radiator van 2 of 3 keer 120 mm zal zeker beter werken, maar kost dan ook weer een paar honderd meer.
We durven het bijna niet te zeggen, maar de Paradigit Extreme NRG-FF moet 3499 euro kosten. Dat is een flinke smak geld, maar daar staat dan wel een van de snelst denkbare systemen tegenover. Als de onderdelen in onze Pricewatch bijelkaar gezocht worden, bedraagt de totaalprijs minstens 3000 euro. Uiteraard bespaar je op verzendkosten en je hoeft het systeem niet zelf te installeren, en bovendien krijg je een gebruiksklaar systeem dat binnen enkele seconden Windows opstart.
ja maar daar kun je toch geen 500 euro voor rekenen?
meestal kost zoiets 60 euro ofzo.

Het probleem is gewoon dat ze op tweakers alles goedkoper hebben, en paradigit een vrij dure winkel is (als ik dat mag zeggen) :P

Het ziet er allemaal wel netjes uit. En hij trekt de meeste spellen toch wel goed :)
om de meeste spellen goed te trekken heb je geen 480 sli nodig, dan is 1 al ruim voldoende.

conclusie is dat de echte die hard users die zulke specs willen in een pc hem niet halen bij paradigit maar zelf bouwen.

het is leuk voor het eyecatchen, maar verder een zinloos product, geloof niet dat zoiets veel verkoopt.
Ik vermoed toch dat er een heleboel rijkeluis figuren zijn die zo'n systeem echt niet zelf in elkaar zetten maar kopen (of door pappa laten betalen) voor de patsfactor van de beste hardware maar zelf niet het verstand hebben om zo'n PC in elkaar te zetten.

Wat ik me dan wel afvraag is of deze mensen naar Paradigit gaan. Een Alienware of soortgelijke PC heeft dan toch weer een betere merknaam/patsfactor dan een PCtje van Paradigit.

Het is op zich een lekkere zware PC maar de afwerking vind ik ook gewoon jammer en zou al een reden zijn om hem niet hier te kopen maar met deze specs ergens anders te bestellen waar ze wat meer werk doen voor die 500 euro meerprijs bovenop de componenten.
Je vergelijkt alle laagste onlineprijzen, houdt geen rekening met verzendkosten en vergelijkt dat met een winkel met alle kosten die erbij horen..

Als je alle producten bij paradigit bij elkaar optelt zal je zien dat het systeem minder kost dan de losse onderdelen opgeteld..
Offtopic | Conclusie: Nvidia loopt weer maar eens achter de feiten aan. Ati blijft heer en meester op grafisch gebied als we naar de gewone consumenten markt kijken. Budget & energie vriendelijker en qua prestaties top! Als je ziet vanwaar ati komt (8 jaar geleden...) . Ik zal er voorlopig niet meer vanaf stappen, volgende kaart sws ati!

Ontopic | Goed cable mgmt? Dat trekt op niks maw. Mijn kast hangt er geen één kabel in de weg, ik hier buiten de koelers alleen maar kabels! En voor 3500 euro bouw ik een systeem dat beter zal presteren dat hetgene je hier ziet! Puur voor te gamen zou ik zeker al 2 HD's (SSD's) in Raid0 zetten, zeker voor deze prijs mag er dat wel in zitten...

[Reactie gewijzigd door Verwijderd op 25 juli 2024 02:37]

Ja de hd2900xt verpletterde inderdaad de 8800gtx volledig! 6 maanden te laat, veel te heet, klonk als n escader hornets, en je had er een geheel nieuwe, 8pins pci-e stekker voor nodig, wat voor overclocker een nieuwe voeding betekende, yahoo, ati uber alles :Y)

Het blijft stuivertje wisselen tussen beide fabrikanten, ati heeft op dit moment de beste kaarten, al is nvidia kwa prestaties, (gpu vs gpu) sneller, de 5970 blijft eenzaam aan de top, tot nvidia natuurlijk toch een gtx495 in elkaar weet te schroeven (zie ik overigens niet gebeuren).

Ennuh, hier zitten ook 2 ssd's (absoluut niet te verwarren met hdd's) in raid 0 in :? , en iedere persoon op deze site kan een systeem bouwen dat voor minder beter presteert, hoezee... ik snap echt je post niet...

ontopic dan maar, vind het wel een bruut systeem, maar ze hadden voor die 500 euro boven de onderdelenprijs best wat kabelmanagement en modding kunnen doen, iemand die dit koopt is natuurlijk niet in staat om het zelf in elkaar te zetten, en wil het beste van het beste, en voor hem (of haar ;) ) is dit hét systeem }>
Het is niet alleen voor mensen die het niet zelf inelkaar kunnen zetten. Maar zeker voor zo'n duur systeem is het wel prettig dat alle onderdelen netjes samen werken en ook alle past in de kast.
Ik heb ook eens eem mooie muggen besteld past niet in de kast. Of een harde schijf die niet fijn werkt met een controller. Dan is het toch beter dat een shop dat test en dat je geen gezeur hebt met retouneren van producten die reeds "gebruikt" zijn.
Alleen had de 8800GTX maar een levensduur van 1.5 tot 2 jaar. Daarna vertonen ze artifacts en andere defecten. Met een beetje geluk kon je hem zelf opnieuw afbakken.

Geef mij dan maar een 2900xt die niet na 2 jaar(net buiten de garantieperiode) defect gaat.

De GTX480 is ook niet bepaald een succes, Prestaties zijn niet echt goed te noemen(met de gedachte dat ze hier 6 maanden later mee komen), Veel te luidruchtig en veel te heet. Zelfs als bbq kan ie wss niet tippe aan een borretti.

http://www.plaatjesupload.nl/bekijken/2556209.html

[Reactie gewijzigd door Ruudje88 op 25 juli 2024 02:37]

Op dit item kan niet meer gereageerd worden.