Door Marc Rademaker

Redacteur

GTX 580 in sli en tri-sli getest

21-11-2010 • 09:00

75

Multipage-opmaak

Inleiding

Paradigit bouwde een bruut systeem, met twee GTX 580's in sli en een Core i7 980X. Dit systeem volgt het high-end systeem op dat Paradigit eerder dit jaar uitbracht, ten tijde van de introductie van de GTX 480. Een van de grote verschillen is de cpu; een Core i7 980X vervangt de Core i7 960. Dat betekent behalve een hogere kloksnelheid, ook twee extra cores.

Na het systeem te hebben getest, maakten we de twee GTX 580's buit, om daar nog een GTX 580 van Asus aan toe te voegen. Eerder al testten we de GTX 580, die met gemak de HD 5870 verslaat en enkel concurrentie heeft van AMD's dual-gpu-videokaart, de HD 5970. In deze review kijken we dan ook naar de prestaties van twee en zelfs drie GTX 580's in een sli-opstelling. Met tot drie keer de snelste gpu ter wereld moeten torenhoge framerates te behalen zijn.

Tri-sli-opstelling

Het systeem

Het systeem dat Paradigit bij ons afleverde, lijkt veel op het systeem van ruim een half jaar terug. Zo wordt er nog steeds een Asus P6T Deluxe V2-moederbord gebruikt, dat het zonder usb 3.0- en sata-600-poorten moet stellen. Paradigit koos voor het moederbord omdat de pci-e x16-slots ver uit elkaar zijn geplaatst, zodat de videokaarten niet strak tegen elkaar aanzitten en dus koeler kunnen blijven.

GTX 580 tri sli review GTX 580 tri sli review

De cpu werd echter wel gewijzigd, van een Core i7 960 in een Core i7 980X: ons inziens een te rechtvaardigen investering van 400 euro. Tevens nam Paradigit onze kritiek op het eerdere systeem ter harte en plaatste het een Scythe Mugen II om de cpu koel te houden, in plaats van de stock-koeler. Overigens is de stock-koeler van de Core i7 980X helemaal niet slecht, maar de Mugen II is zonder meer beter.

Wat opslagruimte betreft is er nog steeds een 2TB-schijf terug te vinden, maar ditmaal is dat een schijf uit de stal van Samsung, met een rotatiesnelheid van 5400rpm, in plaats van een Hitachi die zijn werk op 7200rpm doet. Voor het OS en veel gebruikte applicaties voorziet Paradigit in twee 80GB Intel Postville-ssd's, die in een raid-0-opstelling zijn geconfigureerd. Persoonlijk hadden wij liever twee Sandforce-ssd's gezien, maar twee Postvilles in raid-0 zijn nog steeds erg snel.

Twee 80GB Postvilles

De voeding werd ook aangepast. Zo is er nu een Silent Pro 1000M-voeding van Cooler Master terug te vinden, in plaats van een 1200W FSP Everest Pro-voeding. Op de foto hieronder is te zien dat de fan van de voeding zich aan de bovenkant bevindt en dat is volgens ons de verkeerde manier om een voeding onderin te installeren. Nu zuigt de voeding immers lucht aan vanuit de kast, vlak bij een videokaart die al snel 85° of warmer wordt.

De GTX 580's / Voeding verkeerd om?

Alle hardware, inclusief een blu-ray-speler en een dvd-brander, werd in een Cooler Master Haf 932 geplaatst. De Haf 932 is zonder meer een degelijke kast, maar in onze review stipten we wel wat minpuntjes op esthetisch vlak aan. De koeling is echter vrij goed, wat uiteraard geen kwaad kan bij een Core i7 980X en twee GTX 580's, die samen de nodige warmte produceren. Paradigit nam ook de moeite om alle kabels netjes en goed weg te werken.

Ons eigen testsysteem

Ons eigen testsysteem is opgetrokken rond een Core i7 920-processor, die voor deze review op 3,8GHz werd geklokt door de bclk tot 180MHz te verhogen. We streven ernaar om altijd de nieuwste drivers te gebruiken en als er bètadrivers zijn gebruikt, vermelden we dat. Bij deze review werden de AMD-kaarten met versie 10.10 aangestuurd, terwijl de Nvidia-kaarten gebruikmaakten van versie 262.99 van de Geforce-drivers.

Als benchmarks dienden Call of Duty: Modern Warfare 2, Far Cry 2, Stalker: Call of Pripyat, DiRT 2, Alien vs Predator en Battlefield: Bad Company 2. Ook van deze games werden, voor zover beschikbaar, alle patches geïnstalleerd. Waar mogelijk werden de interne benchmarks van de games gebruikt.

Testsysteem
Moederbord Asus Rampage Extreme III
Processor Intel Core i7 920 @ 3,8GHz
Geheugen 6GB ddr3: 3x CMP8GX3M4A1600C8
Harde schijven 80GB Intel Postville
Videokaarten

Asus GTX 480
AMD HD 5870
Sapphire HD 5970
XFX HD 6870
Asus GTX 580

Koeler Thermalright Ultra Extreme 120
Voeding Enermax 1050W

Intels X58-platform houdt naar verwachting nog geruime tijd de prestatiekroon in handen. Dit systeem zal bij het uitvoeren van de benchmarks dan ook niet snel een bottleneck zijn. Ook biedt deze opzet de mogelijkheid om videokaarten in sli- en CrossFire-modus te draaien.

Dell U3011Elke game is getest op de resoluties 1920x1200, terwijl Dell Tweakers.net voorzag van een U3011, waarmee we in alle luxe ook op 2560x1600 pixels kunnen testen. De instellingen verschillen per game en worden daarom telkens vermeld. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige in-game-instellingen, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt altijd 16xaf toegepast, behalve bij HAWX. Bij games die dat niet ondersteunen, is deze instelling afgedwongen met behulp van ATI's CCC of Nvidia's Control Panel.

In het Catalyst Control Center staat de adaptive aliasing op multisampling, wordt de toepassing van aa/af waar mogelijk aan de applicatie overgelaten en is mipmapping op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat de anti-aliasing transparancymodus op multisampling en is de texture quality op high quality ingesteld. Ook hier wordt aa/af waar mogelijk door de applicatie verzorgd.

Bij alle tests wordt zowel het minimale als het gemiddelde aantal frames per seconde gegeven, waarbij een hogere score uiteraard altijd beter is.

Vantage & Furmark

We beginnen met 3DMark Vantage om een beeld te krijgen van de prestaties. Zowel Nvidia als AMD zorgt ervoor dat zijn videokaarten zo goed mogelijk presteren in de benchmark en een goede schaling naar meer dan één videokaart is dan ook te verwachten.

3DMark Vantage
GpuScore (punten)
GTX 580 X3
********
44.651
GTX 580 X2
*******
38.247
GTX 580 X2 (P)
*******
37.571
GTX 480 X2
******
32.059
HD 5970
*****
26.087
GTX 580
****
24.680
HD 6850 X2
****
23.464
GTX 480
***
19.030
HD 5870
***
18.365

Twee GTX 580's zijn aanzienlijk sneller dan een enkel exemplaar, maar van twee naar drie GTX 580's nemen de resultaten minder snel toe. Een cpu-bottleneck is niet zo snel te vinden, aangezien het Paradigit-systeem, met een Core i7 980X, nagenoeg hetzelfde presteert als ons testsysteem, met een Core i7 920 die op 3,8GHz tikt.

De Heaven-benchmark van Unigine leunt zwaar op het gebruik van tesselation en zelfs met tesselation op normal wordt er veel meer van tesselation gebruikgemaakt dan in DirectX 11-spellen. Desondanks geeft het een aardige indicatie van de mogelijkheden van een videokaart.

Unigine Heaven 2.0 - normal
GpuScore (punten)
GTX 580 X3
********
3.184
GTX 580 X2
*******
2.682
GTX 580 X2 (P)
*******
2.600
GTX 480 X2
******
2.278
GTX 580
****
1.488
HD 6850 X2
****
1.415
HD 5970
***
1.317
GTX 480
***
1.220
HD 5870
**
816

Ook nu zien we dat de tweede videokaart voor een flinke boost zorgt, maar de toevoeging van een derde kaart voor een veel kleinere toename. Mogelijk treedt er een cpu-bottleneck op, maar dat valt niet met zekerheid te zeggen.

Alien vs Predator

We beginnen met Alien vs Predator, een spel dat van enkele DirectX 11-functies gebruikmaakt, waaronder tesselation.

Alien vs Predator - 1920x1200 - High - 0xaa
GpuMinimum- » gemiddelde score (fps)
GTX 580 X3
*****
+
***
99,5 / 166,0
GTX 580 X2
***
+
***
64,5 / 118,4
GTX 580 X2 (P)
***
+
***
66,7 / 118,0
GTX 480 X2
***
+
**
54,0 / 100,1
HD 5970
**
+
**
53,0 / 83,6
HD 6850 X2
**
+
*
42,0 / 69,3
GTX 580
**
+
*
36,0 / 63,1
GTX 480
**
+
*
34,0 / 60,1
HD 5870
**
+
*
33,5 / 53,7

Alien vs Predator is in ieder geval een zeer intensief spel voor de gpu, aangezien we geen cpu-bottleneck zien optreden. De schaling is verder erg goed.

Alien vs Predator - 2560x1600 - High - 0xaa
GpuMinimum- » gemiddelde score (fps)
GTX 580 X3
****
+
****
59,7 / 108,7
GTX 580 X2
***
+
***
41,0 / 76,2
GTX 580 X2 (P)
***
+
***
40,0 / 75,7
GTX 480 X2
**
+
**
31,5 / 63,3
HD 5970
**
+
**
30,6 / 51,7
HD 6850 X2
**
+
*
24,7 / 42,7
GTX 580
**
+
*
22,0 / 39,9
GTX 480
*
+
*
20,0 / 36,8
HD 5870
*
+
*
19,0 / 33,0

Ook op 2560x1600 pixels zien we een schaling van bijna 100 procent. Met twee GTX 580's moet het mogelijk zijn om op 2560x1600 pixels te spelen, inclusief 4xaa.

Bad Company 2

Bad Company 2 - 1920x1200 - max - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
GTX 580 X2 (P)
******
+
**
80,0 / 104,7
GTX 580 X2
******
+
**
79,0 / 102,4
GTX 580 X3
*****
+
**
69,7 / 93,7
GTX 480 X2
*****
+
**
73,0 / 92,2
HD 5970
*****
+
**
61,1 / 83,2
HD 6850 X2
****
+
**
57,5 / 78,5
GTX 580
*****
+
*
62,0 / 73,3
GTX 480
****
+
*
48,2 / 59,2
HD 5870
***
+
*
37,0 / 52,1

In Bad Company 2 zien we dat het gebruik van een derde GTX 580 een averechts effect heeft. Verder valt op dat twee GTX 580's slechts 10 procent sneller zijn dan twee GTX 480's. Ook is het verschil met de HD 5970 niet bijster groot als we bedenken dat de videokaarten dezelfde prijs hebben.

Bad Company 2 - 2560x1600 - max - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
GTX 580 X3
******
+
***
64,0 / 91,7
GTX 580 X2 (P)
*****
+
**
63,0 / 87,5
GTX 580 X2
*****
+
**
62,2 / 86,4
GTX 480 X2
*****
+
**
55,3 / 73,8
GTX 480
****
+
**
49,2 / 65,5
HD 5970
***
+
**
39,0 / 57,5
GTX 580
***
+
*
34,4 / 45,8
GTX 480
***
+
*
29,7 / 38,2
HD 5870
**
+
*
25,3 / 36,3

Ook op 2560x1600 pixels is een derde GTX 580 van weinig toegevoegde waarde. Een cpu-bottleneck kan het niet zijn, want dan hadden de framerates net zo hoog moeten zijn als op 1920x1200 beeldpunten. De schaling van een naar twee GTX 580's is wel erg goed te noemen.

CoD: Modern Warfare 2

Call of Duty: Modern Warfare 2 - 1920x1200 - Max - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
GTX 580 X2
******
+
**
133,0 / 173,0
GTX 580 X3
*****
+
**
108,0 / 150,0
GTX 480 X2
*****
+
**
111,7 / 148,7
HD 5970
****
+
**
94,3 / 128,9
GTX 580
***
+
**
72,3 / 114,5
HD 6850 X2
***
+
**
74,0 / 111,5
GTX 480
***
+
**
62,0 / 98,6
HD 5870
***
+
*
56,0 / 85,4

CoD: MW2 maakt voor de laatste keer zijn opwachting in een van onze videokaartreviews. Hopelijk is Black Ops wat veeleisender, want op 1920x1200 pixels is een set-up met meer dan één gpu overkill. Jammer genoeg zien we dat een derde GTX 580 opnieuw een averechts effect op de prestaties heeft.

Call of Duty: Modern Warfare 2 - 2560x1600 - Max - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
GTX 580 X2
*****
+
***
84,7 / 139,8
GTX 480 X2
****
+
**
75,3 / 115,5
HD 5970
****
+
**
68,0 / 100,8
GTX 580 X3
***
+
***
53,8 / 99,9
HD 6850 X2
***
+
**
53,0 / 85,4
GTX 580
***
+
**
48,9 / 75,8
GTX 480
**
+
*
41,7 / 65,3
HD 5870
**
+
**
34,8 / 62,5

Het begint ernaar uit te zien dat er voor Nvidia nog wat werk aan de winkel is om het gebruik van meer dan twee GTX 580's mogelijk te maken. Ten opzichte van twee GTX 480's zijn twee GTX 580's niet bizar veel sneller.

DiRT 2

DiRT 2 - 1920x1200 - DX11 - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
GTX 580 X2
******
+
**
118,3 / 144,0
GTX 580 X2 (P)
******
+
**
112,9 / 141,0
GTX 580 X3
******
+
**
105,4 / 131,8
GTX 480 X2
******
+
*
102,8 / 125,3
HD 5970
****
+
*
78,6 / 92,2
GTX 580
****
+
*
73,8 / 87,3
HD 6850 X2
****
+
*
72,4 / 82,4
GTX 480
***
+
*
56,5 / 71,0
HD 5870
***
+
*
53,1 / 64,8

Gezien de hoge fps die alle videokaarten behalen, vragen wij ons af waarom we eigenlijk de moeite hebben genomen om op 1920x1200 pixels te testen. Het vermoeden bestaat dat er een cpu-bottleneck optreedt, aangezien de schaling van de GTX 480 beter is dan die van de GTX 580. Drie GTX 580's leveren zelfs fps in ten opzichte van twee GTX 580's.

DiRT 2 - 2560x1600 - DX11 - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
GTX 580 X3
*******
+
**
104,6 / 125,6
GTX 580 X2
******
+
*
90,2 / 110,6
GTX 580 X2 (P)
*****
+
**
87,2 / 110,1
GTX 480 X2
****
+
**
71,2 / 92,7
HD 5970
****
+
*
59,0 / 67,3
GTX 580
***
+
*
49,4 / 61,9
HD 6850 X2
***
+
*
51,2 / 61,2
HD 5870
**
+
*
38,8 / 47,3
GTX 480
**
+
*
35,5 / 46,7

Deze resultaten lijken de cpu-bottleneck op 1920x1200 pixels te bevestigen. De drie GTX 580's blijven hetzelfde presteren, maar ook de schaling van een naar twee GTX 580's lijkt te zijn toegenomen.

Far Cry 2

Far Cry 2 - 1920x1200 - Ultra high - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
GTX 580 X2 (P)
*****
+
***
116,8 / 173,2
GTX 580 X2
*****
+
***
113,4 / 168,1
GTX 480 X2
*****
+
**
100,3 / 148,3
GTX 580 X3
****
+
**
97,8 / 147,3
HD 6850 X2
****
+
*
91,6 / 119,2
HD 5970
****
+
*
84,6 / 109,8
GTX 580
****
+
*
86,9 / 108,8
GTX 480
***
+
*
73,6 / 93,4
HD 5870
**
+
*
49,8 / 68,3

Far Cry 2 mag dan de ultieme Nvidia-benchmark zijn, een tri-sli-set-up van GTX 580's werkt hier evenmin naar behoren. Verder is het interessant om te zien dat Paradigits systeem iets beter presteert dan ons eigen testsysteem met twee GTX 580's. Gezien de vrij slechte schaling is een cpu-bottleneck hier niet ondenkbaar.

Far Cry 2 - 2560x1600 - Ultra high - 4xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
GTX 580 X3
*****
+
***
96,6 / 146,4
GTX 580 X2 (P)
******
+
**
110,4 / 140,4
GTX 580 X2
******
+
**
108,2 / 138,1
GTX 480 X2
*****
+
**
94,4 / 119,0
HD 6850 X2
***
+
*
65,0 / 85,7
HD 5970
***
+
*
61,6 / 81,4
GTX 480
***
+
*
49,0 / 63,8
HD 5870
**
+
*
33,7 / 47,9

Op 2560x1600 pixels scoren de drie GTX 580's beter, maar de lage minima doen nog steeds driverproblemen vermoeden. Ditmaal kan de Core i7 980X niet het verschil maken en aangezien de fps lager liggen dan op 1920x1200 pixels, is het zeker dat de cpu niet de beperkende factor is.

Stalker: Call of Pripyat

Stalker: CoP - 1920x1200 - DX11 - max - 0xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
GTX 580 X3
***
+
*****
65,6 / 148,7
GTX 580 X2
****
+
***
70,3 / 120,3
GTX 480 X2
***
+
***
55,4 / 105,7
GTX 580 X2 (P)
***
+
**
52,0 / 91,0
HD 5970
**
+
*
38,3 / 59,9
GTX 580
**
+
*
37,3 / 55,5
HD 6850 X2
*
+
*
29,3 / 47,4
GTX 480
**
+
*
32,1 / 46,8
HD 5870
*
+
*
26,9 / 37,7

Ook in Stalker verloopt de samenwerking van drie GTX 580's niet vlekkeloos. Ze weten wel een hoger gemiddelde te realiseren, maar de minima liggen juist lager dan bij twee GTX 580's. Waarom Paradigits systeem het laat afweten is onduidelijk, misschien hebben we de instellingen verhaspeld of gooit de lager geklokte cpu roet in het eten.

Stalker: CoP - 2560x1600 - DX11 - max - 0xaa/16xaf
GpuMinimum- » gemiddelde score (fps)
GTX 580 X3
****
+
****
60,6 / 112,5
GTX 580 X2
***
+
***
45,5 / 81,3
GTX 480 X2
***
+
**
40,7 / 69,3
GTX 580 X2 (P)
**
+
*
29,0 / 47,5
HD 5970
**
+
*
26,5 / 38,1
GTX 580
**
+
*
24,9 / 35,3
GTX 480
*
+
*
21,2 / 29,5
HD 6850 X2
*
+
*
18,3 / 28,3
HD 5870
*
+
19,1 / 23,9

Op 2560x1600 pixels laten de drie GTX 580's weer zien waartoe ze in staat zijn. De schaling van twee naar drie kaarten is echter niet denderend te noemen, vooral wat de minima betreft. Paradigits systeem laat het hier ook afweten, maar we hebben daar geen verklaring voor.

Energieverbruik

In de GTX 580-review zagen we dat de videokaart minder energie verbruikt dan de GTX 480, ondanks de hogere prestaties. Een noemenswaardige prestatie van Nvidia, maar de videokaart blijft een grootverbruiker. Nvidia voorzag de videokaart van twee chipjes die een te hoog verbruik, zoals in de programma's Furmark en OCCT, moeten tegengaan. Gelukkig zijn er work-arounds om de videokaarten toch tot een maximaal verbruik te dwingen.

Het systeem van Paradigit is uitgerust met een Cooler Master Silent Pro 1000M-voeding. Zoals zal blijken laat dat nog een ruime marge over om bijvoorbeeld de cpu over te klokken. Om drie dorstige GTX 580's van prik te voorzien, werd ons eigen testsysteem, normaliter uitgerust met een 850W-voeding, nu voorzien van een Enermax Pro 1050W-voeding.

Omtrent de voedingen willen we nog een kleine opmerking plaatsen. De Enermax Pro 1050W-voeding had geen enkele moeite met twee of drie GTX 580's. Zelfs bij een load van meer dan 1000W bleef de Enermax Pro geluidloos. De Silent Pro 1000M-voeding kreeg het echter al moeilijk bij een belasting van nog geen 700W. Dat kan echter ook komen doordat de voeding lucht aanzuigt vanuit de kast en niet vanaf de onderkant van de behuizing.

Vermogensopname systeem - idle
Watt (minder is beter)
GTX 480 X2
**********
223
GTX 580 X3
*********
209
GTX 580 X2 (P)
********
186
GTX 580 X2
********
170
HD 5970
******
136
GTX 480
******
131
HD 5870
******
125
GTX 580
*****
120

In de idle-stand wordt een pc met meer dan één Nvidia-videokaart een aardige energieslurper. Ten opzichte van een enkele GTX 580 verbruiken twee GTX 580's onevenredig veel energie. Wel ligt het verbruik lager dan bij twee GTX 480's. Dat het Paradigit-systeem meer verbruikt, is logisch, gezien de extra hardware en casefans.

Vermogensopname systeem - load
Watt (minder is beter)
GTX 580 X3
**********
1089
GTX 580 X2 (P)
********
820
GTX 580 X2
*******
778
GTX 480 X2
*******
766
GTX 480
****
427
GTX 580
****
422
HD 5970
****
412
HD 5870
***
334

Onder load doorbreken we in ons testlab voor het eerst de 1000W-barrière. Het verbruik had met drie GTX 580's nog hoger kunnen uitvallen, maar aangezien een van de drie gpu's in Furmark warmer werd dan 97°C, werd de kloksnelheid automatisch verlaagd. Ten opzichte van een enkele GTX 580 neemt het verbruik met ruim 300W toe, wat deels komt door de efficiëntie van de voeding.

Als laatste hebben we tijdens het benchmarken nog een blik geworpen op de energiemeter, om een indicatie te kunnen geven van het energieverbruik bij normaal gebruik.

Vermogensopname systeem - ingame
Watt (minder is beter)
GTX 580 X3
**********
910
GTX 480
*******
660
GTX 580 X2 (P)
*******
625
GTX 580 X2
*******
610

Tijdens het gamen komt het energieverbruik aardig in de buurt van het verbruik dat met behulp van Furmark wordt behaald. Dit zijn wel de hoogst waargenomen getallen, maar niet het piekverbruik. Tijdens een normale gamesessie zal het verbruik ook regelmatig 50W lager liggen.

Geluidsproductie

Naast het energieverbruik maten we ook de geluidsproductie. De geluidsproductie van het Paradigit-systeem werd ook op een afstand van 20cm gemeten, net zoals in onze kastreviews.

Geluidsproductie systeem - idle
Geluidsproductie (dBA)
GTX 580 X2 (P)
**********
45,5
GTX 480 X2
*********
41,7
GTX 480
*********
40,4
HD 5970
*********
40,3
GTX 580 X3
*********
39,8
GTX 580 X2
*********
39,7
GTX 580
*********
38,7
HD 5870
********
38,6

Als de videokaarten niets hoeven te doen, maakt het niet zoveel uit of er een, twee of zelfs drie videokaarten aanwezig zijn. Het Paradigit-systeem produceert uiteraard meer geluid vanwege de casefans.

Geluidsproductie systeem - load
Geluidsproductie (dBA)
GTX 480 X2
**********
64,5
GTX 480
**********
63,5
HD 5970
**********
62,4
GTX 580 X3
*********
59,2
GTX 580
*********
59,0
GTX 580 X2
*********
59,0
HD 5870
*********
56,3
GTX 580 X2 (P)
********
54,3

Ook onder load doet het er weinig toe of er een of meer videokaarten in het systeem zitten. Op zichzelf is dat niet zo vreemd, aangezien de voorste videokaart het geluid van de videokaarten achter zich grotendeels blokkeert.

Het systeem van Paradigit maakt het minste lawaai, maar dat komt doordat de videokaarten zich verder van de meetapparatuur bevinden. De geluidsproductie zou nog lager kunnen uitvallen als de fan van de voeding niet zo hard ging draaien.

Conclusie

Het systeem van Paradigit is erg snel, maar voor veel mensen zal het pure overkill zijn. Het systeem is alleen aan te raden als het wordt gecombineerd met een 30"-scherm, met een resolutie van 2560x1600 beeldpunten. Voor kleinere schermen, met een resolutie van 1920x1200 beeldpunten of lager, is een enkele GTX 580 al ruimschoots genoeg. Op het systeem valt verder weinig af te dingen. Als puristen zouden wij sommige dingen anders aanpakken, maar je koopt zonder meer een razendsnel systeem. In een reactie laat Paradigit weten dat het systeem 3500 euro gaat kosten en zal worden uitgerust met twee 80GB Sandforce-ssd's van Corsair en een usb 3.0-adapter om het alsnog van usb 3.0-poorten te voorzien.

In de verschillende benchmarks zagen we dat twee GTX 580's, gekoppeld met een Core i7 920 op 3,8GHz of een Core i7 980X, uitstekend presteren, waarbij de schaling van een naar twee videokaarten uitstekend is. De toevoeging van een derde GTX 580 bleek echter weinig op te leveren. Soms presteren drie kaarten slechter dan twee, terwijl de winst in andere gevallen niet bijzonder groot was. Het verbruik van drie videokaarten ligt verder absurd hoog, waarbij we ingame regelmatig waarden van 910W voorbij zagen komen.

De slotconclusie is dan ook simpel; als je het snelste van het snelste wilt, ga je voor twee GTX 580's. Dat is al ruimschoots voldoende power voor een 2560x1600-scherm en een derde GTX 580 voegt gewoon te weinig toe. De bespaarde 400 euro kun je beter investeren in een groter scherm, als je nog geen 30"-scherm hebt.

Reacties (75)

75
74
46
1
0
15
Wijzig sortering
HWI postste vrijdag al een test met 4-weg SLI op een vergelijkbaar systeem.

http://nl.hardware.info/r...--3-way--2-way-sli-review

Conclusies zijn dan ook vergelijkbaar.
Dat bewijst ook dat de i7 920 de bottleneck vormt in deze test..
Daar was ik bang voor..

wat ik nu eigenlijk wel wil weten is:
in hoeverre is de I7 920 de bottleneck, wat waren de prestaties geweest als ze ook een i7 980x hadden gebruikt.
als ze dat hadden gedaan hadden ze/wij het eventueel kunnen vergelijken met de test van HWI.
In het systeem van Paradigit, dat tussen de resultaten staat als GTX 580 X2 (P), zit wel een 980X. Het is dus in ieder geval te vergelijken bij 2-way SLI.

[Reactie gewijzigd door Revolvist op 24 juli 2024 14:23]

kan het aantal PCIe lanes ook geen bottlenek veroorzaken? of de North-/Southbridge?
Eigenaardig genoeg meet Hardware info dus hetzelfde stroomverbruik met 4 GPU's als Tweakers meet met 3 GPU's (wat realistischer lijkt), ergens moet er verkeerd gemeten zijn.
Geen fout, het verschil zit hem in de programma die ze gebruiken, Hardware.Info gebruikt Heaven 2.0 en Tweakers gebruikt Furmark.

Dat is het verschil, Furmark trekt nu eenmaal meer uit je Grafische kaart, meer dan
Heaven 2.0.

Maar geen enkel spel gebruikt net zo veel stroom als Furmark zelfs niet Crysis.
Their is always a bigger fish...

Toch ben ik zelf nogal sceptisch. Het lijkt me geen rendabele opstelling, en tweakers geeft dat zelf ook aan. Voor dat geld kun je beter een kleinere 2x sli nemen of gewoon vaker een reguliere kaart kopen.
In een reactie laat Paradigit weten dat het systeem 3500 euro gaat kosten en zal worden uitgerust met twee 80GB Sandforce-ssd's van Corsair en een usb 3.0-adapter om het alsnog van usb 3.0-poorten te voorzien.
dat is nou de service van paradigit, ze gaan meteen erop in en verbeteren hun systeem
Niet het feit dat ze er 1 videokaart uithalen en het systeem dan voor 3000 euro neerzetten. Elke consument die deze review daarover leest zal het daarover eens zijn.

En ik mis overigens een net tabelletje onder het hoofdstuk "Het systeem". Bij het eigen testsysteem is het wel vermeld.

Is het overigens niet mogelijk de RAM een beetje op te waarderen? Ik bedoel, Metro 2033 geeft al zelf aan dat ze het liefst 8GB zien op Ultra Specs.

[Reactie gewijzigd door Svardskampe op 24 juli 2024 14:23]

Niet helemaal juist. HWI is t.a.v. de 3e videokaart niet zo negatief als T.net. T.a.v van de 4e kaart concluderen ook zij dat het geen zin heeft. Zie hun conclusie:
Dat gezegd hebbende zijn onze ervaringen dit keer positief. "Normaal SLI", met twee kaarten dus, schaalt erg goed op de GeForce GTX 580: gemiddeld mag je rekenen op een prestatiewinst van 78,4 procent. Hierbij moeten we uiteraard wel aantekenen dat we in deze review hebben gewerkt met een supersnelle CPU en zeer hoge resoluties, zodat de processor geen of slechts een beperkte bottleneck vormde.

Toen we met GeForce GTX 480 3-way en 4-way SLI aan de slag gingen, bleek 3-way SLI in totaal gemiddeld 128,2 procentpunt betere prestaties te bieden en gaf een vierde kaart slechts vier punten extra. Nu, met verbeterde drivers, zwaardere DirectX 11 benchmarks en een hoger geklokte CPU, zijn die waardes een stuk beter. Drie kaarten scoort gemiddeld 141,8 procent beter dan één kaart. De vierde kaart geeft gemiddeld slechts 2,3 procent extra, met uitschieters net boven de 10 procent. Dat laatste is niet veel, maar net dat ene beetje om het felbegeerde benchmarkrecord te laten sneuvelen.
Het is mij niet helemaal duidelijk wat het verschil in in drivers tussen t.net en hardware.info.

[Reactie gewijzigd door dirkjesdirk op 24 juli 2024 14:23]

HWI heeft het over de GTX 480 wanneer er 3 of meer GPU's in het systeem worden geprikt, tweakers heeft het over GTX 580's..
Dat kan zijn, alleen snap ik niet waarom ze niet meteen een moederbord pakken met usb 3.0 onboard. Verder vind ik de keus voor de cpu niet bijster overtuigend, die 2 extra cores doen het bij gaming...wel, zie de lijstjes. Erg matig voor een 400 euro kostende "upgrade".

[Reactie gewijzigd door Madrox op 24 juli 2024 14:23]

Omdat dit MoBo de PCIe slots verder uit elkaar heeft staan voor de koeling.

Staat ook in het artikel.
Daar moeten ze tegenkunnen, anders zou 95% van de s1366 plankjes ongeschikt zijn voor SLI/CF. Gewoon een kwestie van goede koeling. Had liever gezien dat ze ipv van de twee extra cpu cores, wat meer geld in de koeling gestoken hadden. Word de keus voor een moederbord ook weer breder.
Hmmz, Guru3D had vrijdag ook al een 3-way SLI test klaar staan, idd ook vergelijkbare conclusie:

http://www.guru3d.com/art...gtx-580-3-way-sli-review/
Daar ben ik het niet helemaal mee eens. Guru3D heeft in enkele games vergelijkbare resultaten waarin een 3-SLI langzamer is dan 2-SLI, maar wijdt dat eigenlijk iedere keer aan CPU bottleneck.
Daarnaast zijn de resultaten van Guru3D veel overtuigender dan die van Tweakers. Guru haalt VEEL hogere framerates en in bijv. BC2 weet Guru3D in 3-SLI wel goed te schalen. (69,7 FPS bij Tweakers, 140! FPS bij Guru3D)
wat ik mij afvraag is de i7 920 @ 3.8 Ghz snel genoeg om geen bottleneck te vormen??
Intels X58-platform houdt naar verwachting nog geruime tijd de prestatiekroon in handen. Dit systeem zal bij het uitvoeren van de benchmarks dan ook niet snel een bottleneck zijn.
want in de test van HWI hebben ze een i7 980x @ 4.0ghz geklockt om de videokaarten van data te voorzien.
Voor onze test pakten wij de 6-core Intel Core i7 980X Gulftown processor, de we overklokten naar 4 GHz om de videokaarten goed te laten doorschalen.
als ik niet mag citeren van HWI, sorry daarvoor

[Reactie gewijzigd door rohaantje op 24 juli 2024 14:23]

Ja, is zeker een bottleneck. Ook bij Guru3D hebben ze een overgeclockte 965 @3.8 en die is in meer dan één benchmark de bottleneck.

Het probleem bij 3-SLI is ook dat het meer clock cycles vraagt van de CPU. Daardoor kan het voorkomen dat 3-SLI langzamer is dan 2-SLI. Aannemelijk is dat 4-SLI er nog meer last van heeft.
Ik snap niet verder waarom ze de mugen2 zo hebben geplaatst met de fan eronder,
nu pakt hij de warmte van de videokaart en blaast deze door de mugen.
Is toch ook mogelijk om hem kwart slag te draaien en hem dan van slipstreams te voorzien.
Vermoedelijk niet omdat dan de fan tegen het werkgeheugen zit, gezien op het werkgeheugen ook nog koelribben zitten. Wellicht dat het blok zelf wel gedraaid kan worden, maar dan zonder de fan.
Waar zijn 6870 in Crossfire en 5870 in Crossfire... Waarom is er niet de Hexacore van AMD gebruikt :S..
Dit vroeg ik mij nou ook al af! Ik vind deze vergelijking zo ook niet helemaal compleet. De 6870 heeft in crossfire ook best veel power als ik de test-case van TechPowerup mag geloven. Had ze graag eerlijk willen kunnen vergelijken. :)
Waar zijn 6870 in Crossfire en 5870 in Crossfire... Waarom is er niet de Hexacore van AMD gebruikt :S..
De Hexacore van AMD is trager dan de gebruikte i7 chips. Maar de resultaten van de 6870 en 5870 in crossfire hadden er best bij gekund.

Gelukkig kun je ze zelf ook opzoeken als tweakers die setups al eens getest heeft en zo niet weet je gelijk waarom ze er niet bij staan ;)
het zit hem niet in het aantal cores, het zit hem meer in de ruwe kloksnelheid van de CPU ,

De meeste games ondersteunen zelfs niet deftig 4 cores. Ook zijn sommige programmas/games sneller met HT af...

Doe de tests met 4.2-4.4 voor de 920 en het zal wat beter vooruitgaan.... Sorry maar met een AMD 1090T heb je niet genoeg poeier voor het rauwe werk voor Multi GPU setups...

Ander probleem met Multi GPU setups : drivers en PSU... en sommige spelletjes ( neem bijvoorbeeld Crysis zijn gewoon prut kwestie GPU scaling)
Je bedoelt het rauwe, 1680x1050, alles op low setting werk ?
Gooi de settings hoog, en de verschillen verdwijnen als sneeuw voor de zon (op een paar uitzonderlijke spellen daargelaten).
Toch denk ik dat de cpu de bottleneck is.
er is nog niet een spel wat gebruik maakt van 3 van deze brute kaarten op 2560x1900(of wat die resolutie ook is).
bij elke game kom je dan nog op 60 fps uit, en dat is netjes.

zou benchen op een pricewatch: EVGA Classified SR-2 niet veel beter zijn, is wel duur, maarja dan is de cpu zeker niet de bottleneck denk ik, qua hoeveelheid cores teminste.
en geheugen zal zeker ook wel niet.

edit:
mijn verhaal was niet af, <3 enter knop

[Reactie gewijzigd door alaintje op 24 juli 2024 14:23]

Het gaat wat de bottleneck betreft om de CPU mhz. 1 CPU op hoge clocks zal in 99% van de gevallen beter presteren dan 2 op een lagere snelheid. Tri & quad SLI met GTX480/580 is zoveel power dat het zal blijven schalen met iedere mhz winst die uit een hedendaagse chip valt te persen.

3800mhz is inderdaad te weinig om de derde kaart de kans te geven te laten zien wat er kan, zelfs voor 2x SLI is het aan de trage kant.

[Reactie gewijzigd door Viss op 24 juli 2024 14:23]

Nou dan doe der maar een thunderbird generatie in hè.
Vind het ook vreemd dat ze de 980X cpu die ze tot hun beschikking hebben niet ook overclocken tot ~4Ghz. Nu hebben ze een 920 @3.8Ghz en een 980X @3.33Ghz. Dan schiet je er weinig mee op natuurlijk, want dan heb je wel twee extra cores ter beschikking, maar die zijn wel weer lager geclockt.... Beetje jammer!

Bij de review van Guru3d wordt middels die grafieken heel mooi weer gegeven dat er bij bijv. Dirt en FC2 een flinke cpu-bottleneck aanwezig is met een i7 @3.8Ghz.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 14:23]

Een HD5970 blijft nog altijd de snelste videokaart, dus 2 x HD5970 is ook beter dan 2 x GTX580, maar ook nVidia werkt nu aan een nieuwe high-end dual-GPU kaart: nieuws: 'Nvidia werkt aan videokaart met twee GF110-gpu's'
Deze stelling ben ik het niet helemaal mee eens. Helaas is de kans groot dat 2 GTX580 kaarten sneller zullen zijn dan 2x een HD5970. 2x een HD5970 bevat in totaal 4 gpu's. De vraag is dan hoe goed de schaling per spel is als je zoveel Gpu's hebt.
Op de foto hieronder is te zien dat de fan van de voeding zich aan de bovenkant bevindt en dat is volgens ons de verkeerde manier om een voeding onderin te installeren.
Op zich leuke review, maar deze opmerking had met oplossing gekunt. Ondanks dat het wel onderbouwd is, waarom het een slecht idee is, wordt er geen oplossing geboden; een missertje dus. Ik heb zelf ook de HAF kast van Cooler Master en de voeding zit bij mij precies zo, een andere mogelijkheid zouden wij (= mijn broer, vader en ik) niet weten.

Jammer dat kritiek gelijk de grond in geboord moet worden hier...

[Reactie gewijzigd door CH4OS op 24 juli 2024 14:23]

Ik heb dezelfde kast en voeding en je kan hem gewoon met de fan naar beneden installeren, Duh.
Ik heb dezelfde kast en voeding en je kan hem gewoon met de fan naar beneden installeren, Duh.
Nee, dát is bevorderlijk voor de koeling van je voeding... ;)
Bij de Haf932 zitten er gaten in de onderkant op de plaats waar de voeding zit (klik). Dus: ja, dat is bevorderlijk voor de koeling van je voeding :P.

[Reactie gewijzigd door accountabc op 24 juli 2024 14:23]

Bij de Haf932 zitten er gaten in de onderkant op de plaats waar de voeding zit (klik). Dus: ja, dat is bevorderlijk voor de koeling van je voeding :P.
Toch denk ik niet, dat die gaten (had liever 1 groot gat gezien) optimaal zijn hiervoor. ;)
jawel... niet zeuren :P
Je bent tweaker, dus even de dremel ter hand nemen en je hebt een groot gat. Snap sowieso niet waarom er geen groot gat zit aangezien elke PSU een fanguard heeft.

Op dit item kan niet meer gereageerd worden.