Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Marc Rademaker

Redacteur

GTX 580 in sli en tri-sli getest

Conclusie

Het systeem van Paradigit is erg snel, maar voor veel mensen zal het pure overkill zijn. Het systeem is alleen aan te raden als het wordt gecombineerd met een 30"-scherm, met een resolutie van 2560x1600 beeldpunten. Voor kleinere schermen, met een resolutie van 1920x1200 beeldpunten of lager, is een enkele GTX 580 al ruimschoots genoeg. Op het systeem valt verder weinig af te dingen. Als puristen zouden wij sommige dingen anders aanpakken, maar je koopt zonder meer een razendsnel systeem. In een reactie laat Paradigit weten dat het systeem 3500 euro gaat kosten en zal worden uitgerust met twee 80GB Sandforce-ssd's van Corsair en een usb 3.0-adapter om het alsnog van usb 3.0-poorten te voorzien.

In de verschillende benchmarks zagen we dat twee GTX 580's, gekoppeld met een Core i7 920 op 3,8GHz of een Core i7 980X, uitstekend presteren, waarbij de schaling van een naar twee videokaarten uitstekend is. De toevoeging van een derde GTX 580 bleek echter weinig op te leveren. Soms presteren drie kaarten slechter dan twee, terwijl de winst in andere gevallen niet bijzonder groot was. Het verbruik van drie videokaarten ligt verder absurd hoog, waarbij we ingame regelmatig waarden van 910W voorbij zagen komen.

De slotconclusie is dan ook simpel; als je het snelste van het snelste wilt, ga je voor twee GTX 580's. Dat is al ruimschoots voldoende power voor een 2560x1600-scherm en een derde GTX 580 voegt gewoon te weinig toe. De bespaarde 400 euro kun je beter investeren in een groter scherm, als je nog geen 30"-scherm hebt.

Reacties (75)

Wijzig sortering
HWI postste vrijdag al een test met 4-weg SLI op een vergelijkbaar systeem.

http://nl.hardware.info/r...--3-way--2-way-sli-review

Conclusies zijn dan ook vergelijkbaar.
Dat bewijst ook dat de i7 920 de bottleneck vormt in deze test..
Daar was ik bang voor..

wat ik nu eigenlijk wel wil weten is:
in hoeverre is de I7 920 de bottleneck, wat waren de prestaties geweest als ze ook een i7 980x hadden gebruikt.
als ze dat hadden gedaan hadden ze/wij het eventueel kunnen vergelijken met de test van HWI.
In het systeem van Paradigit, dat tussen de resultaten staat als GTX 580 X2 (P), zit wel een 980X. Het is dus in ieder geval te vergelijken bij 2-way SLI.

[Reactie gewijzigd door Revolvist op 22 november 2010 15:17]

kan het aantal PCIe lanes ook geen bottlenek veroorzaken? of de North-/Southbridge?
Eigenaardig genoeg meet Hardware info dus hetzelfde stroomverbruik met 4 GPU's als Tweakers meet met 3 GPU's (wat realistischer lijkt), ergens moet er verkeerd gemeten zijn.
Geen fout, het verschil zit hem in de programma die ze gebruiken, Hardware.Info gebruikt Heaven 2.0 en Tweakers gebruikt Furmark.

Dat is het verschil, Furmark trekt nu eenmaal meer uit je Grafische kaart, meer dan
Heaven 2.0.

Maar geen enkel spel gebruikt net zo veel stroom als Furmark zelfs niet Crysis.
Their is always a bigger fish...

Toch ben ik zelf nogal sceptisch. Het lijkt me geen rendabele opstelling, en tweakers geeft dat zelf ook aan. Voor dat geld kun je beter een kleinere 2x sli nemen of gewoon vaker een reguliere kaart kopen.
In een reactie laat Paradigit weten dat het systeem 3500 euro gaat kosten en zal worden uitgerust met twee 80GB Sandforce-ssd's van Corsair en een usb 3.0-adapter om het alsnog van usb 3.0-poorten te voorzien.
dat is nou de service van paradigit, ze gaan meteen erop in en verbeteren hun systeem
Niet het feit dat ze er 1 videokaart uithalen en het systeem dan voor 3000 euro neerzetten. Elke consument die deze review daarover leest zal het daarover eens zijn.

En ik mis overigens een net tabelletje onder het hoofdstuk "Het systeem". Bij het eigen testsysteem is het wel vermeld.

Is het overigens niet mogelijk de RAM een beetje op te waarderen? Ik bedoel, Metro 2033 geeft al zelf aan dat ze het liefst 8GB zien op Ultra Specs.

[Reactie gewijzigd door Svardskampe op 21 november 2010 09:33]

Niet helemaal juist. HWI is t.a.v. de 3e videokaart niet zo negatief als T.net. T.a.v van de 4e kaart concluderen ook zij dat het geen zin heeft. Zie hun conclusie:
Dat gezegd hebbende zijn onze ervaringen dit keer positief. "Normaal SLI", met twee kaarten dus, schaalt erg goed op de GeForce GTX 580: gemiddeld mag je rekenen op een prestatiewinst van 78,4 procent. Hierbij moeten we uiteraard wel aantekenen dat we in deze review hebben gewerkt met een supersnelle CPU en zeer hoge resoluties, zodat de processor geen of slechts een beperkte bottleneck vormde.

Toen we met GeForce GTX 480 3-way en 4-way SLI aan de slag gingen, bleek 3-way SLI in totaal gemiddeld 128,2 procentpunt betere prestaties te bieden en gaf een vierde kaart slechts vier punten extra. Nu, met verbeterde drivers, zwaardere DirectX 11 benchmarks en een hoger geklokte CPU, zijn die waardes een stuk beter. Drie kaarten scoort gemiddeld 141,8 procent beter dan ťťn kaart. De vierde kaart geeft gemiddeld slechts 2,3 procent extra, met uitschieters net boven de 10 procent. Dat laatste is niet veel, maar net dat ene beetje om het felbegeerde benchmarkrecord te laten sneuvelen.
Het is mij niet helemaal duidelijk wat het verschil in in drivers tussen t.net en hardware.info.

[Reactie gewijzigd door dirkjesdirk op 21 november 2010 10:53]

HWI heeft het over de GTX 480 wanneer er 3 of meer GPU's in het systeem worden geprikt, tweakers heeft het over GTX 580's..
Dat kan zijn, alleen snap ik niet waarom ze niet meteen een moederbord pakken met usb 3.0 onboard. Verder vind ik de keus voor de cpu niet bijster overtuigend, die 2 extra cores doen het bij gaming...wel, zie de lijstjes. Erg matig voor een 400 euro kostende "upgrade".

[Reactie gewijzigd door Madrox op 21 november 2010 10:02]

Omdat dit MoBo de PCIe slots verder uit elkaar heeft staan voor de koeling.

Staat ook in het artikel.
Daar moeten ze tegenkunnen, anders zou 95% van de s1366 plankjes ongeschikt zijn voor SLI/CF. Gewoon een kwestie van goede koeling. Had liever gezien dat ze ipv van de twee extra cpu cores, wat meer geld in de koeling gestoken hadden. Word de keus voor een moederbord ook weer breder.
Hmmz, Guru3D had vrijdag ook al een 3-way SLI test klaar staan, idd ook vergelijkbare conclusie:

http://www.guru3d.com/art...gtx-580-3-way-sli-review/
Daar ben ik het niet helemaal mee eens. Guru3D heeft in enkele games vergelijkbare resultaten waarin een 3-SLI langzamer is dan 2-SLI, maar wijdt dat eigenlijk iedere keer aan CPU bottleneck.
Daarnaast zijn de resultaten van Guru3D veel overtuigender dan die van Tweakers. Guru haalt VEEL hogere framerates en in bijv. BC2 weet Guru3D in 3-SLI wel goed te schalen. (69,7 FPS bij Tweakers, 140! FPS bij Guru3D)
wat ik mij afvraag is de i7 920 @ 3.8 Ghz snel genoeg om geen bottleneck te vormen??
Intels X58-platform houdt naar verwachting nog geruime tijd de prestatiekroon in handen. Dit systeem zal bij het uitvoeren van de benchmarks dan ook niet snel een bottleneck zijn.
want in de test van HWI hebben ze een i7 980x @ 4.0ghz geklockt om de videokaarten van data te voorzien.
Voor onze test pakten wij de 6-core Intel Core i7 980X Gulftown processor, de we overklokten naar 4 GHz om de videokaarten goed te laten doorschalen.
als ik niet mag citeren van HWI, sorry daarvoor

[Reactie gewijzigd door rohaantje op 21 november 2010 12:11]

Ja, is zeker een bottleneck. Ook bij Guru3D hebben ze een overgeclockte 965 @3.8 en die is in meer dan ťťn benchmark de bottleneck.

Het probleem bij 3-SLI is ook dat het meer clock cycles vraagt van de CPU. Daardoor kan het voorkomen dat 3-SLI langzamer is dan 2-SLI. Aannemelijk is dat 4-SLI er nog meer last van heeft.
Ik snap niet verder waarom ze de mugen2 zo hebben geplaatst met de fan eronder,
nu pakt hij de warmte van de videokaart en blaast deze door de mugen.
Is toch ook mogelijk om hem kwart slag te draaien en hem dan van slipstreams te voorzien.
Vermoedelijk niet omdat dan de fan tegen het werkgeheugen zit, gezien op het werkgeheugen ook nog koelribben zitten. Wellicht dat het blok zelf wel gedraaid kan worden, maar dan zonder de fan.
Waar zijn 6870 in Crossfire en 5870 in Crossfire... Waarom is er niet de Hexacore van AMD gebruikt :S..
Dit vroeg ik mij nou ook al af! Ik vind deze vergelijking zo ook niet helemaal compleet. De 6870 heeft in crossfire ook best veel power als ik de test-case van TechPowerup mag geloven. Had ze graag eerlijk willen kunnen vergelijken. :)
Waar zijn 6870 in Crossfire en 5870 in Crossfire... Waarom is er niet de Hexacore van AMD gebruikt :S..
De Hexacore van AMD is trager dan de gebruikte i7 chips. Maar de resultaten van de 6870 en 5870 in crossfire hadden er best bij gekund.

Gelukkig kun je ze zelf ook opzoeken als tweakers die setups al eens getest heeft en zo niet weet je gelijk waarom ze er niet bij staan ;)
het zit hem niet in het aantal cores, het zit hem meer in de ruwe kloksnelheid van de CPU ,

De meeste games ondersteunen zelfs niet deftig 4 cores. Ook zijn sommige programmas/games sneller met HT af...

Doe de tests met 4.2-4.4 voor de 920 en het zal wat beter vooruitgaan.... Sorry maar met een AMD 1090T heb je niet genoeg poeier voor het rauwe werk voor Multi GPU setups...

Ander probleem met Multi GPU setups : drivers en PSU... en sommige spelletjes ( neem bijvoorbeeld Crysis zijn gewoon prut kwestie GPU scaling)
Je bedoelt het rauwe, 1680x1050, alles op low setting werk ?
Gooi de settings hoog, en de verschillen verdwijnen als sneeuw voor de zon (op een paar uitzonderlijke spellen daargelaten).
Toch denk ik dat de cpu de bottleneck is.
er is nog niet een spel wat gebruik maakt van 3 van deze brute kaarten op 2560x1900(of wat die resolutie ook is).
bij elke game kom je dan nog op 60 fps uit, en dat is netjes.

zou benchen op een pricewatch: EVGA Classified SR-2 niet veel beter zijn, is wel duur, maarja dan is de cpu zeker niet de bottleneck denk ik, qua hoeveelheid cores teminste.
en geheugen zal zeker ook wel niet.

edit:
mijn verhaal was niet af, <3 enter knop

[Reactie gewijzigd door alaintje op 21 november 2010 17:39]

Het gaat wat de bottleneck betreft om de CPU mhz. 1 CPU op hoge clocks zal in 99% van de gevallen beter presteren dan 2 op een lagere snelheid. Tri & quad SLI met GTX480/580 is zoveel power dat het zal blijven schalen met iedere mhz winst die uit een hedendaagse chip valt te persen.

3800mhz is inderdaad te weinig om de derde kaart de kans te geven te laten zien wat er kan, zelfs voor 2x SLI is het aan de trage kant.

[Reactie gewijzigd door Viss op 21 november 2010 18:19]

Nou dan doe der maar een thunderbird generatie in hŤ.
Vind het ook vreemd dat ze de 980X cpu die ze tot hun beschikking hebben niet ook overclocken tot ~4Ghz. Nu hebben ze een 920 @3.8Ghz en een 980X @3.33Ghz. Dan schiet je er weinig mee op natuurlijk, want dan heb je wel twee extra cores ter beschikking, maar die zijn wel weer lager geclockt.... Beetje jammer!

Bij de review van Guru3d wordt middels die grafieken heel mooi weer gegeven dat er bij bijv. Dirt en FC2 een flinke cpu-bottleneck aanwezig is met een i7 @3.8Ghz.

[Reactie gewijzigd door MW1F op 23 november 2010 13:03]

Een HD5970 blijft nog altijd de snelste videokaart, dus 2 x HD5970 is ook beter dan 2 x GTX580, maar ook nVidia werkt nu aan een nieuwe high-end dual-GPU kaart: nieuws: 'Nvidia werkt aan videokaart met twee GF110-gpu's'
Deze stelling ben ik het niet helemaal mee eens. Helaas is de kans groot dat 2 GTX580 kaarten sneller zullen zijn dan 2x een HD5970. 2x een HD5970 bevat in totaal 4 gpu's. De vraag is dan hoe goed de schaling per spel is als je zoveel Gpu's hebt.
Op de foto hieronder is te zien dat de fan van de voeding zich aan de bovenkant bevindt en dat is volgens ons de verkeerde manier om een voeding onderin te installeren.
Op zich leuke review, maar deze opmerking had met oplossing gekunt. Ondanks dat het wel onderbouwd is, waarom het een slecht idee is, wordt er geen oplossing geboden; een missertje dus. Ik heb zelf ook de HAF kast van Cooler Master en de voeding zit bij mij precies zo, een andere mogelijkheid zouden wij (= mijn broer, vader en ik) niet weten.

Jammer dat kritiek gelijk de grond in geboord moet worden hier...

[Reactie gewijzigd door CH4OS op 21 november 2010 12:40]

Ik heb dezelfde kast en voeding en je kan hem gewoon met de fan naar beneden installeren, Duh.
Ik heb dezelfde kast en voeding en je kan hem gewoon met de fan naar beneden installeren, Duh.
Nee, dŠt is bevorderlijk voor de koeling van je voeding... ;)
Bij de Haf932 zitten er gaten in de onderkant op de plaats waar de voeding zit (klik). Dus: ja, dat is bevorderlijk voor de koeling van je voeding :P.

[Reactie gewijzigd door accountabc op 21 november 2010 13:28]

Bij de Haf932 zitten er gaten in de onderkant op de plaats waar de voeding zit (klik). Dus: ja, dat is bevorderlijk voor de koeling van je voeding :P.
Toch denk ik niet, dat die gaten (had liever 1 groot gat gezien) optimaal zijn hiervoor. ;)
jawel... niet zeuren :P
Je bent tweaker, dus even de dremel ter hand nemen en je hebt een groot gat. Snap sowieso niet waarom er geen groot gat zit aangezien elke PSU een fanguard heeft.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True