Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties
Bron: X-bit labs

X-bit labs heeft voor een tweede keer gekeken hoeveel performancewinst gehaald kan worden uit een Quad SLI-opstelling en of de problemen die de site eerder met Quad SLI ondervond nu zijn opgelost. Die test maakte gebruik van twee GeForce 7900GX2-kaarten, elk met twee gpu's, die vanwege hun grootte niet zomaar in elk systeem geïnstalleerd kunnen worden. Daarnaast bleek een systeem met twee van deze kaarten niet erg stabiel te zijn, getuige de vele blauwe schermen waar X-bit labs mee te maken kreeg. Verder was de performance soms niet erg goed en was het beeld soms vervormd.

Ondertussen heeft nVidia niet stilgezeten en heeft het flink aan de drivers gesleuteld die nu een stuk stabieler moeten zijn, iets dat door X-bit labs in de test wordt bevestigd. Ook op het gebied van hardware heeft nVidia vorderingen gemaakt. Het resultaat is de GeForce 7950GX2. Deze kaart, die net als zijn voorganger - de 7900GX2 - twee gpu's aan boord heeft, is niet alleen een stuk compacter, maar verbruikt ook iets minder energie. Tijd dus om te kijken of Quad SLI nu wel zin heeft.

In de test werd de 7950GX2-tandem vergeleken met een enkele 7950GX2, een Radeon X1950XTX en een CrossFire-opstelling bestaande uit twee Radeon X1950XTX-kaarten. Ondanks het gebruik van vier gpu's bleek Quad SLI niet in staat om hogere framerates dan het dual-gpu CrossFire-systeem neer te zetten in twaalf van de twintig testen die X-bit labs draaide. Van de overige acht testen wist het Quad SLI-systeem er vijf te winnen, terwijl de framerates nagenoeg gelijk waren in de overige drie. Daarnaast bleek uit de test dat Quad SLI in slechts vier testen voor een noemenswaardige snelheidswinst zorgde: F.E.A.R., Prey, Titan Quest en 3DMark06. In vijf andere was er een kleine snelheidswinst, terwijl de prestaties in de overige elf benchmarks hetzelfde of zelfs iets slechter waren. De conclusie van X-bit labs is dan ook niet echt positief te noemen, want erg veel baat heeft de consument op dit moment nog niet van Quad SLI.

nVidia GeForce 7950GX2
Moderatie-faq Wijzig weergave

Reacties (39)

En dan gaan ze benchmarken met een FX60 2.6Ghz.
Ze moesten er al lang een X6800 inzitten hebben , dat systeem wordt ook veel te veel gebottleneck.. ik had hetzelfde met een AMD 64 3500+@2.6Ghz en een 7950GX2
heb een E6600 gekocht en zal in alles spellen tot wel een prestatiewinst van 150-200%. En in zwaarde spellen die GPU erg belasten zoals FEAR , Oblivion zal ik een winst van
15%
misschien omdat je van single core naar dual core gaat.
Nu de C2D uit is wil het niet zeggen dat de FX-60 langzaam is. Volgens jou redenatie was voor de C2D geen enkele processor snel genoeg om een 7950GX2 aan te sturen en werden we dus allemaal hard genaaid.

Er is geen enkel spel op de markt dat te sterk is voor een FX60.

En 150-200% dat is onmogelijk, tenzij je continu aan het multitasken bent tijdens het gamen?
Jawel Flightsimulator X :r
Dat is een budgetprocessor van 70 euro met een processor van 300+ euro vergelijken. Beetje krom :P

En dan nog geloof ik niet dat je 150-200% sneller bent dan met je 3500+. Dat is 2,5 tot 3x de snelheid van de situatie met je 3500+.... volgens mij heb je toen iets mis gedaan.
Jawel, maar X-limited bedoeld dat als je videokaarten gaat testen, dat je er dan zeker van moet zijn dat niet de CPU de bottleneck is, maar die videokaarten. :)
ja das wel leuk maar het gaat erom dat X-limited en te krappe fsb(amd x64 3500) vergelijkt met een snellere x6800 tov bijv. amd x2 5000+
@seinnevs

de Athlon 64's gebruiken hypertransport en geen fsb (en ja dat is wel een groot verschil)
;)
Nee daar gaat het dus niet om.
Op 1600x1200/4xAA en hoger is de CPU geen bottleneck meer, en zéker niet met recente spellen.
Toch vreemd dat de testresultaten af en toe bij hogere resoluties hogere scores opleveren.

xbitlabs, het zijn aardige jongens, maar precies staat niet in hun handboek.
Ik kan me vergissen, maar volgens mij is er geen SLi moederbord die een Intel Core Duo ondersteund.

Daarnaast zal met twee high-end kaarten in SLi op een Intel bord de FSB de bottleneck gaan worden.
Zijn er al sli mobo's waar de conroe op te prikken is dan?
Toch jammer om te zien dat de software dus nog wel degelijk ver achter ligt op de hardware in videokaarten.
het lijkt processorland wel met 64bit software.
Juist mooi om te zien dat software zo achter loopt op de hardware.
Anders had je nu 't nieuwste van 't nieuwste nodig om b.v. eeen beetje leuk te gamen en dat is gewoon te duur.
Dat is toch altijd zo?

De allernieuwste dikste en mooiste processoren, zijn meestal marginaal sneller dan de goedkopere versies.

Dit totdat de boel wordt geoptimaliseerd, en we weer verder kunnen.

En dan is er weer een nieuwe processor.

Mooie cirkel he :)
Is ook logisch. Hardware is misschien drie jaar in ontwikkeling, maar men kan pas met de software volop beginnen wanneer de kaart in de PC zit. Die optimaal krijgen duurt ook jaren, maar de kaart ligt ondertussen ook al in de winkels voor de consument...

Dus eigenlijk ligt het niet echt 'achter'; het is perfect op schema. Alleen kan dat schema moeilijk sneller. Ook vrees ik dat men niet zo veel prioriteit geeft aan die extreme-high-end. Terecht.

Laten we binnen een jaartje nog eens kijken waar het staat met de quads.
Ik vind die vinnen van de videokaarten altijd bijzonder klein het blok (meestal leeg) wat er omheen zit is nog bijna groter dan de vin zelf. ATI Radeon heeft iets grotere vinnen en snap dan ook niet waarom Nvidia dat ook niet kan ?

Ik heb bij de Nvidia nu altijd zoiets van zal ik er een Zallman bij plakken ???

Zowiezo zie ik steeds vaker gewoon 2PCI sloten maar ook videokaarten met 1PCI slot dan is het ook makkelijker om een SLI of iets dergelijks er in te proppen waarom niet altijd 1PCI want het kan dus wel !

En koelblokken bestaan ook nog steeds ! Lijkt me wel slimmer eigenlijk onderste kaart heeft een vin zoals die van de Radeon X1300 en die daar boven heeft een koelblok. De vin koelt de koelblok en andersom, of onstaat er dan teveel koeling ??? :P
Nee, dan ontstaat er overdracht van warmte doordat warme lucht tegen de koelvinnen wordt geblazen ipv dat daar koele lucht langs stroomt ;)
Vinnen? Hebben we het nou over vissen of grafische kaarten? Ik begrijp helemaal niets van je verhaal jc_hans. :?
Er zit wel wat in, een 3500 is niet heel verschillend in performance met de huidige spellen als de fx60. Alleen de cache remt een beetje meer af. Er wordt toch nauwlijks gebruik gemaakt van de "andere" core. Scheelt misschien 5/15%. Maar een fx60 is ook genoeg als je de resolutie en aa enz maar hoog genoeg zet (en wie zou dat nou niet doen :Z). En pcies het is hoog tijd voor 64bit :(
Prestatie is er, maar de stabileit en compabiliteit |:(
Sli en crossfire zuigt nog steeds en begin steeds meer te begrijpen dat het niet zo gek was dat het een tijdje weg is gweest.
Sli en crossfire zuigt nog steeds en begin steeds meer te begrijpen dat het niet zo gek was dat het een tijdje weg is gweest.
Hoezo?
Het werkt toch gewoon?

Alleen de drivers om 4 GPU's op 2 kaartjes aan te sturen werken nog niet lekker.
2 GPU's op 2 kaartjes werkt bij nVidia en bij ATi gewoon goed.
En dat niet alleen, je krijgt ook weer met het bandbreedte te maken. Aangezien je 4 GPU's op 2 x 16x PCI-E bussen hebt, heb je maar 8x per GPU. En dat kan ook wel eens een bottleneck vormen.
Nee, dat is het niet.

Crossfire op de Intel 965 chipset is met de 6.10 Catalyst drivers even snel als diezelfde crossfire op de Intel 975 borden, en dat terwijl één van de PCI-E sloten maar 4x is. De PCI-E techniek is momenteel zeker geen bottleneck voor alle videokaarten van vandaag de dag. :Y)
En pcies het is hoog tijd voor 64bit
waarom gaat 64 bit ons zo verschrikkelijk helpen dan?

ik hoor het overal, maar het laat alleen maar groter geheugen dan 4GB toe, waarom zouden de berekeningen er sneller door gaan..?!

/edit en dan heb ik t over EMT64 en AMD 64, het stelt maar weinig voor, écht 64 bits is het niet
Nou vraag ik me af wat er zou gebeuren als ati 2 gpu's op 1 kaart zou zetten en dus "quad crossfire" oid zou maken. Als je de resultaten nu al vergelijkt loopt ATI op elke gebied voor, met 2 GPU's een overall betere performance dan Nvidia met 4GPU's. Als ik de test mag geloven kun je atm beter een crossfire setup hebben dan een quad SLI setup.
ben dan wel heel erg benieuwd waar ati met z'n warmte heen moet als ze 2 gpu's op 1 kaart plaatsen. Ik heb zelf een x1950 xtx en die wil af en toe goed hard blazen en wordt ook behoorlijk heet, niet dat ie te heet wordt maar toch. Dat wil je echt niet verdubbelen want je krijgt de koeling nooit verdubbeld. Lijkt erop dat ati gewoon snellere gpu's op het moment en er daarom minder nodig hebben voor de zelfde performance
ATi heeft deze problemen ook al onderkent (nVidia waarschijnlijk ook wel :P) en daarom werken ze al hard aan een 80nm productieproces. Een goed voorbeeld van die nieuwe ontwikkeling is de X1950PRO, deze is gebaseerd op de RV570 grafische core en verbruikt onder full-load maar ongeveer 50 watts.

Dat is ongeveer 2/3 minder stroomverbruik dan de R600 chip. Dus wie weet komt er na de R600 een geoptimaliseerde X2900 of X2950 ofzo die gebruik maakt van een zuiniger productieproces. :)
Niet dat het héél erg relevant is verder, maar bij X-bit- labs heeft men sinds kort besloten om voor nVidia ( alsmede Ati ) hardware gebruik te maken van High Quality mode, en niet van de standaard Quality mode. In bepaalde games levert dit bij Nvidia een performanceverlies op van wel 20 tot 30 fps. Ik merk dit zelf met mijn GX2 bij het spel Titan Quest, wanneer ik dit speel in Quality mode ipv High Quality mode levert mij dit een aanzienlijke snelheidswinst op, terwijl ik verder bijzonder weinig verschil merk in IQ.
Is wel relevant maar ook goed denk ik. Je koopt zo'n dure kaart(en) om alles op max te zetten. Dus HQ aan. En dat een ati kaart dan minder snelheids verlies heeft is dus een voordeel van een ati kaart.

(Disclaimer dit is niet bedoeld als commentaar op Nvidea of fanboy gedrag richting ati.)
150% / 200% is zeker wel mogelijk als je een AMD 3500+ vervangt door een E6600

Lees de volgende test maar eens aandachtig door. Een oogopslag op de benchmarks moet overtuigend genoeg zijn.

http://www.hardware.info/...Duo__Core_2_Extreme_Test/
edit: mijn fout, nvrmnd mod maar weg
Heb het even niet gevolgd, maar wie is nu de snelste in GPU land ? ATI of NVIDIA ?
De nVidia, hoewel ze 2 cores ervoor nodig hebben vs 1 core van ATi.
Eigenlijk cheaten dus :+

Alleen de drivers voor de nVidia zijn nog dermate 'slecht' dat je op dit moment net zo goed een (goedkopere) ATi kunt kopen.


Edit: Idd martijnve, mijn fout :+
Nvidea heeft geen 2 cores op 1 kaart maar 2 kaarten in een slot. Daarbovenop blijkt uit de test dus dat de combinatie van 2x een x1950xtx het snelste was. Weet alleen niet helemaal hoe die x1950's het doen tegen 7900GTX'en.
Tenzij je met Linux bezig bent, dan zijn de drivers voor ATI weer minder dan die voor nVidia.
Op de stabiliteit na dus niets veranderd? De conclusie is in ieder geval bijna hetzelfde als bij het vorige onderzoek.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True