Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Hielko van der Hoorn

Sparkle GeForce 7950 GX2 videokaart getest

Conclusie

De benchmarks op de vorige pagina laten al zien dat de GeForce 7950 GX2 gemiddeld gezien aanzienlijk sneller is dan de overige kaarten. Hoe groot het verschil gemiddeld precies is kan afgelezen worden in onderstaande tabel. Hierin is het gemiddelde van alle resultaten opgenomen en genormaliseerd op een framerate van 30 frames per seconde. De GeForce 7950 GX2 scoort 201,1 VideoMarks wat betekent dat de kaart gemiddeld 60 frames per seconde produceert in de door ons geteste applicaties.

Tweakers die geen genoegen nemen met iets minder dan het allersnelste zitten goed bij de GeForce 7950 GX2. Goedkoop is de kaart echter niet, nVidia hanteert een adviesprijs van 599 euro. Hoewel dit een flink bedrag is het een redelijke prijs gezien de geleverde prestaties. De kaart is iets goedkoper dan twee GeForce 7900 GT-kaarten en ongeveer 33 procent duurder dan één GeForce 7900 GTX. Een topdeal is het niet, maar gezien de veelal exorbitante prijzen van ultra high-end hardware is het relatief goed.

Een vraag die we niet hebben kunnen beantwoorden in deze review is hoe de GeForce 7950 GX2 presteert wanneer we twee van deze kaarten in een SLI-opstelling zetten. De GeForce 7900 GX2 wist namelijk niet te overtuigen in een Quad SLI-opstelling vanwege wisselende prestaties, regelmatige crashes en artefacten in het beeld. De mensen met een dikgevulde portemonnee die overwegen twee GeForce 7950 GX2-kaarten aan te schaffen adviseren we daarom om nog even de spreekwoordelijke kat uit de boom kijken.

Dankwoord: Met dank aan dollarshop.nl voor het leveren van de GeForce 7950 GX2.

Inhoudsopgave

Reacties (82)

Wijzig sortering
ik had liever vergelijkingen gezien van 2 X 7900 gtx en 2 X 7900 gt tegen over de 7950Gx2
Is het niet nog mogelijk dit toe te voegen?
Lijkt me onhandig voor mensen die graag ocen. De kaarten lopen al trager door de kleinere coolers en even andere coolers monteren lijkt me ook vrij onmogelijk op de achterste kaart..

Oke hij is wel goedkoper dan het kopen van twee apparten 7900GTX kaarten, maar ik vraag me af hoe hij presteert tegen bv twee sparkle 7900GT met 512 mb geheugen. Lijkt mij dat die twee een stuk sneller gaan, (zeker met oc, die stock cooler van die sparkle versie is ook toppie btw) en nog goedkoper uitkomen ook...
stroomverbruik is dan wel een stuk meer
Verbaast me echt enorm dat het energieverbruik in verhouding tot een "normale" 7900GTX maar 30 Watt scheelt, zeker gezien het feit dat alle Ati fanboys bij voorbaad al riepen dan deze dik meer dan een x1900XTX zou gebruiken :+

Al met al een leuk(e) (setje) kaart(en) voor de gamer met tevéél geld, wie weet worden ze ooit nog betaalbaar :z
zeker gezien het feit dat alle Ati fanboys bij voorbaad al riepen dan deze dik meer dan een x1900XTX zou gebruiken
Volgens veel mensen trekken nVidia kaarten altijd meer stroom dan Ati kaarten.

Ook werd er een groot probleem van gemaakt toen nVidia met een dual-slot koeler kwam, toen Ati hetzelfde deed hoorde je niemand...
het ging over de geluidsproductie van die dual slot cooler, ik ben zelf nvidia trouw. Maar wat ze daar flikte bij de 5800ultra ging echt alle perken te buiten. Ik heb er voor een week 1 gehad maar het was echt niet te houden. Gelijk voor een 9700pro geruild.

Ati had ruwweg hetzelfde design maar was echt niet te horen.
In de grafieken heeft de Geforce 7950 GX2 512MB videogeheugen, hoort dat niet 1GB in totaal te zijn. :? Want op de site van dollarshop staat het zo vermeld. :z
Ja, er zit inderdaad 1GB geheugen op; maar eigenlijk is het effectief gewoon 512MB. Het zijn namelijk eigenlijk gewoon twee kaarten met elk 512MB. Het is maar een hoe je er tegen aan kijkt.
nou ik neem aan dat we ertegenaan kijken als complete kaart en niet als gpu... dus dan zou het effectief 1 kaart zijn met 1 gig aan geheugen (en 2 gpu's)...
Effectief blijft het 512MB aangezien beide kaarten in SLI dezelfde textures in hun eigen geheugen hebben zitten.
Krijg je niet een ongelofelijk groot performance verlies met deze kaart t.o.v. 2 7900GTXen omdat dit alles door 1 PCI-E x16 bus moet? Normaal als je het geld hebt om 2 7900GTXen te kopen, koop je er ook wel bijv een Asus A8N32-SLI Deluxe bij...

Verder, mooie review. Alleen nog jammer dat jullie er ook niet ff 3DMark 05 en 3D Mark 06 tegenaan hebben gegooid. Er zijn op het internet vast wel benchmarks met vergelijkbare systemen te vinden met 2 7900GTXen en 2 7900GTs
Normaal gezien is dit geen probleem: zowel ATI's Crossfire als Nvidia's SLI maken gebruik van broadcast writes op PCIe om commando's naar de 2 kaarten tegelijkertijd te sturen. In de richting van CPU naar de GPU is er dus geen probleem.

Voor de rest is er normaal gezien weinig communicatie tussen de 2 kaarten: de video output wordt via een aparte connectie van de slave naar de master gestuurd. Maar zelfs als er al communicatie is, dan hebben ze die 16-bit PCI geheel voor zichzelf.

Als je kijkt naar de resultaten van vb. de nForce 590 borden, dan zie je dat een toename van de PCIe clock zo goed als geen verschil geeft in performantie.
Ben benieuwd of hier ook een watercooled versie van komt.. dan zou hij waarschijnlijk wel op GTX snelheden kunnen lopen en dus nog sneller zijn }>
en de xbox360 is niet sneller dan een huidige high-end PC.
ze gebruiken ook heel wat truukjes op de xbox360 met elder scrolls om het te laten lijken dat het 60fps is.

omdat je de controller niet zo snel kan bewegen op de xbox360 vs PC kun je daar all een illusie creeren dat de hele scene gerenderd is terwijl maar 25% werkelijk op beeld staat.
25% van het beeld renderen is dus bullshit.
Je kan:

A Met de framerate knoeien
B interleaven en daardoor 50% renderen, mits gebruik makend van een scanline- renderer.

Vergeet niet dat resoluties op consoles lager zijn, en dat dit minder opvalt door het nog steeds erg lage oplossend vermogen van een TV plus de aanwezige scanlines.
Dit geeft ook de nodige performance boost, de te renderen resolutie is per definitie kleiner dan bij een PC game. Een game console is in hoge mate dedicated en kan in die zin niet 1:1 vergeleken worden met PC specs en hardware.

kortom: consoles met PC's vergelijken is vaak appels met peren.
@lenny_z:
Je vergeet dat de xbox360 HD-resoluties aan kan, en tevens digitale output heeft. Het resolutie'probleem' is er dus niet meer, hoe het met scanlines zit weet ik niet (misschien ook niet meer door digitale output?).
nou ik speel alles op 1280x1024 op mijn 17 inch lcd scherm, dat wil ik als output nog wel uit een xbox360 zien komen ;)
je weet zeker niet dat de xbox zijn games tot 1080i kan afspelen en elke game kan mimaal 720p.
met de Xbox VGA kabel kan ik allerlei resoluties kiezen en ook 1280x1024.
@ Splorky:

wat jij denkt lijkt me wel cool ja behalve 1 ding: de gpu's aan de buitenkant (dus bovenste aan bovenkant van kaart en onderste aan onderkant), op die manier kan je er fatsoenlijke coolers opzetten, en de 2 pcb's kunnen veel dichter bij elkaar. (en ja een gpu op andere kant van kaart kan, asus heeft er aan paar van, beats me waarom het niet vaker word gebruikt,.want koeling is dan veel efficienter sinds warme lucht stijgt)

btw met waterkoeling zouden ze wel allebij aan de binnenkant kunnen, en dan zo vlak bijelkaar zodat ze tesamen 1 waterblok gebruiken :Y)
Het energiegebuik van deze kaart valt mee doordat bijde core's op slecht 500Mhz lopen waardoor de spanning omlaag kan.
Wel is het jammer dat, hoe snel deze kaart ook mag zijn, geen HDR +AA ondersteund. Nu blijkt namelijk dat een X1900 slechts paar procent langzamer wordt met deze functie aangeschakeld, bruikbaar dus.. (in Oblivion) Gezien de snelheid van deze kaart lijkt me dit geen overbodige luxe maar een tekortkoming voor toekomstige games. Misschien was dit in de conclusie wel het vermelden waard....

@stefan_D

HDR in Oblivion is harwarematig FP16 (SM3.0) en is niet te vergelijken met de HDR in Half life 2 (SM2.0) die op alle kaarten vanaf de radeon 9500 werkt.
De HDR in Oblivion kan alleen met X1k serie van ATI samen met AA werken, nVidia ondersteund dit niet. Dit heeft dus niks met brakke implentatie aan de kant van Oblivion te maken.
Overingen implenteren de meeste gamedev's de hardwarematige HDR,(Farcry, SS2) omdat deze over het algemeen beter/mooier is in vergelijking met de softwarematige in half-life 2.
Dat komt door Oblivion's brakke implementatie van HDR.. Mijn 7900 GT draait fijn HDR + AA in HL2: Episode One en Counter-Strike Source :Z
Dat komt omdat het SM2.0 HDR is ofzoiets in Half life 2
en geen SM3.0 fzo :P had ik ergens gelezen.
jammer dat die kaart niet 'mooier' gemaakt wordt, hij heeft 2 printplaten, dus waarom niet alle componenten in het middenstuk, en een berg ijzer om het pakketje heen.

wel jammer van de prijs, maar aan de andere kant, hij heeft wel lekker veel kracht
Hoe bedoel je "wel jammer van de prijs"?

Sparkle GeForce 7900 GT 256MB DDR3 (PCI-e, 2xDVI) SP-PX79GDH € 265,- x2= €530,-

Sparkle GeForce 7900 GTX 512MB DDR3 (PCI-e, 2xDVI,ViVo) SP-PX79XDH € 455,- x2= €910,-

Sparkle Geforce 7950 GX2 1GB DDR3 (PCI-e - 2xDVI) SP-PX7950GX2/1GB € 569,-

Als de prijs van de 7950 GX2 nog iets lager word (en hij staat pas bij 1 shop in de prijslijst, dus dat word ie zeker wel) dan is ie even duur als 2 7900 GTs. Ik vraag me af welke beter presteerd!

Verder, mooier gemaakt op jouw manier lijkt me niet echt handig. Er zijn hier al stabiliteitsproblemen waardoor ze em moeten terugclocken, laat staan dat ze die 2 core's vlak bij elkaar gaan doen! :P
Twee 7900GT + betere koellers kost dus nog steeds minder als een 7950GX2. Als je een beetje rondkijk in het GF7 oc forum zie je mensen langs komen die hun 7900GT net zo snel geklockt krijgen als een GTX (stabiel).
Maar of dat gegarandeert wordt, nee. Niet echt. Sterker nog, fabrikanten raden het vaak af.

Ik hoop dat er dus ook andere fabrikanten gaan komen die dit product gaan maken, en die het dan wél goed doen met de koelers, en de kaarten gewoon op de normale snelheid van de cores laten lopen.
Het is gewoon ronduit zonde om zómaar 'even' 100Mhz terug te klokken.

Had ook eigenlijk wel verwacht met deze review, dat jullie hem op standaard snelheid lieten lopen, maar helaas.
Volgende keer misschien?

Op dit item kan niet meer gereageerd worden.


Microsoft Xbox Series X LG CX Google Pixel 5 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True