Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 82 reacties

De Geforce 9800GX2 in sli-opstelling heeft zijn meerdere moeten erkennen in een tri-sli-configuratie van de Geforce 9800GTX. Alleen in enkele grafisch veeleisende games weet de GX2 betere prestaties te leveren dan de GTX.

Tweaktown heeft drie Nvidia Geforce 9800GTX-videokaarten ontvangen en benchmarks van de kaart in single-, sli- en tri-sli-opstelling gepubliceerd. De benchmarks van de 9800GTX werden vergeleken met die van een Geforce 9800GX2, die in single- en sli-opstelling werd gezet.

Als eerste werd de Geforce 9800GTX in 3dMark06 getest. Daar haalde een enkele kaart bij een resolutie van 1920 bij 1200 pixels een score van 12.075 punten. In sli behaalde de videokaart een score van 19.542 punten, terwijl in tri-sli-opstelling 20.765 punten werd neergezet. Een enkele Geforce 9800GX2 zette bij dezelfde resolutie een score van 18.507 punten neer en twee kaarten in sli behaalden 20.796 punten.

In Crysis op high-instellingen wist de GX2-kaart in sli beter te presteren dan de GTX in sli: de 9800GTX wist 50fps te renderen, terwijl de 9800GX2 46fps behaalde. In tri-sli renderde de GTX 48fps. Met de instellingen van Crysis op 'very high', werden de rollen omgedraaid. De GX2 behaalde op deze instellingen 30fps, terwijl de GTX 27fps neerzette. Ook bij Unreal Tournament 3 versloeg de 9800GTX in tri-sli-opstelling de 9800GX2 in sli.

Zowel de Geforce 9800GTX als de Geforce 9800GX2 werden in een systeem geplaatst die uitgerust was met een 4,4GHz Intel Core 2 Quad QX9650, een Evga-moederbord met de 780i SLI-chipset, 4GB PC6400 ddr2-werkgeheugen, een Western Digital 150GB sata-schijf die op 10.000rpm roteerde en een Zalman 1000W-psu. Als driver voor de 9800GTX werd Forceware 174.40 gebruikt, terwijl de 9800GX2 voorzien werd van Forceware 174.53. De benchmarks werden in een resolutie van 1600 bij 1200 pixels, 1920 bij 1200 pixels en een enkele keer in 1280 bij 1024 pixels uitgevoerd. Morgen wordt de officiële introductie van de 9800GTX verwacht.

Tweaktown benchmarkresultaten 9800GTX en 9800GX2 in 3dMark06
Moderatie-faq Wijzig weergave

Reacties (82)

PC gaming gaat langzaam failliet met de totale waanzin van tri en zelfs quad SLI opstellingen.

En dan nog kun je crysis met de hoogste instellingen met net 30 fps draaien.

Als technisch meesterstuk natuurlijk interessant, maar wie kan dit nog betalen?

Je komt toch al gauw op 3000 euro voor een compleet systeem, als de rest ook op niveau moet zijn.

De consoles bieden meer voor veel minder.
overdrijven is ook een vak..

tuurlijk dit zijn erg duure beestjes, maar er zijn ook veel goedkopere videokaarten die het meeste wel goed kunnen draaien.

Mensen blijven altijd maar schreeuwen over Crysis, maar crysis is niet het enige pc games, er zijn er genoeg die wel vlot draaien en grafisch weinig onderdoen

wat _Scenix zegt klopt imo dan ook wel, voor 650 heb je een leuke pc die alles wel kan draaien, wel zonder monitor maar een console heb je ook nix aan zonder hdtv
Ja idd, maar het is niet de schuld van de videokaarten waardoor de fps zo laag blijft)bij crysis) Crytek moet ervoor zorgen dat videokaarten hun krachten goed benutten en volgens mij is dat nog niet gelukt, en er is altijd nog ontwikkeling in drivers, je weet maar nooit, mischien speelt die crysis over een paar maanden met 70-120 fps op very high i.p.v 50 fps. Maar onder de crysis liefhebbers heeft Cevat Yerli nog gezegt, dat je echte kracht van de Cry Engine 2 pas over 2-3 jaar kan zien. dus het is te begrijpen waarom de fps laag is.

Maar mensen kom op zoals Sinester zegt, Crysis in niet het enige pc game, ik denk dat dit gewoon een smoes is van mensen die op consoles spelen
Ik vind het wel meevallen. Herinner je de PS2 die uitkwam voor 1150 gulden? De PS3 was nu al 600 euro toen ie net uitkwam.

En zoals Scenix al zegt, heb je voor 650 euro al een leuk systeempje. Voor 900 euro kun je zo'n beetje alles al op 1920x1200 draaien (behalve Crysis) en dat is al hoger dan HD.

Feit is gewoon dat dit soort kaartjes in SLI gewoon voor de enthousiast is. De prijzen voor de echte vlaggenship-kaarten van nVidia en ATi worden gestaag duurder, echter hebben we op mid-end (en mid-high) niks meer te klagen met de G92 en de HD3xxx serie. Niemand verplicht je om de duurste producten te kopen.
Ik kan crisis op mijn systeem spelen die ik voor 650 euries heb aangeschaft... Mijn PC kan 3 keer zoveel als 1 console ;) dus ik weet niet waar jij je spullen koopt...

maar goed, ben het er wel mee eens dat het (als je op high wil kunnen spelen) je dan wel veel centjes kwijt bent... Wat eigenlijk nonsens is.
De console's bieden eerder (veel) minder dan een systeem van ¤3000. Koop eens zo'n pc en je smijt de console in de vuilnisbak moesten er niet zoveel leuke exclusives opkomen.
Tja, dat is wel een probleem dat er niet zoveel leuke exclusives voor de pc opkomen...
:X
Geef mij maar een console. Voor de rest (e-mail, internet, tekstverwerking) kom ik nog altijd met een 5 jaar oude pc prima uit de voeten.
Dit is ook geen echte opvolger van de 8xxx reeks, probeer het eens zo te zien, als jij CEO bent zou je ook de opdracht geven om de bestaande middelen op te leuken om met zo'n laag mogelijke investering een zo hoog mogelijk rendement te behalen.

Auto fabrikanten hebben er ook een handje van, deden het al eerder.
Bestaande bodemplaat en kont herbruiken, simpelweg neus beetje aanpassen en nog erger: zelfde motorblok met een opgeleukte ECU.

Ontopic: ik zelf ga een 9800GTX kopen omdat ik een compleet nieuw systeem aan het bouwen ben en hiermee veel bang for my buck krijg.

Op verscheidene fora's is hij erg hoog te clocken en in combi. met een thermalright HR-03 GT zonder fan naar 700+ te tillen.
Uit officiele berichten van NVIDIA, en uit geruchten op het internet kunnen we eerder opmaken van NVIDIA eind van 2007 van plan was een nieuwe generatie high-end kaarten op de markt te brengen. Een van de topmannen heeft zelfs gezegd dat ze meer dan een TFlop zouden gaan halen, maar om onbekende redenen is deze kaart nog steeds niet op de markt gekomen.

Ik krijg zelf steeds meer het idee dat NVIDIA veel problemen heeft ondervonden bij de ontwikkeling van deze nieuwe architectuur. G92 is dan een tijdelijk doekje tegen het bloeden, en omdat AMD toch geen concurrentie biedt heeft NVIDIA nu de tijd om de nieuwe architectuur wel af te maken.
Ik geloof om de een of andere reden, dat ATi/AMD de oorzaak is dat nVidia nu met niets nieuws op de markt komt. Ik kan me namelijk niet voorstellen dat nVidia problemen met de ontwikkeling heeft terwijl ik dit bij ATi juist zou verwachten gezien hun 'nieuwe omstandigheden'. Het lijkt van belang dat beide fabrikanten producten op de markt brengen die met elkaar kunnen concurreren. Op het moment dat dit niet het geval meer is gaat een partij wachten wat de ander doet. Dit omdat zei (nvidia in dit geval) gedurende die rustige periode gewoon bij hun huidige aanbod kunnen blijven, het verkoopt immers toch wel. Ze moeten eventueel wat nieuws op de markt brengen om de concurrent de loef af te steken, in de vorm van een GX2 perhaps. Hebben ze dubbel profijt van de situatie. Ondertussen hebben ze ook nog eens alle tijd ook om hun volgende generatie te optimaliseren. Elk voorbereidend werk is mooi meegenomen en reken maar dat het ontwerp al lang klaar ligt. Haast hebben ze er echt niet mee, ze hebben pas haast als de concurrent iets beters heeft en zei het nog niet klaar hebben.

Gegronde redenen voor mijn mening heb ik echter niet, ik voel het enkel zo. Kan het totaal mis hebben, maar ben wel benieuwd of we ooit te weten komen waarom nVidia nu nog met niets 'nieuws' komt. Gezien de huidige situatie lijkt het ook niet zo nodig, maar het is wel hoog tijd als je voorgaande releases ziet. Mocht ik het bij het juiste eind hebben, dan lijkt het me ook vreemd om te zien dat nVidia met een nieuwe generatie op de markt komt die mogelijkerwijs (kijkend naar verschil 7800GT -> 8800GT) zo'n 3 tot 6 keer sneller is als de huidige G92-450 als single-GPU zijnde. In zware high-tech spellen als Crysis kan dat al snel die factor 6 sneller zijn omdat op dat grafische niveau ook de meeste optimalisaties plaats hebben gevonden. Dat zal zeer waarschijnlijk resulteren in een onverslaanbaar hogere framerate. Dit zal in 1 klap alle huidige 'just-released' Dual-GPU, Quad- en Tri-SLI producten weer totaal onzinnig doen lijken. En die producten hebben ze juist op de markt gebracht omdat ATi met hun 3870 en 3870X2 toch weer redelijke kaarten in handen hadden. Maar die zijn eigenlijk niets meer dan de al oude HD2900XT die waarschijnlijk een fortuin aan ontwikkeling gekost heeft (512bit, 1024bit ringbus) en ook niet veel goed voor ATi heeft betekend. Pas nu met de re-release van de HD2900XT die minder zit te zweten (HD3870) lijken ze toch nog redelijk mee te komen, maar ze hebben eigenlijk totaal NIETS gepresteerd de afgelopen tijd, persoonlijk vind ik de HD3870 een crippled HD2900XT en geen verbetering. Tenslotte maken ze er nog een dual-GPU versie van en dat was het dan. Eigenlijk niet veel anders dan wat nVidia OOK gedaan heeft met de G92 chip, alleen hebben zei het veel beter en breder aangepakt waardoor ik juist ATi verdenk van problemen, en dat er eventueel afspraken zijn gemaakt tussen de twee om de huidige generatie eerst door een procede shrink te laten gaan zodat er meer tijd is voor ontwikkeling van de volgende GPU.

De vraag is dus eigenlijk niet waar blijft nVidia nou met hun nieuwe shit, maar waar blijft ATi met hun nieuwe GPU zodat nVidia eindelijk hun nieuwe producten kan tonen! ;) Maar ik geloof niet anders dan dat er afspraken worden gemaakt tussen de twee. Het zou anders ook te typisch voor woorden zijn dat vrij gelijk presterende producten altijd vrijwel rond dezelfde tijd ten tonele verschijnen, dat is geen toeval oid. nVidia lijkt nu als een dolle tekeer tegaan niet meer wetende wat ze aan gekkigheid op de markt moeten brengen. Vrijwel allemaal soortgelijk presterende producten waarvan je in de realiteit het verschil niet eens zult waarnemen. Alsof ze tegen een onzichtbare grens aan zitten te hikken, namelijk hun eigen G92 core waar ze het momenteel maar even mee moeten doen. En dat resulteert in zwaar lompe kaarten met totaal geen nuttige waarde. Maar ze laten op deze manier mij wel zien dat ze heer en meester zijn van de videokaarten. Zowel in de zin van, "Wij hebben geld teveel, check ons eens overdreven videokaarten maken. We moeten toch iets doen in de tussentijd nietwaar?"

[Reactie gewijzigd door BruT@LysT op 31 maart 2008 22:11]

Heb je hier een link van? Ik ben benieuwd tot hoever ik deze kaart zou kunnen gaan overclocken. Als ie echt hoog gaat wordt het toch wel een interessante kaart, zeker als ie ook in 1GB versie komt.

Nu nog wachten op de prijzen in Pricewatch...ik heb em al voor 289 bij Salland gezien.

Overigens ben ik het eens met de wijze waarop de benchmarks tegenwoordig gemaakt worden. Ze testen nu alleen de 9800GTX en de 9800GX2. Wat mij betreft is die laatste helemaal geen aantrekkelijke kaart. Ik wil nu juist benchmarks van de 9800GTX samen met de wat tragere modellen, dus de 8800GTS512 en de 8800GT.
Niet om nu flauw te doen.
Maar is dit niet een beetje logisch ? :)
Of iig te verwachten ?
Nee, een Geforce 9800GX2 SLI setup heeft 4 GPU's, terwijl een 9800GTX Tri-sli setup er drie heeft.
Op het gebied van pure rekenkracht zou de eerste dus sneller moeten zijn maar blijkbaar wegen de hogere kloksnelheden van de GTX zwaarder dan het toevoegen van een 4e GPU. Dit komt natuurlijk ook doordat het perfect laten schalen op dit niveau gewoon heel lastig is. (tenzij je CoD4 heet :Y) )
Het is wel te verwachten, ook op het gebied van pure rekenkracht. De GTX heeft een veel hogere klok op de GPU en het geheugen.
uhm,. een lager geklokte gpu rekent minder snel dan een hoger geklokte dus 4x laag is minder snel dan 3x hoger geklokt.

jammer dat deze test geen sli met gts laat zien of gt. dat zou pas echt interesant zijn,.

nu is het wat kies je,. 1000 euro setup (onbetaalbaar) of 3x sli naar verwachting 900/1000 euro (nog steeds onbetaalbaar).

2x 200 euro gt lijkt mij dan veel interesanter zeker met 1gb GT kaarten.
Waarom is het logisch dat 3xSLI wint van 4xSLI?
Dat het logisch is komt door de volgende redenen:

- Omdat het 3 x 9800GTX (normaal geklokt) tegen 4 x 8800GT (9800GX2 = 2 x 8800GT in principe) lager geklokt) is.
- Omdat SLI slecht schaalt met 3 GPU's, maar al helemaal met 4 ...
- Omdat je op begeven moment enorm tegen de limits van andere onderdelen aan gaat lopen.

Wat mij vooral enorm opvalt is dat je dus ECHT genoeg hebt aan een dual-gpu opstelling in welke vorm dan ook. Zij het een twee keer 9800GTX, HD3870X2 of 9800GX2 is .... allemaal harstikke snel :D ! Tuurlijk is er baas boven baas (HD3870X2 < 9800GX2 < 9800GTX SLI), maar welke zelfrespecterende gamer legt nu 1000 euro voor 3 high-end GPU's neer ... voor 400 euro heb je dezelfde performance -10% en kan je extra geheugen, nieuwe proc en 10 games kopen _/-\o_

[Reactie gewijzigd door Cassius op 31 maart 2008 16:58]

wat heeft een 8800gt hier nu mee te maken?
ze beschikken allebei over een G92 core
De 8800GT beschikt tegenwoordig ook over een G92 core.

In feite is de 9800GX2 een sli van 8800GT op één kaart. De kloksnelheden zijn iets aangepast: core klok van de 9800GX2 is iets lager dan de 8800GT terwijl de memory klok weer iets hoger is dacht ik.

Dat de 9800GTX in tri-sli beter presteert dan een iets verbouwde 8800GT in quad-sli verbaast mij weinig. Een GTX is om te beginnen al sneller dan een GT.

[Reactie gewijzigd door negerzoen op 31 maart 2008 14:36]

MacPoedel, negerzoen, de 8800GT heeft dan wel een G92 core, dat is niet dezelfde als de 9800GX2. Die bevat namelijk 2 G92-450 cores, met 128 stream processors, terwijl de 8800GT de G92-200 core bevat, met 112 stream processors.
Precies, dus een 9800GX2 is dan ook meer 2 8800GTS512s op mekaar geplakt met een iets lagere kloksnelheid, en niet 2 8800GTs.
Overigens zijn 2 9600GTs al meer dan zat voor de meeste mensen (sneller dan 1 3870x2 en komt erg dicht bij een 9800GX2), en je hebt daar al 2 OC versies van voor minder dan een 3800x2, laat staan een 9800GX2 of een stel 9800GTXen 8)7

[Reactie gewijzigd door Finraziel op 31 maart 2008 17:08]

Een 8800GT heeft ALTIJD een G92 core gehad, het zijn de 8800GTS die nu met een G92 komen, waar er dus naamverwarring is.
In feite is de 9800GX2 een sli van 8800GT op één kaart.
Niet correct. Een 8800GT heeft 16 stream processors minder dan 1 core op een GX2.
Een 8800GT beschikt ook over een G92 core. De cores van de 9800GX2 zijn lager geklokt dan die van de 9800GTX, elk meer vergelijkbaar met een 8800GT.
8800GT = 112 stream proc
9800GX2 = 128 stream proc (x2)
Hoezo vergelijkbaar? |:(
1x 9800GX2 = 2x 8800 GTS 512Mb
Vanwaar blijft iedereen die GT toch halen?
Is te verwachten. SLI voegt helemaal niet zoveel toe als de meeste fabrikanten van die dingen je willen laten denken. Een snellere kaart is veel effectiever dan een extra chip van een trager model.
ik vraag me ook nog steeds af hoeveel mensen gebruik maken van SLi en Crossfire. En dan komen ze nu uit met tri-sli en quad-sli. Hoeveel mensen kunnen zoiets betalen?

En als je dan naar de prestates kijkt. Je hebt trisli nodig om de prestaties bijna te laten verdubbelen... Dan koop ik liever nu de beste videokaart en over 1-2 jaar weer, dan nu 2 of 3 x dezelfde kaart in sli..

Maar ja, ik ben dan ook student en heb dus niet het geld voor dit moois ;)
SLi en Crossfire hebben best veel potentie. Zeker met dingen als Hybrid SLI. Mensen kunnen eenvoudig en relatief goedkoop upgraden in de toekomst. Tri- en QuadSLI daarentegen lijkt me alles behalve interessant afgezien van de pats-factor waarvoor de markt weer miniscuul klein is.

Al hoop ik wel dat de invloed van een 2e kaart ook wat groter gaat worden.

[Reactie gewijzigd door The Realone op 31 maart 2008 13:31]

Ik voorzie een tegenovergestelde trend... Nu dat game-developers in de gaten hebben dat er weeral veel meer mogelijk is dankzij SLI/Crossfire, zal de volgende generaties games wel eens nog zwaarder kunnen zijn dan, pakweg, Crysis...

Met het gevolg dat de doorsnee occasionele gamer met een 8800GT of GTS, weeral achter de feiten aanholt omdat z'n bakkie het zaakje niet kan trekken...

Top-range kaarten zijn altijd al meer een elite-strijd geweest tussen de fabrikanten, dan dat het doelbewust een bepaald publiek zocht. Het is eerder een bepaald publiek tat zijn toevlucht heeft gezocht tot deze zwaardere kaarten.

Crossfire heeft wat multi-card gaming betreft, méér toekomst dan SLI, omdat de laatste vooralsnog alleen beschikbaar is voor de duurdere top-range kaarten.

Crossfire kan al vanaf de instapkaarten en zou bijgevolg populairder moeten worden dan SLI, vooral dan bij de al vermeldde occasionele gamer die toch ook wat graag de laatste designer-bloedspatten wil zien druppelen, uit een van ingenieuze damage-scaling voorziene turbokar...

Al dit soort vergelijkende SLI/Crossfire tests heeft eigenlijk alleen tot doel om de menigte nog gekker te maken dan ze al zijn. Eens men boven een bepaalde framerate gaat is er toch geen verschil meer te bemerken en tellen alleen nog de punten in deze of gene benchmark, waarmee dan lekker gepocht kan worden in dit of dat forum.

Wanneer ik, vandaag, met mijn overklokte 8800GTS 512MB, Crysis speel, zal het beeld op mijn monitor én het spelplezier niks of weinig moeten onderdoen voor een GTX 3xSLI opstelling.

Bijgevolg is het testen en weergeven van deze resultaten alleen nuttig voor de game-fielen en het vergelijken van wat hun bakkies onder de kap hebben, want alles zal afhangen van wat game-developers gaan uitspoken qua aanmaak van nieuwe en krachtiger engines.

SLI is in ieder geval nier voor mijn karige beurs bestemd, dus wanneer de noodzaak mij tot multi-card gaming zou nopen, zal het voorzeker Crossfire worden...
Ik voorzie een tegenovergestelde trend... Nu dat game-developers in de gaten hebben dat er weeral veel meer mogelijk is dankzij SLI/Crossfire, zal de volgende generaties games wel eens nog zwaarder kunnen zijn dan, pakweg, Crysis...

Met het gevolg dat de doorsnee occasionele gamer met een 8800GT of GTS, weeral achter de feiten aanholt omdat z'n bakkie het zaakje niet kan trekken...
Vandaar dat ze dus SLI uitgevonden hebben
Top-range kaarten zijn altijd al meer een elite-strijd geweest tussen de fabrikanten, dan dat het doelbewust een bepaald publiek zocht. Het is eerder een bepaald publiek tat zijn toevlucht heeft gezocht tot deze zwaardere kaarten.
En je punt is? Het is vrij logisch dat top kaarten niet voor iedereen weggelegd zijn.
Crossfire heeft wat multi-card gaming betreft, méér toekomst dan SLI, omdat de laatste vooralsnog alleen beschikbaar is voor de duurdere top-range kaarten.
Dat is verkeerd gedacht. Multicard opstellingen zijn niet voor de gewone consument die low end kaarten koopt. Die willen geen sli/CF, die willen stille en zuinige kaarten en zijn niet geïnteresseerd in sli/cf. Mid-end en high-end kopers zijn wel geïnteresseerd om zo op een goedkope manier de prestaties van de high end kaarten te halen of als upgrade pad.
Ook verkeerd is dat SLI slechts beschikbaar is voor de duurdere top range kaarten, een 8800GT kan je in SLI zetten en kost slechts 150 euro. Dit komt al dicht bij low end.
Crossfire kan al vanaf de instapkaarten en zou bijgevolg populairder moeten worden dan SLI, vooral dan bij de al vermeldde occasionele gamer die toch ook wat graag de laatste designer-bloedspatten wil zien druppelen, uit een van ingenieuze damage-scaling voorziene turbokar...
95% van de multigpu opstellingen zijn SLI, nog geen 5% zijn CF. Het is duidelijk wat populairder is
Al dit soort vergelijkende SLI/Crossfire tests heeft eigenlijk alleen tot doel om de menigte nog gekker te maken dan ze al zijn. Eens men boven een bepaalde framerate gaat is er toch geen verschil meer te bemerken en tellen alleen nog de punten in deze of gene benchmark, waarmee dan lekker gepocht kan worden in dit of dat forum.

Wanneer ik, vandaag, met mijn overklokte 8800GTS 512MB, Crysis speel, zal het beeld op mijn monitor én het spelplezier niks of weinig moeten onderdoen voor een GTX 3xSLI opstelling.
Toch wel, je zal veel hogere IQ settings aankunnen en dat draagt aanzienlijk bij tot de betere game ervaring
Bijgevolg is het testen en weergeven van deze resultaten alleen nuttig voor de game-fielen en het vergelijken van wat hun bakkies onder de kap hebben, want alles zal afhangen van wat game-developers gaan uitspoken qua aanmaak van nieuwe en krachtiger engines.

SLI is in ieder geval nier voor mijn karige beurs bestemd, dus wanneer de noodzaak mij tot multi-card gaming zou nopen, zal het voorzeker Crossfire worden...
Waarom? Voor 150 euro heb je een 8800GT kaart en die presteert beter dan eender welke gelijkaardig geprijsde ATI kaart.

[Reactie gewijzigd door aval0ne op 1 april 2008 09:14]

Dan moeten de prijzen wel aanzienlijk gaan dalen of men wil dat de pc verdwijnt als game-platform. Console's hebben 1 soort grafische kaart en daar doen ze hun gehele levensduur mee. De PC-branche zou daar nog eens wat van kunnen leren. Als iedere nieuwe game nu de grafische pracht van crysis zou benutten en vernieuwen met gameplay ipv meer grafisch wonder dan zou het weer een interessante markt kunnen worden.
Ik ben persoonlijk niet van plan om ieder half haar 500 euro uit te geven voor een nieuwe kaart. 8)7
Och, ik heb pas een 9600GT besteld voor m'n nieuwe systeem. 160 euro en ik kan er weer een flinke tijd mee doen. Ik koop veel liever over anderhalf jaar weer een nieuwe mid-range kaart dan dat ik in een keer 400 euro uitgeef voor zo'n monsterlijk ding :P
SLi en Crossfire hebben best veel potentie.
Nee, dat hebben ze niet, het is een tijdelijke hack-oplossing om meer performance te krijgen. SLI en Crossfire zullen nooit 2x de performance van een enkele kaart halen, maar kosten wel het dubbele geheugen en veel meer stroom. Ze hebben nog minder potentie dan multi-cpu systemen, omdat je daar tenminste niet twee keer zoveel geheugen nodig hebt.

Overigens ben ik wel voorstander van hybrid SLI en Crossfire, omdat een van de doelen daar juist stroombesparing is.
Je zal nooit stroom besparen door er een extra kaart bij te prikken.
De winst is vaak best behoorlijk, echter met te weinig geheugen (512MB) en een standaard geklokte CPU (3GHz is het maximum in de meeste benchmarks) ga je daar niet veel van terug zien. Ik denk dat de FSB er ook nog wel toe doet en voor SLI gewoon minstens 400MHz moet zijn.

Als je nu gewoon 2 8800GTX in SLI zet en je pakt een E8400 @ 4GHZ met 450MHz FSB denk ik dat er heel andere resultaten uit komen rollen (bij de meeste games) dan een 9800GX2 quad met een 3GHz CPU.
Niet zozeer geld maar vooral de plaats maken trisli/quadsli nogal overbodig. In zo'n bak wil je ook een geluidskaart, een raidcontroller en waarschijnlijk nog enkele leuke zaken.
Meer eATX borden is de boodschap.

[Reactie gewijzigd door Rizon op 31 maart 2008 14:15]

SLI Persoon meld zich (wel al wat 'verouderde' kaarten) 7900GS Extreme, maar in SLI met 2 kaarten is er zeker wel een mooie prestatiewinst. Hoe hoger de resolutie hoe meer winst met SLI. Tri SLI vind ik zelf nogal weinig performance winst geven voor wat je er voor betaald.
neej hoor het is 3x GTS OC 512MB tegen 4x GTS 512 MB
verder qua shaderaantal etc zijn alle gelijk...
de 9800GX2 is dual GTS en niet zoals viele denken dual GT

dus erg logisch vin ik het ook niet echt..
misschien nog drivergezeur want zoals we zien de 3e en 3e+4e kaart brangen bijna echt veel meer


//edit GTX & GX2 verwisseld :P

[Reactie gewijzigd door Exl0 op 31 maart 2008 13:24]

Ben ik de enige die helemaal niet onder de indruk is van deze "nieuwe" range kaarten van Nvidia? De cijfers zijn nauwelijks bijzonder te noemen. Als dit de nieuwe toprange is zijn we er mooi klaar mee. Tenzij je er 3 of vier van koopt kun je zelfs games die nu al uit zijn nog niet eens fatsoenlijk runnen, laat staan degene die dit jaar nog komen. En dan hebben veel spellen ook nog vaak problemen met SLI. Waar blijft het vlaggeschip met vernieuwde architectuur i.p.v. dit soort luie releases waarbij ze gewoon 2 oudere cores op 1 kaart plakken en hem dan als nieuw labellen? Ik zit niet echt op dit soort vreemde kaarten te wachten. Tijd dat ze een echt nieuwe kaart uitbrengen, want met deze kaarten maken ze me blij met een dooie mus.
Nee je bent zeker niet de enige. Erg jammer dat Nvidia 2 jaar na de 8800 GTX niet meer kan brengen dan een nieuwe revisie en die dan 2x op 1 PCB plakken... normaal is de nieuwe high end kaart een techisch sterk verbeterde kaart tov zijn voorganger, dat valt deze keer tegen. Als je al een 8800 GTX / GTS / GT hebt, heb je deze keer weinig reden om te upgraden.
Wie zegt dat nvidia dat niet KAN?
Als je op let dan zie je dat de 9800GTX nu gelanceerd wordt op zo'n 300 euro. De 7800GTX en 8800GTX zaten op bijna het dubbele bij launch! Er is gewoon niet genoeg vraag naar zulke dure kaarten, dus hebben ze volgens mij nu meer gewerkt richting betaalbare kaarten, en brengen ze zo'n dual gpu kaart uit voor de paar mensen die toch graag een klein kapitaal uitgeven...
Bovendien, Kubrick, games die nu al uit zijn nauwelijks fatsoenlijk kunnen runnen? wtf? Waar baseer je dat in godsnaam op? Een 9600GT die je voor 130 euro hebt draait bijna alles al perfect op 1920x1200. Zet er nog een 9600GT naast en je kunt hetzelfde maar dan met FSAA en AS en alles op high! (we hebben het hier niet over crysis, maar zelfs die is dan prima speelbaar, alleen misschien niet op de hoogste settings). En dat zijn midrange kaartjes, als je de huidige toprange kaarten bekijkt dan kun je ook rustig op 2560x1600 met alles vol open spelen met de meeste spellen.
Die nieuwe cores zijn echt wel niet zo oud hoor.

Het heeft trouwens geen nut dat ze ze sneller maken want de cpu's kunnen niet volgen. Zelfs die 4.4Ghz uit de test is benchen met de handrem op en zeker met zo'n opstelling.

[Reactie gewijzigd door Rizon op 31 maart 2008 14:16]

Och, ik draai Crysis op een 8800GTS G92 met een Q6600 op 2.7Ghz,
en volgens mijn cpu-meter gebruik ik in crysis gemiddeld 30%-50% cpu-power.

(Bij de meeste andere games een stuk minder)

Limiet ligt volgens mij compleet bij de videocard, niet bij de CPU.
(Ik ken weinig spellen die problemen krijgen als je ze op een E4300 draait, mits er maar een snelle videokaart in zit)
De gpu's worden dan ook niet multithreaded gevoed. Klok die q6600 naar een goed niveau en je zal direct betere fps zien en minder kans op framedrops.
Als dat zo zou zijn zo op z'n minst 1 core toch op 100% moeten draaien nu.
50% op een quad core = 2 cores 100% belast....
Wat Skater dus zegt. Een E6600 op 3GHz is bijvoorbeeld beter voor gamen dan jouw Q6600 op 2.7GHz. Misschien een handvol games die het extra nut uit nog twee extra cores kunnen halen.
Bullshit. Op hogere resoluties en/of met veel eye-candy zie je dat de slomere CPu's vrijwel niet zo goed scoren als de allersnelste Cpu's. Conclusie: op hogere resoluties en/of veel eyecandy is de GPU de bottleneck. De snellere CPU's hebben dan nog genoeg "lucht" over.

Op lagere resoluties blijven de slomere CPU's wel achter bij de snelle jongens, grappig is echter dat het juist op de lagere resoluties het er veel minder toe doet: de spellen lopen dan toch al soepel, ook met de slomere Cpu's.

Gamers met een bescheiden budget zijn dan ook beter af met de snelste GPU's en iets tragere Cpu's dan andersom.
En nu vergelijken met een 9600 GT in sli, tri-sli en quad sli.
Dan even een leuke prijsvergelijking

3x9600GT = ¤ 390
2x9800GX2=¤ 950
3x9800GTX=¤ 1050
Jammer alleen dat een 9600gt niet in tri-sli gezet kan worden. Deze heeft alleen maar een enkele sli connector.
Hoe ga je die 9600GT in triSLI of quadSLI zetten?
In Crysis op high-instellingen wist de GX2-kaart in sli beter te presteren dan de GTX in sli: de 9800GTX wist 50fps te renderen, terwijl de 9800GX2 46fps behaalde.
Volgens klopt hier iets niet, de GTX is nu toch beter ?
Overigens is de 9800GTX nu al te koop bij Salland van Asus :)
k zat er ook al naar te kijken ... wat natuurlijk wel grappig is: 4 cores (gx2 in sli) tegen 2 cores (gtx-in sli) .. met hoe je het ook bekijkt weinig verschil.
In Crysis op high-instellingen wist de GX2-kaart in sli beter te presteren dan de GTX in sli: de 9800GTX wist 50fps te renderen, terwijl de 9800GX2 46fps behaalde. In tri-sli renderde de GTX 48fps.
Ik denk dat de GX2 in SLI (4cores) dus 50FPS behaalde, waar de GTX in SLI (2cores) 46 behaald, .. want in tri-SLI haalt ie er 48...
De prestatie boost van 2 naar 3 kaarten vind ik wel erg klein.

Hopelijk werken ze dat beter uit in de nieuwe drivers, en dan zal 4xsli ook wel weer sneller zijn ;)
is de enkele grafische kaart niet meer leuk om te testen, of zit hier geen vooruitgang meer in. Het nu van testen of 3x sneller of trager is dan 4x lijkt me ver gezocht.

:*)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True