Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 113 reacties
Submitter: FeaR

De Chinese website PC Online heeft als eerste benchmarkresultaten van de Nvidia GeForce 9800GX2 online gezet. Uit de test blijkt dat de dual-gpu-kaart de HD 3870X2 van AMD telkens te snel af is.

De 9800GX2 is door de reviewers op een Asus Striker II Formula moederbord geprikt, waarbij een Intel Core 2 Extreme QX6850 met een kloksnelheid van 3GHz het testsysteem aandreef. De twee G92-450-gpu's draaiden op de referentiesnelheid van 600MHz. De benchmarks werden afgenomen in Windows Vista, waarbij de ForceWare 173.67 bta-drivers werden gebruikt. In de snelheidsmetingen werden de testresultaten van de 9800GX2 afgezet tegen de huidige kampioen, de HD 3870X2 van concurrent AMD.

Benchmark 9800GX2

De testresultaten laten weinig aan de verbeelding over: de 9800GX2 laat in alle metingen de HD 3870X2 achter zich. Zo weet Nvidia's dubbelkoppige snelheidsmonster de videokaart van AMD te overklassen in 3dMark06. In Crysis blijkt het verschil tussen de twee het grootst: de 9800GX2 is 69 procent sneller dan zijn directe concurrent. Ook in de spellen Company of Heroes en Half Life 2 neemt de videokaart van Nvidia een aanzienlijke voorsprong. Bij de spellen Call of Juarez en Unreal Tournament 3 zijn de verschillen minder groot.

Benchmark 9800GX2

Nvidia's 9800GX2 zou nog meer afstand hebben kunnen nemen als de gpu's waren overgeklokt. Fudzilla weet te melden dat MSI bij zijn 9800GX2-videokaarten de kloksnelheid van de gpu standaard met tien procent zal verhogen tot 660MHz. Het is echter nog onduidelijk wanneer deze videokaarten op de markt zullen verschijnen.

Moderatie-faq Wijzig weergave

Reacties (113)

De 9800GX2 is welliswaar erg snel, maar hij is op z'n goedkoopst 550. De HD3870X2 is ruim 200 euro goedkoper, maar presteert in sommige gevallen zelfs beter dan de 9800GX2 :) Daarnaast is een 9800GX2 gewoon een nutteloze kaart, het dient alleen als marketing-paradepaardje van NVIDIA. Een 8800GT SLI opstelling zal bijna even snel zijn omdat de 9800GX2 bestaat uit 2 ge-underclockte 8800GTS G92 videokaarten die samen zijn gezet in een tosti-oplossing. Tevens is een 8800GT SLI opstelling goedkoper dan een 9800GX2 n heb je een betere airflow. Nadeel is dat je 2 PCI-E x16 sloten kwijt bent ipv 1, maar dat is voor de meesten tegenwoordig geen issue meer.
Daarnaast is een 9800GX2 gewoon een nutteloze kaart, het dient alleen als marketing-paradepaardje van NVIDIA.
Het is de enige kaart die Crysis aan een aanvaarbare snelheid kan draaien. Geen enkele kaart kan dit. Nutteloos? Welke NVIDIA kaart is nuttig voor een AMD fan?
Deze kaart maakt op alle vlakken gehakt van de AMD kaarten. Alleen daarom is dit een nuttige kaart, het zal AMD immers blijven pushen van beter te doen.
Maar eender welk moederbord kan een 9800gx2 draaien. Voor 8800GT sli moet je een nforce hebben en om het simpel te zeggen; het enige dat nvidia heeft uitgebracht voor de populairteit van core2duo is brol.
Zou je dit even verder willen uitleggen want hier snap ik dus de ballen van :s.
Hij zegt dat je geen SLI nodig hebt om een 9800X2 te draaien, terwijl je wel een Nforce chipset nodig hebt om de 8800GT in SLI te zetten.
x16 sloten heb ik nog nooit onder elkaar zien zitten .. altijd zo'n verwaarloosbaar slotje ertussen alsof ze `ergens` rekening mee hebben gehouden
Bij die grafiekjes heb ik toch zo mijn bedenkingen. Zoals deze 19 tellende review laat zien, is die 9800GX2 helemaal niet zo veel sneller. Kijk bijvoorbeeld na pagina 9: http://www.tweaktown.com/...chmarks_crysis/index.html
duidelijk is dat de twee gpu niet helemaal volledig benut worden in crysis. kijk maar naar het verschil met 8800GT.

de 9800GX2 presteert beter op:

1920x1200: 34%
1600x1200: 6%
1280x1024: 5%

we moeten afwachten op de nieuwe drivers :O
De GX2 blijft zo'n 10% sneller dan HDX2, da's toch aanzienlijk.
niet als hij bijna 40% meer kost
(460 vs 330 euro)

[Reactie gewijzigd door Countess op 17 maart 2008 13:33]

Je kunt de prijs niet direct terugrekenen aan de hand van prestatieverbetering, er zit een exponentiele curve in. Zo krijg je voor 170 euro een stuk snellere kaart van voor 150, maar voor 350 een marginaal betere kaart dan voor 300... Hoe hoger je zit met de prijs, hoe minder groot de prestatiewinst ten opzichte van de goedkopere opties.

In de hoogste klasse is het bijna altijd al acceptabel geweest om voor die 10% winst t.o.v. de iets mindere optie al gauw 100 euro bij te leggen, zeker bij release.
Het maakt volgens mij niet eens uit of AMD beter is dan Nvidia, want het probleem is en blijft gewoon. De meeste games zijn supported door Nvidia en dus zal Nvidia bijna altijd de beter zijn ook is hun kaart slechter.

Totdat er spellen zijn die voor beide kaarten volledig geoptimaliseerd zijn zal de strijd bij ingame benchmarks altijd oneerlijk zijn. Grote voorbeeld hierbij is crysis.

edit:
Mijn fout DJFliX, maar je snapt mijn punt wel, Lost planet en dat soort spellen zijn gewoon niet te draaien op Ati kaarten maar om Nvidia kaarten wel.

[Reactie gewijzigd door QinX op 16 maart 2008 11:50]

Moeten kaarten voor spellen geoptimaliseerd worden, of spellen voor kaarten? Ik denk het eerste. Anders kun je de standaarden minder snel omhoog brengen. Een spel gebaseerd op een nieuwe engine... verbruikt veel te veel cycles... ga je het downgraden zodat een opgefokte Gf7300 budgetkaart er net 2fps uit kan persen met alles op low of ga je nieuwe kaarten ontwikkelen die over een half jaar ook voor de casual gamer redelijk betaalbaar zijn (zij het nog steeds een relatief diepe investering in vergelijking met de prijzen van ddr2/processoren... 45nm kost nu al geen drol meer)
Ben het met je stelling eens dat GPU fabrikanten niet zozeer hun kaarten moeten optimaliseren voor een bepaald spel maar moeten zorgen dat iedere game goed draait op welke kaart dan ook. Maar het is marketing, ze investeren dus zelf in games.

Maar het is en blijft onwenselijk. Crysis zelf is niet alleen hierom geflopt maar het spel zelf had weinig waarde, tov. FarCry. En veel mensen zijn er "ingestonken" om zo snel mogelijk een nieuwe gamepc te kopen voor DX10(Vista) en Crysis terwijl Nvidia kaart gebruikers heel lang hebben moeten wachten op een beetje degelijke drivers.

Ik was zelf vroeger ook een early adapter als het ging om games en hardware maar ben blij dat ik daar lang geleden mee was gestopt, het is en blijft een hype waarbij je maar afwachten tot wanneer het allemaal een beetje nette performance leverd.

En zo dragen ze bij dat er steeds minder mensen veel geld willen neerleggen voor high end kaarten want zowel de games als de nieuwe GPU's zijn het gewoonweg niet waard en die feiten worden steeds meer bekrachtigd. Game verkoop loopt terug, gameleaque's houden op met bestaan en de gamehuizen zoals EA presteren steeds slechter. Niet alleen in omzet maar vaak afgerafelde games. Als ze zo door gaan is gamen straks echt aan het dood bloeden en dan zal het moeilijk worden om het vertrouwen terug te winnen van de gamer.

Zelf vind ik het niet erg om een dure videokaart te kopen maar kan het dan een keer gewoon goed werken, qua drivers, en kunnen er dan eens fatsoenlijke games gemaakt worden ? Tijd zal het leren maar ik zie het somber in als ze niet gauw wat gaan veranderen in dit markt segment :)
Kijk en daarom is het misschien beter om het om te draaien; spellen voor kaarten optimaliseren, i.p.v. kaarten voor spellen.

Zo weten mensen net wat beter wat ze met een bepaalde videokaart kunnen, en zal het misschien minder vaak nodig zijn om een nieuwe kaart te kopen. Dit zal waarschijnlijk wel leiden tot meer dealtjes tussen game developers en videokaart fabrikanten.

Mooiere spellen kosten meer tijd om te maken, en aangezien het bergafwaards gaat met de pc-game industrie, is het naar mijn idee, wat beeld kwaliteit betreft, beter om te gaan voor kwantiteit dan voor kwaliteit. Meer/beter spel voor je geld, minder verbeterend beeld. (geen slecht beeld ofzo, maar ff rustiger aan met het mooier maken van de games.)
Op deze pagina kan je heel erg goed zie dat de HD3870X2 duidelijk een stuk!!! beter is met AA en AF http://www.tweaktown.com/...lity_aa_and_af/index.html
voor mij is iig duidelijk dat de HD3870x2 in prijs/prestatie een stuk!!!! aantrekkelijker is dan de 9800GX2
Een stuk? Het gaat hier om 1-2 fps. Het is duidelijk dat in die games de GX2 op single card niveau presteert. Het is dus een driver probleem.
Naar mijn mening is deze berichtgeving toch wel redelijk eenzijdig.
In de conclusie van de genoemde review op pconline, is te vinden dat zij zelf de kaart te buggy vinden om goed te zijn. Kijk ook eens naar de andere benchmarks; ik geloof dat in 4 of 5 gevallen de kaart gewoon weigert de benchmark te draaien!
Daarnaast is er ook een andere review aanwezig, zoals al genoemd door Jochemh, waarin te zien is dat de verschillen veel dichter bij elkaar liggen. http://www.tweaktown.com/...gx2_early_test/index.html
Zoals het er nu naar uit ziet heeft de HD3800X2 toch een veel betere prijs / kwaliteit verhouding.

[Reactie gewijzigd door Zeus op 16 maart 2008 12:57]

Das vervelend voor AMD, en misschien ook wel een beetje voor de consument, had AMD eindelijk een plaats in de high end markt, wordt hij er weer afgeknald.Hopelijk is deze kaart dan een heel stuk duurder. Dan kan AMD nog wat verdienen.
De kaart is idd een stuk duurder, zo'n 550 euro tegenover ongeveer 330 voor een 3870X2.

De kaart zal door de slechte 'bang for buck' niet echt veel verkocht gaan worden (beetje zoals de 8800 ultra). Maar de exposure die nVidia hiermee krijgt, door weer de performance crown te heroveren, is natuurlijk wel wat waard. Dit blijft bij sommigen wel hangen, en het schept het (onterechte) idee dat de andere producten in zo'n lijn ook wel beter zullen zijn dan die van de concurrent.

@Fleximex: ik had ergens gelezen dat het 550 zou zijn. Het omrekenen vanuit dollars + verhogen met de btw is een beetje tricky, producten zijn hier vaak duurder dan dat.

[Reactie gewijzigd door sewer op 16 maart 2008 12:36]

550? Ik dacht toch 450:

http://core.tweakers.net/...force-9800gx2-bekend.html
Ik denk dat het prijs/kwaliteits verschil, als het 450 is, toch iets in het voordeel van Nvidia ligt. Alhoewel een dikke 100 voor het verschil toch misschien wat duur is.

[Reactie gewijzigd door Fleximex op 16 maart 2008 12:35]

met 450 vs 330 is het prijs verschil nog altijd 36%. gemiddeld zijn ze echt niet zo veel sneller. ik reken even met 460 (die prijs staat op prijswatch) is het zelfs bijna 40% meer.

edit : zie nu zelfs een 3870x2 voor 299 staan. word het prijs verschil 53%.

[Reactie gewijzigd door Countess op 17 maart 2008 13:04]

Dit is niet ongunstig voor de consument, want AMD gaat heus wel zorgen dat ze nog kan concurreren kan met NVidia. Dit zal leiden tot prijsverlagingen of nieuwe videokaarten. Kijk, wanneer AMD de handdoek in de ring gooit wat betreft videokaarten, DAN wordt het ongunstig voor de consument gezien het monopoly dat NVidia dan zal hebben.

Want het is dankzij de 3870X2 dat we nu deze 9800X2 hebben zien verschijnen, dit product is immers een 'antwoord' op AMD's 3870X2. Nu gaat AMD weer een met een 'weder-antwoord' op de proppen komen, wat op zijn beurt ook niet onbeantwoord zal blijven, en dat is versnelde technologische ontwikkeling :)
En de AMD is toch wel ets goedkoper :)
wacht maar totdat de 4000 serie van AMD uitkomt :)

natuurlijk zijn het nog speculaties, maar als er echt 2gb gddr5 op komt met nieuwe cores, dan denk ik niet dat de 9800 van nVidia daar nog bovenuit komt

het kan ook dat AMD binnenkort eindelijk met drivers komt waarmee je ook meerdere dualcore kaarten in crossfire kan zetten
2GB op je videokaart ?

Als je dan 4GB in je bak hebt zitten en je draait een 32bits OS,
hou je dus nog maar 2GB over ?

Lijkt me best kut.
Wat heeft het geheugen op je grafische kaart te maken met je werkgeheugen? Deze hebben elk hun eigen adressering.

[Reactie gewijzigd door Nelissuh op 16 maart 2008 22:45]

memory mapping.
Het geheugen van de videokaart word op dezelfde manier geadresseerd als je werkgegeheugen, het wordt eroverheen gemapt.

(ik kan zo snel niet een link vinden waar het netjes uitgelegd staat :'( )
Ik dacht dat de addressing-space toch gedeeld werd ?

volgens dit documentje van HP :
http://h20331.www2.hp.com...20MWP%20x64%2003Nov05.doc
The PCI memory addresses starting down from 4 GB are used for things like the BIOS, IO cards, networking, PCI hubs, bus bridges, PCI-Express, and video/graphics cards. The BIOS takes up about 512 KB starting from the very top address. Then each of the other items mentioned are allocated address ranges below the BIOS range. The largest block of addresses is allocated for today’s high performance graphics cards which need addresses for at least the amount of memory on the graphics card. The net result is that a high performance x86-based computer may allocate 512 MB to more than 1 GB for the PCI memory address range before any RAM (physical user memory) addresses are allocated.
Mits HP gelijk heeft zou ik dus graag zien dat mn reactie weer omhoog gemod wordt, het lijkt me toch redelijk relevant dat je dure videokaart er voor zorgt dat je minder dan 2 gig geheugen overhoudt :)

[Reactie gewijzigd door LDenninger op 17 maart 2008 00:30]

Is de 3000 serie van Ati/AMD dan maar een tussenserie of..? Want hiervan hebben we namelijk nog maar een paar kaarten gezien in de 38xx reeks. Dat is namelijk ook wel onduidelijk....
Er zijn toch ook de 3450, 3650 en 3670?
wacht maar totdat de 4000 serie van AMD uitkomt.
En wacht maar totdat de Geforce 10.000 serie van nvidia uitkomt!

Dat is natuurlijk een loos argument want zo kun je bezig blijven. ;)
Q2 komt de 4000 serie

over de volgende van nvidia is nog helemaal niets bekend.

wat ik probeer te zeggen is dat ze deze kaarten met een reeks AMD kaarten vergelijken die idd onder doen omdat het antwoord van AMD er nog niet is.
De nieuwe kaarten van AMD komen op z'n vroegst pas over een maand of drie. Dat is in de snelle wereld van (grafische) chips moeilijk een direct "antwoord" te noemen. Deze kaart en de 3870X2 zijn gewoon directe concurrenten, dus het is niet meer dan logisch om ze ook als zodanig met elkaar te vergelijken. R700 (4000 serie) en G100 zijn de volgende generatie, en komen pas over een paar maand op de markt.
En dan ga je dus een nieuwe ATI generatie vergelijken met een oude nVidia generatie.

Zoals reeds gezegd: neem dan ook de volgende generatie van nVidia, en dan wordt het ineens zo hard koffiedik kijken, dat het geen enkele zin meer heeft.
De geruchten over AMD kaarten zijn altijd positief geweest, maar als de launch er dan eindelijk is (met meestal de nodige vertragingen) vallen de resultaten tegen. Maar dan wordt er beterschap beloofd door een mirakel driver die dan uiteindelijk nooit het levenslicht ziet. Same story, different card. En iedereen blijft er voor vallen.

[Reactie gewijzigd door aval0ne op 17 maart 2008 08:49]

de geruchten over de r600 waren anderhalf jaar voor de release nog positief, 6 maanden voor de launch een heel stuk minder. we zitten bij de r700 nu op ongeveer 6 maanden voor de release.
de geruchten over de x1800 en x1900 waren possief en hebben dat ook waar gemaakt.
en ATI heeft een lange geschiedenis van het brengen van veel prestatie winst door latere driver versies.

daarbij de r600 was nog (bijna) volledig onder het management van ATI gedaan, de r670 onder management van AMD en was wel op tijd (eerder als nvidia) en competitief en zuiniger en goedkoper.
AMD heeft zeker les getrokken uit 2007, dus ben benieuwd of ze het zelfde kunnen doen met een volledige nieuwe architectuur als ze deden met de r670.

[Reactie gewijzigd door Countess op 17 maart 2008 12:43]

dat ze niet meer de snelste zijn betekent niet dat ze uit de high-end zijn geknalt. AMD/ATI heeft vaker ook laten zien dat ze met driver optimisation de snelheid nog verder omhoog krijgen. Niet dat ze heel dit gat zullen dichten maar in combinatie met de prijs blijft de AMD/ATI een verstandiger keus.
Eigenlijk kunnen AMD en Nvidia Crysis het beste als uitgangspunt nemen voor het ontwikkelen van nieuwe videokaarten. Want hoe beter je in staat bent met een videokaart om Crysis qua frames per seconde goed te laten verlopen, hoe beter hij over het algemeen ook zal zijn in andere games. Wat ik bedoel te zeggen: bij zowat elke game in de benchmarks kunnen de videokaarten van Nvidia/AMD goede prestaties weergeven maar bij Crysis nog niet zo goed. Als je nu Crysis als uitgangspunt neemt, dat zeg maar als de richtlijn gaat aanhouden bij het ontwikkelen van nieuwe kaarten, dan maak je een mooie vooruitgang qua prestaties van videokaarten. Ja toch?

Of denk ik nu weer te simpel :P
Het is maar de vraag of Crysis efficient geprogrammeerd is. Met een beetje pech kun je met andere technieken betere graphics maken die ook nog eens eenvoudiger zijn voor videokaarten en dus een veel hogere framerate opleveren. In dat geval is het niet zinvol om Crysis als uitgangspunt te nemen maar kun je veel beter voortborduren op het ontwerp van die andere spelen. Crysis kan dan misschien heel slecht lopen maar andere gameontwerpers zullen de betere technieken adopteren. Met als gevolg dat een kaart die op Crysis optimalisatie gebaseerd is in het overgrote deel van de nieuwe spellen relatief slecht zal presteren.

Je denkt dus inderdaad te simpel ;)
Crysis is ook niet zo zeer efficient geprogrammeerd, zeker in DX10 niet. De efficientie in de engine zit het hem vooral in procedural generation, een middel om heel snel grote omgevingen te maken die slechts weinig aanpassingen nodig hebben om een goed speelbaar level van te maken. Maar deze vorm van creatie is over het algemeen niet snel voor de game prestaties, vaak wel mooi. Dit was trouwens ook de reden waarom Oblivion zo zwaar draaide.
Ik denk het :) , das een veel te lineaire doortrekking. En als hier (hopelijk gefundeerde) tongen beweren dat nVidia in het voordeel is door optimalisatie... nja wel even verwarrend dat mensen hier elkaar tegenspreken omtrent ati en AA. moest het mij voldoende uitmaken zou ik linkjes vragen ^^
Bij dat laatste grafiekje, over crysis, is de AMD kaart nu beter met AA aan? Dat is vreemd want ATI kaarten waren altijd slechter in AA.

Het is duidelijk dat de AMD ingemaakt wordt, maar wat is het prijsverschil? Hoewel dat niet zo veel uitmaakt, als je geld over hebt voor zo'n monsterkaart neem je toch wel de beste/duurste. Heb je nou een SLI ready moederbord nodig voor deze kaart? Er zijn namelijk nogal wat tegenstrijdige berichten daarover. Ik ben ook benieuwd naar de eerste vergelijkingen tussen 2 Nvidea's in SLI en 3 AMD's in crossfire. :9 (niet dat ik ooit zo'n kaart zou kopen, maar het is altijd leuk om te zien, net zoals de snoepwinkel vroeger.)

[Reactie gewijzigd door jdm8 op 16 maart 2008 11:28]

Er worden nog wel beta drivers gebruikt, dus het is een beetje vroeg om te oordelen dat AMD beter is in AA dan nVidia.

Als de final versie van de drivers uitkomen komt er waarschijnlijk nog wel een performance winst.
heeft nvidia dan al niet beta drivers voor vista?
Dit is ook de enige test waarbij de AMD kaart beter scoort in AA. In sommige testen hebben ze geen score voor de nVidia kaart (world in conflict, UT3, call of juarez), in de andere testen scoort ie beter (COD4, company of heroes, half life 2, 3d mark).
Die Asus Striker II Formula is alleszins gebaseerd op een nVidia 780i-chip. Dus ik neem aan dat je een SLI-moederbord nodig hebt.
RE:Die Asus Striker II Formula is alleszins gebaseerd op een nVidia 780i-chip. Dus ik neem aan dat je een SLI-moederbord nodig hebt.


???

Nvida=SLI
ATI=CrossFire

Wat bedoel je ?

[Reactie gewijzigd door Briandewis op 17 maart 2008 01:48]

mochten die benches kloppen, zou ik toch eerder een mijer bijleggen en 2 HD3870x2's halen, dan blaas je die gtx2 er makkelijk uit, vind dat de x2 van ati toch echt een heel stuk meer bang for the buck geeft...raar trouwens dat er uit 1 bench meteen al conclusies worden getrokken over welke kaart nou sneller is...

blijkt vaak na de release en dus na vele reviews dat het misschien wel helemaal niet zo hoeft te zijn dat die 9800gtx2 veel sneller is dan de HD3870X2, voordat die release nog niet is geweest is het allemaal nog maar een beetje het welbekende koffiedik kijken
niks vervelends aan hoor voor amd.. dit is de nieuwe highend van nvidia met weer een belachelijke prijs.

zeer binnenkort komt de nieuwe highend van amd uit.. de 4870 en de 4870 X2

de 4870 X2 maakt gehakt van de 9800 G2 en zal nog goedkoper zijn ook.
bron ? want ik heb nog bijna niks over de 4870 gelezen
En hoe is nog verder in die droomwereld van je?
hij heeft gelijk hoor, 45nm chip(s) vs een 55/65nm chip en die VEEL minder transistors heeft als de gt200.

[Reactie gewijzigd door Countess op 17 maart 2008 13:07]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True