Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 100 reacties

Nvidia heeft zijn nieuwe vlaggenschip, de Geforce 9800 GX2, officieel voorgesteld op zijn site. De videokaart verslaat de krachtigste kaart van AMD met gemak en zal in Nederland 500 euro gaan kosten.

Er is weinig dat nog niet bekend is aan het nieuwe grafische rekenmonster van Nvidia. De Geforce 9800 GX2 beschikt over 256 streamprocessors, en de referentiesnelheid van de coreklok bedraagt 600MHz. De kaart wordt verder standaard van 1GB geheugen en een 512bits geheugenbus voorzien, terwijl de shaderklok en de geheugenklok hun werk op respectievelijk 1500MHz op 1000MHz doen. Vorige week werd duidelijk dat de kaart in de VS tussen de 600 en 670 dollar gaat kosten. Inmiddels is gebleken dat er in Nederland rond de 500 euro voor de kaart neergeteld moet worden.

Uit de benchmarks blijkt dat het tweekoppige snelheidsmonster van Nvidia de vloer aanveegt met AMD's Radeon HD 3870 GX2. Er waren drie HD 3870-kaarten nodig om het nieuwe vlaggenschip van Nvidia te verslaan bij The Elder Scrolls: Oblivion, aldus Anandtech. Hoewel de prijs menig gamer zal afschrikken en AMD met zijn prijs-prestatieverhouding het bedrijf nog goed zal kunnen beconcurreren, geeft Nvidia met zijn nieuwe krachtpatser een duidelijk visitekaartje af.

Nvidia 9800 GX2 Nvidia 9800 X2 2 Nvidia 9800 GX2 3

* Reviews:

Hothardware
PCperspective
Anandtech

Moderatie-faq Wijzig weergave

Reacties (100)

"verslaat krachtigste kaart van AMD met gemak"

In die test van Anandtech verslaat 2x9600GT's in SLI ook 3xHD3870 in Crossfire met soms wel 33% verschil. Dat kan volgens mij niet echt kloppen.

Ik geloof dat die test niet helemaal klopt als ik zo zit te kijken. De HD3870X2 is vaak langzamer als de 8800Ultra, terwijl hiervoor in bijna alle testen hij toch sneller bleek te zijn. Beetje raar dat nu ineens alle Nvidia's in die tests super snel zijn.

Maarja, wachten op meer tests en dan pas zeggen dat hij alles met gemak verslaat.
dat kan wel kloppen AMD heeft altijd al mindere drivers, daarmee bedoel ik dat amd nooit 100% kracht uit de kaart haalt zowel met single gpu als in crossfire.

Nvidia heeft de drivers (better) voor elkaar, maar de nieuwste driver voor de 9800X2 vallen nog steeds tegen.

dit heb ik eerder geschreven

duidelijk is dat de twee gpu niet helemaal volledig benut worden in crysis. kijk maar naar het verschil met 8800GT.

de 9800GX2 presteert beter op:

1920x1200: 34%
1600x1200: 6%
1280x1024: 5%

we moeten afwachten op de nieuwe drivers


http://www.tweaktown.com/...chmarks_crysis/index.html
Ik hoop dat ik de 7900GX2 niet moet boven halen om te weerleggen wat jij juist hebt gezegd, het is waar dat de ATI driver niet goed waren(zijn in sommige gevallen) in ondersteuning, maar crossfire schaalde meestal veel beter.
SLI is nu uit zijn pubertijd, maar sli heeft lang gepuberd, langer dan ATI, ook op gebied van drivers.
Op de koop toe zijn de ATI crossfire technieken ook toepasselijk op Intel moederborden, wat ze ook een groot voordeel geeft én heeft crossfire een grotere flexibiliteit dan SLI...

Met deze kaart heeft nvidia wel en duidelijke inhaalbeweging gemaakt , en zoals aan beide kampen kunnen de drivers qua prestatie altijd beter!

De review van anandtech is enorm raar! hier en daar maakt de 8800GTX weer gehakt van de 3870X2, terwijl het enkele maanden geleden andersom was? Om maar te zwijgen over het feit dat een single 3870 beter presteert dan een 3870 X2 wat kompleet niet kloppen kan daar de 3870 X 's cores lopen op 825 MHz vs. de 770MHz core van de 3870!

Missichien heeft dit vooral te maken met het feit dat men sopeelt op ene vrij onmenselijke resolutie: 2560*1600; alleen schermen groter dan 24"(lees: 30") kunnen dit aan! En met alle repect voor eigenaars van zo'n scherm maar gamen op zo'n groot scherm is vrij zot!
m.a.w. als je ene goede reprensatiefe test wilt, dat eerder en beter toepasselijk is op jouw situatie ga je best ergens anders zoeken...

Alsook een woordje kritiek op anandtech, van zo'n review concluderen de gewone mensen véél te rap, zij die dit lezen zonder een kritische blik zullen al gauw(te snel) denken dat Ati écht brol is, iets dat kompleet ongegrond is daar de situatie van de test, een situatie die slecht is >5% van de gevallen zo is...
Bij iedere test zie ik in de tabel/grafiek ook gewoon normale resoluties staan, tot 1280x1024 wat momenteel toch nog steeds het meest gebruikte is.

Natuurlijk in het mooie staaf diagrammetje nemen ze de hoge resoluties, immers dit soort kaarten zijn ook gemaakt om op deze gigantische resoluties te kunnen draaien. Het staat ook een stuk "cooler" zullen we maar zeggen.

Wat ik wel sterk mis zijn twee 8800gt's in sli. Beetje jammer dat deze er niet bij zaten, oke twee 9600gt's in sli is ook leuk en via andere revieuws kan je weer de 8800gtsli tegenover de 9600gtsli opzoeken, maar voor de compleetheid hadden ze het hier ook bij kunnen doen.

[Reactie gewijzigd door Th3Eagle op 18 maart 2008 20:17]

http://www.hardware.info/...a_GeForce_9800_GX2_test/8

de 9800GX2 presteert onder crysis gemiddeld 118% beter

ik weet niet of hardware.info goed heeft getest 118% is wel erg hoog, verwacht meer +/-70%

de 3870GX2 presteer onder crysis maar 13% beter dan de 3870

ATI heeft dus op dit moment zeer matige driver

jaja ik weet het crysis is een Nvidia game, maar voor mij is een game een game.

update: 19 maart
vanwege alle kritiek dat je met een ati kaart geen crysis kan spelen :+

nu berekent bij call of juarez

de 9800GX2 presteert onder crysis gemiddeld 84% beter

de 3870GX2 presteer onder crysis maar 33% beter dan de 3870

en nu ook weer ati heeft slechte drivers of sli is beter dan crossfire

[Reactie gewijzigd door onzam op 19 maart 2008 22:25]

maar voor mij is een game een game.
maar voor drivers niet.
AMD heeft matige drivers voor crysis, bij andere games zijn de prestaties veel beter.
om AMD's hele drivers af te kraken voor de prestaties in 1 games is erg kort door de bocht.
een videokaart moet voor elke game goed presteren anders is het geen goede videokaart of driver (ofwel een slechte videokaart of driver)

wil jij ook een auto die alleen maar comfortable rijd op asfalt, en als je op kiezelstenen rijdt klappen je tanden eruit |:(

[Reactie gewijzigd door onzam op 19 maart 2008 13:44]

Crysis is ook geoptimaliseerd voor Nvidia kaarten, Nvidia legt daarvoor heel wat geld op tafel. Als men de engine van crysis gewoon wat aanpast, dan kan AMD zeker gelijkwaardige resultaten halen...
AMD/ATI heeft gewoon 'pech' dat Nvidia hen voor was bij crysis, dan nog vind ik het erg dat men ATI links laat liggen qua ondersteuning, vooral voor zo'n relatief naar-uit-gekeken spel als crysis!
http://www.hardware.info/..._GeForce_9800_GX2_test/10

Als je een pagina verder kijkt (stalker benchmark) zie je weer een totaal ander beeld, dus het verschilt dus degelijk wel per game.
Crysis is gewoon een slecht geprogrammeerd stuk ellende, kom op zeg, SLI/Crossfire opstellingen presteren soms slechter als een losse kaart. En zelfs op de zwaarste PC's is het nog niet eens fatsoenlijk speelbaar, terwijl het er amper beter uit ziet dan andere spellen...
Helemaal mee eens knirfie244, de game doet niets technologisch vernieuwends waardoor de uitzonderlijk slechte performance verklaart kan worden en je ziet het er ook niet duidelijk aan af. Het is wel erg mooi op hoge settings, maar dat zijn genoeg andere games ook. Naar mijn idee is het echt een game met als doel mensen te laten upgraden naar een nieuwe dure kaart zoals de 9800 X2, terwijl dat getuige andere soortgelijke games nergens voor nodig is.
Ik geloof dat die test niet helemaal klopt als ik zo zit te kijken. De HD3870X2 is vaak langzamer als de 8800Ultra, terwijl hiervoor in bijna alle testen hij toch sneller bleek te zijn. Beetje raar dat nu ineens alle Nvidia's in die tests super snel zijn.
Andere tests bevestigen dit nochtans. Van zodra AA in het spel komt zakt de performance van de HDX2 in mekaar. De ultra is dan meestal sneller.
Dat met gemak verslaan van de AMD X2 valt wel mee.
Ik vind dat een kaart die 200 euro duurder is er wel meer dan een prestatiewinst +/- 5-10% (in zeldzame gevallen 30%) verwacht mag worden.
Deze namiddag ligt deze kaart bij mij thuis ter vervanging van mijn stuk gegane 8800 gtx , met dank aan Tones.be :)
Ik heb zojuist ook een Point of View besteld voor 499,-

edit: Waarom doet iedereen alsof deze kaart belachelijk duur is? Vrijwel elke topkaart kost rond de ¤500,- bij de launch. Ik kan me nog goed herinneren dat ik ooit een Hercules Geforce 2 Ultra kocht voor 1600,- gulden....

Wat mijn 3DFX Voodoo II SLI setup destijds kostte weet ik niet meer precies.....maar goedkoop was het ook zeker niet!

[Reactie gewijzigd door Janssen op 19 maart 2008 15:45]

De prijs is nu wat hoger dan wat je betaalt voor twee 8800GTS-en, maar dit zal vast nog wel wat dalen in korte tijd. Echter heeft de kaart een aantal nadelen waarom ik hem na een prijsverlaging nog niet zou kiezen:

Maar een klein deel van de warme lucht wordt door de kaart naar buiten geblazen, de rest komt in je kast terecht. Nu genereert 1 GPU al behoorlijk wat warmte, laat staan 2. Warme lucht stijgt op en ik zou zo plotseling m'n CPU een graad of 10 warmer kunnen maken.

Verder is 512MB soms te weinig, zeker als je echt verschil wil laten zien in sommige spellen qua FPS. In een review van tomshardware presteert hij in sommige titels op hoge resoluties met AA aan minder dan een enkele Ultra. Regelmatig is de performance maar marginaal beter. Nou valt er iets voor te zeggen dat 2560x1600 een beetje een belachelijke resolutie is maar als een 8800GTX/Ultra het al prima aankan (bijna altijd 60+ fps), waarom zou je dan een nog snellere kaart kopen?

Als ik nu 500-600 euro in grafische kaarten zou kunnen steken zou ik liever 2x een 8800GTX kopen, die kosten nu zo'n 280 euro per stuk.
Normaal ben ik een behoorlijke nVidia fanboy, maar ik vind het erg irritant dat er bij de specs 1GB en 512bit geheugenbus staat. Dat is naar mijn mening heel wat anders dan 2x512MB en 2x256bit.
Het concept blijft idd 1 gehele kaart, dat er technisch gebruik gemaakt wordt van 2 losse kaarten zeg maar doet er niet toe. Het product wordt verkocht als 1 kaart / geheel, exact hetzelfde als de Ati's 3870x2.

En ja, zo kan je ook idd alles mooi optellen totdat je wel iets spannends aan specs hebt.
Optellen maakt de specs wel spannend, maar 512bit is echt wat anders dan 2x256bit. Leuk dat je twee kaarten hebt, maar ze werken allebei aan dezelfde frames en werken dus ook met dezelfde data, dus dan heb je effectief gewoon de prestaties van 256bits bus.

Als mensen 2x256bit bus al 512bit gaan noemen mogen we bij een quadcore ook wel de GHz'en optellen :X Hoera, ik heb 9,6 GHz rekenkracht in mijn quadcore PC ;)
... dus dan heb je effectief gewoon de prestaties van 256bits bus.

Als ze met identiek dezelfde data zouden werken, zou het nogal nutteloos zijn om er twee naast elkaar te zetten, niet?

Ja, ik begrijp best that het niet ideaal is. Maar beweren dat het 'de prestaties van een 256 bus' heeft is nogal, wel, achterlijk, want de totale bandbreedte is weldegelijk dubbel.

Als je nu zou geschreven hebben dat het de prestaties van een 512MB geheugen heeft...
Wel, dit is natuurlijk zoals altijd, nVidia komt met de beste videokaart ter wereld uit de bus, later volgen dus mindere versies (9800GTX op 25 maart!).
Er zijn al een paar sites die een review gemaakt hebben (zoals Hardware.info als je geen engels kan lezen :P). Ze hebben natuurlijk maar tijdelijke benchmarks uitgebracht, ik denk dat de drivers van nVidia ook nog niet volledig goed zijn zoals ze zouden moeten zijn. Wat me wel opvalt, is de prijs, die is rond de 500¤. Dit is toch wel meer dan de ATI videokaart, maar dat is ook logisch. Misschien komt er ook een vernieuwde versie van deze kaart (goedkoper) wanneer nVidia op 55nm gaat beginnen bakken.
Ik vraag me wel af wat de uitkomst zou zijn voor de GTX versie, ik denk dat de GTX versie niet te ver van resultaten zou zijn, maar hij zou echt wel betere prijs/prestatie verhouding hebben dan de ati x2 of eendert welke kaart. Deze kaart gaat wel populair zijn bij het gewone publiek. Het is niet echt een bang-for-your-bucks kaart, maar het gaat wel goedkoper worden, en dan wordt het wel zo'n kaart. (preview van GTX)
neemt 100 watt meer dan de 3870 in idle. belachelijk?
4 hd3870 nemen nog minder in idle XD volgens mij.
Imo geeft de review van hardware.info een veel beter beeld, de 3870X2 is beste keus voor een gamer op dit moment.
Niet voor wie echte performance wil.
Ligt het nou aan mij of is dit nieuwsbericht wel érg vooringenomen in de zin van pro-NV.

De vloer aanvegen vind ik nogal een statement, en in dit geval volledig misplaatst. Bij hardware.info hebben ze de kaart ook getest, en uiteindelijk blijkt het performanceverschil lang niet zo groot als eerder werd gedacht, wanneer AA/AF wordt ingeschakeld op hogere resoluties moet de 9800GX2 zelfs regelmatig zijn meerder erkennen in de toch wel erg goedkope HD3870 X2.

Met de vloer aangeven denk ik eerder aan prestatieverschillen van 100%, zoals de 6800 Ultra, X1900XTX en de 8800GTX dat waren. Dat waren kannonen van videokaarten, die bij introductie echt hun 500+ euro waard waren.

Maar deze 9800GX2... leuke kaart maar de prijs valt van geen kant goed te praten
Inderdaad, sowieso als je de prijs van ¤500,- even naast de ¤300,- van een 3870X2 legt en dan de performance vergelijkt dan ben je veel beter af met een 3870X2. :)
Maar zo werk het dus niet als het om de knikkers gaat. Dit is niet het mid end segment en zeker niet het budget segment. Prijs is van ondergeschikt belang voor wie performance wil, net zoals stroomverbruik en warmteontwikkeling. Het gaat erom om de snelste te zijn en dat is deze kaart van NVIDIA.
Bij hardware.info hebben ze de kaart ook getest, en uiteindelijk blijkt het performanceverschil lang niet zo groot als eerder werd gedacht, wanneer AA/AF wordt ingeschakeld op hogere resoluties moet de 9800GX2 zelfs regelmatig zijn meerder erkennen in de toch wel erg goedkope HD3870 X2.
Alle andere sites komen tot een andere conclusie dan hardware.info. Zou toch sterk zijn als al die andere sites verkeerd zouden zijn.
Met de vloer aangeven denk ik eerder aan prestatieverschillen van 100%, zoals de 6800 Ultra, X1900XTX en de 8800GTX dat waren.
Dit is volledig correct, in sommige games haalt de GX2 echt het dubbele aantal FPS dan de HDX2.
Maar deze 9800GX2... leuke kaart maar de prijs valt van geen kant goed te praten
Wie de snelste is kan zijn prijs kiezen. AMD kan dit niet want zij kunnen enkel NVIDIA beconcurreren op het gebied van prijs, niet op prestaties. Maw NVIDIA duwt AMD topkaart naar mid end zowel qua prjis als prestaties.
Het is dus niet omdat AMD begaan is met consument dat zij hun prijs zo laag zetten, het is gewoon van moeten om te overleven.

[Reactie gewijzigd door aval0ne op 19 maart 2008 09:41]

Wat ik eigenlijk zwaar sukken vind, is de 8-pins PCI-e stroomconnector... Het chassis van de 9800 X2 is namelijk te krap om een standaard 8-pins stroomconnector te ontvangen, omdat de bovenkant van het omhulsel van de 9800 X2 voor de uitsparing komt waart het vasthechtingsclipje van de stekker zit... Dit komt omdat de vasthechtingsclip bij zowel de 6-pins als de 8-pins in het midden zit van de eerste 3 pinnen van de stekker. Op de het 'stopcontact' van de kaart zit de uitsparing echter in het midden van de volle breedte van de 4 pinnen...

Zie Guru Of 3D

Het wordt dus behelpen met een eigen gefabriceerde stekker bestaande uit losse pinnetjes... of de clip op de stekker wegvijlen.

Allemaal niet zo erg, maar het is toch hemeltergend dat zoiets voorvalt.

[Reactie gewijzigd door JimmyJump op 18 maart 2008 21:25]

Sukken? Dat is gewoon erg slordig, bedrijven beseffen zeker niet hoeveel geld mensen in een videokaart gaan steken hier? En dan flikken ze je zoiets? Wie accepteert dat?
Zie de review op techreport.com: volgens Nvidia zijn er voedingsfabrikanten die de officiele PCIe power spec niet volgen. Dat is inderdaad onaanvaardbaar...
Dan zou ik eerder voor 3 HD3870 gaan.
Of HD3870X2 plus 'n HD3870 aangeizen ik CF mobo heb 780X

Ben je ook misschien even duur uit.
Als je de ruimte er voor hebt ja, als je als sommigen een kleine kast hebt, of een niet SLI/Crossfire ondersteunent mobo hebt, neemt een GX2 met stock cooler maar 2 slots in beslag. een 3-way CF opstelling als jij beschrijft zal dan 4 slots innemen, meer warmte produceren, en meer stroom trekken.

Er zijn meerdere zaken dan performance alleen voor sommige mensen ;)
Maar dan verbruik je meer energie denk ik. En er moet natuurlijk wel goede driver support zijn. Je ziet namelijk nog regelmatig dat CF slecht werkt. Soms gaat de framerate zelfs achteruit als je 2 kaarten gebruikt. Een merkwaardig fenomeen dat de levensvatbaarheid van CF een beetje tegen werkt.
haha, plus dat je dan om de haverklap maar 1 van de drie kaarten kan benutten. Nee heel erg slim :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True