Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 131 reacties
Bron: AnandTech, submitter: stunter

nVidia heeft vandaag de opvolger van de GeForce FX 5800 Ultra geïntroduceerd, de GeForce FX 5900 Ultra. De GeForce FX 5800 Ultra had een aantal teleurstellende punten. De kaart had moeite om op gelijke voet met de Radeon 9700 Pro te presteren en de Radeon 9800 Pro zette beduidend betere resultaten neer. Daarnaast maakte de kaart veel herrie tijdens gebruik en liet de 3d-beeldkwaliteit te wensen over.

De oorzaak van deze problemen moet gezocht worden in een tweetal foutieve beslissingen die nVidia in het verleden genomen heeft. Allereerst verwachte nVidia dat het 0,13 micron productieprocédé van TSMC meer volwassen zou zijn waardoor de introductie van de kaart enkele maanden uitgesteld moest worden. Daarnaast had nVidia niet verwacht dat flip chip packaging technologie klaar zou zijn tijdens de introductie van de NV30 waardoor er gekozen werd voor de implementatie van een 128-bit geheugenbus in plaats van een 256-bit geheugenbus.

nVidia GeForce FX 5900 Ultra perspic (hoek, groot)

Met de GeForce FX 5900 Ultra is nVidia vastbesloten deze fouten te corrigeren. Deze videokaart is uitgerust met 256MB DDR-geheugen dat op 425MHz loopt. Dit is 75MHz lager dan de kloksnelheid van de originele GeForce FX, maar daar staat tegenover dat de geheugenbus tweemaal zo breed is waardoor de bandbreedte toch ruim 11GB/sec hoger is. Ook de core van de GeForce FX 5900 Ultra loopt langzamer dan de originele GeForce FX. Hierdoor produceert de kaart minder warmte waardoor er ook niet meer zo'n extreem, lawaaierig koelsysteem nodig is.
nVidia GeForce FX 5900 Ultra badge (klein)
AnandTech heeft een dertig pagina's tellende review online gezet over de kaart. Na een bespreking van de architectuur van de kaart en de nieuwe features wordt de beeldkwaliteit getest en uiteraard de 3d-prestaties. Het blijkt dat de beeldkwaliteit met de nieuwe drivers aanzienlijk is toegenomen tot het niveau van ATi's Radeon 9800 Pro.

Ook de 3d-prestaties blijken een flinke schop onder de kont gekregen te hebben. Dankzij de 256-bit geheugenbus, een slimmere architectuur en betere drivers heeft de kaart absoluut geen enkel probleem om de Radeon 9800 Pro (ook de 256MB-variant) in het stof te laten bijten. In bijna alle benchmarks zet de GeForce FX 5900 Ultra de beste resultaten neer. Ook in Doom 3 presteerde de kaart veelbelovend, maar er kan natuurlijk nog het nodige gebeuren tussen nu en de release van het spel. AnandTech is erg tevreden over de kaart, maar een prijskaartje van 499 dollar zal voor veel mensen even stevig slikken zijn. Wellicht dat de goedkopere varianten van 299 en 399 dollar een aantrekkelijkere prijs/prestatie-verhouding weten te leveren.

GeForce FX 5900 Ultra Doom 3 benchmarks
GeForce FX 5900 Ultra Unreal Tournament 2003 benchmarks
GeForce FX 5900 Jedi Knight 2 benchmarks

* Zie voor meer reviews ook:

Moderatie-faq Wijzig weergave

Reacties (131)

1 2 3 ... 6
De mensen bij Nvidia kunnen zichzelf wel voor de kop slaan :) Als ze die paar kleine wijzigingen al eerder in een keer goed hadden gedaan waren ze destijds king of the hill gebleven.

Blijkt wel dat de architectuur van de chip zelf goed in elkaar zat/zit.

Ook leuk detail dat de klok lager draait. Er is dus nog wat ruimte voor de overclockers en opvolgers van deze kaart, mits er methodes voor voldoende maar stille koeling worden gevonden.
nVidia zag dat al lang aankomen hoor. Echter als er eenmaal gekozen is voor een bepaald procede en een architectuur dan kost het maanden om dat helemaal om te gooien en op de markt te brengen.

nVidia heeft er heel slim aan gedaan om de 'geflopte' FX8500 uit te brengen... Elke blad / website schreef er over, ondanks dat ze niet het snelste waren deden ze toch redelijk mee en vooral, erg belangrijk, ze stonden in alle belangrijke media.

En nu met deze kleine aanpassingen, waarover ze enkele maanden, een klein half jaar, hebben gedaan krijgen ze weer dezelfde media attentie, en zijn ze ook nog eens king of the hill :)
Verstandig? Je goede naam zo gigantische te grabbel gooien?

Iedereen heeft ze uitgekotst met hun cheat-drivers.
Verder ziet iedereen nu wat een ontzettend waardeloos ontwerp de NV30 was.

Met praktisch evenveel transistors, lagere klok, goedkoper geheugen is deze kaart veel en veel beter.

Dat deze kaart zo goed is maakt de blamage van de NV30 gewoon dubbel zo erg.
Nee, ze hadden beter gewoon wat eerder kunnen toegeven dat de NV30 een flop was, en niet proberen met cheat-drivers en schelden op 3DMark en review sites hun plekkie proberen te behouden. Er is nu toch veel schade aangericht die ze eerst weer moeten repareren
Iedereen heeft ze uitgekotst met hun cheat-drivers.
Verder ziet iedereen nu wat een ontzettend waardeloos ontwerp de NV30 was.
Het valt mij op dat je vaak het argument "cheat-drivers" naar voren brengt. Het is best dat je dat argument naar voren brengt, maar dan wil ik je er graag op wijzen dat ook Ati dit doet/heeft gedaan. link. Hier zie je dat Ati ook met bepaalde drivers met de beeldkwaliteit/snelheid schuiver heeft gekloot.
Met praktisch evenveel transistors, lagere klok, goedkoper geheugen is deze kaart veel en veel beter.
De NV35 is een voortvloesel van de NV30. Eigenlijk is het gewoon een NV30 met wat aanpassingen.
Dat deze kaart zo goed is maakt de blamage van de NV30 gewoon dubbel zo erg.
Nee, ze hadden beter gewoon wat eerder kunnen toegeven dat de NV30 een flop was, en niet proberen met cheat-drivers en schelden op 3DMark en review sites hun plekkie proberen te behouden. Er is nu toch veel schade aangericht die ze eerst weer moeten repareren
Zoals ik al eerder zei, de NV35 is er omdat de NV30 er is. De NV35 is een NV30 met wat aanpassingen die ervoor zorgen dat de prestaties veel beter zijn. Bovendien heb je het met de NV30 over alle GeForceFX kaarten van 5200 tot 5800Ultra.
En ATI is dan ook terecht afgebrand op die drivers. Net zoals dat nu terecht met Nvidia gebeurd.

Verschil is dat NVidia het nog veel bonter heeft gemaakt dan ATI.
Bij ATI was het geen van de review sites opgevallen totdat een externe bron hen er op wees.

Bij Nvidia was het na 5 minuten iedereen in het forum hier al duidelijk dat de helft van de objecten niet gerenderd werden.
De meer geniepige zaken zoals het uitschakelen van trilineair filtering heeft wel wat langer geduurd.

Dat de NV35 een NV30 met "wat aanpassingen" is bestrijdt ik. Die aanpassingen zijn toch weer redelijk ingrijpend.
Als dat namelijk niet het geval was zie ik geen reden waarom NVidia met die 6 maand vertraging van de NV30 niet al heeft besloten om die paar aanpassingen te doen.

En inderdaad heb je het met de NV30 over alle kaarten van de 5200, 5600 tot de 5800 Ultra. En al die kaarten vallen ook zwaar tegen.

Ik denk dan ook dat Nvidia zo snel mogelijk de 5200 en 5600 ook zal vervangen.
Nee, ze hadden beter gewoon wat eerder kunnen toegeven dat de NV30 een flop was, en niet proberen met cheat-drivers en schelden op 3DMark en review sites hun plekkie proberen te behouden.
Die kritiek op 3Dmark was volgens mij wel terecht nu blijkt dat de versie van pixelshader die gebruikt werd, wellicht nooit in echte games zal toegepast worden, aangezien programmeren ermee veel ingewikkelder wordt. }:O
Door (onder andere) deze miskleun kaart heeft nvidia 30% marketshare verloren, waarschijnlijk aan ATi. Laten we nou geen argumenten zoeken waarom de 5800 wel een goede kaart was...
Zoals Zhadum al zei (maar die is nu onterecht weggemodereerd - mod em maar terug naar boven :)):

Die 30% verlies is onzin!! Ze hadden maar net 30% in hun handen! Ze gingen er zelfs op vooruit!!
nogmaals de link:
http://www.tweakers.net/nieuws/26771
In het verhaal van X-Bit Labs over dit onderwerp is te lezen dat nVidia nog steeds de nummer één is. In totaal gingen er in het eerste kwartaal van 2003 maar liefst 53 miljoen videochips over de toonbank, geïntegreerde en mobiele cores meegerekend. Hoewel dit vijf procent minder was dan in het laatste kwartaal van vorig jaar, groeide nVidia's aandeel van 30 naar 31%.
En verder:
Het Canadese ATi Technologies, dat met zijn R300 en R350-chips de performancekroon veroverde, staat op de derde plek met 19% - één procentpunt hoger dan het laatste kwartaal van 2002.
Wat zit jij nou onzin te verkopen. Waar haal je die 30% vandaan....

Kijk hier...:
http://www.tweakers.net/nieuws/26771

en lees voortaan maar iets beter
Ik vraag mij af waar de moord-en-brand-roepende tweakers nu zitten. nVidia maakte even een misstap door een verkeerde techniek toe te passen. Het was gewoon gokken en ATI gokte goed. nVidia ziet de fout en kijk. Een halfjaar later ligt er een kaart in de schappen die weer brandhout maakt van ati's tegenhanger. Moet iedereen nu beginnen roepen : "Boe ATI, boe"? Leuk om weten dat nVidia terug deftig meedoet. Dan kan de prijzenoorlog beginnen en kan ik ook een nieuw kaartje kopen :)
Hehe nVidia komt eindelijk terug.. maar Ati komt binnenkort ook weer met de R390/R420 en wie weet..
'komt eindelijk terug'

De GF FX-5800 Ultra werd ook in januari al geintroduceerd. Loop eens naar je lokale pc winkel toe en kijk of hij op vooraad is?
Ze hebben hem net.

Over 5 maanden (beetje pessimistisch maarja) kunnen de dus de FX 5900 verwachten. Vind je het dan nog gek dat hij sneller is dan een Radeon 9800 Pro die nu in de winkel ligt?
PC boeren staan er natuurlijk ook niet om te springen om een videokaart in te kopen die geen hond wil hebben.

(Hoewel je bij sommige denkt dat ze uberhaupt geen videokaarten willen verkopen. Dynayte bv: 1 5800Ultra, en voor de rest alleen GF4 kaarten. Loop je dan achter of niet?)

Het zal inderdaad nog wel even duren voor die 5900 Ultra daadwerkelijk ook in de winkel ligt, maar ik denk eerder aan 2 a 3 maand.
Over 5 maanden (beetje pessimistisch maarja) kunnen de dus de FX 5900 verwachten.
Helemaal niet!
De FX5800 was niet verkrijgbaar omdat er gebruik werd gemaakt van duur en op dat moment nog moeilijk te produceren DDR-II . Hierdoor geraakten de kaarten al zeker niet bij de kleine handels en zelfs bij de grote waren er leveringsproblemen.
ATi is schappelijker geprijsd en heeft daarnaas niet een maar een stuk of 4 kaarten die je bij het top segment mag rekenen. Daarbij vraag ik me af hoezeer je ook na de release van de nieuwe Doom uitvoering zulke krachtige kaarten nodig zult hebben, men is het een beetje aan het overdrijven IMO. Natuurlijk gaat ook hier het "640 kb ram should be enough...." princiepe op maar met dergelijke kaarten denk ik dat je het langer uit kunt houden dan tot nu toe nog wel eens het geval wou zijn.
ATi is schappelijker geprijsd [...]
Dat hangt er vanaf of je perse een kaart met DirectX9 wil. Als je voor de Ti4xxx-reeks kiest, koop je kaarten met zeer goede performance voor het geld dat je ervoor geeft.
Verder zullen met de komst van deze nieuwe topkaart, de prijzen van de andere FXen vast en zeker wat dalen.

Dus een prijsverschil zou ik geen voordeel kunnen noemen voor Ati. Het grote voordeel van Ati is volgens mij dat de "eye-candy" :P veel beter weergegeven wordt dan door nVidia (daarmee bedoel ik dat de FSAA van Ati op dit moment nog beter werkt qua kwaliteit.) Voor wie meer belang hecht aan ultra-hoge resoluties ;) is een nVidia-kaart dan weer beter...
Pas binnen 2 maand dat de R390/R400/R420 uitkomt. Btw: de reel naam is R420, de R400 & R390 zijn de oude design namen. De echte R400 word de R500.

Verwarrend gelijk hell om al die naam veranderingen bij te houden :?
En toch vind ik die dikke koeling niks, ik heb al te weinig PCI, dus zolang ATI een kleinere koeling heeft wordt het geen GeForce
Iemand die 500 dollar betaald voor een grafische kaart is niet van plan die in een familie PC-tje te steken.

Die zal eerder terecht komen in een high-end game systeem. Aangezien het AGP slot en het eerste PCI slot een IRQ delen, zal je uit prestatie overwegingen dat eerste PCI slot toch niet gebruiken.

Het enige andere wat ik mij nog kan bedenken dat je in zo'n systeem zou willen zetten is een Audio kaart en wellicht een HD controller.

Maar met nog 5 PCI sloten over zal dat ook wel gaan lukken.

Dus dat probleem met het blokeren van het eerste PCI slot zie ik echt niet
cyberdeck bedoelt alleen een aansluiting voor infrarood op de plek van de bracket (met kabel vanaf mobo), er komt niets in de pci-poort te zitten....
Het enige andere wat ik mij nog kan bedenken dat je in zo'n systeem zou willen zetten is een Audio kaart en wellicht een HD controller.
TV kaart, USB/ Firewire Controller, WIFI kaart, ISDN/POTS kaart, IRDA controller, Video-editing/ MPEG, 2e PCI videokaart, DSP kaart, etc.
En toch vind ik die dikke koeling niks, ik heb al te weinig PCI, dus zolang ATI een kleinere koeling heeft wordt het geen GeForce.
Als je de reviews gelezen hebt, merk je dat de reviewers zeggen dat de nVidia-kaart deze keer minder storend lawaai produceert dan de Radeon 9800pro. Je kan zelfs een mp3 afhalen bij een van de sites, waarin de verschillende modi van de snelheid van de fan van nVidia te horen zijn en natuurlijk ook de Radeonkoeling als referencie. Op traagste snelheid is hij amper hoorbaar, in de andere snelheden wordt hij overstemd door geluid uit je boxen (games en zo), en is het zelfs zonder geluid niet zo storend.

Als het aantal PCI-sloten een probleem is omdat je teveel insteekkaarten hebt, heb ik een advies voor je: koop een nieuw mobo, bv (voor Athlon) een nForce2: alles is al geïntegreerd van PCI-kaarten. De PCI-sloten moeten dan enkel meer gebruikt worden voor bv een TV-kaart, of een Audigy2 (maar dit is eigenlijk al niet meer nodig met die soundchip van nVidia).
in de andere snelheden wordt hij overstemd door geluid uit je boxen (games en zo), en is het zelfs zonder geluid niet zo storend.
Hoor ik daar hetzelfde excuus als met de FX 5800 Ultra :+ :o
Ik vind het stom dat ze de metale strip ook 2 pci sloten breed maken :( .. Als ze die 1 pci slot breed laten, dan kun je daar nog een smalle bracket plaatsen (zoals m'n infrarood aansluiting, past makkelijk, zelfs met die fan ernaast!).

Bijna elk moederbord heeft wel brackets (usb ofzo) erbij zitten. Als Nvidia daar rekening mee houdt dan heb ik geen moeite met zo'n hoge fan.
wel moet erop gelet worden dat in doom3 de R3x0's de ARB2 path gebruiken en de Nv3x's de Nv30-path ( zonder floating-point berekeningen dus...) althans voor zover ik het begrijp in de review bij Tom's hardware...
Dat is dus niet gedaan in de review van AnandTech, daar gebruiken beide videokaarten dezelfde rendering-code. Op het moment in AnandTech niet fatsoenlijk bereikbaar, maar dat kan je vast binnen een paar uur nalezen :)
volgens mij gebruiken ook bij anand de Nv de NV30path en de ATI de ARB2 (allebij hun defaults)... maar als je weet dat de Nv30 trager is dan de r300 in de ARB2 path snap ik niet waarom ze die niet voor allebij gebruikt hebben. de ARB2 is de echte floating-point openGL versie die voor geen van beide geoptimaliseerd is en met de beste kwaliteit.
ook de ATI is sneller met de R200-path...
The Nvidia card will be fastest with "r_renderer nv30", while the ATI will be a tiny bit faster in the "r_renderer R200" mode instead of the "r_renderer ARB2" mode that it defaults to (which gives some minor quality improvements).
Voor mensen die willen weten hoe het nou met de geluidsproductie zit, hier een vergelijking tussen de Radeon9800pro en deze kaart:
http://firingsquad.gamers.com/files/audioclips.zip

Bij de 5900 hoor je hem trouwens in 3D mode schieten, dan gaat ie sneller draaien.

Conclusie: stil is anders, maar in vergelijking met de 5800 is het behoorlijk stiller.
Dan heb je een heel ander oor dan ik. Verschil vind ik meevallen tussen beide kaarten. En als benchmark moet geloven dan doet Nvidia beter en dus met koeling veel harder werken plus hij loopt al op 0.13.

Ik heb mijn vraag ook over betrouwbaarheid van deze mp3's. Welke afstand hebben ze genomen? Hebben beide systemen het zelfde moederboord, cpu etc. ? Verschil van kasten etc...?
firingsquad loopt al aardig tijdje mee en zal echt niet appels met peren vergelijken..

maar goed back ontopic: leuk kaartje... nu de prijs nog..
Mensen als je nog meer Previews zoekt: http://www.techview.nl/products/860
Er werd van tevoren al gezegd dat Nvidia al een risico nam met die 0.13 technologie. Het lijkt trouwens wel of hij ook niet meer zo'n extern voedingskabeltje heeft??
Jawel, kijk maar helemaal rechts-boven op het plaatje, daar zie je een zwarte molex connector :)
Jawel, die zit er wel. rechtsboven op dit plaatje. Alleen is hij anders geplaatst, haaks namelijk, wat me niet zo handig lijkt.

edit:
Te laat :(
Tuurlijk dat ie beter zal presteren met geoptimaliseerde drivers. Het is eigenlijk een oneerlijke concurrentie. Als Ati nou ook zijn drivers gaat optimaliseren om in bepaalde benchmarks beter te draaien, dan zullen we wel zien. ;).
Wat is dat ding groot! Lijkt wel die ouwe Voodoo's.......................


(edit: beetje onzin opgeschreven . weggehaald :+)
Jonge jonge, zelf heb ik nu een ati hee , voorlopig , maar je moet toch telkens niet gaan verwijten dat nvidia hun drivers optimaliseert. Ati heeft al lang de tijd gehad hetzelfde te doen. En dat ze de drivers optimaliseren voor bijvoorbeeld Lightwave of 3Dmax , daar hoor ik nooit niemand over janken !
Oneelijk, waar heb jij het nou over???

Een videokaart is niet alleen afhankelijk van hardware, De drivers zijn er ook er belangrijk, Volgens sommige analisten is hardware maar 50% van een totale pakket. Nvidia investeert erg veel tijd en geld in zijn drivers en daar staan ze ook immers bekend van. Ik heb een tijdtje een 9500pro gehad, kwaliteit van beeld perfect, maar hij liep regelmatig vast en in Dos zag ik alleen maar strepen.

E wie zegt dat concurrentie eerlijk moet zijn!!! Wie de beste product met beste drivers levert, wint.
Nee, de FX5900 heeft weer ouderwets DDR geheugen en geen DDR-II. Daarom kregen ze de bus ook weer op 256-bit.
inderdaad erg groot, ik had toen nog een voodoo 2 die ik zelfs een klein beetje moest ombuigen omdat de CPU in de weg zat.

Ja....het was een raar moederbord :?

Maar deze kaart ziet er wel stoer uit
ik heb eens gekeken op de site van Nvidia maar daar word met geen woord meer gerept over de GF FX 5800 Ultra! Zouden ze hem niet meer produceren of willen ze hem vergeten?

http://www.nvidia.com/view.asp?PAGE=fx_desktop

Alleen de 5900, 5600 en 5200 ultra staan nog op de site...
ik heb eens gekeken op de site van Nvidia maar daar word met geen woord meer gerept over de GF FX 5800 Ultra! Zouden ze hem niet meer produceren of willen ze hem vergeten?

http://www.nvidia.com/view.asp?PAGE=fx_desktop

Alleen de 5900, 5600 en 5200 ultra staan nog op de site...
De link naar de GeForceFX 5800 en de GeForceFX 5800Ultra kan je hier vinden:
http://www.nvidia.com/view.asp?PAGE=fx_5800

Overigens heeft nVidia maar 100.000 exemplaren van de GeForceFX 5800Ultra laten maken. TMSC heeft de opdracht gekregen om na de 100.000 grens te stoppen. Als ik heb mij goed herinner zijn er 50.000 aan OEM's verkocht terwijl de overige 50.000 direct aan de consument zal worden verkocht.
zo'n grote voorsprong zie ik hier echt niet hoor, ik zou da wel eens willen zien presteren onder NORMALE omstandigheden en niet met de beste P4 en rapste rams en zo'n dingen, de meeste mensen hebben toch niet echt zo'n systeem

just my 2 cents ;)
Je hebt gelijk maar:

Binnenkort zullen ook test opduiken waarbij het verband tussen (met name) CPU snelheid en de videokaartsnelheid wordt getest.

Soms heeft een videokaart een hele snelle "omgeving / CPU" nodig om tot zijn recht te komen.
Indien je een langzame CPU met zo'n kaart combineert haal je er lang niet alles uit terwijl je wel een flinke meerprijs betaald voor de kaart.
Je bent dan beter af met een eenvoudiger model.

Het heeft dus vaak niet veel nut om een topkaart te kopen indien je een relatief langzaam systeem hebt.

Dit is 1 vd redenen waarom het niet erg is om met een bovengemiddeld systeem te testen.
Een andere reden is dat het interessant is om te zien wat een kaart onder optimale omstandigheden kan en dus referentiepunt van de laatste stand der techniek is.

pfff. those were my 2cts. :D
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True