Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 152 reacties
Bron: X86-secret, submitter: hiostu

De Franse site X86-secret, die zich normaal niet buigt over het laatste GPU-nieuws, heeft die gewoonte dit maal laten varen door nieuws en foto's te publiceren van nVidia's GeForce FX 5900 Ultra. De FX 5900 Ultra is de eerste videokaart die gebaseerd wordt op de NV35-chip en moet de opvolger worden van de minder succesvolle FX 5800-serie. Volgens de Fransen zal de FX 5900-serie op veertien mei officieel aangekondigd worden en begin juni in de winkels liggen, in zowel een Ultra- als een non-Ultra-versie. De FX 5900 Ultra wordt uitgerust met een core-snelheid van 450MHz en 256MB GDR-geheugen op een snelheid van 850MHz (2x 425MHz). De non-Ultra FX 5900 krijgt 'slechts' 128MB GDR-geheugen mee, waarbij de core op 425MHz loopt en het geheugen op 800MHz of 850MHz.

nVidia GeForce FX 5900 Ultra logoEen van de belangrijkste verbeteringen aan de NV35-chip is de geheugenbus, die nu 256-bits breed is. Hiermee moeten de bandbreedte problemen van de FX 5800-serie opgelost zijn, waardoor de prestaties niet meer beperkt worden door het geheugen. nVidia lijkt te hebben geleerd van de rel rondom de koeling van de FX 5800-serie, die uiterst luidruchtig bleek. De FX 5900-kaarten halen hun verse lucht niet meer van buiten de kast, maar hebben weer een 'conventionele' heatsink die de core en de geheugenchips bedekt. Aangezien het AGP-slot niet genoeg stroom kan leveren aan de kaart, is er een molex-connector aanwezig op de videokaarten. Daarnaast worden er ook prijzen genoemd; de FX 5900 Ultra moet $499 gaan kosten, de FX 5900 $399 en een eventuele Lite-versie, waarvan nog geen specificaties bekend zijn, moet voor $299 over de toonbank gaan.

nVidia GeForce FX 5900 Ultra foto 1

nVidia GeForce FX 5900 Ultra foto 2

Bij TT Hardware, een andere Franse site, zijn inmiddels benchmarks verschenen van de FX 5900 Ultra. De Fransen hebben de getalletjes naar eigen zeggen van een contact uit Litouwen. De FX 5900 Ultra is getest met Detonator 50.xx-drivers, maar ook met drivers die dichter in de buurt liggen van de drivers die we tijdens de introductie zullen zien. Deze twee getallen worden vervolgens vergeleken met de prestaties van de FX 5800 Ultra en de ATi Radeon 9800 Pro. De 3DMark03-prestaties van de FX 5800 Ultra zijn overigens uit Futuremarks' database gehaald, omdat de kaart niet voor handen was. Hoewel de FX 5900 Ultra met 'gewone' drivers al wint van de andere twee kaarten, is het prestatieverschil met de toekomstige 50.xx-drivers groot te noemen. TT Hardware is wel zo eerlijk om te vertellen dat de NV30-kaarten een vertekend beeld kunnen geven in 3DMark03, met als oorzaak beperkingen in Floating Point-berekeningen. Deze problemen zijn in de FX 5900 Ultra waarschijnlijk opgelost, waardoor het verschil wellicht groter lijkt dan het is.

3DMark03 1024x768
GeForce FX 5900 Ultra (Detonator 50.xx) 6678
GeForce FX 5900 Ultra (gewoon) 5981
GeForce FX 5800 Ultra (Detonator 43.51) 5429
ATi Radeon 9800 Pro 5496
3DMark03 resultaten van de nVidia GeForce FX 5900 Ultra

Lees meer over

Gerelateerde content

Alle gerelateerde content (27)
Moderatie-faq Wijzig weergave

Reacties (152)

1 2 3 ... 8
Nou, benieuwd wat dit kaartje gaat doen. En dan niet alleen benchmarks van de té bekende sites in de gaten houden, maar ook de forums, want dan weten we pas echt wat de kaart in realworld doet, bij de gebruiker thuis in verschillende config's. Hopelijk is dat lipje aan het einde vd kaart niet op de uiteindelijke versies te zien, het lijkt me namelijk behoorlijk in de weg te kunnen zitten bij overige componenten op je mobo, leuk als bijv. net je CMOS batterijtje op die hoogte blijkt te zitten. En de molexstekker mogen ze van mij ook wel op z'n buikje leggen, lijkt me mechanisch ook ff steviger dan deze constructie, om over bedrading in 'n rare lus maar te zwijgen. Verder zal het "haardroger/bladblazer" effect nu wel 'n stuk minder zijn, ik hoop nu alleen niet weer met een enorme warmteophoping in de kast te zitten, als ze alleen wat aan de constructie en niet aan de warmteafgifte gedaan hebben. Dat er nog steeds 'n PCI slot afvalt boeit me verder niet, die gebruikt de betere computersamensteller toch niet. Het is echter wel jammer dat je er nu geen USB of IEE1394 slotje kwijt kan, want dat zijn nou net de mooie plekken voor die dingen.
een beetje tweaker zaagt dat extra stukkie metaal af voor z'n usb slotje...
Het kan zijn dat die tweaker dan z'n airflow blokkeerd gezien er soms enorme brokken plastic achter de USB chassisdelen zitten ;). Om over garantie verval maar ff niet te spreken, maarja, dat doen we toch nooit hier :). Maar daar kun je in ieder geval beter eerst ff checken alvorens de zaak erin te zetten ;).
Verder zal het "haardroger/bladblazer" effect nu wel 'n stuk minder zijn, ik hoop nu alleen niet weer met een enorme warmteophoping in de kast te zitten, als ze alleen wat aan de constructie en niet aan de warmteafgifte gedaan hebben.
Hun koelingsconstructie was ook helemaal niet goed qua performance! Overclocken was immers onmogelijk. Het zou gemakkelijk kunnen zijn dat deze constructie veel beter koelt dan hun fantasietje.
Wat een onzin! Ik ga toch niet zomaar één benchmark geloven! Bovendien had nVidia voor de 5800 Ultra ook aangepaste drivers om beter te presteren in 3dMark. Dus wie zegt dat ze dat bij deze driver niet weer hebbben gedaan? Wederom, en dat deed ik ook bij de 5800 (Ultra), w8 ik wel weer op de reviews van ome Tom, Anandtech, HotHardware, etc. Dan pas trek ik conclusies. Wat zegt één benchmark? Bovendien, het is 1024x768, en hoe presteert deze op hogere resoluties? Want daarvoor koop je zo'n kaart. En hoe zit het met de AA & AF? En de kwaliteit daarvan? En je verliest weer een PCI zoals je kan zien....Nee, mij moeten ze nog over de streep trekken....
Die Detonator 43.51 is zeker weten zo'n aangepaste versie, want met normale drivers presteerde de FX5800Ultra een stuk slechter dan de 9700Pro.
Ik koop een kaart NIET in de 1e plaats voor hogere resoluties. Ik find framerates veel belangrijker en speel dus eigenlijk altijd op 1024*768

In een FPS game met redelijk wat eyecandy aan kan de framerate niet hoog genoeg zijn wat mij betreft.

Dat neemt niet weg dat ik ook graag goede prestaties zie op hogere reso's
Mja, maar met deze kaarten kan je ook op 1600x1200 goed spelen (met AA & AF), op een goede 60 fps. En jij merkt echt niet het verschil tussen 60, 100, 300, 1000, 1xxxxx fps. Dus daarvoor hoef je niet te spelen op 1024x768.
Die molex lijkt me zo niet echt super handig zitten want zo komt je stekker haaks op je kaart te staan en lijkt me een zwakke plek. Kan snel buigen en mischien breken als je per ongeluk met je hand er tegenaan stoot als je een pci kaart uit je mobo trekt oid.
Als ze er nu een AGP pro aan hadden gemaakt, was de molex niet meer nodig geweest.
Waar, maar het overgrote deel van de moederborden heeft géén AGP Pro slot. Dat zou betekenen dat de meeste mensen een videokaart niet zouden kunnen plaatsen en dat kan nooit het idee zijn.
lees de reacties eens het is er al weer af. zo gezecht:

"News retirée à la demande de NVIDIA"

zelfs nvidia vond dit geen goede review. Dit kan betekenen dat de kaart nog veel sneller is(lijkt mij niet). Of dat nivdia er voor wil zorgen dat mensen niet teleurgesteld raken. De test heeft dus een laag waarheidsgehalte.
Ja dat vond ik ook al opvallend.

Als deze resultaten idd representatief waren geweest, had het voor Nvidia geen kwaad gekunt om deze nog ff te laten staan.
Misschien dat ze idd bang zijn mensen teleur te stellen of dat ze bang zijn dat ze hun voorraad FX5800 niet meet kwijt raken. In ieder geval kan ik me niet voorstellen dat de FX5900 nog erg veel sneller zal worden.

Ook ben ik zeer nieuwsgierig naar de FSAA en AF resultaten. Ook ben ik erg nieuwsgierig wat er gebeurd als men de kwaliteit van de mip-map-niveaus, alphablending(*) e.d. omhoog gooit. Dit had voorheen zeer negatieve effecten op Nvidia spul. iig was de preformance-drop beter te merken dan bij ati hardware (na de rage1).
(* = verhogen van de kwaliteit van mip-maps en blending leidt vaak tot een veel betere beeldkwaliteit)
Detonator 50.xx... Dat zijn toch de 64 bit versies? Of is die meuktracker entry 'gewoon' een 64 bit versie van de 50.xx detonators?

Ik zie op de foto's dat ze nog steeds een radiaalkoeler gebruiken, jammer... Die dingen zijn niet bepaald stil :) De koeler heeft trouwens wel iets weg van het geval dat Club3D op hun 5800 gebruikt.
In het origineel artikel wordt enkel de hoop uitgedrukt dat het geluidsniveau minder zal zijn, meer wordt er niet over gezegd.

Maar goed, de resultaten zijn duidelijk. Waar het verschil tussen de FX 5800 ultra en de Radeon 9800 Pro volgens het grafiekje hierboven minimaal zijn, blaast de FX 5900 ultra de Radeon 9800 Pro gewoon weg. Meer dan 1000 3DMarks beter!
Terug naar af voor ATI, NVIDIA did it again.
Beetje vreemd wat je hier zegt... Ze hopen dat het geluid minder zal zijn. Ze hebben de kaart toch getest??? dan zullen ze ook wel weten hoeveel lawaai dat ding zal moeten maken.

Ik neem deze review met een korreltje zout.
Wacht wel tot dat de grote sites met de echte reviews komt en wat meer over die nieuwe drivers kan vertellen.
De kaart zal ongetwijfeld sneller zijn dan zijn voorganger, maar ja... welke is dat niet?? :)


[edit]TYPO[edit]
Hiermee trekken ze dus na een lange tijd toch weer ATi eruit.

Je kan ook zien dat ze de laatste tijd hiervoor ook hard die drivermakers aan hun staart hebben getrapt. De release van de eerste Detonator 40 was niet zo lang geleden.

Edit: Typo :+
Yep, maar voor hoelang? De FX 5900 is nog niet uit en tegen de tijd dat die in de winkels te koop is, zo rond juni als we de geruchten mogen geloven, heeft ATi waarschijnlijk ook een nieuwe GPU, of komen ze daar kort daarna mee.

nVidia heeft met de eerste FX de plank mis geslagen en het zal moeilijk worden om de achterstand die ze nu hebben in te lopen, zowel nVidia als ATi hebben aangeven dat ze om het half jaar met een major release willen komen.

nVidia loopt nu achter en zonder fouten van ATi zal het moeilijk worden om die achterstand in te halen, de FX 5900 is bij uitkomst misschien wel de snelste, maar als ATi vlak daarna met een opvolger komt die weer sneller is schiet het voor nVidia niet echt op.
En zo zal het altijd zijn.
Je heb baas boven baas.
Dan is ATI sneller en dan weer Nvidia....
Er is een heel groot verschil tussen productcyclus en de snelheid waarmee nieuwe producten zich opvolgen hoor :)

Productcyclus is nix ander dan de duur waarvoor producten gemaakt worden. Dus b.v. de 9500 Pro is nu 6 maanden op de markt, dat zal dan nog 1, 5 jaar zo blijven. Ieder nieuw product zal dus 2 jaar leverbaar blijven.

ATi heeft wel degelijk gezegd dat ze ongeveer ieder half jaar met wat nieuws zullen komen. En in de 2de helft van dit jaar zal dan ook de opvolger van de R350 ( Radeon 9800Pro ) ten tonele verschijnen.
Even een kleine toevoeging, want je bent niet helemaal volledig. ATi heeft aangegeven dat ze hun productcyclus verlengen, maar dat wil dus niet zeggen dat ze hun halfjaarlijkse vernieuwing missen.

Het verlengen van de productcyclus wil alleen zeggen dat ze langer voort gaan borduren op een bepaalde core. Met andere woorden: ze zullen meer refreshes van een bepaalde core uitbrengen.

Zo is eerst de R300 uitgekomen. Een half jaar later kwam de R350 uit als refresh. Er is ook een 0,13u variant van de R350 met DDR2, maar of die echt gereleased gaat worden is nog maar de vraag. Een andere refresh in de vorm van R390 staat er ook aan te komen in de herfst (weer 6 maanden later), alhoewel deze waarschijnlijk onder de naam 'R420' gereleased zal worden (en sneller zal zijn dan de oorspronkelijke R400 die niet meer uit komt).

Dus ATi verlengt gewoon de levensduur van een product, door meerdere refresh-producten uit te brengen die gebaseerd zijn op dezelfde core, ipv elk jaar met een compleet nieuwe architectuur te komen.
ATi hebben aangeven dat ze om het half jaar met een major release willen komen.
Jochie's zaten zeker te dutten toen dit nieuws de wereld in geholpen werd.

http://www.tweakers.net/nieuws/26457/?highlight=ati

Zoals jullie zien heeft Ati zijn productcyclus verlengd tot 24 maanden.
Er is anders een hele lange tijd geweest dat Nvidia heerser was hoor, dus zo normaal is dat niet...
Achterstand? In het high-end gamma wel, maar dat is maar een heel klein deel van de markt. nVidia is samen met Intel nog steeds koploper met grote voorsprong. http://www.tweakers.net/nieuws/26771/
Als je iNtel als koploper erbij staat dan moet al een gigantisch lampje gaan branden dat daar ook de mobile markt er bij zit dus die mobile chipsets met intergrated GPU.

Ik zou graag de OEM en Retail markt cijfers gecombineerd en appart zien van losse G-kaarten.

mobil hoort niet in het rijtje thuis.

Vooral hier op tweakers net en Got is juist de retail van belang.

Maar ja nVidia is daar ook marktleider.
zou die koeler zo zwaar zijn dat deze kaart met twee schroeven vastgemaakt moet worden om niet af te breken?

En hoe betrouwbaar zijn deze benchmarks?
Ik had tot dit bericht nog niks gehoord over een 5900...
hmm die benchmarks lijken me een beetje onzin...zekr omdat die 5800 score uit de 3dmanrk database is gehaald. en 5400 punten for een 9800pro is dat niet wat aan de lage kant...

edit: ik zie al scores van 8000+ met een 9800pro ok overclocked maar toch...om een beetje normalle scores te hebben: P4@3122Mhz 9800@378/337, das dus lager geclocked als de 5900ultra , 6514pnt
Die zit behorlijk vast als je de plaatjes ziet en je bent een PCI slot kwijt.

Die bevestiging lijkt wel meteen soort van pop-nagels te zijn.

Dat wordt lastig voor WC-installateurs onder ons.
Maar niet onmogelijk }>
Wie geeft er nu nog iets om PCI sloten de meeste mobo's hebben er 5 tot 6 en alles onboard (Sound/lan/ *kuch* VGA). Kan er echt wel 1tje missen hoor.
Daar zit ik dan weer te kijken met mn shuttle kastje.. kan deze kaart niet in.. vind het zowiezo lomp om gewoon 2 sloten op te eisen... misschien moeten ze eens zoeken naar methoden om een chip te maken die niet zo belachelijk warm wordt.?? dan non stop te concentreren op snelheid..
misschien moeten ze eens zoeken naar methoden om een chip te maken die niet zo belachelijk warm wordt.?? dan non stop te concentreren op snelheid..
**NEWSFLASH**

Er bestaan ook Ati radeon 8500's, 9000's, 9200's en 9500's die helemaal niet zo warm worden, weinig koeling nodig hebben en waarvan de fan niet veel geluid maakt (of er niet eens op zit!). Daarmee kan je ook prima spellen spelen hoor :).

Nvidia heeft de Gforce4 MX420 en 440 die ook niet al te heet worden. Volgens mij wordt een snelle GF4 niet eens zo heel erg heet. Matrox heeft de G550 zonder fan die niet zo heet wordt en ga zo maar door.

Videokaartfabrikanten hebben zulke kaarten dus gewoon. Daarnaast hebben ze ook de kaarten voor de die-hard gamers die graag hoge resoluties willen, 4x ansiotropic filtering cool vinden, vochtige ogen krijgen van 6XFSAA en verder de kast gewoon koelen met een extra dikke 12cm fan voor en achterin de kast. Die moet jij dus niet hebben, maar die moeten ze wel blijven maken, gewoon omdat er vraag naar is. Voor jou zijn die andere kaartjes gemaakt :). Iedereen blij 8-).
ooit gehoord van het verhaal: supersnelle kaart en normaal handelbaar, dit was namelijk de radeon 9700 pro ook terwijl dit toch een High end kaart is
ooit gehoord van het verhaal: supersnelle kaart en normaal handelbaar, dit was namelijk de radeon 9700 pro ook terwijl dit toch een High end kaart is
Jahoor, maar je kan niet alles hebben. Meer snelheid is onlosmakelijk gekoppeld aan meer warmte. De GF-FX loopt gewoon op een hele hoge kloksnelheid en wordt daarom heet.

Dingen doen aan het hitte probleem, doen de chip-fabrikanten constant, alleen brengen ze dan meerdere uitvoeringen op de markt, omdat je een koelere chip vaak ook hoger kan klokken (en hij dan weer heet wordt): Snelle die heet worden en minder snelle die niet zo heet worden.
Volgens mij wordt een snelle GF4 niet eens zo heel erg heet
Heb Ti4200 128 mb + cooler(soundless), maar die rent toch gauw over de 40 graden bij mij (vind ik te warm), daarentegen is mijn comp kast 1 grote fan.
Dus niet te snel oordelen, het is namelijk maar net wat andere mensen ervan denken!
Ze hebben de koeler gewoon dikker gemaakt voor een betere airflow en om ervoor te zorgen dat er niets naast gepropt word hebben ze die bracket ook 2x zo breed gemaakt
Ja, zo kun je dat eerste slot dus voor helemaal niks meer gebruiken. Ik heb een bracket met 2x usb en 2x firewire bij mijn moederbord gekregen (zoiets krijg je bij de meesten, tegenwoordig), en dat zette ik altijd op die plaats. Bracket erin, kabeltje op het moederbord prikken, en klaar. Daar heeft de koeler van de grafische kaart geen last van.

Nu ben je niet alleen het eerste PCI slot kwijt, maar ook nog je eerste bracketgleuf. Moet ik al die brackets (er zit er ook nog een bij met SPDIF/Gameport, en nog een andere...) dan maar vóór mijn andere PCI sloten gaan zetten?!

In plaats van de mogelijkheid om 6 fans te plaatsen in een kast, waar veel fabrikanten prat op gaan, kunnen ze er beter maar aan beginnen om extra sleuven voor brackets te maken, zodat je die dingen niet meer voor je PCI sloten hoeft te zetten.
In mijn kast zit er boven de AGP slot ook nog een bracket. Dat kun je normaal gebruiken voor die USB dingetjes van jou. Of heeft jouw kast dat niet?
dat hangt af van hoe hoog of laag uw AGP slot zit op het mobo, bij een abit NF7 bijvoorbeeld zit het AGP slot helemaal bovenaan maar heb je wel nog 1 slot vrije ruimte onder de vga kaart, zodat je zelfs met een 5800/5900 geen pci slot verliest.
wat denk je van een ijzerzagje?
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True