Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 67 reacties
Bron: X-bit Labs, submitter: T.T.

In tegenstelling tot wat nVidia's CEO verwachtte, is de GeForce FX 5900 nog steeds niet verkrijgbaar. Zoals het er nu naar uitziet zullen de eerste modellen vanaf medio juni verkrijgbaar zijn of zelfs als het nog meer tegenzit pas begin juli, zo meldt X-bit Labs. Zoals gewoonlijk met alle nieuwe computerapparatuur zal de videokaart als eerste in Japan te verkrijgen zijn en daarna zullen de Verenigde Staten aan de beurt zijn.

Dit alles komt toch een beetje vreemd over, aangezien nVidia aangaf dat er al in maart en april een voorraad was opgebouwd van GeForce FX 5900-chips, maar blijkbaar is er toch zoveel vraag naar dat de gewone consument nog steeds moet wachten. Wat ook mogelijk is, is dat de distributeurs en verkopers nog altijd met een lading GeForce FX 5800-kaarten in de maag zitten en deze eerst kwijt willen voordat zij overschakelen op de nieuwe high-end videokaart van nVidia:

According to the report, the GeForce FX 5900 Ultra with 256MB of DDR SDRAM memory and VIVO capabilities will be sold for roughly $585 in Japan. The GeForce FX 5900, a bit less advanced graphics card with 128MB of memory and without VIVO, will cost about $470 in the same country.

nVidia GeForce FX 5900 Ultra perspic (hoek, groot)
Moderatie-faq Wijzig weergave

Reacties (67)

Wat ook mogelijk is, is dat de distributeurs en verkopers nog altijd met een lading GeForce FX 5800-kaarten in de maag zitten en deze eerst kwijt willen voordat zij overschakelen op de nieuwe high-end videokaart van nVidia:
Denk niet dat ze die nog veel zullen verkopen
zeker aangezien je beter kunt wachten op fx 5900
voor de helft van de prijs :+
Dat denk ik niet, omdat er altijd wel ontwetende mensen zijn die toch een FX5800 zullen kopen.
Och, aangezien de performance van de 5900 voornamelijk in de drivers lijkt te zitten, doet de 5800 het met die drivers ook heel aardig.

Totdat de review sites nieuwe benchmark resultaten plaatsen waarin de rest van de cheats naar voren komen ;)
Overbodig of niet overbodig, als ze met 5800 kaarten in hun maag zitten, dan weet ik nog wel een adresje die ze voor een lief prijsje wil overnemen... :)

Met andere woorden, laten ze het overschot aan 5800's voordelig van de hand doen. Als ze er voor zorgen dat de prijs net onder die van de Radeon9700 zit, dan weet ik zeker dat er zat mensen zijn die ze zullen kopen.
Opzich een goed idee, alleen zijn de kaarten al verkocht door nVidia aan de diverse retailers en daar ligt het probleem ook. nVidia kan de voorraad die ze zelf hebben liggen wel voordelig van de hand doen, alleen niet die al verkocht zijn.

Als nVidia dat wil, zullen ze een deel van de verkoopprijs terug moeten geven aan de diverse retailers die op hun beurt weer de prijzen kunnen laten zakken zonder zelf erbij in de schieten.

nVidia kan natuurlijk ook wachten tot de retailers het zat worden dat de voorraden niet verkocht worden en dat ze zelf maar de prijs laten zakken.
Sja ... ze zitten met de FX 5800 kaarten in hun maag, hoe zou dat nu toch komen?

ze leveren ook helemaal geen gehoorbescherming bij die kaart. }>
Zeg nu zelf wie zou er nu voor dat geld in die pokkeherrie willen zitten? ;(
De ventilator die gebruikt wordt is niet van het normale type en deze maken aanzienlijk minder herrie (lees, meer lucht verplaatsing bij lagere toerentallen..) De exactie benaming weet ik niet maar ik goed centrifugaal oid
De FX5800 maakt nog steeds gebruik van een Flow-FX :r
Word weer hevige concurrentie tussen Ati en Nvidia.

De Geforce FX 5900 is waarschijnlijk wat sneller dan de Ati Radeon 9800 pro maar ook wel 150 euro (!) duurder.

Ben ook benieuwd hoeveel verschil er in snelheid er gaat zitten bij 128 mb en 256 mb van de geforce FX.
Dat heeft Ati iig goed gedaan vrijwel direct na de release verschenen ook de eerste kaartjes (zelfs hier). Nvidia doet hetzelfde als amd heeft gedaan. een paper launch. Dit vind ik bedroevend. Ze kunne net 2 kaartjes maken en denken dat dat er een nieuwe kaart is die wodt gelanceert maar is nog 2-3 maanden niet te krijgen. (hier waarschijnlijk pas ergens in juli) terwijl de 9800pro al redelijk te krijgen is.(heb er zelf ook een).

Erg jammer.
Hoe langer nVidea wacht hoe slechter ze het voor zichzelf maken. De 9800 Pro ord alleen maar goedkoper dus dan is het prijsverschil bij introductie van de GF FX 5900 Ultra alleen maar groter.
Patrick,

Nvidia wacht inderdaad wel lang met de nieuwe FX. Maar het lijkt me beter dat ze eerst hem perfect in orde krijgen dan dat ze weer te vroeg die kaart op de markt brengen en hij niet goed presteert en niet stabiel is. Kijk maar naar de 5800 van hun. Kwam al te laat en die kaart viel ook nog eens vies tegen.

Dus ik denk dat ze het best eerst de kaart echt top moeten maken en niet weer te vroeg lanceren zoals er met de 5800 ook is gebeurd.
Op dit moment lanceren zou inderdaad niet handig zijn.
Ze hebben even nog een paar weken nodig om een nieuwe set drivers met nieuwe cheats te bouwen... ;)
Laat ze eens een keer concentreren op zuinigheid, stilte, en kwaliteit ipv snelheid. Al die FPSjes zijn de mensen toch wel overheen lijkt me? Snel snel snel kan naar mijn idee nu wel overgelaten worden aan CPU's ipv GPU's. Er zijn zelfs videokaarten met 256MB geheugen. Beetje overkill, maarja marketing he :) Op een bepaald moment zal of de markt of nVidia/Ati wel genoeg van de race krijgen, en zich ergens anders op concentreren. * 786562 ReemF
256 mb overkill? Nu misschien, maar ik ga nu natuurlijk geen videokaart van 550+ euro kopen om over drie kwart jaar weer een te kunnen kopen (okee, sommige mensen.... :)). Ik denk dat je straks met Doom 3 pas optimaal kan spelen met 256mb. Niet alleen voor de textures, maar ook omdat AA & AF anders niet goed lukken samen met 128mb aan textures en een hoge resolutie. Want dat is uiteindelijk waar je zo'n monsterkaart voor koopt toch?
Stilte, kwaliteit EN snelheid is nu al bewaarheid. (R300)
Dan is alleen nog maar de vraag hoe zuinig je het wilt hebben. Zuinigheid is niet meteen iets waar veel vraag naar is bij desktop kaarten.
Eindelijk , nu de zomervakantie voor de deur staat , ideaal moment. Waar kan ik nu reserveren ? :9 en welke merken zullen hem eerst hebben ? Hopelijk niet alleen Gainward , anders moeten we er weer zo'n nutteloze firewire en soundcard bijnemen |:(

EDIT : THX to SUB , foutje :p
Voor de zomervakantie? Omdat ut dan mooi weer is en je je PC mee kan nemen naar ut strand?
Shhh.
Hij moet er nog achter komen dat die kaart niet in zijn laptop past.
:)
Weet je dan niet dat die melkwitte tweakers hl de zomer achter hun pc-tje zitten met de luiken stevig dicht tegen de zon die de temperatuur van hun pc-tje 2 omhoog kan laten gaan?

Hopelijk is die rond oktober betaalbaar. Want zo'n kaartje wil ik ook wel in mijn pc. En doe mij wel maar een Gainward.
Neen,

Sommige Belgen blijven eens een jaartje thuis weet je, en gaan niet op zomer vakantie. Ik weet dat Hollanders elk jaar met de caravan er massaal op uittrekken , maar ik blijf dit jaar eens lekker thuis. En neen, ik ben niet lijkbleek :p :p :p

Half dagje buiten werken en half dagje gamen zie ik wel zitten :p
koelkast open
Dan wordt het binnen dus warmer.
Luiken dicht helpt dus niet (lucht circulatie)
Mijn pc is bij 30 graden buiten met gordijnen open en raam open zo'n 45 graden (totaal), als ik gordijnen dicht doe en mijn raam ook + koelkast open, dan is mijn pc ook 45 graden.

Licht dus beetje aan situatie ;)

Mooi kaartje trouwens, maar ze houden niet genoeg rekening met de mensen die nog steeds op een desktop model werken, daar dus te weinig ruimte hebben voor een pci slot minder.
[persoonlijke mening] Ati Radeon 9800 Pro is toch beter :P [/persoonlijke mening]
Neen,

Sommige Belgen blijven eens een jaartje thuis weet je, en gaan niet op zomer vakantie. Ik weet dat Hollanders elk jaar met de caravan er massaal op uittrekken , maar ik blijf dit jaar eens lekker thuis. En neen, ik ben niet lijkbleek :p :p :p

Half dagje buiten werken en half dagje gamen zie ik wel zitten :p
Ik ben geen hollander, ik heb geen caravan en ik blijf ook thuis.
dat was gainward ofzo
Denk niet dat ze die nog veel zullen verkopen
zeker aangezien je beter kunt wachten op fx 5900
Misschien wij tweakers niet, maar voor de 'normale' consument zal dit kaartje gewoon nog wel aantrekkelijk zijn.
pak de snelste is nu reeds vele maanden goed verkrijgbaar .... je weet wel van dat andere ( niet cheatende) merk.
ZUCHT. Moet ik beginnen over ATI en Quake? Kortom, beetje nutteloze reactie
Inderdaad , men moet dit cheat argument maar achterwege laten. Ati doet het nu nog steeds ! Herinstalleer maar een de ati drivers , bijv 3.4. Reboot je system en installeer het control panel, terug reboot, en wat blijkt ! Bij OpenGL ; Texture quality staat nog steeds op 3/4 , dus niet op max kwaliteit. Why Ati , WHY.

Ik heb nu ook eens een ati gekocht om es te zien of het de moeite was of niet. Globaal gezien wel tevree van maar toch net ietsje meer problemen gehad dan met mijn vorige 3 Nvidia's. Ik zeg niet dat ze slecht zijn , maar bij Nvidia had ik het makkelijker wanneer ik in een game een driver probleem had. Gewoon 2 weken later een nieuwe bta erop , et voila , weer ok ...
Inderdaad , men moet dit cheat argument maar achterwege laten. Ati doet het nu nog steeds ! Herinstalleer maar een de ati drivers , bijv 3.4. Reboot je system en installeer het control panel, terug reboot, en wat blijkt ! Bij OpenGL ; Texture quality staat nog steeds op 3/4 , dus niet op max kwaliteit. Why Ati , WHY.
Hoe is dat een cheat? Als het niet bevalt zet je 'em toch lekker voluit? nVidia zet zijn kaarten ook niet op de hoogste kwaliteit bij standaard, moet je ook zelf doen. Verder staat alles wel op 't hoogste.

Zelfs dan nog, alle sliders op de helft en side-by-side screenshot vergelijkingen laten zien dat ATi's beeldkwaliteit toch nog beter is dan de FX kaarten :)
Raar maar waar. (Nee, geen links, zelf wat research doen mag ook best.) :)
Gewoon 2 weken later een nieuwe bta erop , et voila , weer ok ...
Dat is een pluspunt voor nVidia idd. betas kunnen soms handig zijn :D
Als ze niet iets anders slopen, that is ;)
Wil je eens stoppen met :Z , een radeon met zelfs deze slider op 3/4 , is al een enorm verschil...

En een noob die niet zijn control panel installeerd of nog niet weet waar hij zijn vsync afzet , die gaat spontaan dan hogere framerates krijgen. Waarom doen ze het dan enkel bij Opengl ? Verdacht niet ? Kunnen ze even goed doen bij D3D , maar dat zou teveel opvallen daar er meer D3D games zijn waar dit te duidelijk zou opvallen.

Op request wil ik wel eens plaatjes maken van het verschil :p , deze avond dan ...
Wil je eens stoppen met :Z
Waarom snap ik eerlijk gezegd ook niet, niet voor benchmarks in iedergeval, want die worden gedaan in D3D. &gt ;)
Hoe dan ook, 't eerste wat ik doe is die slider op zn hoogst zetten, en er gaat er nooit eentje ook maar iets lager. :)

Die noob waar jij over spreekt zou bij een nVidia kaart hoogstwaarschijnlijk ook nooit zn slider van "Balanced" afhalen, nog een stukje kwalijker, omdat die slider gelijk over alle settings heengaat. Of niet?
&gt ;)

edit: hij weigerde dit te replyen op jou -GF-, dus moest 'ie maar als reply op mezelf :/
Misschien moet jij maar even je huiswerk gaan doen voor je meeblaat met de rest. &gt ;)
http://www.rage3d.com/board/showthread.php?s=2afefdc1e18ce8187adab05eb d8d5385&threadid=33685988
No offense, maar het gelul hierover is een beetje vermoeiend :)

Daarbuiten, John Carmack (DoomIII) en Tim Sweeney (UT2003) vinden beide dat nVidia hier de grote cheater is, niet ATI.
Je geeft hun ongelijk?
&gt ;)
Wel nu , ff speciaal voor jou dan mijn huiswerk eens afgemaakt :)

Standaard dus de slider op 3/4 zou niet zichtbaar zijn hee ? Wel , als je't mij vraagt zie ik wel het verschil , vooral in de 2D letters bijvoorbeeld en in de sky. Het lijkt wel het verschil tussen 32 en 16 bit kleuren. Helaas zijn de screenshots wat donker door mijn overbright die niet werkt. Maar als je het ingame ziet , dan valt het net nog iets meer op. Durf nu nog eens zeggen dat ik lul. Sorry , hee , ik heb niets tegen Ati , maar ik zeg gewoon wat ik hier in men pc zitten heb hoor. Ik koop gewoon wat mij voor een bepaald moment het beste lijkt voor mijn te spenderen bedrag. Of dit nu Ati is of Nvidia , maakt mij weinig uit. Maar feit is wel dat men toevallig zullen we het dan maar noemen, enkel in Opengl deze instelling toepast en niet in Direct3D. Heb je daar dan een zinnige uitleg voor? En die link naar dat forum is volgens mij ook niet helemaal betrouwbaar aangezien het komt van een tester van ati drivers, jah |:(

http://users.pandora.be/GamersForce/screenshots/MAX.JPG

http://users.pandora.be/GamersForce/screenshots/MINDER.JPG

Hier de links dus naar de screenshots. Let wel modem users ! ,ze zijn jpegs van 1600*1200.
Laat die tester nou wel net iemand zijn die weet waar 'ie over lult, ga maar 's verder zoeken. &gt ;)

Heeft QuakeIII geen bewegende sky? Of in iedergeval een deels veranderende. Is te lang geleden voor me om te herinneren. Lijkt mij een veel te groot verschil om gewoon een settinkje te zijn.
Verder behoorlijk gekeken, maar geen goed verschil te zien tussen de 2, al is de compressiefactor eigenlijk te hoog om hier goed oordeel over te doen.

Helemaal compleet buiten dat:
"Zelfs dan nog, alle sliders op de helft en side-by-side screenshot vergelijkingen laten zien dat ATi's beeldkwaliteit toch nog beter is dan de FX kaarten
Raar maar waar. (Nee, geen links, zelf wat research doen mag ook best.)"

Ik bedoelde dus, de beeldkwaliteit tussen ATI's en nVidia's kaarten, niet tussen de beeldkwaliteit van de verschillende settings van ATI kaarten. Maar goed, hierboven dus toch ff geantwoord. :)
De letters zie ik, maar dan mag jij voor mij die 2 plaatjes naast elkaar zetten en omcirkelen waar jij die enorme verschillen ziet, want ik zie het niet.
Het enige verschil aan de lucht is dat 'ie gewoon verder bewogen lijkt, bewegende skyzooi, zeg maar.
Verder zie ik helemaal nix.
De plaatjes zijn ook met een hoek genomen, die niet in beide hetzelfde zijn, dus is het nog moeilijker echt te vergelijken.

Zo zie ik het niet, iig.
Ok , hier zijn dan de full detail screenshots in bmp. Buiten die letters en de lucht , valt het idd niet zozeer op. Das nu net het probleem. Maar ik denk dat deze screenshots nu wel duidelijk tonen dat je minder kleuren krijgt weergegeven. Wat je dan nog veel duidelijker ziet in de letters uiteraard , in de textures op de muren valt dit met het blote oog niet op te merken vind ik zelf.

Ik heb er geen cirkels rond getrokken , maar de screenies zijn toch overduidelijk niet ?

http://users.pandora.be/GamersForce/screenshots/MAXBMP.bmp

http://users.pandora.be/GamersForce/screenshots/MINDERBMP.bmp

En let op modem users :p +5 mb per screenie :p

Ik heb zelfs een sterk vermoeden dat de functie die ati oproept door deze sliders te verzetten, een soort van compressed textures is. Hierdoor krijgt je radeon natuurlijk meer bandbreedte.

En trouwens , ik moet nu toegeven dat terwijl ik dit toppic las enzo, ik was vergeten die slider weer op max te zetten hoor , en dit niet onmiddellijk door had tijdens een potje intensief quake. Pas toen ik stil stond ( campen dus :Z ) , merkte ik het weer op.

Maar toch , eerlijk is eerlijk. Mocht Ati nu een soort nvidia clipping hebben toegepast op stukken die je als user toch niet ziet , had ik het niet erg gevonden. Maar dit benvloed toch de kwaliteit van wat je ziet, niet ?
wow! dat is idd een gigantisch verschil. Zou ATi dit doen om te compenseren tegen nVidia :? We weten immers allemaal dat nVidia kaarten uitblinken in OpenGL games, terwijl ATi juist op OpenGL wat minder presteert dan bij Direct3D
Op die foto's zie je duidelijk dat dit een soort van 32 -16 bit verschil is , qua kwaliteit. Dat het jpegs zijn weet ik ook , maar als het verschil in kleurgradaties al zo hard opvalt, dan kan je je wel voorstellen wat dat is met real time en of een bmp bijvoorbeeld. Het verschil is echt bijna net zo groot als 16-32 bits verschil. En dan door de driver echter maar op 3/4 te zetten hoor. En ja , dit is slechts 1 standje verschil !

Je gelooft uiteindelijk wat je zelf wil , maar ik hoef niemand te geloven , ik heb ze hier beiden , ati en nvidia , en het verschil is voor mij heel erg merkbaar.
Indertijd werd nvidia ook zo uitgelachen door ati fanboys , toen het probleem er was met de DXT3 compressie. Wel , ik heb dat toen ook gehad met mijn geforce2ti en Geforce1 , en ik moet gewoon toegeven dat dit ati 'missertje' , een even groot kwaliteitsverschil geeft. EN nu bij ATI hier, wordt er dan ook niet zo over opgeschept , het word zelfs weg gepraat, weggelachen. Dus wie is hier nu objectief en wie niet ?
Dus omdat 2 mensen het zeggen is het zo? Beetje dom om dat te denken, vind ik.
Als john carmack dat zegt dan is dat zo, bijna niemand weet zo goed als hij hoe een nvidia kaart van binnen werkt.
Het is idd nvidia die de texturekwaliteit verlaagt.
In ut2003 heb ik met de laatste drivers in de map citadel een groot stuk van de lucht dat overduidelijk bestaat uit grote pixelblokken.
Als ik een screenshot neem heb ik het probleem niet, als ik speel zie ik het overduidelijk, iig was de gf4ti4400 mijn eerste en laatste nvidiot kaart, al die fps winst enkel en alleen ten koste van beeldkwaliteit en dan nog lame doen en ati wijzen met de vinger.
Echt typisch een Amerikaaans bedrijf, winst ten koste van gelijk wat :r
ZUCHT. Moet ik beginnen over ATI en Quake? Kortom, beetje nutteloze reactie
een paar dingen daarover:

}:O }:O }:O }:O }:O

je moet oude koeien niet uit de sloot halen

Dat verdedigen van nvidia en het proberen te rechtvaardigen is echt zo triest!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True