GeForce FX Ultra chip mogelijk geannuleerd

HardOCP beweert al sinds dinsdag vanuit verschillende bronnen informatie binnen te krijgen waaruit blijkt dat de GeForce FX Ultra voorlopig is geannuleerd. Waarschijnlijk worden alleen de mensen die al een pre-order hebben gedaan voorzien van een echte Ultra-kaart. Daarna zouden er alleen nog non-Ultra borden (400/800MHz kloksnelheid, prijs rond de 300 euro) worden uitgeleverd. Redenen voor deze beslissing worden niet genoemd, maar het lijkt voor de hand te liggen dat de kloksnelheid van 500/1000MHz te hoog gegrepen was. Of de GeForce FX Ultra na een aantal maanden uitstel alsnog zal verschijnen is niet duidelijk.

nVidia GeForce FX screenshot 1 (klein)nVidia heeft tot nu toe geen commentaar geleverd op de geruchten. Wel is uit een eerder geposte interview en gerucht gebleken dat het bedrijf zich als reactie op de relatief lauwe ontvangst van NV30 volledig wil concentreren op een (voor)spoedige release van de opvolger; NV35. Wellicht krijgt het 'repareren' van GeForce FX Ultra daarom weinig prioriteit. Aan de andere kant zou de ironie bijna tè groot zijn als de kaart op de plank naast de 3dfx Voodoo5 6000 zou komen te liggen.

Door Wouter Tinus

08-02-2003 • 08:44

72

Bron: HardOCP

Lees meer

nVidia rapporteert lagere nettowinst
nVidia rapporteert lagere nettowinst Nieuws van 15 februari 2003
Geruchten over specificaties NV33
Geruchten over specificaties NV33 Nieuws van 13 februari 2003
Meer details over MSI Geforce FX
Meer details over MSI Geforce FX Nieuws van 11 januari 2003

Reacties (72)

72
70
50
13
1
0
Wijzig sortering
Anoniem: 16883 8 februari 2003 15:34
Heeft niemand dit gelezen dan?
Hierin word vrij goed duidelijk gemaakt waarom en waardoor de FX geflopt is:
http://www.penstarsys.com/editor/Today/nvidia3/index.html
Ja! dat artikel op penstarsys.com moet iedereen hier even lezen. Heel erg nuttig overzicht van de ups en downs van de Fabrikanten NVidia en ATI.
Er wordt duidelijk gemaakt dat Nvidia snel met een 'budget' versie van de FX (NV31) moet komen om ATI's RV350 voor te zijn.

Ook staat er dat Nvidia misschien wel tijdelijk de 'snelheidskroon' kwijt is, maar dat ze nog lang niet definitief verslagen zijn. Daar komt bij dat (zo voorspelt de schrijver van het artikel) de Geforce FX nog zo'n 20% sneller zal worden door de uitmuntende drivers die Nvidia altijd weet te produceren.
Anoniem: 28094 8 februari 2003 09:29
Dit gaat ruig! Ben benieuwd hoe dit afloopt, de IT bomen groeien niet meer tot in de hemel. Een paar miljoen dollar aan ontwikkeling "going down the drain" laat aandeelhouders niet ongeroerd. Zo wordt het lastig om nieuw geld voor een tweede ontwikkeling te krijgen.

Ik denk dat de "stofzuiger" en het energieverbuik de bottleneck zijn. Die twee samen zorgen er al voor dat veel OEM-ers zoals DELL, Compaq en HP niet staan te trappelen om hem te gebruiken. De ventilator en een extra belasting van de voeding verlagen de MTBF van een PC zowieso op basis van kansberekening (meer componenten), maar een standaard consument gaat ook snel klagen over het lawaai.
Voor consumenten die de kaart los kopen is het energieverbuik een bottleneck. Je moet je al echt verdiepen in je PC wil je dit ding werkend in je PC krijgen. Het wel of niet gebruiken van de juiste zwaardere voeding betekent voor Nvidia de kans op wel of niet een schadeclaim in de US. En dat is heel erg belangrijk. Overbelasting van een voeding en/of het gebruiken van verkeerde bekabeling verhoogt de kans op brand of andere ongelukken.
Ik denk dat we nVidia weltusten kunnen zeggen voor een winterslaapje (of zomerslaapje :)). Ze zouden de rollen even om moeten draaien. Eers zat Ati een beetje achter nVidia aan met hun kaarten zonder al te veel aan te vallen, en ze hebben geacht en toegeslagen om met de 8500 de geforce 3 te killen en weer even te wachten om uiteindelijk de geforce4 af te maken. Misschien moet nVidia eens even wat rustig aan doen en Ati lekker uit laten razen. En intussen een paar relaxte kaartjes uitbrengen voor het mid end segment, bijvoorbeeld een paar versies van nv31's die normaal geproduceerd kunnen worden en normaal gekoeld kunnen worden zodat ze de oem's van behoeften kunnen voorzien. En als ati bijvoorbeeld de r400 uitbrengt en die er even is grenadeloss toeslaan met een chip die je intussen hebt ontworpen. Zo houden ze de grote aankopers vast en kunnen ze later terug komen. Het vereist veel ervaring en vaardigheid denk ik, maardat hebben ze.

Ze zijn nu te ver gegaan en hebben te veel van henzelf gevraagd . Dat zal helmaal blijken als ze de geforce fx5800 ultra terugroepen. Ze moeten het gewoon accepteren dat ATI het gewoon goed heeft gedaan en dat ze even rustig aan het werk moeten om Ati zo later goed te pakken nemen.

Ik denk ook niet dat nVidia tenonder gaat. Denk bijvoorbeeld aan de nForce2, de chipset van dit moment. Daar hebben ze erg veel inkomsten aan, misschien wel ven veel als de Geforce4 destijds. En die kan het verlies van de nv30 wel gedeeltelijk compenseren denk ik.
Gainward zou op de markt komen met een enorm stille koeling voor de FX. Dus voor het geluid hoef je het niet te laten.

maar ik denk zelf ook dat nvidia zich teveel heeft laten meeslepen in het spelletje van: wij moeten sneller zijn. Hun kaart was denk ik hooguit bedoeld om de 350 mhz core en 700 mhz mem te halen voor de standaardversie. Toen bleek dat die kaart de 9700 pro niet aankon, hebben ze de lat omhoog verschoven, en die bleek ook nog niet genoeg. En weer ging de lat omhoog, zodat ze uiteindelijk met een stofzuiger aankwamen die 2 keer zoveel stroom verbruikt als de ati, en dan 10 % meer presteert. Ze zaten vast aan hun design. En dat design kon dus alleen maar door hogere snelheden omhoog gekrikt worden. Als ze nu gewoon simpel een 256 bits kaartje hadden gemaakt, met dat geheugen en een veel bredere geheugenbus, dan hadden ze de kaart misschien gewoon op 400 mhz kunnen launchen met 800 mhz ddrII en dan was het nog een killer geweest. Dit was gewoon een misstap. Kwam waarschijnlijk wel door hun onervarenheid met de .13 micron procedure en de lage yields, maar dat was een keuze. En die heeft fout uitgepakt.
Anoniem: 68352 @REDFISH8 februari 2003 16:51
noem je dat stille koeling dan?????ook dat ding maakt nog steeds een takkeherrie
Anoniem: 58087 8 februari 2003 08:59
Ik heb niet alles goed gevolgd binnen de videokaart industrie, maar wat bedoelen ze met:
Aan de andere kant zou de ironie bijna tè groot zijn als de kaart op de plank naast de 3dfx Voodoo5 6000 zou komen te liggen.
De Voodoo 5 6000 was de mega-kaart die alle concurrerende kaarten in het stof moest laten bijten. Het ding was voorzien van maar liefst 4 processors en 128 Mb geheugen en vrat zoveel stroom dat er een externe voeding bij geleverd moest worden.

Plaatje: http://home.tiscali.be/silvio/voodoo/images/v5-6000-ppackbig.jpg

Er is een enorme hype ontstaan rond deze kaart en de introductie werd keer op keer uitgesteld, maar de productie ervan bleek zoveel problemen op te leveren dat er nog geen 100 zijn gemaakt. Vlak daarna ging 3dfx failliet en werd het overgenomen door nVidia. Het zou erg nasty zijn als nVidia nu dezelfde fout zou maken (de lat zo hoog leggen dat er een onproduceerbaar product onstaat)
Anoniem: 73712 @Daniel8 februari 2003 10:55
Daarbij komt nog dat de naam Geforce FX onstaan is door de samenvoeging van Geforce en 3dfx, om aan te geven dat Nvidia met de overname van 3dfx dit bedrijf niet is vergeten en dat ze de plannen die dit bedrijf nog had liggen nu gaan gebruiken
ja bibabolle, maar niet alleen de FX in de 'Geforce FX' staat ervoor. Waar denk je dat de FX in '3Dfx' vandaan komt? Juist. '3D-effecten' als je het vertaalt. Dus het is maar hoe je het bekijkt waar de Geforce FX voorstaat. Effects ja, maar daar kan je dus nog steeds '3D' voorzetten :)
ik denk toch echt het eerder staat als een afkorting van "effects" hoor, fx word daarvoor vaak gebruikt, net als gfx(graphics)

dat verhaal dat fx gebruikt is omdat het in 3dfx is imho onzin, dat zou gewoon veel te omslachtig zijn en het heeft totaal geen nut. 3dfx verkoopt niet meer, ja mischien bij de oude fans maar de naam geforce zorgt voor de verkopen, niet omdat ze heel mischien de letters fx van de naam van een failliete bedrijf hebben gejat. 3dfx is dood, get over it
Als reactie op Bibabolle:

Als je het introfilmpje van de GeforceFX bekijkt zie je dat ze "3dFX" in beeld zetten, dan de "3d"laten faden en er dan 'Geforce" van maken om zo GeforceFX te krijgen. Dus FX komt wel degelijk van 3dFX. Mag ik er dan van uit gaan dat er ook veel technologie van de 3dfx is gebruikt.
Man je moet je feiten kennen, Nvidia heeft zelf gezegd dat FX door de 3dfx technologie die ze hebben gebruikt is gekozen.

Dat is algemeen bekend, Nvidia wil gewoon de naam die ze van 3dfx destijds hebben gekocht gebrukken voor wat meer naamsbekendheid want ze hebben nou eenmaal die rechten op de naam en technologie in hun bezit.
@ander:

Het is toch vooral een marketingstunt met dat 3dfx verhaal. Als ze zo geweldig veel 3dfx tech gebruikt hadden, was bv het anti-alias op het niveau van de voodoo 5 kaarten, maar het is exact hetzelfde gebleven als bij de geforce 4.
Met het verschil dat ATI de lat deze keer "te hoog" heeft gelegd door de 9700Pro. :Y)
nVidia moest wel de clock verhogen (en het product vertragen) om toch nog sneller dan de concurrent te zijn. En dat is hen niet goed gelukt, check de reuze koeler en dit gerucht.
Van de Voodoo 5 6000 zijn er maar 100 kaarten verkocht, toen kocht nVidia 3dfx over :(
als je zo redeneerd dan zal ATI nu Nvidia moeten gaan overnemen :+
Paar jaar geleden waren ATI kaarten anders niet zo goedkoop. Mede daardoor waren ze niet echt populair. De enige reden dat ze nu goedkoper zijn is door de concurrentie denk ik, dus als die weg zou vallen (in het High-end segment dan) dan zouden de nieuwste kaarten zo weer 100 euro meer kunnen kosten.

Overigens: Volgens mij is dat hele NV30 design brak, aangezien ze er maanden langer over deden voordat de productie eindelijk op gang kwam, en waarschijnlijk zien ze er niet zoveel brood meer in, mede door het dure (tenminste dat vermoed ik) productieproces (hadden die FX kaarten niet 10-layers ofzo?). Daardoor blijft er natuurlijk weinig ruimte over om de prijzen te verlagen en te concurreren met ATI.

Wel cool natuurlijk als je nu een FX ultra hebt. Dan ben je 1 van de weinigen :P
Nee Geforce FX's waren zelfs 12 layer's en die ATI's 9900 waren 10 layer's
Brak is wat overdreven. Wel hebben ze op het verkeerde paard gewed. Met een 256bit ipv. 128bit bus en een iets tragere GPU-core hadden ze beter kunnen scoren. Ze zijn gegaan voor hoge Mhzén met een nieuwe core op een nieuw 0.13micron procede en dat blijkt achteraf niet zo gelukkige keus geweest te zijn. Iig iets te vroeg.....
de dag dat ATI een monopolie heeft vraagt het ook hoge prijzen ...

dat is nu eenmaal een kenmerk van een monopolie ...
denk niet dat ATI zulke hoge prijzen gaan vragen hoor.. ( mocht het zo zijn dat ATI nVidia overneem :+ )

nVidia daarin tegen... die heeft hoge prijzen ookal zijn ze niet in monopolie positie.. moet je na gaan hoe de prijzen zullen worden mochten ze monopolie positie krijgen. :)
Daar komt nog eens bij dat 3Dfx, vlak voor overname, nog een paar dingen op de research afdeling had liggen. De Geforce FX is daar het directe gevolg van.
nVidia heeft ooit 3Dfx opgekocht.

3Dfx was op dat moment bezig met de ontwikkeling van hun nieuwe kaart, wat een echte killer had moeten worden. (volgens geruchten).

De GeForce FX is de eerste kaart waarin dingen (ideen) zitten van zowel nVidia als 3Dfx. Vandaar ook de naam GeForce FX, dacht ik.

En nu wordt deze kaart, in weze de eerste "3Dfx" kaart in jaren, weer niet gereleased.

<edit>Oh.. is al een paar keer uitgelegd zie ik... OK, overbodig dan maar :) </edit>
Waarschijnlijk worden alleen de mensen die al een pre-order hebben gedaan voorzien van een echte Ultra-kaart.
Redenen voor deze beslissing worden niet genoemd, maar het lijkt voor de hand te liggen dat de kloksnelheid van 500/1000MHz te hoog gegrepen was.
Dat laaste lijkt me sterk. Als ze de kloksnelheid niet kunnen halen, kunnen ze ook niet een paar wél afleveren. Ook denk ik niet dat nVidia slecht enkele maakt. Dat kost veel teveel geld. Of niet of wel.
Dat laaste lijkt me sterk. Als ze de kloksnelheid niet kunnen halen, kunnen ze ook niet een paar wél afleveren. Ook denk ik niet dat nVidia slecht enkele maakt. Dat kost veel teveel geld. Of niet of wel.
Ooit gehoord van het fenomeen yields? Er zullen ook chips van de productielijn af komen rollen die 550MHz kunnen halen met die koeler. Waarom verkopen ze dan geen 550MHz-kaart? Omdat ze dan nog meer geld kwijt zijn per werkende chip, vanwege alle 'mislukte' exemplaren die geen 550MHz halen (maar bijv. 400MHz) en daardoor niet te verkopen zijn als Ultra. Bovendien: kijk (luister!) naar die koeler en het stroomverbruik. Dat speelt ook mee natuurlijk.
Ik denk niet dat nVidia zich heeft vergist in haar mogelijkheden. Daarvoor zijn ze te groot en ik neem aan dat ze echt wel uitgebreid getest hebben. Helemaal nu het zo dicht tegen de release datum aanzit.

Aan de andere kant, als de normale versie al zo'n achterlijke koeler moet hebben, en externe voeding, dan kan een Ultra toch helemaal niet haalbaar zijn?
Ik denk niet dat nVidia zich heeft vergist in haar mogelijkheden. Daarvoor zijn ze te groot en ik neem aan dat ze echt wel uitgebreid getest hebben. Helemaal nu het zo dicht tegen de release datum aanzit.
Dat zou je wel verwachten, maar er zijn eerder grote bedrijven op hun muil gegaan met dit soort dingen (Pentium III 1,13GHz anyone? ;)). Ik heb gehoord dat de GeForce FX Ultra gewoon crasht door oververhitting in bepaalde prof. OpenGL-benchmarks.

Op zich kun je je ook wel voorstellen waarom ze per se een Ultra-versie wilden hebben, ondanks het risico. Het verschil in performance met R9700 bleek te klein te zijn (pas als ze A0 of A1 silicon hebben kunnen ze dat pas echt testen). In dat stadium kun je echter geen grote designtweaks meer doen, zeker niet als je al een paar keer uitstel hebt gehad. Dan kun je alleen nog maar de kloksnelheid omhoog duwen :).

Overigens dacht ik dat de non-Ultra versie af kon met een normale koeler en zonder externe powerplug?
Ik denk dat de NV-35 nog wel wat leuks in petto kan hebben. Nvidia heeft natuurlijk ook gekeken hoe ATI 256 bit brede geheugenbus heeft geimplementeerd in hun design en zal denk ik met hun nv-35 met iets vergelijkbaars komen aangezien geheugen toch nog een belangrijke bottleneck is bij videokaarten. Dat is denk ik ook de reden waardoor de 9700 sneller is dan de niet ultra versie van Nvidia.

edit: frederick was me voor
Dat de GFX tegen valt ligt meer aan dat de laatkomer driver achterstand heeft

First releasedriver vs derde/vierde? ofzo dat speeld ook erg mee.

normaal zat ATI in die situatie nu nVidia
Nvidia zit eigenlijk ook helemaal niet bij de 1e driver release, meer bij de tweede of bijna al de derde. Dit komt doordat de eerste test kaarten er al bijna 5 maanden zijn. Hierdoor hebben ze al vele malen langer aan de drivers kunnen werken dan bij vorige releases
Anoniem: 42126 8 februari 2003 11:24
Ze zouden de ultra beter wel uitbrengen maar dan met een gpu op dezelfde clocksnelheid en met 256bit DDRII geheugen op 800MHz, zal flink duurder zijn maar de snelheid ook flink hoger zonder al te veel extra warmte.
Dan zou het mischien goedkoper kunnen zijn, als ze Rambus geheugen op de VGA-kaarten gaan gebruiken. Voor dergelijke toepassingen is Rambus geheugen namelijk prima geschikt.
Rambus heeft per GByte bandbreedte ook minder aansluitingen nodig, oftewel de printplaat kan ook een stuk simpeler.
Het zou wel vereisen dat ze de I/O van de GPU compleet aan moeten passen.
is het niet zo dat de latency van geheugen ook heel erg belangrijk is voor videokaarten? Dat zou rambus een stuk minder geschikt maken.
Klinkt leuk, maar het NV30 design is daar gewoon niet geschikt voor.

Nvidia is nu hard bezig om te proberen 256 bit geheugen te kunnen gebruiken voor de NV35.
Ik vraag me af waarom er nog zoveel mensen blind voor een Nvidia gaan terwijl er nu al een jaar Ati video kaarten zijn die goedkoper zijn en beter.

Beter als in:
TV out
2D beeld
Directx ondersteuning
lagere prijs

Het zal wel iets met massa psychologie te maken hebben :+
Het kan ook zijn dat er nog mensen zijn die gewoon hun favoriete bedrijf steunen.

Ikzelf hou meer van ati dan van nvidia, en ik zou ook een ati kopen als ati weer wat achter zou liggen.
En je hebt de domme consument uiteraard die absoluut een geforce wil...zucht... :z
Directx ondersteuning
lagere prijs
Als je met directx ondersteuning het aantal werkende games onder een ATI kaart bedoeld, dan heb je het volledig mis. Spellen als Hot pursuit 2 werkten niet onder een ati kaart (ondertussen wel). En ook een hoop oude spellen werken nog steeds niet onder ATI-kaarten.

En die prijs is een beetje een dom argument, aangezien de R300 in het begin ook 450-500 euro kostte. De Fx zit nu zelfs al onder die prijs.
"En ook een hoop oude spellen werken nog steeds niet onder ATI-kaarten."
Noem er eens een op? DŽr is werkelijk niets op de markt, wat mijn 9700pro niet kan draaien. Ja, de demoŽs van de Gfrorce FX niet, haha.
:Z
Anoniem: 77043 9 februari 2003 11:49
ik denk gewoon dat nvidia geen risico durft te nemen met de consument, ik bedoel daarmee, als die ultra kaart straks wel in de winkels komt, dat je dan veel gebruikers krijgt die gaan klagen, want er zijn altijd mensen die willen o c , en dat blijkt dan niet te kunnen(kaart foetsie), en de gewone uitvallers, die gewoon te weinig(of te vlug) getest zijn, en die uiteindelijk de clock snelheid niet aankunnen, en dan had nvidia nog meer negatieve publiciteit gekregen, ik denk gewoon als dit straks gebeurd, dat nvidia dit juist wil voorkomen. ;)
Ja een 75Watt G-kaart heeft natuurlijk wat zwaardere eiden van 'n Sysyteem wat problemen kan veroorzaken en daarbij lijkt mij de GFX ultra een duur te produceren kaartje vooral als nVidia de produktie in eigen hand doet ivm Kwalitet waarborging door de grotere risico's this een geforceerde GPU dus is het wel een commercieel verantwoorde stap om hem te laten vallen dan door blijven te modderen op een slecht uitgevallen produkt.

Op dit item kan niet meer gereageerd worden.