Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 67 reacties
Bron: Sudhian, submitter: lawaai

Het is alweer ruim twee-en-half jaar geleden dat nVidia alle merknamen, patenten en een deel van het personeel overnam van 3dfx, een veelbesproken actie die effectief het einde van laatstgenoemde bedrijf betekende. Voor veel trouwe Voodoo-fans kwam het nieuws als een schok; hoewel 3dfx al een hele tijd in de problemen zat omdat het de aggressieve cyclus van nVidia niet bij kon houden, hoopten velen nog steeds op een comeback van de pionier. Men vroeg zich nog geruime tijd af hoe de geschiedenis was verlopen als het 3dfx wel was gelukt om beloofde producten zoals Voodoo5 6000 en Rampage - de gedoodverfde reddende engel - op de markt te brengen. In een vlaag van nostalgie hebben vandaag twee sites besloten om ons enig inzicht in het antwoord op die vraag te leveren.

* Voodoo5 6000

Sudhian heeft een heuse review gebakken van deze ruim 30 centimeter lange monsterkaart. Voorzien van vier chips en een voor die tijd enorme hoeveelheid geheugen (128MB), was dit kaart die het zou moeten opnemen tegen de nVidia GeForce2 Ultra. In theorie moest het lukken, want hoewel de specificaties qua features al snel werden achterhaald, duurde het nog tot de GeForce4-generatie tot men de rauwe fillrate van het apparaat kon evenaren.

3dfx bleek echter de grootste moeite te hebben om de kaart stabiel genoeg te krijgen voor een marktintroductie. De eerste samples haalden slechts 143MHz in plaats van de beoogde 183MHz, waren onstabiel, incompatible met verschillende moederborden en gebruikten een externe voeding. Toen werd de Intel PCI-bridge vervangen voor een chip van HiND. Revisie twee kon zowel een externe voeding als een interne connector gebruiken en haalde 183MHz. Nog steeds was de levensduur echter erg laag en traden er FSAA-problemen op. Daarna volgde een derde versie, die minder ontwerpfouten had, maar nog steeds veel glitches vertoonde en door 'thermal death' zomaar ineens kon uitvallen. De geteste kaart is er één van het vierde en laatste serie, die het meest bruikbaar is, maar nog steeds niet geheel foutloos.

3dfx Voodoo5-6000 pers foto

Na een zevental benchmarks komt met tot de conclusie dat de kaart niet alleen sneller is dan de GeForce2 GTS, maar ook nog vrij aardig mee kon komen met de GeForce2 Ultra en GeForce3. Als de kaart niet zoveel problemen had gehad en gewoon zoals gepland eind 1999 was verschenen, had 3dfx de performancekroon overtuigend terug kunnen pakken en deze minstens een jaar vast kunnen houden. Toen de kaart er in november 2000 echter nog steeds niet was, moest echter onder ogen worden gezien dat het geen zin meer had: het product werd geannuleerd.

* Rampage

Na het annuleren van Voodoo5 6000 was alle hoop gevestigd op Rampage, de chip met codenaam VSA-200. Deze volledig nieuwe architectuur was al jaren in ontwikkeling, en zou gebruik maken van technieken als eDRAM, T&L en pixel shaders om tegen de GeForce3 op te kunnen boxen. Uit later bekend gemaakte specificaties blijkt dat waarschijnlijk makkelijk gelukt was. Het verhaal gaat zelfs dat men nog geen twee dagen voor de overname een werkende versie had geproduceerd, maar dat de techologie door nVidia uit handen van de consument werd gehouden.

NextHardware heeft een kaart met Rampage-chip te pakken weten te krijgen. De PCB is niet zo groot als die van de Voodoo5 6000, maar ook "Rampage 2000 AGP", zoals de kaart zichzelf identificeert, is geen kleine jongen. Dat het om een prototype gaat is overduidelijk, er is zelfs nog een speciaal filter nodig om het VGA-signaal te corrigeren. Toch is men in staat om er zowel Unreal Tournament als 3dMark 2001 op te draaien. De framerates zien er echter niet al te best uit, hoewel er niet direct vergeleken wordt met een andere kaart, blijkt uit oude reviews dat een standaard GeForce3 minstens drie keer zo snel is als 3dfx' "killer" chip. Hoewel de site verwacht de prestaties van hun collectors item nog op te kunnen krikken met behulp van getweakte drivers, lijkt het er niet bepaald op dat deze single-chip versie binnen afzienbare tijd klaar was geweest voor een release, laat staan dat de beloofde dual-chip versie met externe T&L-core al ergens in zicht was.

3dfx Rampage
Moderatie-faq Wijzig weergave

Reacties (67)

quote "blijkt uit oude reviews dat een standaard GeForce3 minstens drie keer zo snel is als 3dfx' "killer" chip."

in directx benches ja maar ik denk dat als er glide benches werden gebruikt dat dat verhaaltje wel eens kon tegenvallen.
Op het moment dat 3dfx Rampage nodig had was Glide al lang niet meer zo populair en/of belangrijk als het in zijn begintijd was. De meeste developers lieten het toen al links liggen omdat het niet op nVidia- en ATi-hardware werkte. Ik betwijfel ten zeerste of een chip die traag is in DirectX maar wel snel in Glide op dat moment nog nuttig was geweest. (Ik denk trouwens ook niet dat hij wel snel is in Glide, maar goed).
Als deze kaarten waren aangeslagen was er echt wel nieuw leven in glide geblazen.
Nee, door de enorme populariteit van DirectX en OpenGL was Glide toch ter dood veroordeeld, ook al had 3dFX nu nog bestaan.
misschien wel, maar ik verzeker je dat Glide Rocks!

Het blaast je letterlijk weg!
Dat was pas een goeie code!
Niet zo buggy als OpenGL en DX!
Hmm, OpenGL en DX buggy? De implementatie wellicht :P Met de specs is niks mis...

Ennuh, was Glide niet een subset van OpenGL? ;)
glide en openGL zitten vrij dicht bij elkaar. (glide is een sort uitgeklede openGL)
ook een openGL benchmark was waarschijnlijk better gelopen deze op DX.
misschien wel, maar ik verzeker je dat Glide Rocks!

Het blaast je letterlijk weg!
Dat was pas een goeie code!
Niet zo buggy als OpenGL en DX!
Ach, en zelfs als het idd in glide werd gestest dan is hij misschien in sommige opzichten (fsaa) sneller dan gf2 ultra of gf3 maar ook veel duurder (699 dollar tov de gf3 van 499, dat doet niemand lijkt me)


Ik heb een v1 gekocht toen hij net uitkwam, dat was een mooi idee van 3dfx, maar de v2 maakte het alleen bij gebrek aan echte concurrentie en vanaf de banshee (eigenlijk gewoon een v2 met 2d) liepen ze achter en waren ze vaak ook nog hoger geprijst.

Natuurlijk zal ik nooit vergeten hoe vet een spel als turok eruit zag en wat een verschil het was om quake in opengl te spelen, dat is 3dfx' verdienste geweest..
Plus dat het gaat om een heel erg vroeg prototype van de kaart, wat eigenlijk vertekende resultaten geeft.

Verder heb ik nooit een 3Dfx kaart gehad, maar nu ik dit lees is het misschien jammer dat ze verdwenen, concurrentie is altijd goed voor de consument.
En de drivers voor die rampagne waren nog lang niet goed dus waarmee ze getest hebben zijn een soort van pre Beta- drivers (alfa?). Nogal wiedes dat de resultaten daarmee niet zo best zijn.

Wel leuk zo`n oud-product review.
Tegen die tijd was glide al zo dood als een pier.
unreal tournament draaide onder glide! En voor quake3 had je een miniGL. 16 bits 3dfx kaart tegen een 16 bits nvidia kaart gaf de nvidia meer fps misschien, maar een nvidia kaart op 16 bits zag er niet uit. Overal zag je dithering, vooral in de rook nadat je een raket afvuurde in quake3. Een voodoo 5 5500 zag er net zo mooi uit op 16 bits als een Geforce2 Ultra op 32 bits en was dan ook veel sneller!
Klopt, vroeger heb ik voor de lol eens mijn 3dfx banshee getest met quake3, de resultaten waren verbluffend, mijn gf4 gaf alleen mooier beeld op 32 bits met AF8x, de 3dfx kaart had gewoon beter kleur en meer scherpte in de textures.
Op uw reactie met betrekking tot de kwaliteit kan ik je volledig gelijk geven , nog nooit , sinds de voodoo zag ik zo'n visuele vooruitgang als toen. Om die reden alleen al had ik in de plaats van nvidia nooit de merknaam 3Dfx weggeschoten. Als huidig nvidia fan moet ik toegeven dat ik wel kon gaan huilen als ze destijds 3dfx opzogen. Weer een goeie concurrent minder ;(

Ik zou 't nu zelfs ten tijde van nvidia's moeilijkere tijden , cool vinden mochten ze plots zo even hun nv40 nog eens een voodoo-achtige naam geven, op voorwaarde dat deze dan echt zo vernieuwend is als ze ons doen geloven t.o.v. de geforce2,3,4,fx .

Dat zou pas een come back zijn. Maar dat zal wel niet |:(
Ik zou 't nu zelfs ten tijde van nvidia's moeilijkere tijden , cool vinden mochten ze plots zo even hun nv40 nog eens een voodoo-achtige naam geven, op voorwaarde dat deze dan echt zo vernieuwend is als ze ons doen geloven t.o.v. de geforce2,3,4,fx .
Hmm, dus jij vindt GeForceFX niet op 3Dfx lijken? :)
We kunnen idd speculeren wat 3DFX allemaal fout heeft gedaan en wat had kunnen zijn. Maar laat er 1 ding gezegt zijn, dat 3DFX de gamewereld totaal veranders heeft en concurrenten de ogen heeft geopend. Concurrentie zal er gelukkig altijd zijn, en dat is gezond. Het is jammer dat zo´n bedrijf wordt opgeslokt door een grotere vis. Maar NVIDIA heeft dat nooit gedaan om de techniek van 3DFX te gebruiken maar om een concurrent uit het water te slaan. Op deze manier konden zij ook een langere levenscyclus van hun eigen producten hebben. En zo konden zij de prijs weer drukken. Het duurde een hele tijd voordat ATI in de buurt kwam. En toen zag je het ook weer in een stroomvernelling komen.
Good old days :+

Ik vergeet nooit meer dat ik een Monster 3D had gekocht, en voor het eerst GLQuake opstartte .. mijn mond viel open en ik heb zo'n 10 minuten wazig naar het introscherm zitten kijken. Sindsdien heb ik nooit meer zo'n moment meegemaakt als ik nieuwe hardware had gekocht. Het moment van 2D kaarten naar echte 3D kaarten is een regelrechte mijlpaal in de computergeschiedenis, misschien wel de belangrijkste, en dat hebben we te danken aan 3dfx. Rust zacht.

Wholly offtopic, maar ik vind dat dat mag bij zo'n nieuwspost :).
als ik even heel erg simpel kijk naar die Voodoo 5, dan is het toch niet meer dan LOGISCH dat die superieur was aan zijn concurrenten in die tijd... als Ati een 9800 met 3 GPU's uitgeeft, en 1GB 'intern' geheugen, dan is het toch niet zo gek dat deze veel sneller is dan een FX 5900... Ik bedoel, gooi je 2 motoren in een speedboat, dan gaat deze toch ook harder....

Beetje jammer overigens dat ik nix over prijzen lees, want ook dit wil nog wel eens uitmaken bij of een videokaart een succes wordt.....
Maar je moet ze ook samen kunnen laten werken. Niet iedere chip laat zich zomaar in een dual config stoppen, 3dfx hield bij het ontwerpen daar altijd rekening mee zodat ze een 2de versie uit kon brengen met 2 chips en evt een 3de met 4 chips.
Ik wou dat ze dat tegenwoordig nog van die monster kaarten maakten, want het werkt wel.
En wat betreft het geheugen, waarschijnlijk heeft iedere chip zijn eigen geheugen en dan heb je wel zoveel nodig, zo niet, dan heb je er niets aan om 1 GB geheugen erop te stoppen zoals nu al blijkt uit de verschillen tussen 128 MB en 256 MB kaarten.
Vergeet niet Ati's Rage Fury Maxx. Deze maakte ook gebruik van 2 chip's, op de rendertechniek na het zelfde idee. Het is dus niet alleen 3Dfx geweest die met dit idee rekening hield.

Er van uitgaande dat nVidia nu deze SLI techniek bezit en Ati haar uitvoering, is de concurrentie wat dat betreft even ver. Maar of ze het ooit nog zullen gebruiken is ten tweede. En de reden daar van lijkt me duidelijk.
tijd terug stond er ook een kaart met 4 9700 chips op tweakers, al was dit dan geen consumenten kaart, was iets dat ze gebruikte voor simulaties ofzo dacht ik
Voodoo5 6000 zou ongeveer 600 dollar gaan kosten volgens de geruchten, wat voor die tijd behoorlijk duur was (een GeForce2 Ultra kostte 500 dollar bij de introductie en dat werd door veel mensen al belachelijk genoemd) :+.
Vroegâh, toen Voodoo nog door Tahitianen werd beleden...

Toch jammer, dat nVidia bepaalde technieken buiten de markt heft gehouden. Aan de andere kant, voor ATI komt het niet zo slecht uit: ik weet namelijk niet of ze een jaar terug al een marktrijpe Radeon 9800pro hadden kunnen produceren.
Die technieken zoals het multychip design heeft 3DFX toch wel de das om gedaan is dus zeker geen gouden ei eerder verder gekloot met probleem produkten die nog niet klaar waren.
nVidia houd aan single chip design voor de produktie kosten te beperken en dus een goede concurentie positie te behouden kunnen.

Denk eerder dat ze stukjes techniek toepassen voor latere singlechip designs

Die VSA100 hoort dus in het rijtje
nV30 FX 5800 Ultra en Parhelia thuis ook allebij produkten met grote problemen alleen konden die bedrijven dat veel beter incasseren.
nV30 FX 5800 Ultra en Parhelia thuis ook allebij produkten met grote problemen alleen konden die bedrijven dat veel beter incasseren.
De FX5800 Ultra heeft helemaal niet zo'n grote problemen. Het meest storende element was de luidruchtige koeling, maar daar hebben de producenten van kaarten intussen al een oplossing voor gevonden. De kaart presteert ook helemaal niet slecht, ze kan concurreren met ATi's beste.
Verder kan nVidia al zijn kosten dekken met de verkoop van zijn budgetkaarten, die als zoete broodjes verkopen.

De Voodoo's echter, waar hier van sprake is, zijn nooit uit de ontwikkelingsfase geraakt. Dus er waren vanzelfsprekend ook geen budgetversies van om de kosten te dekken. Er is nooit winst uitgehaald om de R&D-kosten te dekken.
De FX5800 ultra was wel degelijk een probleem kindje hoor. nVidia heeft trouwens zelf toegegeven dat het sneller DDRII geheugen niet kon concureren met de dubbel zo brede bus van de radeon met DDR geheugen.
De FX5900 is een heel ander verhaal.
Heb destijds een Voodoo 2 gekocht toen ie net uit was, was SMULLEN bij Unreal, kon et niet geloven dat spellen er zo uit konden zien enzo. Een stuk later een Elsa Gladiac GeForce 2 Ultra gekocht, was echt hyper de hyper toen :P

Maar goed, doe nu niet meer mee aan die kaartengekte.
Unreal Tournament draaide op mijn Duron 700 zelfs sneller met mijn oude Voodoo II dan met mijn Elsa Geforce DDR. Dit toont volgens mij de kracht van hun technologie: mits goede ondersteuning was de glidetechnologie stukken sneller dan de Direct3D&OpenGL van toen.
was SMULLEN bij Unreal
Vooral die kamer in het begin van de game met de marmeren vloer was grensoverschreidend voor die tijd :P! Het was wel jammer dat die Voodoo II niet wilde werken met hogere resoluties...
Maar feit is wel dat de geforce grotere texturen ondersteunde , dus alles zag er wel beter uit op een geforce , en helaas gebruikte die voodoo nooit 32 bit textures. Dit is volgens mij ook de struikelblok van nvidia nu. Niet dat ze dezelfde fout maken als 3Dfx door alleen maar te kijken naar fps. Maar Ati speelt het de laatste tijd heel slim , ze laten het langs alle kanten blijken dat ati's beeldkwaliteit beter zou zijn ( in 3D spreek ik nu ). Nvidia heeft bij hun laatste ontwerp ( nv35 ) iets te veel in bandbreedte geredeneerd , en alle reviews zitten nu te vitten op het feit dat de ati toch iets betere fsaa zou hebben. en op screenshots is zoiets te zien , maar met bewegende beelden zie je het eigenlijk toch niet. 2 x fsaa op 1280*1024 hier op min 22" vind ik eigenlijk al goed , zelf doe ik nu wel 4x , maar eigenlijk kan ik dat best missen als ik even eerlijk ben. :)

Screenshots zien er gelikt uit op 4x maar bij gaming vind ik in feite 2x ook goed. Als er games komen die niet meer rond de 75-100 fps draaien hier op mijn fx5900u met 4x fsaa , zal ik er zeker niet om wenen dat ik dan 2x zal moeten inschakelen :p
Ik vraag me af wat er was gebeurd als bijvoorbeeld ATi destijds 3dfx had overgenomen...
Dan denk ik dat ATi meer 3Dfx tech zou hebben gebruikt dan dat nV deed.
Maar of dat nou zo ok is ? Volgens mij zat 3Dfx nou niet echt op het meest veelbelovende pad met hun multicore kaarten. Het zou ook de vraag zijn of ATi wel met het geniale team dat ook de flipper en de radeonchips gedesigned heeft in zee was gegaan...
ik snap niet waarom nvidia de rampage dan heeft tegengehouden, omdat ze dan 2 producten zouden hebben die héél de markt zouden dekken.

het spijtige aan 3dfx is dat ze technologie hadden die nog in de huidige gfx-kaarten wordt geïmplementeerd, wat toch wel een idee geeft van de kennis die ze toen hadden
it also cost me $850 out of my own pocket, which means I'm going to write about it and you're going to read it.
lolz
Nou heel simple net zoals ATI Cg mijd en nVidia rendermonkey zullen ze nooit openlijk tech van anderen gebruiken. 'n VSA200 rampage produkt is 3DFX en heeft dus niks met de naam nVidia te maken en zou de 3DFX hype in stand houden.

Daarnaast was dat in mijn ogen eerder een vijandige overname.

Denk dat het nVidia eerder om de 3DFX kennis ging en die aan nvidia produktbeleid binden nV40 zit de 3DFX geest misschien in.
Nou dat zou juist voor nvidia erg mooi kunnen zijn die 3dfx hype. Als ze gezorgd hadden dat die in stand bleef, hadden ze er nog zat geld mee kunnen verdienen.

Maar ik denk dat het van nvidia fout is geweest om geen glide elementen in directx te krijgen (aangezien nvidia een dikke vinger in de directx pap heeft), om zo een nog snellere kaart te krijgen, aangezien glide hele mooie en snelle dingen bevat.
Zonde om glide gewoon dood te laten gaan.
wat ik vooral cool vond...dat was als je een game opstartte je nog ff dat vette 3dfx logo te zien kreeg......krijg het er nog warm van
Dat was gaaf. Of dat je een blauw scherm kreeg omdat de drivers suckte (Vodoo 1), of dat games het niet deden, of spellen er uit klapte, etc. Het was niet allemaal geweldig, hoor.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True