Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties
Bron: Digit Life

3dfx is dood, maar veel mensen vragen zich waarschijnlijk af welke producten deze pionier op 3D gebied ons gebracht zou hebben als er genoeg geld was geweest. Digit Life heeft een hoop gegevens over de chips die ooit de drie volgende generaties 3dfx-kaarten moesten worden.

* Spectre

De opvolgers van de Voodoo5 zouden drie verschillende kaarten met de naam Spectre zijn. Een versie met een enkele Rampage voor de budgetmarkt, een versie met een Rampage en een Sage voor de mainstream en de GeForce3 killer met twee Rampage chips en een Sage. Het Rampage ontwerp had vier pixel pipelines met 56 bit interne precisie en zou op 250MHz moeten draaien. Verder zou hij ondersteuning voor EMBM hebben en tot acht textures op een pixel kunnen plakken. Het geheugen zou 128 bit DDR zijn. De Sage moest voor het T&L gedeelte gaan zorgen door 50 miljoen triangles per seconde te verwerken, waarvan er 20 tot 30 miljoen daarwerkelijk gebruikt kunnen worden vanwege bandbreedte-beperkingen.

* Fear

Fear zou de opvolger van Spectre zijn geworden. De Fear lijn zou uit dezelfde drie configuraties hebben bestaan, maar dan met Fusion chips in plaats van Rampage en voor de duurdere versies een Sage2. Geen verrassende nieuwe features zouden echter terug te vinden zijn in deze nieuwe chips. Extra pipelines en een kleine verhoging van de kloksnelheid moesten ervoor zorgen dat de concurrentie weer bijgehouden kon worden.

* Mojo

Interessanter is de Mojo, het is namelijk erg waarschijnlijk dat nVidia ergens tussen de NV30 en NV40 gebruik gaat maken van de revolutionaire concepten ervan. Het was duidelijk de bedoeling dat Mojo 3dfx weer helemaal terug aan de top moest zetten. De externe T&L unit werd in dit ontwerp gedumpt voor een ge´ntegreerde versie. De basis van de chip is het tile-based rendering systeem van GigaPixel. Deze methode van renderen is zeer efficient, zoals de Kyro II pas geleden heeft bewezen. Maar er zijn meer verbeteringen, zoals het uitbreiden van de framebuffer met informatie over high-order surfaces en het werken met 16 bit floating point kleuren die voor 64 bit precisie kunnen zorgen.

Now that's all. Let's play Quake1 for some time to honour the memory of 3dfx, that have showed us the way to the mass 3D hardware.

Er is een minimale mogelijkheid dat we ooit nog benchmarks van Rampage zullen zien. Volgens insiders had het bedrijf twee dagen voor de verkoop aan nVidia namelijk een werkende sample...

Moderatie-faq Wijzig weergave

Reacties (36)

Zie je wel dat het negatief is die overname door Nvidia. 3DFX had een fout gemaakt (VooDoo 3,4 en5) en dat hadden ze door gekregen(Helaas telaat). Ik durf te wedden dat die nieuwe kaarten MEGA goed zouden zijn geweest.

Nu heeft Nvidia alles.

Een ding is zeker, mijn volgende kaart wordt er een van ATI of een van die nieuwe KYRO's. Nvidia kan de pot op.
Tuurlijk wel, in dat geval zou ik wel leven met de brakke driver support en de almachtige pr-sectie van nVidia...
Maar ik ben bang dat nvidia zoiets nooit voor elkaar zou doen. En waarom zouden ze? Als ze een veel sneller zouden zijn dan die van de concurrent dan zou ik er niet op rekenen dat ie goedkoper gaat worden..
Waarom, heel simpel : $$$

ATI en KYRO blijven concurentie,
en dat is alleen leuk voor de klant( ons dus), en niet voor Nvidea.

zonder concurentie bepaald Nvidea de prijzen.
Ook zullen ze minder geld in research steken omdat dat het niet meer nodig is de concurent voor te blijven.
Een ding is zeker, mijn volgende kaart wordt er een van ATI of een van die nieuwe KYRO's. Nvidia kan de pot op.
Hoezo? Wat heeft nVidia jou aangedaan? Hebben ze je pc vermoord? :)

Dus wat je eigelijk zegt is dat je nooit meer een nVidia kaartje koopt, ook al zijn die goedkoper en 6x sneller dan de concurentie (bij wijze van spreken :))?
|:( sorry brakke zin

Tja als we allemaal nvidia kopen hebben ATI en KYRO helemaal geen kans.
en dan zijn over een jaartje alle Nvidea kaartjes mooi 2x zo duur
[dubbel post] (sorry)
Veel tweakers (zoals ik) hebben een hekel aan monopolies & machtsposities in de pc-markt:
- Microsoft
- Rambus
- Nvidia

Niet omdat ze slechte producten maken (juist niet, als je heelo eerlijk bent), maar omdat je niet kunt vergelijken. We komen met de pc steeds dichter in de buurt van een apple, commodore64 of IBM-compatible (als dat ooit heeft bestaan). Al het spul wat erin zit komt van dezelfde tekentafel. Het voordeel is dat we straks misschien van ons irq-probleem afkomen, maar het nadeel is dat we niet meer kunnen kiezen.
--> MR WimLex:

Mijn vorige baas maakte videokaarten met 3dfx chippies van divers pluimage. Je wil niet weten hoe "lastig" dat is. De kaarten die "derden" maakten haalden niet uit die chips wat er in zit. Dan maak je als chipproducent toch de keuze het zelf te doen, om te laten zien wat je kunt ?

Overigens vind ik het allemaal niet zo bijster interessant om te lezen wat er "eigenlijk uitgebracht zou moeten zijn" Hoog "Panorama gehalte" verhalen, en je hebt er absoluut niets aan.

Mijn voormalig contact persoon bij 3dfx bevestigd dit trouwens, dus supergeheim is het niet.
Het was duidelijk de bedoeling dat Mojo 3dfx weer helemaal terug aan de top moest zetten. De externe T&L unit werd in dit ontwerp gedumpt voor een ge´ntegreerde versie. De basis van de chip is het tile-based rendering systeem van GigaPixel. Deze methode van renderen is zeer efficient, zoals de Kyro II pas geleden heeft bewezen.
Tile based rendering is alleen efficient mbt overdraw. Het is niet efficient mbt culling zoals HSR dat is, want daar heeft het niets mee te maken. Aangezien men surfaces cult (weghaalt omdat ze toch niet worden getekend, bv ze zitten achter een muur oid) en daarna per pixel operaties er op uit gaat voeren, is tile-based rendering iets wat daar niet mee matcht: alle operaties in pixelshaders en vertex shaders zijn gevat in materialen die als eigenschap van surfaces wordt gezien, niet van tiles. Door tiles te renderen moet je bv dan van meerdere surfaces per -pixel operaties uitvoeren wat zeer in efficient kan zijn omdat per surface je de complete logica op de chip moet cleanen en niet gebruik kunt maken van al berekende waarden van voorgaande pixels in DIEZELFDE surface, wat je WEL hebt bij triangle based rendering en pixelshaders.

Ik begrijp die ophef dan ook niet zo, tile based rendering is NU efficient ivm de fillrate aspecten en per-pixel operaties nu niet aan de orde zijn (nog), maar is niet meer efficient wanneer per pixel operaties nodig zijn, die ettelijke clockcycles kosten om bv matrices te berekenen die voor elke pixel op een surface hetzelfde zijn, maar niet kunnen worden gecached
Het schijnt inderdaad lastig te zijn om T&L met tile-based rendering te combineren, maar blijkbaar zijn er toch manieren voor gevonden. Kyro is er namelijk mee bezig en nu blijkt dat ook 3dfx dacht dat het mogelijk was. Misschien is dat juist het gene waardoor nVidia heeft gezegd dat 3dfx zeer indrukwekkende ideeŰn had liggen.
Otis,

effe 'n paar kleine verbeteringen:
1) bij pixel-based rendering wordt er per pixel gekeken of hij in 'n polygone voorkomt en of die polygone zichtbaar is. Sterker nog, in feite wordt er gekeken of de pixel in die polygone zichtbaar is.
2) tile-based rendering is 'n methode waarbij het display in tiles wordt opgesplits die in on-chip geheugen worden gecached. Daarna wordt op de tile pixel-based rendering toegelaten.
3) Pixel-based rendering werkt het meest efficient met display-lists. Dat betekent dat je als eerste alle polygonen die je wil tekenen naar de GPU stuurt, pas op het moment dat je zegt dat deze gerenderd moeten worden, worden ze gerenderd.
4) T&L kan worden geimplementeerd door extra polygonen te tekenen die naar de display list worden gestuurd.
5) Triangle based rendering is in efficient doordat voor iedere actie er 'n lookup in het geheugen moet worden gedaan. Je kunt wel features blijven toevoegen, maar zolang je geheugen bandbreedte de limit blijft, heb je er niks aan.
Ik denk niet dat we veel van deze technieken terug zullen gaan zien in toekomstige nVidia chipsets omdat nVidia al heeft aangegeven niks te zien in multi-chipset videokaarten. Of ze moeten natuurlijk door de prestaties en verwachtingen van deze chips compleet omslaan :), maar dat zal niet gebeuren.
Of er ooit benchmarks van die Rampage uitkomen betwijfel ik ook, hij ligt waarschijnlijk in een grote kluis stof op te doen of is al vernietigd, en iedereen die dat ding ooit aangeraakt of gezien heeft zal wel een geheimhoudings plicht hebben. :'(
Jammer, ik had graag eens gezien wat 3DFx gemaakt zou hebben na hun redelijk slechte Voodoo5 (vond ik persoonlijk, kan natuurlijk zijn dat andere mensen het een geweldige videokaart vonden :))
goed lezen... De chip waar het nVidia echt om gaat is de Mojo... Dat is dus niet een multichip oplossing... En geloof mij nVidia was ECHT jaloers op de FSAA van 3dfx (inside info...)
Quicnunx AA is zowel qua beeldkwaliteit als geheugengebruik superieur aan multisampling.
eeehm ja... maar 3dfx was intern al verder dan wat wij gezien hebben...
Ik moet nu toch wel een traantje laten :'(

toen de voodoo3 en de 4 etc uitkwamen was voor mij 3Dfx eigenlijk afgeschreven want zo goed als de voodoo 2 (zo revolutionair dan) werd het nooit meer.

en nu lees ik dit. Dat is toch doodzonde? Als ik als semi-leek lees wat die kaartjes (en vooral de Mojo) in huis hadden dan had het nog een mooie strijd kunnen worden tussen Nvidia en 3Dfx (en misschien Ati).

Dat had gunstiger geweest voor de gebruikers en er had een boel kennis niet verloren gegaan want Nvidida is blijkbaar niet bereid om hetzelfde soort videokaarten te gaan maken.

eeuwig zonde
Idd...als je ziet dat je met een voodo2 nog steeds redelijk goed kunt gamen in 800x600 of in sli zelfs hoger. Kijk naar de TNT of TNT2 chips die dik een jaar jonger zijn en ongeveer de zelfde prestaties halen. Ja 3dfx was echt revolutionair.

* 786562 4of9
ik gebruik ze nog steeds (2 stuks)....oudere games (1998 etc) hebben wat meer moeite met geforce en helemaal als ze 3dfx ge-optimised zijn ben je beter af met een voodoo....toch waren de geforce2mx benchmark scores met 3dmark 2000 meer dan 2 keer zo hoog...maar ja, mag het ook?
ik krijg er toch elke keer weer een brok in mijn keel van :( ik heb ze allemaal gehad tot de voodoo 3 3000 aantoe, ben daarna door een hcc beurs stunt overgetapt op geforce 1,

Wie van de old-school gamers hebben er nou niet met een open mond naar de eerste 3dfx beelden staan kijken,

mijn rijtje:
Voodoo I 4mb (helois) heb hem nog liggen
Voodoo rush 6mb (standalone van helios) verkocht
Voodoo II 8 mb (diamond) heb hem nog liggen
Voodoo II 12 mb (creative) heb hem nog
Voodoo III 2000 16 mb pci (STB) verkocht
Voodoo III 3000 16 mb agp (STB) in m'n server

tering ik was bijna in love met dat bedrijf, echt heel jammer dat het zo moest eindigen :(
Ik ben begonnen met een diamond banshee was ook mijn laaste die voodoo1/2 waren toen ook duur en voor een beetje resolutie had je van die V2 er twee nodig dus twee PCI sloten plus nog een PCI slot voor 2D kaart dus drie dure kaarten.daarom dus die banshee.

300,-(2D ) & 600,-(V2-12) & 600,-(V2-12) = 1900,-

Multie chip is leuk voor power maar dan speelt dy shrink een veel grotere rol die VSA100 op 0,25 2x of 4x en nvidia zat op 0,18 met een enkele chip

En Memory efficientie is ook veel minder(texturesworden per chip opgeslagen, 128MB is dan geen luxe) met multichips vooral als dat geheugen ook duur is.

Wat zou die V5 6000 128MB moeten kosten 1500,-

Misschien heeft de Geforce 5/6 wat 3DFX tech erin zitten of een variatie ervan.
Eigenlijk is deze posting een beetje mosterd na de maaltijd.....

3dfx zou fantastische kaarten gaan uitbrengen, maar ja... de Voodoo 5000 zou ook fantastisch zijn.... :P

Je zal het nu dus eigenlijk nooit zeker gaan weten...

Wat ik wel raar vind, als deze kaarten dan echt zo goed zouden zijn, waarom heeft nVidia ze dan niet verder ontwikkeld om ze naast de Geforce familie te verkopen? Lijkt mij dat ze dan een nog grotere markt aandeel kunnen krijgen dat ze nu al hebben....

:? of had cuylfrits misschien anders meer moeten opletten bij bedrijfskunde :?
Waarom zouden ze met zichzelf gaan concurreren? Ik denk dat nVidia een aantal dingen van 3dfx zeker aan het doorontwikkelen is, niet als aparte chips, maar om ge´ntegreerd te worden in de GeForce architectuur.
Toen 3dfx zijn chips verkocht(losse chips alleen), voodoo 1 en 2 en banshee, ging het goed. Opeens gingen ze zelf kaarten maken en resultaat zie je hier. Want echt veel heb ik ze niet aan marketing zien doen.
Het was misschien beter geweest als ze het net zo hadden gedaan als nVidea.
toch leken al die kaarten sprekend op elkaar....ik heb een voodoo2 merkloos (ik kan geen merk vinden, misschien ie ie dan toch van 3dfx zelf?) en een diamond.....kun je leuk een zoek de verschillen-spelletje mee doen. Leuk detail is dat de diamond versie destijds aardig wat meer kostte :) (monster 3d 2...jaa, lang geleden he? ;))
Nee die Nvidea based kaarten lijken niet op elkaar zeker?

- Het heeft geen waarde maar ik moest het toch ff kwijt
ik vindt het ook zonde

heb nu een voodoo 5 5500 en deze bevalt perfect
het is gewoon jammer dan de chipie's van 3dfx niet worden door ontwikkled er zijn ook mensen die geen nivida chip willen daar was 3dfx een goed alternatief voor
ik heb een voodoo 2 en 3 gehad en heb nog nooit problemen gehad met deze kaarten niet met instaleren en spelen waren gewoon perfecte kaarten
ook bij diverse mnesen ingebouwd met allerlei vage problemen een voodoo er in en gaan :)
dat klopt wel...ik heb een voodoo1 gehad en nog steeds voodoo2 en die dingen werken gewoon perfect....met de geforce (die overigens prima werkt hoor) heb je soms toch van die kleine dingetjes dat je denkt van ...hee, da's gek...
Over concurentie gesproken, het is doodzonde dat niet matrox of ati de bende bij 3dfx had opgekocht.

Vooral bij Matrox had je dan een GF3 killer met die topspectre met het 2d gedeelte van matrox. Klinkt niet onlogisch als die kaartjes zelf al multiprocessor zijn.
Matrox had de bende niet op kunnen kopen. De laatste chipset/kaarten van 3dfx verkochten misschien niet zo super maar de kennis en ontwikkelingen die ze hadden liggen kosten toch nog een flinke hap poen. B-)

Wat ik niet snap is waarom ze niet eerder aan een samenwerkingsverband met ATI of Matrox zijn gaan denken, dan hadden ze het misschien gered en hadden we twee bedrijven gehad die met elkaar konden concureren ipv de een achter de ander aan lopen. Want op dit moment is ATI toch redelijk verplicht om de nieuwe technieken van NVIDIA ook in hun chips te verwerken omdat ze anders te weinig ondersteuning krijgen. :'(


Matrox had een betere bumpmapping maar geen snelle kaart om het populair te maken. En als gamers moeten kiezen tussen vloeiend en iets minder mooi en super mooi maar niet vloeiend gaan de meeste toch voor een vloeiend lopend spel.

Samen hadden ze (Matrox, 3dfx, ATI) wat kunnen doen. B-)
onthuld met een d

normaal reageer ik niet met spelfoutjes maar een spelfout in de topic vond ik wel belangrijk genoeg om te reageren :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True