Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Bron: shugashack

Bij Shugashack is wat informatie te vinden over de 3dfx Rampage. De informatie is gelekt van de 3dfx site waar de webmaster de grote fout maakte om de onderstaande termen op te nemen in hun Technology Glossary. We kunnen er dus van uit gaan dat de info correct is .

In de gelekte glossary komen we de termen M-Buffer, recursive textures en 52-bit color tegen. De M-Buffer lijkt een nieuwe smaak T-Buffer te zijn, maar dan een die effecten per pixel toe kan passen. Wat recursive textures zijn is me niet compleet duidelijk, maar het lijkt op iets waarmee je per pixel effecten kan bouwen op textures door middel van andere textures.

En last but not least vinden we 52-bit kleuren in het lijstje met termen terug. Deze feature is niet zoals je op het eerste gezicht zou denken compleet nutteloos, maar zelfs extreem handig als er gebruik wordt gemaakt van multi-texturing. Het is namelijk zo dat er bij elke extra texture laag het eindresultaat onnauwkeuriger wordt en dus een precisie krijgt die (veel) lager ligt dan 32-bit. Dat is natuurlijk niet wenselijk en dus gaan de nieuwe 3dfx chips intern op 52-bit werken :

- M-Buffer™ : "M" stands for multi-sample. ... in the multi-sampling method, used by Spectre, only one texture lookup per *pixel* (so that all subsamples use the same texture lookup value) is required. ...it reduces the amount of texture lookup by a factor of 4 compared to the VSA-100 method...
- Recursive textures : Texturing flexibility by supporting N (8 for Spectre) independent, unique textures applied per pixel in a single rendering pass... Also reflection on water.
- Overbright (52-bit color) : Increased internal precision of 52-bits (signed 13-bits per RGBA color component), generating rendered images of substantially higher quality. The higher dynamic range reduces darkening resulting in more vibrant and realistic images.
Moderatie-faq Wijzig weergave

Reacties (49)

Deze fout hoeft niet zo'n grote fout te zijn als het lijkt. Door deze informatie (al dan niet express) vrij te geven, zorgt 3dfx er wel voor dat er een soort van hype kan ontstaan rondom deze kaart (net zoiets als nu het geval is met de Xbox). Dit kan de populariteit van de toekomstige kaart enorm vergroten.
Hype kan ook tegen je gebruikt worden. Zo was er voordat Red Alert uitkwam (spelletje) een enorme hype rondom dit spel ontstaan. Het zo wel zoooo goed zijn. Helaas bleek het een opgepoetste Command & Conquer te zijn. Als je als bedrijf hype wilt (door bv. opzettelijk info te 'leaken'), kun je maar beter ervoor zorgen dat je het ook waar kunt maken. Helaas onstaat hype vaak spontaan en kan het bedrijf er niets aan doen (waardoor dus de hype niet waargemaakt kan worden, of deadlines niet gehaald worden).
Wat lul jij nou, overal werd er positief op Red Alert gereageerd. Een beter voorbeeld zou dan Tiberian Sun zijn, aangezien deze (zwaar) zuigt (vind ik dan). Of diakatana, das pas een goed voorbeeld
Engage!
Precies wat ik dacht. Na hun debacle met de videokaarten en hun stap om weer terug te gaan naar het chippies bakken, heeft 3dfx wel weer een imago-boost nodig. Wat is beter dan een paar lekkere specs van mogelijke nieuwe chippies te laten 'lekken'?
De cursus 'hoe critici het zwijgen op te leggen' lijkt met oplettendheid te zijn gevolgd ;)
Die M-buffer, dat is toch minder nauwkeurig dan wel voor elke subpixel een aparte texture lookup doen? Of is de vondst nu net dat het in beeldkwaliteit niet zoveel uitmaakt maar in geheugen bandbreedt wel? (een factor 4)
Ik heb eens met een stel andere studenten een raytracer gemaakt, daarin hadden we een algoritme dat de kleuren van buurpixels vergelijkt en alleen gaat oversamplen als die kleuren ver uit elkaar liggen. Bij stills werkte dat best aardig, maar ik kan me voorstellen dat het bij een animatie minder goed werkt aangezien objecten die smaller zijn dan 1 pixel op het ene frame wel te zien zijn en op het volgende misschien niet (knipperen).

Wat ze hier met "recursive textures" bedoelen snap ik niet. Zoals ze het beschrijven zijn het gewoon meerdere textures over elkaar heen, daar is toch niets recursiefs aan? Of zouden ze bedoelen dat een texture zelf ook weer gerendered wordt, zoals bij reflecties?

De term "overbright" suggereert dat je ook overbelichting kunt modelleren. Dus dat de clipping van geldige kleurwaarden pas op het eind plaatsvindt en niet bij elke renderstap. Voorbeeld: bij 32 bits per pixel gaat rood, groen en blauw in waarden van 0 t/m 255. Overbelichting zou betekenen dat je intern ook grotere waarden kunt opslaan, zodat een overbelichte glim-plek op een appel die je door een halftransparante glasplaat bekijkt er toch realistisch uitziet.
Bij stills werkte dat best aardig, maar ik kan me voorstellen dat het bij een animatie minder goed werkt aangezien objecten die smaller zijn dan 1 pixel op het ene frame wel te zien zijn en op het volgende misschien niet (knipperen).
Is niet zon probleem met FSAA toch .. dat gaat het 'poppen' van pixels namelijk tegen door oversampeling (en veel mee leuke technieken) te gebruiken. Ik denk echter zelf dat ze maar 1 keer de texture uit het geheugen hoeven te halen (om er daarna sub-samples van te maken, ipv voor elke subsample het geheugen aan te spreken.)
Wat ze hier met "recursive textures" bedoelen snap ik niet. Zoals ze het beschrijven zijn het gewoon meerdere textures over elkaar heen, daar is toch niets recursiefs aan?
Tja, wat ik kan opmaken aan die info niet, misschien dat het ook texturen uit andere objecten mogen zijn. Er staat immers dat er een aantal unieke onafhankelijke textures gebruikt kan worden voor een object in 1 pass. refecties op water hoeven dan niet meer extra gerenderd te worden omdat er dan nauwlijks geometrie verweking meer nodig is (afhankelijk van gebruikte belichtings model).

Wat ik me trouwens afvraag .. waarom wil jij oversampelen bij een ray-tracing.. voor het aanbrengen van texturen is er niets mis om te subsampelen en te oversampelen, maar is dit echt noodzakelijk bij de belichting van de scene.. dacht het niet.. wat je beter dan kan doen is een 4 pixel sampler over het eindresultaat (dat wil zeggen de al gerenderde scene) te gooien dit kost een beetje kracht maar door een beetje optimalisatie (gebruik de inverse van het door jullie gebruikt alogritme) valt dit best mee en het resultaat zal er nie om liegen ( alleen kleuren die bij dicht elkaar liggen, maar niet te ver) over-samplen en je hebt nauwelijks last meer van het poppen van pixels
HSR = geen hoge snelheids RAM

het staat voor Hidden Surface Removal
Die gasten van 3dfx houden tig jaar lang vast aan 16-bits color en nou komen ze met 52-bits aanzetten?
Ja.

ze hielden vast aan 22-bit colour (internal rendering), op het moment dat er bijna alleen 16-bit spellen in omloop waren. Daardoor had de Voodoo serie betere kleurenweergave dan andere kaarten als die op 16-bit liepen.

Later toen er echte 32-bit spellen kwamen (quake3, etc), zijn ze zelf ook naar 32-bit overgeschakeld.

John Carmack heeft al gezegd dat 32-bit niet voldoende is in de nabije toekomst, en 3Dfx speelt daar dus blijkbaar op in.

Het lijkt er op dat 3Dfx nog veel innovatieve hardware-designers heeft. :)
Nah, die 16 bits color op de voodoo 2 serie was echt bagger!
De 16 bits kleur op mijn MX bordje is veel beter.

Verder geloof ik dat de Rampage echt heel goed gaat worden, ik vrees alleen dat hij slecht verkocht zal worden als hij veel later dan de NV20 zal uitkomen :(
(ik ben geen Nvidia fan hoor, 3Dfx rulet! (ben ik heel blij met mijn Geforce 2 MX))

Trouwens als 3Dfx die HSR nog weet in te zetten, is de Voodoo 5 de ultieme kaart: hij was bedoeld om met de Geforce 1 te concurreren en dan maakt hij de Geforce 2 Ultra finaal af }>
John Carmack heeft al gezegd dat 32-bit niet voldoende is in de nabije toekomst, en 3Dfx speelt daar dus blijkbaar op in.
Volgens mij merk je dat alleen in de performance die omlaag gaat als je 52 bit kleuren doet, het verschil tussen 16 en 32 bit is al amper te zien, of ligt dat aan mij?
het verschil tussen 16 en 32 bit is al amper te zien, of ligt dat aan mij?
Ja dat ligt aan jou. Ik speel nog steeds met een Voodoo II kaart en ik zie echt overal dithering bij egale effecten zoals fog.

Maar goed, sommige mensen hebben hun monitor ook nog steeds a la fabriek staan.
Ik was ook altijd van mening dat 32-bit niet nodig was, totdat ik een keer een gedailieerde vergelijking van 2 lichteffecten in 16 en 32 bit zag, dat maakt dan wel even een klein verschilletje...
wacht ff weareborg,

de meeste( of de belangrijkste) functies van de T-buffer worden al standaard ondersteund door de API's (Glide, OpenGL...). Alle spellen ondersteunen het dus automatisch, 3dfx heeft dit altijd belangrijk gevonden (als argument tegen de T&L van nVidia).

T lijkt me dat de M-buffer ook wel een hoop features zal hebben die geen extra programmering in de software vereisen.
T-Buffer Hardwarematig?
API Softwarematig?

;)
API stukje software dat de hardware aanspreekt?
API in dirextX 8 nieuwe features aanspreken zonder dat je ook maar iets aan de code van het spel hoefd te veranderen?
dit bij T & L niet het geval zijn?
BAALBERITH heel goed punt aandragen??

;)
Hehehe ;)

Ik zie het wel, je twijfelt net zo erg als mij hehe ;)
Voor FSAA is inderdaad idd niet nodig dat met de spellen oopnieuw gaat schrijven, maar voor een beetje geod gebruik van bv motionblur is het toch nodig. De functies die jij zelf aan kan zetten hebben namelijk geen invoer van de computer nodig en halen al de benodigde data uit de T-buffer. Hierdoor is het eigenlijk alleen maar nodig om een bitje in een register om te zetten en de functie werkt. Nadeel is dat het niet echt geprogrammeerd kan worden omdat het alleen maar een hardware setting is, dit in tegenstelling tot motion-blur die weer programmeerbaar is een waarvoor dus extra data van de host-CPU nodig is. Als je dan kijkt naar T&L ... deze heeft zijn data nodig in een bepaald vertice formaat . Het spel (de programmeur eigenlijk) zal de omgeving van het spel dus moeten vertalen van modelen naar vertices en deze naar de kaart sturen waarna hij de wereld en de modellen opbouwt.
Ik hoop alleen dat de videokaarten wat betaalbaarder gaan worden. Het wordt nu steeds duurder, enz e volgen elkaar steeds sneller op. Leuk voor degene met ongelimiteerde pinpas, maar voor de meeste van ons gaat het denk ik te hard.Vorig jaar GeForce, nu GF 2, qt2 2001 de volgende etc. etc.
Wees blij, de prijzen zakken vanzelf wel. Als je niet het nieuwste van het nieuwste wil hebben dan koop je een kaart van een jaar oud. Voor gaming houdt dat in dat veel recente games in ieder geval alle opties van de kaart benutten. Wat veel mensen lijken te vergeten bij de aanschaf van een kaart is dat nieuwe instructies op de kaart vaak niet worden ondersteund door bestaande software, en ook niet voor software die op dat moment ontwikkeld wordt. Voordat games die nieuwe sets gebruiken duurd het maanden en soms meer dan een jaar voordat er een patch en/of update komt die de mogelijkheden van de dan al 'verouderde' kaart benutten. Slechts een handjevol software producenten neemt de moeite om hun games aan te passen aan nieuwe features op gfx kaarten. Dus om de huidige games te spelen met meer dan fatsoenlijke kwaliteit kun je gewoon een minder recente kaart kopen :). Koop in ieder geval niet een kaart omdat die 3 fps meer haalt en 400 gulden duurder is. Althans, dat is mijn visie.
En veel software makers houden ook rekening met
de wat mindere kaarten.
Want de meeste gebruikers hebben geen GTS2Ultra.
Je hoeft echt niet de allersnelste te hebben, de mx is bijv. een zeer goede kaart voor weinig geld...ik weet nog cdat mn voodoo1 zon 400 piek kostte, toch ook niet bepaald goedkoop, zeker niet als je ziet wat je er toen voor kreeg
T-buffer, M-buffer :?

Hoe lang gaat dat door? Straks vinden ze daaro bij 3Dfx nog een Z-buffer uit. :)


* 786562 The
De Z-Buffer is al uitgevonden :7
Die ken ik ook al niet... wie kan mij uitleggen wat de 'oh'-buffer is? ;)
Hmm, wel leuk. :)

M-Buffer is dus ook een techniek om Geheugen bandbreedte te sparen.

Overbright[52bit]
Zeer interresante feature. Ik kan mij een Interview met John Carmack herinneren waarin hij het voordeel van meer dan 32bits uitlegde. dankzij 52bit Overbright kun je de alpha veel nauwkeurig regelen.. Waardoor lighting er stukken beter uitziet.. Zeer slim van 3dfx.
John Carmack pleitte voor 48 bits kleur, zodat je ook 24 bits voor alpha hebt. Ik kan me voorstellen dat 3dfx nog wat extra bitjes gebruikt voor die recursive textures.
Texturing flexibility by supporting N (8 for Spectre)
independent, unique textures applied per pixel in a single rendering
pass.
Dan heb je 3 extra bits nodig (2^3=8 duh) om niets van afrondfouten te merken, dus 51 bits.

Maar mth's mogelijke verklaring verderop over overbelichting kan natuurlijk ook. Misschien neemt 3dfx wel genoegen met 16 bits alpha en dan nog 8 bits voor overbelichting oid. Wie weet?
Misschien snap ik je nie hoor, maar het is toch zo dat je als je 2 textures bij elkaar voegt (voor het gemak allebei 32 bits) dat het resultaat daarvan een 33 bits texture opleverd. Dit moet dan voor weergave gedownsampeld worden en dit levert kwaliteits verlies. Als je dan 8 over elkaar legt zonder eerst te rekenen kom je op een texture uit van met een precisie van 39 bit. Maar vergeet dan niet dat er misschien nog een antal extra effecten over moeten en misschien nog een paar textures (denk aan glazen of het bekijken van iemand onder water).
Als 3dfx inderdaad 24 bits alphablending wil gaan gebruiken dan dan wordt dit sommetjes iets anders 24+24-> 48 dan blijft er een 4 bits precies over voor textures, en resulteerd in max 5 textures over elkaar zonder (inwendig) kwaliteits verlies. Echter volgens mij had Carmack het toen over 12/12/12/12 (RGBA)
en dat levert een heel ander plaatje op namelijk 36 bit + 8 (multiple texture precisie) + 8 (alpha) -> 52 bit.
Nou, dit wordt dus mijn volgende kaartje , weet ik zeker!Nu hopen dat ze hem snel kunnen releasen , tegelijkertijd met de NV20 die wel weer supersnel zal gaan worden en waarschijnlijk iets sneller , maar ik denk dat hij op features en innovatie zal worden ingehaald door de Rampage(Spectre) en zeker wat betreft beeldkwaliteit.Je merkt dat 3dfx langzaam uit het dal gaat raken , als ze die HSR voor vsa-100 kunnen perfectioneren dan hebben ze ook een winnaar in hun handen met de v5 5500 , snel en superieure beeldkwaliteit en FSAA.
Hoewel ik dit zelf ook wel leuke specs vind ben ik benieuwd wat het uiteindelijk gaat worden, en zeker wanneer.
Ik heb nu een nvidia en misschien de volgende keer een 3dfx, maar ik ga zeker geen kaart kopen omdat ik merkentrouw ben, ik kijk liever naar de spec's en de "real-world" prestaties, en als ik kijk naar de betrouwbaarheid van gelekte features nu en in het verleden dan zou ik nu nog niet beslissen welke kaart ik in de toekomst kan ga kopen...


* 786562 blouweKip
Als ik dit mag geloven is 3dfx gelukkig nog springlevend, ik hoop dat de volgende generatie chips van 3dfx weer aan de concurrentie gewaagt zijn, hoewel op dit moment hsr-drivers daar al aardig mee bezig zijn geloof ik.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True