nVidia zet zinnen op 64 bit kleur videokaarten

Tegenover The Inquirer heeft nVidia verklaard in de toekomst te willen gaan voor 64 bit kleurdiepte in videokaarten. Professionele bedrijven als Pixar en SGI hebben al jaren niet meer genoeg aan 8 bits per kanaal om de kleuren van beelden van filmkwaliteit te beschrijven. Vooral voor ingewikkelde shader operaties is er een duidelijke behoefte aan meer precisie, iets wat niet simpelweg verbeterd kan worden door intern een aantal bits toe te voegen en deze later weer weg te snijden. Gameontwikkelaars als John Carmack zouden nVidia vragen om meer dan 32 bit kleur, omdat stoere filters van filmkwaliteit anders niet te realiseren zijn. Probleem is dat een SGI renderpark niet direct gelimiteerd wordt door kosten en snelheid, terwijl dat bij een videokaart al te meer meespeelt. Er is niet alleen twee keer zoveel geheugen nodig, er moet ook twee keer zoveel bandbreedte aanwezig zijn om dezelfde performance te halen als met 32 bit kleur. Leuk weetje is wel dat degene die (vijf jaar geleden al!) bij SGI de 48 bit "Infinite Reality" videoprocessor heeft ontworpen tegenwoordig aan het hoofd staat van de nVidia chiparchitectuur afdeling. Ook DirectX 9.0 zou meer dan 32 bit kleur ondersteunen:

nVidia Logo (graphics^n) Future shaders will be making many passes into the frame buffer, resulting in many frame buffers read/modify/write cycles, putting incredible pressure on the memory bandwidth available, making interactive performance very challenging.

These facts are not unknown to the real-time graphics industry. Silicon Graphics is one of the companies that for years used higher precision than 32-bits. We know that the bonds of SGI and Nvidia are quite strong and Nvidia was started by few ex-SGI [and AMD] engineers. Some have even suggested that Nvidia might even purchase this company but we don’t have any kind of precise information about that.

Door Wouter Tinus

18-12-2001 • 20:03

99

Bron: The Inquirer

Reacties (99)

99
95
58
21
8
23
Wijzig sortering
Voor alle duidelijkheid, 64 bit kleuren ondersteuning op de videokaart heeft eigenlijk weinig te maken met het aantal kleuren wat je te zien krijgt. De monitor kan nog altijd niet meer dan 24-bits kleuren weergeven, en ook uit de videokaart zullen niet meer kleuren komen.

De enige toepassing is een hogere nauwkeurigheid bij verschillende berekeningen. Als je 2 textures (pixels) bij elkaar optellen en delen door 2 kan het voorkomen dat 1 pixel de waarde 10 heeft en de andere 13. Samen is dit 23/2=11,5, maar omdat de nauwkeurigheid niet hoger is dan een x aantal bits kan het zijn dat dit wordt afgerond naar 12.

Stel nu voor dat je heftig aan multi-texturing wilt gaan doen mat allerlei funcy effecten, en je kan je wellicht voorstellen dat de naukeurigheid achteruit holt. Resultaat een lelijk gedithererd plaatje met eigenlijk minder kleuren dan 24-bits.

Daarom zijn dus meer kleuren handig, noodzakelijk.
Ahum.. de monitor kan oneindig veel verschillende kleuren weergeven. Is namelijk analoog.

Maar: 1600x1200=1,92 miljoen pixels. Dus met 24bpp kan je niet eens elke kleur tegelijk op 't scherm zetten :)
hmm... meer dan 8bpp wordt al niet meer met een kleurenpalet gedaan en er is dus geen limiet aan hoeveel verschillende kleuren je lichtbak in een beeld kan aannemen... is alleen beperkt door de resolutie in RGB-signalen die-tie gevoedt krijgt.

Het aantal schakeringen per kleurelement in een 32bpp beeld is gewoon niet voldoende om shadereffecten over elkaar te gooien zonder dat het beeld effect na effect er steeds :r uit gaat zien.
Hallo? Kunnen we nog een beetje rekenen? Hoeveel kleuren was 24 bit ook alweer? Oooooh ja, 16,7 miljoen. Dus dat past meer dan 8x op je 1600x1200 schermpje... :Z
Ahum :Z

Dus 16,7 miljoen past 8x in 1,92 miljoen?

Ik dacht het niet :)
amen, iedereen vergeet hier dat het niet zozeer gaat op de hoeveelheid kleuren op het scherm, maar dit is vooral heel interresant als er 2 kleuren moeten worden opgeteld, er beter en nauwkeuriger kan worden gemengd. Denk hierbij aan ruiten in een schietspel, mist of andere zaken.

Dat van dat geheugen dat 2x zo groot moet zijn en een 2x zo grote bandbreedte... Ik kan me voorstellen dat het mogelijk is om de textures op 32bit te houden, en dat de processor tijdens het berekenen wel in 64bit werkt waardoor tussenuitkomsten veel nauwkeuriger worden. Hierdoor is het mogelijk met het zelfde geheugen zeer realistische plaatjes met filters en toestanden te maken, zonderdat er ineens veel meer geheugen nodig is.

Veelbelovend, dat is dit alles zeker
Anoniem: 25658 @Bart B18 december 2001 23:33
Het is ook helemaal niet de bedoeling dat de textures 64 bit zijn. De effecten worden 64 bit opgeslagen en verrekend. Dit zul je dus wel ergens op moeten slaan, immers 1 pass 64 bit berekenen heeft geen nut, pas nadat verschillende passes over elkaar voltooid zijn zal er een effectief verschil zijn tussen 64 en 32 bit. DAT proces zal dus 2 x zoveel bandbreedte eisen, daar kom je niet omheen.
voor alle mensen die nog niet zo goed kunnen lezen :)
Vooral voor ingewikkelde shader operaties is er een duidelijke behoefte aan meer precisie, iets wat niet simpelweg verbeterd kan worden door intern een aantal bits toe te voegen en deze later weer weg te snijden.
Het gaat er dus niet om dat er meer kleuren op je beeldscherm gezet worden. Er staat zelfs dat het niet goed genoeg meer is om tijdelijk met extra kleuren te werken en dit aantal later (voor het op je scherm gezet word dus) weer terug te schroeven.
Het gaat erom dat met meer kleuren preciezer gerendered kan worden. Wat dit precies inhoud weet ik ook niet :) Maar het gaat er dus niet om dat je meer kleuren ziet.

Overigens is je oog analoog dus ja, je ziet wel verschil als er meer kleuren op je beeldscherm staa. Dat dit niet opvalt is weer iets anders :)
edit:

Laat maar
nou vraag ik me af in hoeverre dat nuttig is, het verschil tussen 16 en 32 bit zie je bij games vaak, in rook enzo, maar tussen 24 en 32 eigelijk al niet, nou kan het dat de marge tussen 24 en 32 te klein is, maar het kan ook dat het menselijk oog geen verschil ziet
iemand die weet hoe dit zit?
24bits-per-pixel geeft 16.7miljoen kleuren (2^24)

Meer kleuren kan de mens niet onderscheiden.

De bits na de 24 worden gebruikt voor unieke eigenschappen anders dan de kleur. (ook bij 32bits)

Volgens de post heeft men behoefte aan meer precisie bij het renderen. Daarvoor biedt een grotere bpp uitkomst. Het resultaat kan evt op 24bpp weergegeven worden, maakt voor het oog niks uit. Maar ja, zou wel nog meer performance kosten.

[edit] typo :{
De bits na de 24 worden gebruikt voor unieke eigenschappen anders dan de kleur. (ook bij 32bits)
Klopt.
24 bit = 3 * 8 bit = red, green, blue channels.
32 bit = 4 * 8 bit. 4 = red, green, blue, alpha channels.

Daarom ziet veldmuizzz ook geen verschil tussen 24 en 32 bit omdat het aantal beschikbare kleuren even groot is ( 2 ^ 24 dus ).
Het lijkt er ook meer op dat ze die extra preciesie nodig hebben tijdens het berekenen van de verschillende effecten. Dus niet zozeer dat het eindresultaat in 64 bit kleur wordt weergegeven, want dat is idd onzin.
Die 64bits zijn geloof ik inderdaad enkel voor de interne berekeningen en niet zozeer voor de uiteindelijke output (ik denk trouwens niet dat de huidige monitoren er nut van zouden hebben).
Nu valt het probleem nog redelijk mee omdat het aantal rendering passes beperkt blijft, maar als je echt alles realistisch wil voorstellen kom je aan een hele hoop filters achter elkaar die in totaal de kleuren zouden vervlakken (Een simpel voorbeeldje is bijvoorbeeld dat een texture eerst verdonkert wordt omdat het donker is in dat gebied, maar dan weer terug verlicht wordt met een zaklamp van de speler ofzo. Als een punt met roodwaarde 95 2x zo donker wordt bekom je een punt met roodwaarde 47. Als dit punt door je lamp weer 2x zo licht wordt bekom je 94.
Als je zo meer rendering passes hebt wordt je resultaat natuurlijk nog onnauwkeuriger en zouden er in de praktijk weinig van je 16miljoen kleuren overblijven. Dit zou opgelost kunnen worden door de interne kwaliteit te verhogen tot 64bit.
24bits-per-pixel geeft 16.7miljoen kleuren (2^24)

Meer kleuren kan de mens niet onderscheiden.
Je redeneert iets te simpel denk er bijvoorbeeld eens aan dat je om een bepaalde reden alleen met groen rood of blauw wilt werken of mischien wel alleen grijswaarden (zeker niet ondenkbaar) en je wilt mischien een vloeinde overgang van wit naar zwart maken dan heb je toch echt maar 8 bit ter beschikking ofterwijl 256. Aangezien men tegenwoordig toch wel met resoluties tot aan 1600x1200 werkt en grote schermen heeft ga je die beperking van 8 bit echt wel zien probeer het maar eens uit zou ik zeggen. Ik denk dat je dan met 64 bits kleur toch wel een heel stuk beter uit de voeten kan aangezien je dan bijvvorbeeld alleen al 65536 grijswaarden kan hebben ipv 256. Die extra bits is dus niet voor extra info op te slaan voor de effecten hoor die staat gewoon in de programmacode oid. Die extra precisie is kan ook zichtbaar zijn voor de mens.
24bits-per-pixel geeft 16.7miljoen kleuren (2^24)
Meer kleuren kan de mens niet onderscheiden.
Het aantal kleuren mag dan misschien wel groter zijn dan een mens kan onderscheiden, het is alleen niet zo dat de verschillende kleuren die een mens kan onderscheiden evenredig over het spectrum verdeeld zijn. Dat zijn de kleuren van zo'n videokaart wel.
Je zou dus bij bepaalde kleuren/intensiteit verschil kunnen zien tussen 32 en 64 bits kleur, alhoewel ik betwijfel of het nou echt werkelijk zo hard van stapel zal lopen.
wat ik wel weet is dat je met plaatjes van een grotere kleurdiepte een groter bereik hebt dan met 32 bit. Als je bijvoorbeeld een plaatje hebt met een felle zon, dan zijn er stukjes wit, en de zon ook wit. Maar in het echt is het zon-wit VEEEEEEEL feller dan het andere wit. Dus wat wij beide zien als wit zijn wel degelijk verschillend, en hebben ook een verschillend effect als je ze gebruikt in bijvoorbeeld renderen. Als je met een plaatje met een hoog dynamisch bereik een 3d scene verlicht (dat heet HDRI, high dynamic range imaging) dan krijg je een veel realistiche render. (Dit is natuurlijk niet realtime) Je hebt al (.TGA, of .TIFF dacht ik) bestands formaten met 64 bit die je voor belichting van scenes kan gebruiken. (of .HDR plaatjes) De veel grotere hoeveelheid licht informatie met 64 bit komt het realisme ten goede...
Tja, maar je monitor kan nooit zo'n fel beeld produceren als de zon. Tenzij je kernfusie in je monitor gaat toepassen :)
Je hebt tegenwoordig monitoren met extra helderheid. Als je dat nu hier eens aan ging koppelen dan kon je sommige plekken meer intensiteit geven en dan komt een effect als de zon veel beter uit......
Jep, zonnebril op tijdens het spelen, en na spelletje UT ben je bruin ;)
Whehehe... kzie het al voor me: een flashbang tijdens CounterStrike ofzo... wordt je ECHT verblindt :o
en je hebt gelijk huidkanker :D
Probleem is alleen wel dat dat wat jij beschrijft, zoals al gezegd, niet toepasbaar is op de huidige generatie monitoren.

Stel je zet het zwartpunt van je monitor op 0, en het witpunt van je monitor op 1.
Dan kan je dus onder 8bit 256 verschillende waarden per kanaal naar je monitor sturen in dat bereik. Voor elke waarde hoger maak je een stapje van 0.003906

Nu doe je hetzelfde, alleen met 16bits, ofwel 65536 verschillende waarden. Deze worden ook weer verdeeld over die waarde van 0 tot 1, en je komt dan uit op een stapgrootte van ongeveer 0.000015.
Dit komt de kleurschakering van gradiënties van kleuren ten goede - maar vergroot zeker je bereik niet, dat blijft nog steeds 0 tot 1 (zwart tot wit).

Wat jij zou bedoelen is een monitor die de oude stapwaarde aanhoudt voor zwart tot wit, en dan alles wat erboven zit.. wordt witter-dan-wit.
Om precies te zijn, (2^16) / (2^8) = 2^8 keer zo wit. 256 keer zo wit, dus. Even voor de goede orde... brandend magnesium is op z'n hoogst zo'n 15 keer zo fel.
Je begrijpt dus wel dat je zo'n beetje levend verdampt zou worden als zo'n monitor gemaakt zou worden.

Wel is 't een interessant idee, en niet nieuw, om op z'n minst het bereik uit te breiden tot 0 tot 1 +4. Dus 5 keer zo fel als de huidige monitoren. Dat zou dan moeten gebeuren door rear projection met een sterkere interne projectie lamp. Texas Instruments was daar een tijdje mee bezig - maar de markt is te gelimiteerd.
Dan zou je alsnog een stapgrootte overhouden van 0.000076 voor het 0 tot 1 bereik, wat alsnog 51.2 keer kleiner is dan de huidige stapgrootte.

48-bits (+16) interne calculatie is al eerder beloofd, maar nog met 24-bits (+8) uitgang.
Dit nieuwe 'plan' zou nog wel een betere optie zijn, want het verschil tussen twee grijswaarden, bijvoorbeeld, is wel degelijk te zien - voornamelijk bij de lagere intensiteiten.
( proef : maak een vlak met grijswaarde 64, en zet er een dikke cirkel in met grijswaarde 63. Slechte ogen (of bagger-gecalibreerde monitor) als je 't verschil niet kan zien. )
Vandaar ook dat zelfs met die 16777216 'kleurtjes' die je al hebt, er toch applicaties zijn die 12-bit, 16-bit en zelfs 32-bits per kanaal gebruiken (deze laatste voor compositing, het verschil tussen 16-bit en 32-bit is ècht niet meer te zien :) ), en deze applicaties geven vaak de optie tot het 'ditheren' van intern-berekende waarden naar 8-bit/kanaal uitgang.
Tsja deze discussie is eigenlijk al eerder gevoerd.

Ten tijde van de 3dfx Vodoo 1 & 2 was 3dfx oppermachtig. nVidia kwam toen met een kaart die qua snelheid niet onderdeed en 32bits ipv. 16 bits kleuren had.

3dfx beriep zich destijds op hetzelfde argument als jij nu. 16 bits was voor games voldoende, 32 bits was nergens voor nodig.

De markt heeft toen duidelijk een keuze gemaakt.. Misschien hoopt nVidia dat hetzelfde nu zal gebeuren tov. bv. de Kyro kaarten.

Vanuit dat oogpunt bekeken is het wel of niet nuttig zijn een irrelevante discussie geworden. Nu nVidia ermee komt zal de rest er wel in mee moeten gaan. De consument is nou eenmaal gek op nummertjes en 64 is hoger dan 32 dus zal wel beter zijn.
Vanuit dat oogpunt bekeken is het wel of niet nuttig zijn een irrelevante discussie geworden. Nu nVidia ermee komt zal de rest er wel in mee moeten gaan. De consument is nou eenmaal gek op nummertjes en 64 is hoger dan 32 dus zal wel beter zijn.
Vergeet je echter 1 ding: zodra NVidia dit invoert krijgen Kyro/ATI plotseling een grote voorsprong qua framerates tegen een kleine vooruitgang in de beeldkwaliteit bij NVidia (waarschijnlijk de eerste tijd niet eens waarneembaar door slechte driver/spel ondersteuning).

Ik denk dat dit dus nog een tijdje kan duren. De hardware moet dan zover voorlopen op de software (en dat schiet wel al op!) dat het aantal frame'pjes minder te verwaarlozen is, daarna zal het geïntroduceert kunnen worden bij het grote publiek...
Je gaat het verschil heel goed zijn blij beelden die echte-film kwaliteit benaderen.
Anoniem: 8504 @JT18 december 2001 20:12
Okee dan first things first. Kunnen ze dan niet beter de nadruk leggen op het verbeteren van de vormen van wat er getentoonsteld wordt??
64 bits kleurdiepte vind ik een beetje een goede ontwikkeling op het verkeerde tijdstip. Maar het is wel meer haalbaar dan 'betere' 3d vormen.
Spellen? Het gaat hier om filters voor en het renderen van films.
Voor spellen lijkt mij dit inderdaad wat overkill. Voor het eindresultaat van de film trouwens ook; maar tijdens het renderen zou die extra informatie wel nuttig kunnen zijn.
Nee hoor, lees het nog maar een keer!
Voor het renderen van films wordt dit allang gebruikt,
nvidia wil het nu voor spellen gaan introduceren..
Er komen ook steeds meer ploygonen in de spellen. Wat ik een belangrijk punt vind : natuurgetrouwe bewegingen.
Ja, als je je beeld _stilzet_ dan zal je heus wel wat kunnen zien als je er een 8 bits variant naast houdt.

Maar denk je nu echt dat je zulke details waarneemt als je de zoveelste tegenstanden in de fik steekt in RTCW :? *NOT*
Jij ziet het verschil tussen 16 bit en 32 bit nog niet als je de hele reeks in kleuren zo indelen. volgens mij gebruik je bij editing de zelfde kleur 5x in het geheugen. iemands truitje in het blauw en de ander zijn blauwe trui staan dan 2 keer in het geheugen en willen ze de linker trui veranderen van blauw naar groen dan veranderen ze gewoon de kleur in de tabel, en veranderd niet het rechter truitje mee. (dit is makkelijk voor realtime-editing want het is gewoon 1 simpele opdracht in het video-geheugen om de kleur te veranderen.)

A.U.B verbeter dit want dit vertelde een vriend van mij en af en toe praat hij pure poep. (het blijft onzin om het verschil te kunnen zien tussen 64-bit kleuren en 32-bit, ook voor videobewerking)
het verschil tussen 24 en 32 bit is niet zichtbaar, simpelweg omdat er geen verschil is. De enige reden voor het bestaan van dit verschil is dat 32 een macht is van 2 (2^5=32) en 24 niet. Dit betekent dat je met bit shifting, een door je processor ondersteunde bewerking, sneller kunt rekenen dan met 24 bit wat geen macht van 2 is. Dan moet je vermenigvuldigen, wat 12x langzamer is (12x meer kloktikken) ofzo (uit mijn hoofd). De 8 bits extra zijn leeg, maar die extra data wordt ruimschoots gecompenseerd door de snellere verwerking. Dat je het verschil tussen 32 en 24 bit zou kunnen zien in films is klinkklare onzin


edit:
de laatste 8 bits worden gebruikt voor alpha blending soms :)
Het gaat het er niet om of je het ziet bij het bekijken van de films op je monitor/tv, maar dat er meer precicie is bij het maken van special effects voor de films/games.
Gelukkig is er ook -1 flamebait. :D
Anoniem: 11269 @mvt19 december 2001 01:14
:? Ja hier is 't ook kloteweer.
Komt dus op neer dat alles wordt verdubbeld?
van 32 bits naar 64 bits, 2x zoveel geheugen, bandbreedte ook twee keer zo veel..
hmmmm.. en de prijs?
:'(
Inderdaad, kaarten moeten 2x zo snel zijn als nu....dit is dus duidelijk toekomstmuziek voor over een paar jaar.
2x zoveel geheugen? Is dat niet 4x zoveel (2 dimensionaal) dan wel 8x zoveel (3 dimensionaal)? Of had mijn 2mb Trident kaartje dan TOCH genoeg geheugen voor een z-buffer? :+
Serieus: nee; als je scherm 2x zo groot zou worden in zowel de X- als de Y-richting, zou 't 2 x 2= 4x zo groot worden, maar we hebben het hier dus over zeg maar de Z-richting (vandaar ook kleur'diepte'), da's dus maar 1 dimensie, dus is het 'maar' 2x zo langzaam...

Maar wanneer verzinnen ze nou eens een keer echt iets nieuws? Resoluties opkrikken en meer kleuren voegt toch weinig extra game-plezier toe m.i., dat TrueForm van ATi lijkt me wel een leuke vooruitgang als games dat ook daadwerkelijk gaan supporten, maar verder zijn er de laatste tijd eigenlijk maar erg weinig leuke bedenksels...

Misschien dat iemand van de tweakers nog leuke ideeen heeft? Volgens mij is dit hèt moment om de videochip-bakkers te overtuigen, want de performance van de nieuwste kaarten is de laatste tijd zo toegenomen dat er voor de volgende generatie chips wel weer een performance-vertragende nieuwigheid bedacht mag worden!
Uuhh...2x? :+
Ja, maar omdat ook de euro eraan komt, blijft de prijs gelijk. :D
Prijs daalt met een factor 1,101855x :)
Jazeker, jazeker, dus ook 2x zoveel overclockplezier ;) :7
Nieuwe 3d kaarten begonnen net met dalen van prijzen bij uitkomst...GF2 ultra was meer dan 1000 piek...GF3 ook nog, maar ATi gooide de prijzen al behoorlijk omlaag.

Als ATi dat zo houd en NVidia straks peperdure kaarten heeft met 64 bit en nog de gewone 32 bits kaarten, dan zal NVidia niet zoveel van die kaarten verkopen.

En ja.....dan komt er nog bij kijken wat je er nog meer voor nodig hebt.....

- Meer/sneller videogeheugen
- Sneller RAM geheugen om alle grafische info goed en op tijd te kunnen verwerken
- Snellere AGP poort

Dit allemaal kan nog een heeeele hoop kosten extra met zich meebrengen voor de pioniers die dit allemaal willen hebben...

Uiteindelijk komt dat wat ik zei dat je extra nodig hebt toch wel, maar laten we hopen dat de graphics-fabrikanten er niet zo hard op vooruit lopen dat we peperdure systemen moeten kopen om uberhaupt gebruik te kunnen maken va de kaarten.
Kunnen normale monitoren wel 64bit kleuren aan?

Echt beter dan 32bit kleuren hoeft toch eigenlijk ook niet, je ziet het verschil toch niet. Ja, dat je fps gehalveert is... Het enige wat in mij mening nog verbetert kan worden is anti-aliasing zonder dat het blurred... (En de prijs natuurlijk :P ) Maarja, ze moeten natuurlijk alles verbeteren. Als je eenmaal gewent bent aan 64bit kleuren zal 32bit er ook wel weer lelijk uit zien. *zucht* :Z
CRT's zijn analoog, en niet beperkt in het aantal kleuren dat ze kunnen weergeven :)
En digitale monitoren, zoals LCD's zijn die dan wel gelimiteerd aan het aantal kleuren dat ze weer kunnen geven. Jij zegt net namelijk alleen iets dat voor CRT's geldt.
Jep, LCD's zijn wel beperkt. Oudere modellen gaan zelfs maar tot 16bpp, en doen net alsof ze 32bpp aan kunnen dmv "dithering" :r
... niet alleen twee keer zoveel geheugen nodig, er moet ook twee keer zoveel bandbreedte aanwezig zijn om dezelfde performance te halen als met 32 bit kleur...
Moet dat niet zijn 2^32 keer zoveel :?
nee, je hebt nu 64 kanalen nodig om een bitje door te sturen ipv 32, das 2x zoveel

heet aantal mogelijke kleuren neemt wel met 2^32 toe naar 2^64
Daar ben ik het gedeeltelijk mee eens, je moet een dubbele bitrate versturen en ontvangen.

Even ter indicatie:

Aantal mogelijke kleuren per bitrate:

8 bits: 2^8 = 256 kleuren
16 bits: 2^16 = 65.536 kleuren
24 bits: 2^24 = 16.7 miljoen kleuren
32 bits: 2^24 = 16.7 miljoen kleuren, maar dan met een 8 bit alpha layer extra. Laat een soort doorzichtigheid toe. (Windows2000 en XP maken er al gebruik van met hun GUI)

64 bits: Nog niet duidelijk, ik denk dat er 24 bits worden gereserveerd voor de 16.7 miljoen kleuren en 8 bits voor een alpha layer. Met de rest van de 32bits kan met nog meer mogelijke kleuren bereiken (8 bits extra zou ruim voldoende zijn) en kan men nog enkele layers toevoegen (bijvoorbeeld mbt. belichting ed.).

Wat ik dus ook wil zeggen is dat je niet moet verwachten dat die 64bits volledig voor kleuren zijn gereserveerd. Er kunnen namelijk een hoop bits voor alpha layers zijn gereserveerd. Dus de som 2^64 klopt bij deze niet om het aantal mogelijke kleuren te berekenen, laten we daar duidelijk over zijn.
Voor alle duidelijkheid, 64 bit kleuren ondersteuning op de videokaart heeft eigenlijk weinig te maken met het aantal kleuren wat je te zien krijgt. De monitor kan nog altijd niet meer dan 24-bits kleuren weergeven, en ook uit de videokaart zullen niet meer kleuren komen.
Die eerste zin is wat ik eigenlijk probeer duidelijk te maken :) . Een monitor is echter nog steeds analoog zoals gezegd en kan een onbeperkt aantal mogelijke kleuren weergeven. Of dit echter ook de bedoeling is van de verhoging van de bitrate is juist de vraag.
64 bits: Nog niet duidelijk, ik denk dat er 24 bits worden gereserveerd voor de 16.7 miljoen kleuren en 8 bits voor een alpha layer. Met de rest van de 32bits kan met nog meer mogelijke kleuren bereiken (8 bits extra zou ruim voldoende zijn) en kan men nog enkele layers toevoegen (bijvoorbeeld mbt. belichting ed.).
* 786562 PowerFlower

Misschien 8 bit alpha per kleur? Dat een object bijvoorbeeld doorzichtiger is in rood dan in blauw? Dan wordt het 48 bits (zoals die "Infinite Reality"?) en zijn er nog 16 over voor... uh... :?
Ik ben kleurenblind. Krijg ik dan ook korting :+
helaas betekend kleurenblind niet dat je geen kleuren kan zien }>

(kleurendoof wel, kleurenblind als je 2 specifieke tinten niet kan onderscheiden, zoals rood en bruik, er zijn hiervan een aantal varianten, niet random kleuren.)
Anoniem: 28557 @Oblii18 december 2001 21:22
Je zit echt afschuwelijk uit je nek te zwetsen. Kleurendoof is geen medische term, het is gewoon een grappige (?) naam die mensen aan kleurenblind hebben gegeven.

Kleurenblindheid is de verzamelnaam voor alle afwijkingen waarbij niet alle kleuren van het spectrum kunnen worden ondescheiden.

Monochromatisme, oftewel totale kleurenblindheid, waarbij er dus alleen maar grijstinten gezien kunnen worden is wel degelijk een vorm van kleurenblindheid.

edit:

Troll? Waar slaat dat nu op? Dat eerste regeltje zeker? Wat moet ik dan antwoorden op een klok/klepel posting. Sorry, maar dit zinnetje (Je zit echt afschuwelijk uit je nek te zwetsen.) lijkt me hier prima op z'n plaats.
jammer, ben ik ook kleurenblind, ik kan geen bruiken :P :+
Dit is oud nieuws, hier zijn ze al jaren mee bezig.
Als 3dfx niet falliet was gegaan hadden we al lang 56-bit kleur gehad.
Dit zou in de opvolger van de voodoo 5 chip komen, helaas weet ik de codenaam van die chip niet meer.
De codenaam van de chip was Rampage en de kaarten zouden Spectre gaan heten.
Dit is echt werkelijk lachwekkend :)

Een hele tijd geleden stond dat videokaarten met 64mb geheugen echt TOTAAL overbodig waren.
(ik geloof dat een of ander koreaans merk zon videokaart maakt/wou gaan maken.)

dat was toch totaal de grond in geboord?
Nouja. de techniek blijft vooruit gaan en dus had je wel kunnen voorspellen dat die videokaarten met 64mb wel te weinig worden in de toekomst
Dan werd er natuurlijk gezegd dat het TOEN overbodig was. Tuurlijk zagen die mensen ook wel in dat het OOIT wel nut zou gaan hebben, maar in het leven van de vidkaart waar ze het over hadden waarschijnlijk niet.
ongeveer heel lang geleden, had ik ook genoeg aan 40 mb hdd....omdat er nix was wat meer vereiste.
Als er wat nieuws is willen game-coders daarmee hun games nog realistischer en mooier maken, en dan wil iedereen zo'n kaartje....

vooruitgang heet dat :)
je bedoeld die kerels maybe met hun GeForce 2 MX met 128MB onboard RAM ?? raad eens wie nu aan het lachen is :)

Op dit item kan niet meer gereageerd worden.