Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 54 reacties
Bron: Ace's Hardware

Op de Game Developers Conference in San Jose was Microsoft aanwezig met een demonstratie van DirectX 9.0. Nieuwe features die we kunnen verwachten zijn onder andere Matrox' displacement mapping, een geavanceerde versie van bumpmapping, uitgebreid met ingebouwde dynamische LOD algoritmes. Dat wil zeggen dat objecten die ver weg zijn minder gedetailleerd worden weergegeven dan degenen die recht voor je neus staan. DirectX 9.0 zal 40 bit kleuren (10 bit per RGB kanaal en 10 bit alpha) ondersteunen, versie 2.0 van de pixel- en vertexshader programma's en multi-display technieken.

DirectXInteressant is dat Microsoft geen videochip van nVidia of ATi heeft gekozen voor haar demonstraties, maar een - helaas niet bij naam genoemde - GPU van Matrox. Mogelijk zal dit nieuwe product, wanneer de volgende generatie DirectX begin volgend jaar wordt uitgebracht, de eerste videokaart zijn met volledige ondersteuning. De ATi R300 zal namelijk geen PPS 2.0 ondersteunen, en of nVidia NV30 dat wel doet is nog maar de vraag.

Met dank aan BiggesDigges voor de tip. We raden Babbelvis aan voor degenen die het origineel willen lezen. Op de video's klikken moet overigens ook in het Japans lukken .

Moderatie-faq Wijzig weergave

Reacties (54)

Raar, op school leren we dat je nog niet eens uns het verschil kunnen zien tussen 16 en 32 bits.
Dan zijn ze blind :) Ik kan het verschil zien tussen 2 vlakken die elk gevuld zijn met (niet te donkere) 32bit kleuren en waarvan maar 1 component (r, g of b) 1 bit verschilt (ja ja, de onderste bit :)). Overigens moet ik dan wel goed kijken hoor, en imho is 32 bit (of eigenlijk 24, die laatste 8 hebben geen invloed op wat je op je scherm staat) ook heus wel genoeg. Bij 16 bit heb je echter wel 'banding', dat is soms lelijk. Daar zie je soms wel degelijk dat het tekort schiet.
Wat heeft het nut dan van 40bits?
Als je maar 10 miljoen kleuren kunt waarnemen.
Die 40 bits slaan op de bitdiepte tijdens het processen, wat er op je scherm komt blijft gewoon 32 bit (althans, dat neem ik aan?). Door 10 bits te nemen per component kun je je meer precisieverlies veroorloven zonder dat dit zichtbare resultaten geeft. Als je bijvoorbeeld een transparant object op je scherm hebt wat maar 20% zichtbaar is, wordt de effectieve bitdiepte gereduceerd tot zo'n 5 a 6 bits. Ongeveer het niveau van 16bit kleur dus. Vooral bij meerdere textures over elkaar treedt dit effect op. Met 40 bit kleuren wordt dit effect dus verminderd.
Die 40 bits slaan op de bitdiepte tijdens het processen, wat er op je scherm komt blijft gewoon 32 bit (althans, dat neem ik aan?).
Sterker nog, je beeldscherm geeft max. 24-bits weer.
Sterker nog, je beeldscherm geeft max. 24-bits weer.
Een LCD misschien, maar bij een normale CRT monitor is er geen beperking qua bit-nauwkeurigheid (is gewoon analoog signaal, wat natuurlijk ook z'n beperkingen heeft, maar die zijn niet in bits te meten).
"Een LCD misschien, maar bij een normale CRT monitor is er geen beperking qua bit-nauwkeurigheid (is gewoon analoog signaal, wat natuurlijk ook z'n beperkingen heeft, maar die zijn niet in bits te meten)."

Erhm, de beperking zit niet zozeer in de monitor maar in de gebruikte resolutie. Dit geeft wel degelijk een beperking aan aantal tegelijkertijd weer te geven kleuren.

Het is een simpele rekensom. Stel je draait een resolutie van 1024x768, dit zijn 786432 pixels.

In deze resolutie kunnen er dus maximaal 786432 verschillende kleuren tegelijkertijd weergegeven worden. En pixel kan immers maar n kleur tegelijk weergeven.

Bij 1600x1200 zijn dit b.v. maar 1920000 pixels, dus reken zelf maar uit welke resolutie je nodig hebt om daadwerkelijk 16,7 miljoen kleuren (pixels) simultaan weer te geven ;)

edit:

2 Plok: Dat snap ik ook wel, maar volgens mij zien de meeste dit wel over het hoofd....
Reactie op warp:
Het gaat er dus niet om hoeveel kleuren je simultaan kan zien, maar hoeveel kleuren je in principe kan onderscheiden. Dus onafhankelijk of ze nu wel of niet op je beeldscherm staan.
Jammer dat die clipjes gecaptured zijn met een camera zodat je dus niet de echte kwaliteit kan zien.

DX9 zal wel weer een hoop kwaliteit gaan leveren voor toekomstige games, dat is als deze tenminste echt gebruik zullen maken van DX9 features!

edit:
typefoutje
Raar, op school leren we dat je nog niet eens uns het verschil kunnen zien tussen 16 en 32 bits.

Wat heeft het nut dan van 40bits?
Als je maar 10 miljoen kleuren kunt waarnemen.
Als je op school leert dat je het verschil tussen 16 en 32 bit niet kunt zien, is het misschien een idee om naar een andere school op zoek te gaan.

De mens kan ongeveer 256 grijswaarden onderscheiden (8 bit) en 16 miljoen kleuren (24bit dacht ik dan) samen maakt dit 32-bit kleuren.

Om de videokaart nu met nog meer kleuren te laten rekenen, voorkomt dat het uiteindelijke beeld aan scherpte (kleur-afrondingen) inboet. Oftewel, als je met evenveel kleuren rekent, als de mens kan zien, krijg je 'zichtbare' afrondingsfouten. Als je nog meer kleuren gebruikt, zul je deze 'afrondingsfouten' niet meer waar kunnen nemen.
uhm de 256 grijwaarden zitten al in die 24 bits als ik het goed heb. die extra 8 bits worden voor de alpha channel gebruikt. Dus hebben ze binnenkort 16 bits ruimte voor de alpha channel. Het menselijk oog kan maar 6 miljoen kleuren waarnemen dus men heeft aan 24 bits kleur al meer dan genoeg.
Lees het artikel eens: 10 bit per kleur kanaal plus 10 bit alpha. Het gaat puur en alleen om de afrondfouten inderdaad voor realistische kleurverlopen.
Ja vooral met die mutipas texture blending krijg je meerdere berekeningen voor elke pixel dus ook z'n RGB waarde en dus een toenemende afrondings fout.
Ik meen dat het menselijk oog 10 miljoen tinten kon onderscheiden.
Dus inderdaad minder dan 24-bits (16 miljoen).

Nu is het 'helaas' wel zo dat de kleurverdeling van beiden (oog en scherm) niet gelijk is. Met name in de groentinten kan het oog meer onderscheiden dan een standaard 24-bits plaatje kan tonen. (En dan zullen we het nog maar niet hebben over het verschil in kleurbereik van schermen en bijvoorbeeld druk- of printwerk).

Staat natuurlijk los van het hierboven uitgelegde verlies aan resolutie/detail door berekening.

Voor de gemiddelde kweker voldoet 24-bits kleur (32-bits instelling) trouwens prima in de praktijk.
Het gaat om de interne reken afrondfouten als gevolg van de lage bit nauwkeurigheid. Stel dat je bij een van de bit kanaal maar tot 255 kan tellen. En je berekening is iets zoals (128+190)/2 <=> 318/2 maar die waarde 318 is te groot om in 8 bit te zetten dus wordt dat geclipt op 255. 318/2=159 <#> 255/2=128
Het verschil tussen 16 bit (65.536) en 32 bit (meer dan 4 miljard) kleuren is wel degelijk te zien door het menselijk oog, en ook 40 bit zal te zien zijn. Hoewel je natuurlijk geen verschil ziet tussen een biljoen(!) combinaties zul je wl merken dat de nauwkeurigheid van kleurverlopen en dingen als explosies, vuur, rook etc. veel beter wordt. De afrondingsfouten die met 8 bit (256 mogelijkheden) per kanaal (32 bit kleur) worden gemaakt zijn gewoon te groot. Met 10 bit per kanaal (40 bit kleur) heb je vier keer zoveel nauwkeurigheid.
Het verschil tussen 16 bit en 32 bit is als volgt:

16 bit => 5R 6G 5B dit zonder alpha channel
24 bit => 8R 8G 8B eveneens zonder alpha

24 bit rgb levert 16777216 verschillende kleuren op,
veel meer kan het menselijk oog niet meer onderscheiden.
Laat staan dat er 32 bits gebruikt wordt voor RGB.

Maar nemen we het alpha channel wel mee dan krijg je het volgende:

16 bit => 1A 5R 5G 5B
Hier is dus 1 bit van het groene component weg gehaald, hiervoor is het menselijk oog het gevoeligst.
Dus zal de kwaliteit waarneembaar achteruit gaan.
Dat ene bit wordt nu als alpha gebruikt, oftewel 2 alpha levels(transparant, of niet transparant)
Er zijn dus maximaal 32768 verschillende kleuren mogelijk.

Een andere 16 bit variant is deze
16 bit => 4A 4R 4G 4B
Hier zijn maar 4096 verschillende kleuren mogelijk, maar hebben 16 alpha levels.
Hier neemt de kwaliteit drastisch af.

Voor 32 bit wordt de 24 bit die het menselijk oog een kwalitatief hoog beeld geven uitgebreid met 8 bit voor de alpha dus:

32 bit => 8A 8R 8G 8B
Dit geeft een gewoon een goed plaatje, ook als er met alpha blending wordt gewerkt (mist, rook, explosies, .....)

Dus waarom het verschil 16 bit en 32 bit in een computer spel wel te zien is komt enkel en alleen door de toevoeging van een alpha channel, als het alleen om puur kleur informatie gaat(RGB) dan zal het verschil tussen 16 bit en 32bit minimaal zijn en tussen 24 bit en 32 bit al helemaal niet meer waarneembaar zijn.

Worden er 40 bits gebruikt, dan worden de afrondings fouten verminderd (zie post van Angel hierboven)
[quote]
Dus waarom het verschil 16 bit en 32 bit in een computer spel wel te zien is komt enkel en alleen door de toevoeging van een alpha channel, als het alleen om puur kleur informatie gaat(RGB) dan zal het verschil tussen 16 bit en 32bit minimaal zijn en tussen 24 bit en 32 bit al helemaal niet meer waarneembaar zijn.

[/quote]


Alfa heeft geen bal met kleur variatie te maken maar met transparantie bv glas. hier wordt er gewoon 'n kleur bereken afhankelijk van de alfa waarde en alfa mode, uit de target pixel en de source pixel etc.

16bit houd in 15 of 16 bits kleur informatie, die 4444 is zo zeldzaam 12bits kleur.

tegen 24bits kleur formatie van de 24 & 32bits modes

Die 24bits is een groot verschil tov 15/16bits dat merk je heel goed ik iig wel.

bij 24bits tov 30bits (10.10.10.10 RGBA) is de stap kleiner en zal het effect minder duidelijk te zien zijn maar toch wel enigzins merkbaar zijn maar effect is kleiner. vooral als de kleur informatie voldoende groot is voor zeer acceptabele beeld..
Raar, op school leren we dat je nog niet eens uns het verschil kunnen zien tussen 16 en 32 bits.
Hmm, vreemde kaart heb ik dan: 16 bits is heel erg donker, 32 bits is mooi licht :)

* 786562 Jan
Dan heb jij inderdaad een rare videokaart (savage4 is geen kaart maar een chipset btw).
Tussen 16 en 32 (24 bit + null padding) hoort echt geen verschil in helderheid te zitten hoor. Alleen in kleur-detail.

Het verschil tussen 16 en 24/32 bit is overigens niet zo heel groot, maar ja, het verschil is te zien (vooral bij mooie gradients / soepele kleurverlopen). Ik draai overal op 16 bit (omdat dit sneller is op de meeste videokaarten), omdat ik toch nooit echt zwaar zit te gimpen (fotoshoppen voor Windowsers) met grote foto's ofzo, dus veel voordeel van 24/32 bit heb ik niet.

Verder heb ik sterk de indruk dat mensen een hoop door elkaar gooien qua bitdepths. Dat hele geneuzel over alpha-channels gaat al niet op voor *beeldscherm-bitdepths*, omdat je beeldscherm geen alpha 'uitstraalt' (alleen R, G en B). Als je scherm dus op 16 bit staat is het R5,G6,B5 (niet noodzakelijk G met 6, maar meestal wel). Met 24 bit is dit 8/8/8, en met 32 bit is dit 8/8/8, met 8 bits ongebruikt (omdat geheugenaddressen met een offset van factor 4 (4 bytes, aka 32 bits) sneller te addresseren zijn door PCs).

Ik ken nog geen PC videokaarten die 40 bits kleur kennen, dus die 40 bits gaat hoogstwaarschijnlijk over waar DirectX intern mee rekent. En al die afrondingsfouten-verhalen gaat daarvoor wel op ja.
speel eens een spel in 16bit en daarna 32bits, bij veel spellen is dit HEEL goed zichtbaar hoor, vooral bij mist, vuur, licht,... RctW is hier geschikt voor (om te testen), maar Deus Ex en dergelijke gaat ook hoor (Unreal engine)
Je moet ook niet alles geloven wat ze op school tegen je zeggen. Neem gewoon ff de proef op de som.

Ga naar Photoshop, maak een Bitmap plaatje met een gradient van bijvoorbeeld wit-blauw in de resolutie van je beeldscherm.


Switch vervolgens je beeldscherm van 8 bits, naar 16 bits, 24 bits en naar 32 bits en bekijk telkens het gradient plaatje.

Wat valt je op?

De dingen zitten soms echt simpeler in elkaar dan dat je zou denken, dat moet jou vast aanspreken.
volgens mij is er al ergens een beta van DX9 , of heb ik het mis?

Misschien is de matrox kaart een G800? Deze is ooit al is eerder aangekondigd. Aan de beeldkwaliteit van matrox hoef je in ieder geval niet te twijfelen, die roxz00rz gewoon. :9
Dat denk ik niet De G800 zou toen er voor het eerst 'n release date plan voor was het moeten op nemen tegen DX7.0 kaartjes G2Ultra ofzo

dit is meer G1000 want toen Matrox het niet kon bolwerken moest DX8.0 nog komen en dus is er geen DX9 specificate waar je hardware implementatie van de GPU opgebaseerd moet worden.
De G800 ontwikkeling was stopgezet, en matrox heeft van wat er tot dan toe gebouwd was een G550 inelkaar gezet, en ze zijn opnieuw begonnen. Dat nieuwe is dus als het allemaal een beetje meezit de Parphilia.
tuurlijk is het een beta van directx9
"Dat wil zeggen dat objecten die ver weg zijn minder gedetailleerd worden weergegeven dan degenen die recht voor je neus staan."

Uhm..

LOD == Level Of Detail

Objecten die verder weg staan worden vervangen door eenvoudigere objecten, daar ze de hoge polygoon aantallen niet nodig hebben. Resultaat is een object wat er nog net zo goed uitziet, maar met een stuk minder geheugen.

In de tekst lijkt het erop of de schrijver "DOF" bedoelt, Depth Of Focus, waarmee je objecten waarop niet is "gefocused" geblurred worden weegegeven. Ik dat dat DAT realtime nog wel even duurt ....
In de tekst lijkt het erop of de schrijver "DOF" bedoelt, Depth Of Focus, waarmee je objecten waarop niet is "gefocused" geblurred worden weegegeven. Ik dat dat DAT realtime nog wel even duurt ....
DOF = Depth of field, niet depth of focus.
Je hebt half gelijk, LOD staat idd voor Level Of Detail, maar dat wil niet zeggen dat dat alleen kan op object niveau ;)

(denk bv aan textures)
Heet dat geen MIP-Mapping

een Texture surface chain van Mipmaps

4x4 pixels
8x8
16x16
32x32
64x64
128x128
256x256
Objecten die verder weg staan worden vervangen door eenvoudigere objecten, daar ze de hoge polygoon aantallen niet nodig hebben.
Dan wordt het toch ook minder gedetailleerd weergegeven? Ik bedoel zeker geen DOF hiermee.
Betekend dit dan ook dat er een nieuwe Matrox videokaart komt??? :9
Laatst was er toch zo'n bericht met geruchten over die kaart :)
Betekend dit dan ook dat er een nieuwe Matrox videokaart komt???
MATROX GPU G800 staat er op die site, alleen is mijn Japans niet zo geweldig...

Die geruchten die jij bedoelt:
- <a href="\"http://www.tweakers.net/nieuws/20875?highlight=Matrox\"" target="_blank">Matrox Parhelia (G800/Condor) GPU</a>
- <a href="\"http://www.tweakers.net/nieuws/17293?highlight=Matrox\"" target="_blank">
Matrox G800 release eerste helft 2002?</a>
- <a href="\"http://gathering.tweakers.net/showtopic.php/432145/1/25\"" target="_blank">Parhelia is coming! (en Nvidia heeft een probleem)</a>
- <a href="\"http://www.3dspeed.org/3dnew200111.htm\"" target="_blank">Japanse site die iets opmerkt over Matrox G800</a>
- <a href="\"http://gathering.tweakers.net/showtopic.php/197676/1/25\"" target="_blank">Bitboy's next gen GPU, of een Joke?</a>

<a href="\"http://gathering.tweakers.net/showtopic.php/414839/1/25\"" target="_blank">Nieuws van Matrox en Bitboys???</a>

Toch maar eens goed de volgende sites goed in de gaten houden:
- http://www.matroxusers.com
- http://www.matrox.com/mga/news/home.cfm
Nou als Matrox DX9.0 demoot met 'n kaart die dit volledig ondersteund dan overtreft deze de Gf4Ti volledig die is maar gedeeltlijk DX8.1

Als deze van Matrox ook redelijk snel is dan komt Matrox weer terug van weggeweest in de Game G-kaart markt..
Even OFF-TOPICS, maar misschien een idee voor de developpers.
We horen zo vaak dat er nieuwe DX (9) en AGP(8xpro) versies uitkomen. Dit betekent dat de GPU/graphics core steeds belangrijker wordt. Bijna net zo belangrijk als een CPU. Een revolutie in snelheid -zowel in als rond de GPU- kan alleen gemaakt worden door de GPU in te begrijpen in de syteem oftewel de moederbord. De idee dat er een extra socket voor de GPU naast de CPU bestaat al langer, maar er moet nog heel wat dingen overwonnen worden, zoals de standaard en plaatsing (zodat alle kasten compatible blijven)...

Als ze dit overwonnen hebben, dan zien we een CPU en GPU met ieder een groot heatsink en een mooi chipset er tussen. Zonder harde aanpak naar de volgende model instap, blijven we alleen de bestaande limiten te verlengen...
Je bedoelt de nForce :z
De Nforce zit niet in een losse socket.
Maar het is inderdaad niet zo'n gek idee, alleen loop je dan tegen een aantal beperkingen op.
Nu wordt het geheugen op een videokaart op een fabrikant eigen manier aangesproken, wat je dan zult verliezen.
Hierdoor moet een voor alle fabrikanten acceptabele interface worden gebouwd, die waarschijnlijk iets langzamer zal zijn dan wat nu het geval is.
Verder zal er dan dus een extra geheugen bankje geplaatst moeten worden, met een socket. Dit is meestal niet bevordelijk voor de prijs en de snelheid.
Hierdoor zal de toepassing van EDram op de GPU dus meer toegepast worden, om te dienen als een zeer uitgebreide cache.
De langere afstanden tot de monitor aansluiting die hierdoor optreden zal niet zo heel erg van belang zijn, omdat we toch toegaan naar een DVI-aansluiting.

Dit alles zal de kostprijs van een mainboard echter wel omhoog gooien, wat niet voor iedereen wenselijk is.
Ikzelf heb bijvoorbeeld gisteren net een P IV server in elkaar gezet met een PCI-VGA-kaart (4 MB), omdat grafische power absoluut niet nodig is, maar ik vind de all-in-one chipset oplossingen ook niet je-van-het (SIS bijvoorbeeld)
Ik denk dus dat het niet de meest ideale oplossing is om voor GPU-sockets te gaan op je mainboard.
Even ter informatie: Deze demonstratie was niet door een Matrox GPU gerenderd maar door software emulatie, volgens een MS employee.

Matrox heeft er gewoon veel research in gestoken, vandaar het logootje in de hoek bij de demonstratie.
Op die site staat een video van 8 seconden waarin gezegd wordt dat de displacement mapping en conversie is gedaan in hardware. Welke wordt niet gezegd
Ik heb het ook gehoord, er zijn 3 video's, en in de laatste met een berglandschap wordt duidelijk gezegd 'matrox displacement mapping hardware' oftewel... goede dingen op komst.
Ze hebben de bijeenkomst ook gesponsord, dat kan het logo beter verklaren.
ze zijn ook al een paar jaar ermee bezig :)
met bump mapping waren zij ook de eerste
bumpmapping was stiekem van BitBoys...
maar bitboys maakte alleen maar science fiction :D
Zijn er binnen korte tijd al games die werken met dit nieuwe goedje van Microsoft?

Klinkt allemaal wel mooi die nieuwe features :)
DirectX 9.0 zal 40 bit kleuren (10 bit per RGB kanaal en 10 bit alpha) ondersteunen
nu gebruikt 32 bit 8bit per kleur, rgb. en 8 bit voor alpha blending(het overlappen van vlakken zodat het vloeiender in elkaar overlopen.)

2bit extra per kleur EN 2bit extra alpha is dus WEL duidelijk zichtbaar!

[flaimebait]robbie007, naar wat voor een school ga jij?[/flaimbait]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True