Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Bron: Ace's Hardware

Tijdens een vragenuurtje na de officiŽle bekendmaking dat Creative van plan was 3DLabs over te zullen nemen, deed Creative's CEO Sim Wong Hoo een aantal interessante uitspraken, schrijft Ace's Hardware. Niet alleen werd gezegd dat Creative het plan had om de professionele 3D-graphics technologieŽn van 3DLabs ook naar de mainstream desktopmarkt te brengen, maar ook werd er een tipje van de sluier opgelicht waarmee Creative deze herintrede in dit marktsegment denkt te gaan maken. Men gaat hierbij een compleet nieuw, door 3DLabs ontwikkeld GPU-ontwerp gebruiken. Dit ontwerp zou zeer schaalbaar en programmeerbaar zijn.

3Dlabs logoHet ontwerp werd als 'zeer verschillend' en 'revolutionair' genoemd, in vergelijking tot reeds op de markt zijnde producten. De beeldkwaliteit zal zogezegd zeer hoog zijn en het gebodene zou ook een hoge nauwkeurigheid kennen, aldus Creative's CEO. Ace's Hardware denkt daarbij aan 64-bit kleurenondersteuning. Ook met de snelheid zou het goed moeten zitten van deze worlds' first single-chip tera-op graphics processor with general purpose programmability: de chip bevat 76 miljoen transistors en produceert 170GFLOPS. Men verwacht dat de eerste kaarten met de nieuwe GPU nog voor kerst in de winkels zullen liggen.

Met dank aan Goodiem4n voor de tip.

Moderatie-faq Wijzig weergave

Reacties (53)

Gigaflops = het aantal bewerkingen per seconde

64bit kleuren rendering , zeer interesesant
Laatst had ik hier toch ook een verhaal over 64bit kleuren gelezen? Daar kwamen ze tot de conclusie dat als je zoveel kleuren wil laten zien, de monitor zo'n brightness ofzo moest hebben dat je kop er na 1 sec gewoon afgestraald wordt... Dan maar liever 32bit kleuren :)
Het gaat niet om mťťr kleuren, maar om de kleuren die we nu ook al zien beter te laten overvloeien en het beeld er beter en gladder/echter uit te laten zien. Een 64-bits desktop is dus niet intressant, maar voor rendering van games e.d. wel.
Klopt er zijn 24-bits aan kleuren, de rest wordt gebruikt voor bv transperantie en speciale effect die op deze kleuren kunnen toe worden gepast als ik met het goed herinner...
Texturing van pixels (een pixel kan bestaan uit veel meer texels, zoals texture maps, shading etc) wordt gedaan in fixed point operaties. Ofwel, als je met een interne preciesie werkt van 16-bit (in de volksmond, 16-bit kleuren) dan wordt ťťn kleur voorgesteld door een derde daarvan (ok, dat kan niet dus gebruikelijk is geloof ik iets van rood 6-bit, 5-bit blauw, 5-bit groen)

Dus ťťn kleur bestaat uit 5-bits. 5-bits is 2 tot de 5de, dus je hebt maar 32 TINTEN BLAUW! Stel je voor dat je dan een blauwe achtergrond hebt, 32 is niet veel! Het gevolg is strepen. Tevens heb je veel last van afrondingsfouten naarmate er meer textures op een pixel worden aangebracht.

Bij 32-bits berekeningen gebruiken ze per kleur 8-bits. Je hebt dan dus een 24-bits kleurenpalet. (denk aan de desktop van windows, vroeger altijd 8, 16, of 24-bit)
De overige 8-bits worden gebruikt voor extra info zoals transparancy. Met 8-bits per kleur wordt de kwaliteit al een stuk beter, echter je blijft zitten met afrondingsfouten die oplopen met meer texels per pixel. Veel meer dan 4 of 5 texels per pixel kan niet, omdat je dan gaat zien dat het lelijk wordt. De volgende stap is dus 48 of 64 bits kleur.

Met de internal precision van een grafische chip is veel meer gemoeid dan de kleuren alleen. Het gaat op de preciesie van de berekeningen. De Z-buffer speelt hierin ook mee bijvoorbeeld. Het mensenlijk oog heeft zat aan 16,7 miljoen kleuren dus het is niet nodig om meer kleuren te tonen op het beeldscherm, en dat gebeurt ook niet omdat het DAC dat helemaal niet aankan. Ook zal het geen consequenties hebben voor geheugenbandbreedte omdat daar pixels in worden opgeslagen van 32-bits. Het is dus een interne aangelegenheid van de chip alleen.
Net als met 32 bits toch? Laatste 8 bits worden gebruikt voor overvloeing van kleuren dacht ik ergens gelezen te hebben.
(Reactie op bovenstaande posts)

Dat heet Alpha Blending (8>
Vandaar ook de afkortingen:

24 bit RGB (Rood Groen Blauw)

en

32 bit RGBA (Rood Groen Blauw Alpha) :)

Erg coole feature voor rendering van 3d plaatjes (anders had je geen glas, of water enzo) en ook leuk bij coole halfdoorzichtige xterm consoles :P :P

Oh, ja ... 16 bits kleuren is vaak 4*4 bit RGBA
Denk eerder 5551 RGBA of 565 RGB

Waarom 6 voor groen, omdat het menselijke oog gevoeliger is voor groen.
5551 RGBA is natuurlijk een klein beetje onzin. Met die ene bit kan je nl niets ... Stel je voor dat je alleen kan kiezen uit helemaal transparant (1 dus .... je ziet dan helemaal niets) en helemaal opaak (0 dus) je ziet niets van wat er achter ligt.

Het is echt 16 bit RGBA 4-4-4-4 bit ... Tenminste dat hebben ze mij geleerd bij Graphics & Image Processing (3e/4e jaars keuzenvak HIO)
Ooit van sprites gehoord in DirectX Boeken gebruiken deze twee en die van jouw heb ik nog nooit gezien in een code boek.

Die 1 geeft aan zichtbaar of niet zicht baar omdat Bit blits met rectangles gebeurt en de pixels rond de sprite ('n tank 'n poppetje 'n boompje) niet zicht baar moeten zijn

Dit is dus ook mogelijk met die 5551 in Dx8 2D simuleren dan gebruik je de Alfa waarde of je gebruikt de methode met source color keying in DX7.

De 5551 is dus handig voor Textures die bijvoorbeeld aleen per pixel volledig of niet transparant moeten zijn
Bijvoorbeeld een Hek Texture

Omdat de kleur variatie erg mager is willen ze niet gauw 4bits weggooien voor Alfa gebruik omdat je dan eigenlijk maar met een magere 12bits kleur mode werkt dat zal dus slechter uit zien en 4bits alfa bied ook er weinig tranparantie variatie dus dat ziet dan ook niet uit.. Dus ook 'n onpraktische kleur modus
Krijgen de BitBoys eindelijk concurrentie, tot nu toe hebben ze een monopolie op het gebied van vapourware maar daar komt nu tenminste verandering in!!
Ehmm, wat zijn GFLOPS :?
1 miljard floating point operations per second
Interessante discussie op Aceshardware:

http://www.aceshardware.com/forum?read=65037281

Iemand vroeg hoe het kon dat zijn computer werd gewaardeerd op 5,8 Gflops terwijl deze grafische kaart ongeveer het 30-voudige aantal (170) Gflops haalde.

Ik kopieer zijn antwoord hier, maar de bron vind je in de url hierboven:
Yes and no. Both numbers are accurate, but realize that the graphics chip is running a static, massively parallel algorithm with minimal branching, so it's implemented with many pipelines that perform FLOPs at most pipeline stages and that's how they achieve crazy GFLOPS numbers. To contrast, general-purpose CPUs only have a few pipelines and OPs are only performed at one pipeline stage. The rest of the stages are devoted to figuring out which operation to perform. :)

-Tom
hier klopt iets niet:
worlds' first single-chip tera-op graphics processor
en laater staat er 170 GFLOPTS. Tera-op is volgens mij toch TFLOPTS, dus 1000 GFLOPS en niet 170. :?

Desondanks wacht ik gespannen af op de eerste testen en reviews van dit monster. Misschien wel een leuke naam: "Creative Monster 3D".

Ben benieuwd!
Rene59: Nee, de 3dfx kaarten van Diamond heetten Monster..
1 floating point operation bestaat weer uit een aantal operations. Hieruit blijkt dus dat 1 flop gemiddeld uit 6 a 7 operaties bestaat
Misschien wel een leuke naam: "Creative Monster 3D".
Ik weet niet of het een grapje van je is, maar zo heetten de 3dfx voodoo kaarten van creative al :)
Creative Bosmonster 3D :P
Giga flops,

flops is een methode om rekenkracht van CPU uit te drukken.
grafical floating points?
Een gigantische flop ;)
De GFLOP van Grote Flop.
Dit klinkt veel belovend allemaal. Het zou heel goed zijn als Creative ook weer terug komt op de markt met een goede videokaart. Maar zijn dit soort kaarten over het algemeen niet een overkill voor de mainstream markt? Of zullen ze dan een afgezwakte vorm aanbieden?

* 786562 Ricochet
[reactie op Priet]
GFLOPS zijn Giga FLOPS en FLOPS zijn Floting Point Operations Per Second. Het geeft aan hoeveel drijvende komma operaties de GPU per seconde kan verwerken. En geloof me, het zijn er veel.
[/reactie op Priet]

[reactie op =-= StraracZ ]
Je hebt gelijk als je spreekt over je CPU, mijn condoleances overigens voor je RIP XP. Maar ik koop liever een videokaart die helemaal is geoptimaliseerd voor games dan dat ik een videokaart koop, waarvan ik de helft van de functies nooit zal gebruiken. Dat bedoel ik er mee te zeggen. Echter als de kaart op de markt wordt gebracht en hij zal als enige (of een van de weinige) aan mijn behoefte kn voldoen, dan zal ik zeker overwegen om hem aan te schaffen. Maar als het een kaart is, waarvan ik weet dat ik de helft niet zal gebruiken is het voor mij een overkill en dus niet noodzakelijk. Dit neemt niet weg dat er altijd mensen zijn die thuis wel zo een dergelijke kaart willen/nodig hebben.
[/reactie op =-= StraracZ ]
sorry maar ik geloof niet in overkill, je hebt nooit genoeg of stop jij met het upgraden van onderdelen?

sommigen zeggen dat de processoren nu een overkill hebben maar ik ben onlangs van een xp 1600 naar een duron 1200 teruggestapt (RIP XP) en ik vertel je die xp1600 was zeker geen overkill, ga maar intensieve dingen doen zoals 3 films tegelijk comprimeren > je kunt anderhalf uur later terugkomen, dat vind ik dus geen overkill
Je zegt het al zelf dat het wel overkill is. Dat voorbeeld van films comprimeren geeft 2 dingen aan.

1. Je zit illegale films te comprimeren om op je divx cdtje ofzo te branden wat iets is dat je toch sowieso niet mag doen.
2. Je werkt echt in de film branche en je hebt dergelijke rekenkracht gewoon nodig om op een professioneel niveau te kunnen werken.

In beide gevallen heb je niets te maken met het mainstream publiek en zijn al die features en rekenkracht inderdaad overkill.
1. Je zit illegale films te comprimeren om op je divx cdtje ofzo te branden wat iets is dat je toch sowieso niet mag doen.
2. Je werkt echt in de film branche en je hebt dergelijke rekenkracht gewoon nodig om op een professioneel niveau te kunnen werken.
3. vakantiefilmpjes

:7
Slecht nieuws voor de GF4, wie gaat nu veel betalen als rond kerst de hel los breekt.. directX9, Ati's R300, de GF5 en nu dit ding weer.. Waarschijnlijk een zeer slimme zet van Creative. Een top consumer kaart met DX9 support mag vast wel zo'n 500 EUR kosten rond z'n introductie. Ze kunnen een top variant van de GPU voor het 3D rendering segment blijven maken tegen bijbehorende prijs, en een iets minder complexe consumer variant in massa produktie nemen.. Ben heel benieuwd, ook naar de drivers...
ik denk dat dat op zich wel mee zal vallen want de 3Dlabs karten zijn voor de professionele markt
Quote:

ik denk dat dat op zich wel mee zal vallen want de 3Dlabs karten zijn voor de professionele markt

Das niet waar, want:

quote uit de nieuws item:

...Creative het plan had om de professionele 3D-graphics technologieŽn van 3DLabs ook naar de mainstream desktopmarkt te brengen...
En mogen we de Matrox G800 ( :? ) ook opnoemen?
;)
Die noemen wij voortaan de Parhelia!.

* 786562 minion
ik moet nog zien dat het produkt voor kerst echt serieus (relatief betaalbaar) op de consumentenmarkt verschenen is...
Vraag me af of mensen met een GF2MX of GF1 gaan zeggen, kom, ik wacht met het kopen van een gF4 anders is ie over driekwart jaar alweer verouderd.
Die prijs kan best wel op 2.000 Euro komen te liggen. Het blijven hihg-end kaarten, die niet zo geschikt zijn voor gamers (lees: de mensen die ook 500 Euro uit willen geven voor 20 FPS meer).

* 786562 minion
offtopic:
En nu niet allemaal 6 keer dubbelpost modereren, aangezien ze allemaal binnen dezelfde minuut gepost zijn.

Er staat nergens een indicatie van wanneer ze deze producten willen gaan uitbrengen. Dus volgens mij ligt er alleen nog maar een papieren ontwerp op tafel, verder niets. Misschien bedoeld als leuke binnenkomer en om de investeerders zoet te houden, kort na de overname van 3Dlabs.
Men verwacht dat de eerste kaarten met de nieuwe GPU nog voor kerst in de winkels zullen liggen.

is wel een indicatie..
ik hoop dat creative de ontwerpers van 3dlabs in dienst houden,ik gebruik al een paar jaar 3dlabs kaarten(oxigen gvx420-128 mb.+ sw1600) naar mijn opinie zijn er geen betere,vrees alleen dat als creative zijn stempel erop gaat zetten de boel om zeep is.
Niet noodzakelijk. Jebt inderdaad gelijk. Die kaarten zijn subliem, maar geef Creative een kans. Denk dat het wel snor zit en het zijn allesbehalve prutsers.
Het ziet er dus naar uit dat de GPU markt, eindelijk breder gaat worden. (De geruchten meenemend rond Matrox)

Als deze GPU of die Matrox bij zowel 2D als 3D perfect beeld geeft.... dan is mijn G400 max eind dit jaar misschien wel aan vervanging toe! :9

Buiten dit is concurrentie voor de prijs alleen maar prettiger. Laat maar komen zou ik zeggen!
;)
Waar haal je vandaan dat deze chip met directX 9 gaat werken? staat nergens. Dit soort berichten worden meestal wat rooskleuriger gebracht. Dat ie zoveel gigaflops kan is mooi maar het gaat er ook om hoe ze gebruikt worden? hoeveel Gigaflops kan een Geforce 3 TI 500 of 4 aan? ligt er ook maar aan hoe je dit precies uitrekend aangezien die video kaarten GPU's aardig geoptimaliseerd zijn !
Ik las net dat Sailormanfj er blijkbaar aan twijfelt dat die kaarten DirectX 9 ondersteuning gaan meekrijgen. Aangezien DirectX 9 in het 4de kwartaal van dit jaar zal geÔntroduceerd worden, lijkt het me wel verschrikkelijk dom van een ontwerper om voor een verouderde technologie te kiezen als er tegen die tijd een meer geavanceerde technologie is. Bovendien onderhoudt Microsoft hierbij genoeg relaties om ervoor te zorgen dat men tegen de tijd dat ze DirectX 9 lanceren er ook al hardware gaat zijn die dat gaat gebruiken.
MAAR dit betekent niet dat de software daar al meteen ECHT gebruik van gaan maken. Bekijk het zo. De games die nu uitkomen en DirectX 8 vereisen gebruiken amper enkele luttele percenten van de werkelijke features die DirectX 8 biedt. Pas tegen het einde van het jaar en begin volgend jaar zullen de eerste games uitkomen die DirectX 8 volledig zullen benutten. Unreal 2, UT2, Neverwinter Nights en nog veel meer.
Doch laat de consument zich gemakkelijk misleiden. Ik heb nu net een aanschaf gedaan van een Geforce 4 Ti 4600 en dit na 3 jaar te hebben geteerd op een doodgewone Geforce 256 DDR. Ok, misschien een stuk trager dan de recente kaarten, maar dat verschil merk ik niet. Enkel meetbaar. Waarom dan toch een upgrade uitgevoerd? Wel, de veranderingen die DirectX7 biedde, waren voor mij niet de moeite om over te stappen naar een Geforce 2. Pas toen DirectX 8 geÔntroduceerd werd begon ik stilletjesaan uit te kijken naar de hardware die dit ondersteunde, maar echt haast was er op dat moment niet bij, daar de games niet echt evolueerde. Nu begint dit wel stilletjesaan te veranderen en de features die DirectX 8 biedt zijn opmerkelijker dan deze bij DirectX 7 en dus schafte ik mij die Geforce 4 aan. En ik weet dat dit weer voor zo'n 3 jaar zal zijn. Hoogstwaarschijnlijk. Slik, hoop ik :7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True