Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 169 reacties

De Mac Pro van Apple ondersteunt geen weergave van 10bit-kleurdiepte, ook niet als gebruikers Windows 8.1 via Bootcamp installeren, volgens C'T. In het FirePro Control Center zijn de instellingen voor 10bit-weergave dan niet aanwezig.

Al jarenlang is bekend dat Apple geen 10bit-kleurdiepte ondersteunt, maar C'T constateerde dat deze functionaliteit er zelfs niet is als gebruikers Windows op een Mac Pro installeren. Heise schrijft over de bevindingen. Windows zelf ondersteunt al 10bit-kleurdiepte sinds XP. De Windows-drivers van Apple om Windows 8.1 via Bootcamp te installeren bieden geen mogelijkheid 10bit-weergave te activeren en ook de Windows 8.1-driver 14.301 voor Apples Bootcamp van AMD toont geen 10bit-instellingen in het FirePro Control Center.

Onduidelijk is waarom Apple de moeite neemt de weergave via Windows niet te bieden. Om van 10bit-weergave gebruik te maken moet de hele keten dit ondersteunen, van softwareprogramma en OS tot videokaart, kabel en beeldscherm. De in de Mac Pro gebruikte AMD FirePro-kaarten ondersteunen wel 10bit en ook beeldschermen voor grafici bieden dit. Photoshop voor OS X ondersteunt het niet, maar de Windows-versie wel.

Ondersteuning voor 10bit-kleurdiepte maakt de weergave van 1073 miljoen kleuren mogelijk, waar dat bij 8 bits per kleurkanaal 16,78 miljoen kleuren is.

Moderatie-faq Wijzig weergave

Reacties (169)

Novice question wellicht maar in Windows heb je toch al sinds jaar en dag 16 en 32 bits? 10 bits lijkt me met die vergelijking nogal laag. Mede omdat ik ook altijd hoor dat Apple in trek is bij foto/videobewerking.

[Reactie gewijzigd door Passeridae op 20 april 2015 10:27]

Novice question wellicht maar in Windows heb je toch al sinds jaar en dag 16 en 32 bits? 10 bits lijkt me met die vergelijking nogal laag.
Tot zover ik het begrijp gaat het om 10 bit per basiskleur. Dus bijvoorbeeld 10 bit voor rood, 10 bit voor groen en 10 bit voor blauw. 32 bit slaat op totaal (dus 8 bit voor elke basiskleur). Dit is in de aanname dat RGB nog steeds de basiskleuren zijn (ik heb wel eens alternatieven langs zien komen ;) ).

Met '32 bit' (eigenlijk '24 bit') heb je: 2563 kleurcombinaties (8 bit wordt gebruikt voor transparantie): 16777216 kleuren.
Met 10 bit per basiskleur (dus eigenlijk '30 bit', of wellicht meer met transparantie inbegrepen) heb je: 10243 kleurcombinaties = 1073741824 kleuren.

Wellicht moet er van het aantal bits in het tweede geval nog iets voor transparantiewaarden afgetrokken worden om tot de werkelijke hoeveelheid kleuren te komen, maar dit is tot zover ik het snap. ;)

[Reactie gewijzigd door The Zep Man op 20 april 2015 10:37]

waarom is het dan 32 bits is de vraag,
dat is omdat het 4x 8 bits is:

R 8
G 8
B 8
A 8 (transparantie)
---------
32

en 10 bits per channel is
R
G
B
---------
30 bits

wat dus gepacked wordt in dezelfde bandbreedte met 2 extra padding bits.
10 bits kleuren zorgt voor veel meer gradatie vooral zichtbaar in zwart witte foto's waar er effectief maar 256 "brightness" waarden bestaan (als je het echt flat grey wilt houden)
Gaat om 10 bits per kleur, dus 30 bits (gebruikt dus 32 bits, want dat is efficienter in een computer).

http://en.wikipedia.org/wiki/Color_depth

Edit:
"The HDMI 1.3 specification defines bit depths of 30 bits (1.073 billion colors), 36 bits (68.71 billion colors), and 48 bits (281.5 trillion colors)."

Alpha is niet noodzakelijk:
"For each pixel, generally one byte is used for each channel while the fourth byte (if present) is being used either as an alpha channel, data, or simply ignored." (bij 8-bits)

[Reactie gewijzigd door menke op 20 april 2015 10:46]

Nee, want 32 bits kleurweergave is slechts 8 bit per kleurkanaal (RGB + alpha of CMYK), 10 bit per kleurkanaal is dus beter/hoger.
Je uiteindelijke framebuffer heeft eigenlijk geen Alpha nodig dus wat gedaan wordt is het reduceren van het alpa kanaal. Hierdoor past alles toch nog netjes in 32 bits.
Behalve dan dat je wilt kunnen compositen, bv de desktop of bij fotobewerking. Dan heb je natuurlijk ook een alphakanaal nodig en dan zijn die 2 bitjes die je over hebt echt te weinig. :)

[Reactie gewijzigd door koelpasta op 20 april 2015 10:54]

Je scherm heeft geen alpha kanaal nodig, dit gaat om het output buffer niet je werk buffer die kan vaker zelfs hoger zijn dan 32 bits. Je kunt namelijk makkelijk in een 16 RGBA buffer werken en dan converteren naar een 32bits frame buffer. Hierdoor kan je voledige alpha blending doen maar uiteindelijk is je output buffer 10RGB2A wat naar je beeldscherm gaat.
Maar om op je schrm iets in 10 bit kleur te laten zien moet het ook in 10 bit kleuren worden gerendert. Dat wil dus zeggen dat als je je desktop in 10 bits kleuren wilt zien dat je OS het ook in 10 bits moet compositen. Zelfde geldt voor fotobewerking e.d.
Hierdoor kan je voledige alpha blending doen maar uiteindelijk is je output buffer 10RGB2A wat naar je beeldscherm gaat.
Onzin. Als je begint met 8-bits alpha dan blijf je problemen houden, ook al render je dat naar een 32-bits/kanaal framebuffer.
Het compositen moet dus ook op een hogere bitdiepte gebeuren en wel met hoge bitdiepte materiaal wil je volledig gebruik maken van het dynamisch bereik.
Ok, ik geef toe, je wint er een klein beetje mee als je 8-bits materiaal in een grotere bitruimte projecteert, maar je maakt nog steeds geen volledig gebruik van het dynamisch bereik.
Volgens mij begrijp je niet precies wat NC83 wil zeggen. Voor bewerkingen heb je absoluut gelijk, maar zodra het beeld berekend is dan heb je geen alpha kanaal meer nodig. Vandaar dat het alphakanaal ook niet naar je monitor verstuurd wordt. Je monitor kwakt gewoon RGB uit en heeft verder lak aan hoe deze waarden (door wat voor alpha-blending dan ook) tot stand gekomen zijn. Dit principe verandert niet als je de kleurdiepten verhoogd; slechts de interne alphakanalen zouden dan minstens diezelfde kleurdiepte moeten hebben, anders is er sprake van grove afronding bij blending en dat is ongewenst.
Volgens mij begrijp je niet precies wat NC83 wil zeggen.
Ik begrijp het wel, ik zeg alleen dat voor 10-bits weergave er een heel pad nodig is en dat begint bij het bronmateriaal.
Als er ook maar ergens in dat pad een compositing stap plaatsvindt dan heb je dus ook alpha op die bitresolutie nodig.
NC83 begint uit het niets over een framebuffer bedoelt voor schermweergave maar dat is dus slechts 1 deel van het hele pad. En ja, als je eenmaal een frame naar de monitor stuurt heb je inderdaad geen alpha meer nodig. Maar in de stappen daarvoor meestal dus nog wel.
Ik begrijp het wel, ik zeg alleen dat voor 10-bits weergave er een heel pad nodig is en dat begint bij het bronmateriaal.
Dat is toch wat NC83 zegt over werken met 16RGBA buffers? Bovendien, het is niet zo dat bronmateriaal ook meer dan 8 bits per component moet zijn om zinnig te zijn. Tussentijdse bewerkingen kunnen ervoor zorgen dat de output toch baat heeft bij een hogere precisie dan het bronmateriaal.
Dat is toch wat NC83 zegt over werken met 16RGBA buffers?
Ja, maar een 16RGB buffer does not a full 10bit path make.
Waar het mij even om ging is dat het scherm en de framebuffers niet de enige plekken zijn waar een hogere bitdiepte 'nodig' is.
Tussentijdse bewerkingen kunnen ervoor zorgen dat de output toch baat heeft bij een hogere precisie dan het bronmateriaal.
Ja, er zijn natuurlijk allerlei gevallen waarin het wel of geen zin heeft.
Maar wil je van voor naar achter die 10-bits bandbreedte gebruiken zul je toch echt met goed bronmateriaal moeten beginnen.
10RGB2A is leuk als transportformaat naar de monitor toe maar voor de rest van het pad is het niet voldoende.
Als ik het over een 16RGBA buffer heb bedoel ik een formaat met 16 bits per kanaal. Deze worden dan later gedownsampled naar een 8RGBA of 10RGB2A, en dan uiteindelijk via je monitor aansluiting naar je monitor.

Games gebruiken dit soort dingen vaker, HDR material word meestal in een 32RGBA of 16RGBA buffer gedaan en dan terug geconverteeerd naar een 32bits formaat.
Als ik het over een 16RGBA buffer heb bedoel ik een formaat met 16 bits per kanaal. Deze worden dan later gedownsampled naar een 8RGBA of 10RGB2A, en dan uiteindelijk via je monitor aansluiting naar je monitor.
Ja, snap ik allemaal. :) Wat ik denk ik ten onrechte aannam was dat de hele workflow op de mac beperkt was tot 8 bits. Maar blijkbaar gaat het dus alleen om de verbinding tussen videokaart en monitor en wordt het beperkt middels speciale gpu-drivers van apple(?).
Volgens mij volg je je eigen discussie niet meer 8)7

Jij zegt: 2 bits alpha is niet genoeg voor DTP. NC83 zegt: 10.10.10.X kan gebruikt worden om een 16.16.16.16 buffer beter weer te geven. Vervolgens doe je dat af als "onzin" en begin je over bronmateriaal 8)7
Jij zegt: 2 bits alpha is niet genoeg voor DTP.
Nee, ik zeg dat die 2 alpha bits leuk zijn voor transport naar de monitor maar dat dat niet genoeg is om intern mee te werken. Daar heb je meer resolutie nodig voor het alphakanaal en over het algemeen dus al in het bronmateriaal, nog voordat het naar een framebuffer wordt geschreven.
De discussie ging helemaal niet over transportformaten, maar over OSX dat schijnbaar niet overweg kan met hogere bitdieptes. Dat omhelst dus meer dan alleen de videokaart output.

En ik weet ook wel dat bijvoorbeeld games gewoon 8-bits zooi in een 16 of 32 bits buffer plakken, als ze al een hogere diepte in de buffer gebruiken, maar we hadden het niet over games.

[Reactie gewijzigd door koelpasta op 20 april 2015 13:20]

Nee, ik zeg dat die 2 alpha bits leuk zijn voor transport naar de monitor maar dat dat niet genoeg is om intern mee te werken.
Lees nou gewoon eens terug. Je trekt allemaal conclusies op basis van dingen die er niet staan. Niemand beweerde dat 2 bits voldoende is om mee te werken! NC83 zegt zelfs ronduit dat je intern met 16 bits per component (inclusief alpha) kan werken. Dat is wat jij als "onzin" bestempelde. Er zijn nu al 3 mensen die daar wat van zeggen. Wellicht dat je eigen woorden dan gewoon onhandig zijn gekozen?

Er stond letterlijk:
NC83: Hierdoor kan je voledige alpha blending doen maar uiteindelijk is je output buffer 10RGB2A wat naar je beeldscherm gaat.
koelpasta: Onzin.

[Reactie gewijzigd door .oisyn op 20 april 2015 14:32]

Er stond letterlijk:
NC83: Hierdoor kan je voledige alpha blending doen maar uiteindelijk is je output buffer 10RGB2A wat naar je beeldscherm gaat.
koelpasta: Onzin.
Alleen ging dit stukje discussie niet over framebuffers of transportformaten.
NC83's verhaal schakelt ineens over op enkel het transportverhaal naar de monitor. Dan is die alpha channel inderdaad niet van toepassing en daar ben ik het dus ook mee eens. Ik wil alleen benadrukken dat je er hiermee nog lang niet bent.
Ik heb het inderdaad wel slecht opgeschreven want met 'onzin' verwees ik dus meer naar het feit dat dit er uberhaupt erg toe doet. Zijn verhaal geldt alleen als het ransport ook werkelijk 4 bytes per pixel zou coderen wat lang niet altijd het geval is.
En uiteindelijk begon deze discussie over iemands onbegrip over wat '32-bits kleuren' betekent zoals je die instelt in je OS. En dat is een 8RGBA formaat en niet een 10RGB2A formaat. Ook daar was dat woordje 'onzin' voor bedoelt.
Anyway, beetje discussie om niks aan het worden.
Het gaat om de output naar je monitor. In welke bitdiepte je ook werkt zal de computer alsnog 8 bit als signaal naar de monitor aanbieden. Voordelen van en 10 bit monitor zijn:
-acuratere kleurrepresentatie
-minder banding (banding is het fenomeen dat je monitor te weinig kleuren kan bieden om een soepele overloop van de ene naar de andere kleur te maken)

16/32bit workflows in after effects of nuke vind gewoon onder de moterkap plaats en heeft hier niks mee te maken. 16 bit is simpelweg meer kleurinformatie in je bestand en 32bit lineair is alle kleurinformatie zonder compressie en zonder ingebakken gammacorrectie om het zichtbaar te maken op je minitor (dit doet je compositing app voor je tijdens output. Dus nadat je bewerkingen zijn gemaakt)
Nee, want 32 bits kleurweergave is slechts 8 bit per kleurkanaal
Nonsens, het aantal bits van het totaal zegt niets over het aantal bits per component. 32 bits kan 8.8.8.8 zijn (8 bits alpha), maar ook 8.8.8.X (geen alpha, 8 bits worden genegeerd), 10.10.10.2 (10 bits per kleurcomponent, 2 bits alpha), 10.10.10.X. en zelfs 11.11.10.
10 bit per kleurkanaal (R, G en B ) i.t.t. 8 bit per kleurkanaal (3x8 = 24 bit RGB, 3x8 + 8 = 32 bit RGBA). Voor 10 bit kleur heb je dus 2 bits per kleurkanaal meer (3x10 = 30 bit RGB) waarbij de bits ook iets anders gebruikt worden (er is bijv. een "whiter than white" bereik). Zie hier.

[Reactie gewijzigd door RobIII op 20 april 2015 10:36]

In Windows heb je toch al sinds jaar en dag 16 en 32 bits? 10 bits lijkt me met die vergelijking nogal laag
Die 10 bit is per kleurkanaal. 32-bit kleuren in Windows is 8-bit per kleur en een nutteloos 8-bit alpha kanaal.

Ik snap sowieso niet waarom we anno 2015 nog steeds grotendeels op 8-bit per channel zitten. Kleur gradienten (zonder dithering) zijn om te kotsen: 8-bit betekend dat er 256 verschillende niveau's per kleur zijn zijn, dus als je op een 1080p scherm, van links naar rechts een gradient heb lopen, met de kleuren donker-rood '156' tot felrood '256', heb je over je horizontale breedte effe vlakken van 10 pixels breed (wat banding word genoemd). :X

Overigens ondersteund Nvidia's Geforce kaarten (softwarematig) geen 10-bit kleuren, daarvoor moet je bij deze heren een dure Quadro kaart kopen. Intel IGP's en AMD's consumenten kaartjes doen dit wel.

[Reactie gewijzigd door SirNobax op 20 april 2015 10:55]

Erger nog, veel (goedkopere) computerschermen zijn stiekem niet 8-bit maar 6-bit, en ditheren dit naar 8-bit.
Niets ergs aan. Doen de Ultrasharps van Dell ook. En dat zijn toch echt geen slechte beeldschermen.

6bit + FRC is tegenwoordig zo goed geďmplementeerd dat het verschil onmerkbaar is.
16/32 bits is voor de hele pixel. 8/10 bits gaat per "RGB-kleur".

32 bits is dus 8 bit R, 8 bit G, 8 bit B en 8 bit alpha.
16/32 bits is voor de hele pixel. 8/10 bits gaat per "RGB-kleur".
Niet helemaal. Je hebt namelijk ook standaarden die 16 of 32 bits per kleurkanaal definieren!
Photoshop op de pc kan hier bijvoorbeeld mee overweg.

Maar wat je zegt is inderdaad wel wat er in deze thread wordt bedoelt.

[Reactie gewijzigd door koelpasta op 20 april 2015 10:56]

Het gaat hier over kleurdiepte 8 bit versus 10 bit, dat is iets anders dan de 32/64 bits woordbreedte waar we het hier over hebben. Zie:

32/64 bit
http://nl.wikipedia.org/wiki/Woordbreedte

Kleurdiepte
http://nl.wikipedia.org/wiki/Kleurendiepte
Die 16/32 bit slaat niet op woordbreedte maar op het aantal bits van een enkele kleurwaarde; bij 48 bit kleuren heb je dus niet opeens een "woordbreedte" van 48 bits. Een woordbreedte is doorgaans een macht van 2 (dus 8, 16, 32, 64*); de waardes ertussenin worden dus afgehandeld door meerdere "words" te combineren. Zo zou je een 48 bit waarde opslaan in anderhalf 32 bit word wat dus 3 32 bit words per 2 48 bits kleurwaarden betekent. M.a.w. een 32 bit processor of 64 bit processor kan prima 48 (of andere arbitraire lengtes) van data verwerken, maar een word blijft (afhankelijk van je definitie) bepaald door de processor en niet door het feit dat je toevallig een X aantal bits gebruikt om je kleurwaarde op te slaan. Voor je CPU (en GPU) is 't gewoon data.

* Waarbij een word doorgaans minimaal 16 bits is (8 bits is namelijk een byte).

[Reactie gewijzigd door RobIII op 20 april 2015 10:47]

Note to self: eerst topic refreshen, dán replyen :P Mijn reactie was enigzins nutteloos geworden ^^

[Reactie gewijzigd door Cow86 op 20 april 2015 10:49]

In de Windows de 16 en 32 bit optie had te maken hoe intern de kleuren, bus systeem, werden verwerkt, niet de werkelijke kleurdiepte. Wel zorgde dat je met 16 bit minder kleuren kreeg te zien, maar hierdoor kon op een 32 bit bus systeem in 1 keer 2 kleur waarde worden verstuurd en een snellere beeld aansturing. 32bit zorgde voor een 24bit kleur weergave, maar je verloor 8 bit aan ruimte op een 32 bit bus systeem, maar het opbouw werd ook langzamer door. Maar met 32 bit kan je natuurlijk ook 30 bit kleur weergeven. Het interne bus systeem zou van 24 naar 30 bit kleurweergave niet op mogen vertragen, althans, totdat het software dit weer oppakt.
EDIT -Herhaling van de bovenstaande 100 posters- lees bovenstaande posts voor meer info.

[Reactie gewijzigd door ItsNotRudy op 20 april 2015 10:43]

Heel jammer dit :\
Maar oisyn: dat leest toch geen hond?

Toch best aardig dat iemand de ander even steunt?
Ik ben geen expert in fotobewerking, Is 10bit kleurdiepte echt essentieel voor fotobewerking of kan er met een 8bit kleur paneel ook gewoon gewerkt worden?
Een kleurenpalet van 16,7 miljoen kleuren lijkt veel maar per primaire kleur zijn er maar 256 tinten. In een gradient tussen een donkere en een lichte tint van dezelfde kleur ga je al snel banding zien. Dit is wel te maskeren met dithering maar een grotere kleurdiepte is beter.
Er kan gewerkt worden met een 8bit scherm maar bij het gebruik van 10 bits wordt banding in gradient kleuren een stuk minder.
Dan ben ik al helemaal verbaasd dat Apple zo vaak wordt gebruikt voor foto bewerking, dit wist ik zelfs niet ook dacht juist altijd dat Apple ook 10bits ondersteunde.

Vreemde zaak, waarom zou dit zo zijn?
Omdat mensen nog steeds in het jaar 2000 leven waar het wel iets beter was.
Maar sinds dien zijn het gewoon dezelfde LG panelen als die in veel gewone monitoren zitten en is de apple pc ook niets anders dan een gewone pc met aangepast moederbord maar zit er een gewone intel cpu en gpu van derden in.

Net als dat men veel LG telefoons nog steeds als slecht zien door een slechte eerste generatie telefoons waar ze zo nodig voor aan de rij moesten staan om hip te zijn.
Is dat omdat je de verschillen ziet, of omdat bewerkingen met 8 bits per kleurkanaal tot te grote fouten leidt?

Bij geluid hebben 32-bits DSP's de voorkeur boven 24-bits versies puur vanwege problemen door afrondingsfouten bij meervoudige bewerkingen op het audiosignaal.
Bij kleur is het exact hetzelfde als bij geluid.. Door kleuren nauwkeuriger te beschrijven hou je ook na meerdere bewerkingen een mooier plaatje over omdat je minder afrondingsfouten hebt.
Dat gaat echter puur om de bewerkingen, het programma kan dat prima op de achtergrond met een hogere bitdiepte doen dan wat hij op je scherm laat zien: Als je audio bewerking doet heb je ook geen 32-bit DA nodig om ernaar te luisteren.

Dat gezegd, 8-bit per kleur is niet veel in principe, en dan ook zeker niet genoeg voor meer 'bijzondere' kleuren, zoals fel geel bij iets fluorescents.
Dat is onzin. Het gamut (kleurbereik) van monitoren is onafhankelijk van de bit-diepte. De bit-diepte bepaalt de afstand tussen 2 vergelijkbare kleuren, maar niet de extremen van de range.

Dit is goed zichtbaar als je een gradient maakt: de 2 uiteinden zijn hetzelfde, maar met 10 bits heb je daartussen 1022 banden en met 8 bits heb je daartussen maar 254 banden.
Ja tuurlijk kan dat, maar dan krijg je wel een significante grotere sprong tussen verschillende kleuren, dat is altijd een afweging. Met 10-bit is dat een factor 4 mindere afweging.
We zitten niet meer in het 2 bits kleurdiepte tijdperk. Al sinds de tijd dat we 6 bits kleurdiepte hebben, wordt het hele monitorgamut gebruikt.

Het monitorgamut is niet gelijk aan het menselijke visuele gamut, nee, maar dat is een ander verhaal. En juist de dure professionele monitoren met hoge bit-dieptes hebben meestal een breder gamut dan de massa-modellen. Dat is omdat professionals hogere eisen stellen en bereid zijn om voor beide twee features te betalen, niet omdat die twee features technisch gerelateerd zijn.
Sissors zegt ook niet dat ze technisch gerelateerd zijn. Hij geeft je wat dat betreft zelfs gelijk met zijn "tuurlijk kan dat". Hij geeft echter ook goed aan waarom een 6-bits paneel met 100% AdobeRGB weinig zin heeft.
Dus om zijn reacties zo af te branden is op z'n zachtst gezegd niet erg netjes.

[Reactie gewijzigd door RSpanjaard op 20 april 2015 19:51]

Is dat omdat je de verschillen ziet, of omdat bewerkingen met 8 bits per kleurkanaal tot te grote fouten leidt?
Beide.
Als je met plaatjes werkt die zichtbare banding hebben dan zal elke bewerking met diezelfde afrondingsfouten plaatsvinden en dat leidt tot.... nog meer afrondingsfouten! .. Jippie! ;(
Moeilijk te beantwoorden:

1) wat naar 't scherm gestuurd wordt hoeft niet overeen te komen met wat in het geheugen gebruikt wordt. Zo werken de meeste digitale reflexen met 12bit ŕ 14bit (tot 16bit in het topsegment) kleurwaardes en is AdobeRGB of Prophoto RGB gedefinieerd in 16bit. Maar wat beeldkaart naar de monitor stuurt is 8bit of 10bit.

Het gaat dus over wat je ziet. al kan je met het menselijk oog niet persé alle schakeringen zien (de duurdere pro-schermen kunnen maar 98% tonen van de "gamut"). Fluo is bvb meestal onmogelijk om op scherm te tonen.
Je kan het beeld gelukkig wel in 16-bit of zelfs 32-bit fp bewerken. Het gaat puur om het weergeven wat niet kan.
Zijn de meeste panels niet sowieso iets van 6 bits + enorm veel dithering?
Zo ver ik weet zijn de meeste schermen 8 bits per kanaal en als je naar de duurdere gaat komt er 10 bits voor in de plaats. Maar ik kan dit fout hebben ik ben geen kenner van schermen weet dit alleen van CGI waar ik er zelf tegenaan ben gelopen. Dit is ook de reden waarom Games nu vaker RGB10A2 gebruiken zodat de banding van lichten in de scene minder te merken is.
^bit is zelfs voor veel IPS panelen helaas nog gewoon gemeengoed. Dit zie je dan vooral ook bij grijs waarden terug.
Vooral bij TN schermen is dit het geval, hoewel niet noodzakelijk. "het is wel sneller", maar de beelden worden er niet mooier op (hoe gamers dus op graphics kicken om vervolgens ze te vernachelen door een 6*3 scherm er aan te hangen snap ik dus ook niet...)
Klopt, maar in de professionele wereld werkt niemand met TN panelen.
Even verdergeborduurt:
Je kan in principe resolutie opgeven voor kleurdiepte door middel van dithering.
Als je dus op een 8-bits scherm werkt waar je de individuele pixels niet meer van ziet zou je door middel van dithering toch dezelfde kleurweergave kunnen krijgen als met 10 bits.
IDD ik edit mijn foto's op een 8 bit paneel maar als ik het dan elders op een beter scherm terug zie zie ik toch dat vooral de effe kleurvlakken niet optimaal zijn.

Volgende schermpje word dan ook 10 bit.
Daar kan, en *wordt* prima mee gewerkt. Onthoud wel dat als jij een 10-bpc systeem hebt dat je daar een van de weinigen mee bent. De rest van de wereld, waaronder 99.99% van je afnemers, hebben gewoon een 8bpc scherm. Leuk dus dat jij geen banding ziet, maar wij zien 't wel…
Dat klopt als de content die je maakt alleen voor gebruik op beeldschermen bedoelt is, maar als je output naar bijvoorbeeld drukwerk gaat zien je afnemers het wel degelijk.
Dat is dus niet zo. Drukwerk werkt heel anders dan RGB.
Ondersteuning voor 10bit-kleurdiepte maakt de weergave van 1073 miljard kleuren mogelijk, waar dat bij 8 bits per kleurkanaal 16,78 miljoen kleuren is.
Is dit een verschil dat zichtbaar is voor het menselijk ook?
Ja, in principe wel. Bij benadering kan het menselijke oog 2,4 miljoen kleuren in een scene onderscheiden:

http://photo.stackexchange.com/a/10365/4875

Dat is overigens een sterk vereenvoudigd antwoord. Dan lijkt 16 miljoen genoeg? Nee, want 16 miljoen is het totale pallet aan kleuren. Met een groter pallet (1073 miljard) kan uit veel meer kleurwaardes gekozen worden. Het menselijke ook kan die onderscheiden in een foto, maar uiteraard niet allemaal tegelijk :)
Mensen kunnen ongeveer 10 miljoen verschillende kleuren onderscheiden*, maar die 16,78 miljoen kleuren die op 8-bit panelen getoond (lineair verspreid) kunnen worden vallen niet allemaal in het spectrum van het waarneembare voor de mens (spectrum). De mens heeft namelijk geen gelijk spectrum, maar monitoren hebben wel een gelijke verdeling van kleuren.

Dat is hoe ik het begrijp/mij herinner, correct me if I'm wrong.

* Judd, Deane B.; Wyszecki, Günter (1975). Color in Business, Science and Industry. Wiley Series in Pure and Applied Optics (3rd ed.). New York: Wiley-Interscience. p. 388. ISBN 0-471-45212-2.
Ja, maar hangt er een beetje van af hoe die bits over de helderheid zijn verdeelt.
In de standard rgb kleurruimtes die door computers worden gebruikt is 10bits ongeveer de grens waar je geen banding meer krijgt.
Dit is wel heel appart inderdaad ? Ik dacht dat Apple juist veel in de design wereld wordt gebruikt. Ook zijn hun schermen een van de beste die er zijn ? kunnen die schermen dan toch nog niet deze 10 bits kleuren weergeven ?
Het is maar een gokje, maar ik dénk dat Apple dat niet toevoegt omdat het voor professioneel gebruik niet altijd nodig is. Voor drukwerk heb je 10bits weergave niet nodig (je werkt daar in CMYK en PMS kleuren namelijk), en bij web design naar mijn weten ook niet. Van wat ik weet is het wel handig bij video's e.d., maar dat zou dan de enige reden zijn.
Juist bij Video is Apple toch zo populair?
Blijkbaar werkt het zonder 10-bit kleuren dan nog steeds (voor sommigen) beter dan een anders OS met 10-bit kleuren?
Dit is een drogreden. Jaren lang was het argument dat men Apple schuwt, hoewel het beter is dan alles wat "Micro$oft" maakte. Nu de rollen, nota bene in het paradepaardje van de beeldbewerking zijn omgedraaid, is het blijkbaar niet nodig om nog beter te zijn ;)
Hoezo is dat een drogreden?

Dat software A op één punt slechter is dan software B anders wil nog niet zeggen dat software A wanneer je naar alle mogelijke punten kijkt slechter is dan software B.

Lijkt mij een hele logische stelling die blijkbaar ook nog eens blijkt uit de (niet door mij) gestelde populariteit van Apple voor videobewerking. Als 10 bit kleur daar een gigantisch belangrijk punt zou zijn en Apple op alle andere punten ook slechter was dan Windows of Linux zou geen hond het meer gebruiken, hoeveel clichés en gezegden je er ook bijhaalt.
Lijkt mij een hele logische stelling die blijkbaar ook nog eens blijkt uit de (niet door mij) gestelde populariteit van Apple voor videobewerking.
Apple is dan wel populair in videobewerking, het is zeker niet de grootste in die markt.
Wat de boer niet kent, he..
Het zal eerder zijn dat ze niet beter weten. Ignorance is a bliss. Sometimes.
Tot ze het verschil horen of zien ;)
Video is meestal gewoon 8-bit. In ieder geval het eindproduct. Het is maar sinds kort dat er videorecorders zijn die 10-bit opnemen.
Ook zijn er maar weinig 10-bit monitors, vaak zijn deze nog lager dan 8-bit.

Daarentegen kunnen de Adobe pakketten gewoon 16-bit en zelfs 32-bit RGB aan, ook op Apple. En Apple's eigen ProRes codec die nu steeds meer standaard wordt in de video wereld is gewoon 10-bit.
Ja inderdaad, maar ik denk dat die keuze vooral gemaakt wordt omdat de software fijn werkt.

Dat geld denk ik voor de meeste die een Mac kopen, ze vinden het OS en de software fijn werken, niet zozeer dat een Mac iets beter kan dan een windows PC.
Maar als het niet altijd nodig is, dan is het dus soms wel nodig en moet je de mogelijkheid gewoon aanbieden voor die mensen die het nodig hebben. Zeker als je je profileert als het merk voor de foto-video wereld.
Even geGoogle'd, en het lijkt erop dat er meer aan de hand is dan alleen het systeem wat al-dan-niet 10bits weergave ondersteund, zoals bijvoorbeeld op http://www.dpreview.com/forums/thread/3538545

Dat Windows (en o.a. Photoshop voor Windows) het wel ondersteund betekent blijkbaar niet per definitie dat het (vaak) gebruikt wordt. De drivers, GPU e.d. moeten het ook allemaal ondersteunen, en dan hangt 't van wat ik zo lees ook nog af hoe de film wordt afgespeeld.
http://www.imagescience.c...152/10+Bit+Output+Support

Daarnaast, blijkbaar zijn er een hoop videokaarten die het al ondersteunen, maar zijn er niet veel drivers die die ondersteuning ook daadwerkelijk toevoegen. Al met al kan ik me zo best voorstellen dat Apple daar vooralsnog z'n vingers niet aan wil branden, omdat er téveel variabelen zijn die roet in het eten kunnen gooien… en dat stokt het Apple beleid dat iets "gewoon moet werken". Om dan maar niet te spreken van de manier van afspelen/bekijken bij de kijker zelf, wat op zichzelf ook al roet in het eten kan gooien.

Het klinkt een beetje als een ontzettend mooie techniek/mogelijkheid, die relatief gebrekkig werkt en niet gewoon overal kan worden gebruikt. Je hebt een specifieke monitor nodig, een specifieke GPU mét een driver die die ondersteuning toevoegd, een specifieke output, de manier van bekijken… aardig wat variabelen die nogal eens mis gaan lijkt me.
Ik denk ook dat het voor performance is. 8-bit laat zich nu eenmaal makkelijker bewerken. Past goed in een 32-bit getal als RGBA. Snel berekeningen op los laten.
Wanneer je 10-bit gebruikt, moeten alle functies die normaal op 8-bit gaan dubbel worden uitgevoerd als je de boel snel wil laten werken. Want ga je het dan als 32-bit RGB opslaan, of 64-bit RGBA. Dat werkt toch compleet anders.
In Adobe producten op Apple, zoals Photoshop of After Effects kan je ook kiezen of je 8-bit,16-bit of 32-bit floating point per channel video wil bewerken. Dan zijn de verschillende filters ook niet altijd geoptimaliseerd. Vaak alleen voor de 8-bit versie.

Wat me dan ook verbaast in het Tweakers artikel is dat er gesuggereerd wordt dat je op Apple geen 10-bit beeld kan verwerken in Photoshop. Dat is niet waar. Je kan 16-bit of 32-bit float gebruiken. Daar past die 10-bit makkelijk in. Ik kan me niet voorstellen dat er in Windows een aparte 10-bit keuze is.
Dat er dan blijkbaar geen 10-bit getoond kan worden via de monitor is blijkbaar alleen OS gerelateerd, en heeft alleen te maken met op de monitor tonen.
Het is nog wel iets erger dan dat. "RGBA" 4x8 is een native formaat voor SSE registers. 10+10+10 bits werkt uberhaupt niet met SSE. Dat betekent uitpakken tot 4x16, dan langzamere berekeningen (helft minder pixels per klokcyclus), en daarna alsnog afronden en inpakken.

Overigens heb je met 16 bits intern minder last van tussentijdse afrondingen, dus om die reden wil je dat in high-end software ook doen met 32 bits RGBA.
Je hebt gelijk natuurlijk, maar al dit soort dingen kunnen in software geemuleerd worden onafhankelijk van GPU-drivers.

Ik reken voor stereo-beelden al geruime tijd met 16 bits kanalen, ookal toont mijn monitor niet meer dan 8-bit kanalen. De hele pipeline der bewerkingen werkt echter in 16 voor verhoogde precisie.
Oh, ik geloof ook wel dat het mogelijk is, maar de hele werkwijze van Apple is dat het "gewoon moet werken". En met de huidige stand van zaken rondom 10bits weergave is er niets vanzelfsprekends aan :) Aan de ene kant best jammer natuurlijk, maar het komt ook door de nogal omslachtige manier van het wél werkend krijgen van dit zaakje. Ik denk niet dat "je" daar specifiek Apple voor moet aankijken, maar vooral de manier van implementatie in het algemeen.

Adobe heeft bijvoorbeeld zelf óók niet in hun Mac-versie van Photoshop ingebouwd. GPU kaarten en drivers zijn ook niet vanzelfsprekend gebruiksklaar voor 10bits weergave, wat je de GPU-bouwers zou kunnen aanspreken. Er zijn legio professionele monitor-bouwers die ook geen 10bits weergave hebben. Er is meer wat mis gaat dan alleen de implementatie bij Apple denk ik.
Wtf omgekeerde wereld toch. Oh het is niet altijd nodig dus gaan we er moeite voor doen om het eruit te slopen.. :')
Nee, de Apple schermen kunnen het niet en al zouden ze het kunnen, dan heb je er op een Mac dus niets aan.

Ik verbaas me al jaren over het feit dat de grafische wereld barst van de Mac's (niet alleen voor wat betreft de onmogelijkheid van 10 bit trouwens). Het toont maar weer eens dat image voor veel mensen een belangrijke leidraad is voor de keuze voor een merk.

Wanneer je zelf een PC samenstelt gericht op foto/video bewerking in combinatie met een goede Eizo-monitor (of iets vergelijkbaars) ben je honderden euro's goedkoper uit. En je hebt 10 bit. En een betere monitor. En je systeem up to date houden wordt een stuk eenvoudiger en goedkoper.

En ja, een Mac werkt misschien out-of-the box en is al voor je samengesteld voor redelijke prestaties voor je werk. Maar dat zou niet de leidraad moeten zijn als je professioneel met zo'n systeem werkt. Dan wil je het beste voor minder geld en het beste heet geen Mac.
Het 'laagste prijs' dogma geldt niet voor professionals. Tweakers vinden dat interessant. Een professional wil een omgeving die gewoon goed werkt, out-of-the-box. Een omgeving die hij kent, waar hij optimaal in kan werken, niet met randzaken bezig hoeft te zijn. 1 leverancier, een service contract. Een OS waar de beste en meeste software op draait (welke hij nodig heeft voor zijn werk) en die door alle voor zijn vakgebied beschikbare hardware ondersteund wordt. Een paar uur langer ergens over doen [over de levensduur van het apparaat] mede veroorzaakt door de kostenbesparing doet het prijsverschil al snel verdampen of erger een missed opportunity (zoals een klant die voor iemand anders kiest of het te lang vindt duren).

Dit zie je ook in andere beroepsgroepen. Professionele bouwvakkers lopen ook niet met Kinzo of Black & Dekker. Die kopen Makita en Metabo. Voor 99% van de klussen zullen ze net zo goed presteren. Maar ze willen niet misgrijpen en zeker niet onderdoen voor concurrenten.

[Reactie gewijzigd door HerrPino op 20 april 2015 11:37]

Dat snap ik voor de volle 100%. Maar alles wat je typt is geen enkel argument voor een keuze van Apple boven een PC.

Het zijn allemaal manieren om te verantwoorden waarom mensen voor Apple hebben gekozen, geen argumenten om het ook daadwerkelijk te doen.
Ik vind het ook vreemd dat het nog niet mogelijk is. Ik moet zeggen dat maar weinig professionals er veel waarde aan hechten omdat ze er mee hebben kunnen leven. Je hebt het ook niet echt nodig, in display dan he, wel met bewerkingen.

Het is trouwens niet goedkoper op PC, want om 10-bit display te hebben op PC moet je ook al een Quaddro kaartje hebben. Een game kaart gaat je het volgens mij niet geven.
Een professional wil betrouwbaar resultaat, niet persé voor de laagste prijs. Dat is iets voor afnemers.
Maar Hoppa geeft net aan dat dit niet mogelijk is met een Mac. En daarenboven duurder. Dus ik weet niet wat je precies bedoelt met je opmerking :9
Ik denk dat het juist is omdat er veel Apples in design worden gebruikt. Als je deze designers met een simpele reinstall ineens een 'betere photoshop' geeft, dan raken ze klanten kwijt. "Windows runt beter op een Mac dan MacOS" is natuurlijk zelfs aan de grootste Apple fan niet te verkopen.

Als je nu ziet dat Windows op Apple beter werkt, dan is de volgende stap naar een volledig non-Apple systeem natuurlijk kleiner.
Als je nu ziet dat Windows op Apple beter werkt, dan is de volgende stap naar een volledig non-Apple systeem natuurlijk kleiner.
Aan de andere kant; als die designers nu beter werk willen kunnen leveren is hun enige optie meteen volledig over stappen. Dan ben je als Apple dus meteen alle business kwijt. Terwijl met een kleine aanpassing in de drivers ze op z'n minst de hardware nog kunnen verkopen.....
Om de gebruik te maken van de 10-bit onder Windows Photoshop, moet je dus in 16-bit bewerken. Echter werken veel filters van Photoshop niet in 16-bit, waardoor je vaak toch gewoon in 8-bit loopt te werken. Ik in ieder geval.
Zelfde geldt voor video editing.
Is helaas iets wat van vroeger is blijven hangen en dat designer (Ben zelf een designer van beroep) gevoelig zijn voor producten met een goed uiterlijk.

Apple producten zijn al jaren niet meer het beste voor design software.

De scherm panelen die ze gebruiken zijn doorgaans dezelfde als die Dell in hun high end schermen bijvoorbeeld gebruikt. Er zijn niet zo heel veel 10bit kleurendiepte panelen op de markt nog.
Ik werk (zij het niet als fulltime professional) al jaren op een Dell-scherm. Het is niet eens een recent high-end scherm, maar ik durf mijn handen er voor in het vuur te steken dat de kleurechtheid, helderheid en betrouwbaarheid gelijkwaardig of beter zijn dan dat van het duurste Mac-paneel.

En dan heb ik het nog niet eens over de echte top-schermen van bijvoorbeeld Eizo. Daar kan echt geen Mac-paneel tegenop.
Zoals Rin aangeeft, de high-end Dell schermen zijn vaak exact dezelfde als de Apple schermen. Ze nemen (naar mijn weten, of in elk geval tot voor kort) beiden de schermen af bij LG, en gebruiken dezelfde (of bijna dezelfde) panelen.

Zo gebruiken zowel de Apple Thunderbolt Display als de Dell U2713HM een variant van het LG LM270WQ1 paneel. Dus in alle waarschijnlijkheid is de kleurechtheid exact gelijk (bij calibratie). Dus wat dat betreft kan je je hand er wel voor in het vuur steken dat het +- kleine foutenmarge gelijk is ;). Gezien variatie in producten uit dezelfde lijn is het wellicht wel wat gewaagd om je hand in het vuur te steken voor gelijk of beter (uitgaande van exact hetzelfde paneel zal ongeveer 50% beter en 50% slechter zijn als je precies genoeg kijkt).


Veel mensen noemen dat Apple geen 8-bit schermen verkoopt als reden om het niet te ondersteunen op OS X. Ik vind dit een vrij zwakke reden. Als 10-bit iets is wat belangrijk is voor je doelgroep dan moet je of 10-bit schermen gaan verkopen of het ondersteunen en er genoegen mee nemen dat een deel van je klanten hun scherm koopt bij een andere aanbieder.

Aan de andere kant geldt dit sowieso al, Apple verkoopt geen echte high-end beeldschermen. Zoals Hoppa! al aangeeft, top schermen van Eizo bv. zijn een andere categorie. De video-bewerkers die een hogere kwaliteit display nodig hebben shoppen daarom sowieso al bij de concurrentie, eigenlijk is er geen reden voor Apple om dit te blokkeren voor mensen die 10-bit nodig hebben. Dit zijn waarschijnlijk toch dezelfde mensen die momenteel ook al een niet-Apple display zullen kopen.
Nu zijn 10 bits schermen nog steeds erg duur. Maar wanneer je een Mac pro koopt koop je er waarschijnlijk ook een goed scherm bij. Met name apple snap ik hier niet in, zij staan vaak voorop met nieuwe technologie: thunderbolt, 5k, USB 3.1 etc. Maar 10 bits kleuren worden niet ondersteund terwijl Windows xp uit 2001 het al wel heeft...

En ja 10 bits kleurdiepte maakt het hoop uit. Tevens zitten veel goedkopere schermen nog op 6bit + 2 bit via dithering.
Misschien omdat apples eigen schermen geen 10 bits ondersteunen?
Commercieel is het natuurlijk wel makkelijk te verstaan. Apple wil natuurlijk niet dat de nieuwe best practice Apple hardware + Win8.1 software wordt, zeker niet als je een Apple eco-systeem aan het bouwen bent.
Zou het dan uberhaubt niet beter zijn om gewoon 10-bit support in OSX in te bouwen?
Blijkbaar is dat inbouwen niet zo eenvoudig gezien Win XP het al aan boord had >10jaar geleden? Er beweerde ook iemand in het licht van bovenstaand nieuws dat de schermen van Apple eigenlijk max 8bit aankonden, dus dat zou betekenen dat dan ook duurdere hardware nodig zou zijn om de consument in de Apple ecosystem te houden. Maar ik moet eerlijkgezegd meegeven dat ik de specs van hun schermen niet ken (en ook niet hoef te kennen :9 ).
Apple is in het verleden zelfs aangeklaagd omdat schermen die werden geadverteerd met millions of colors gewoon 6bit panelen waren die met dithering van 262144 kleuren 16,8 miljoen kleuren moesten maken.
Verder: Waarom zou je 10bit output ondersteunen als je zelf geen enkel scherm verkoopt die 10bit kan tonen? Je wilt toch graag schermen verkopen, dan ga je toch niet adviseren om een scherm van een andere toko te nemen omdat die wel 10 bit kan?
Wat ik van die designers weet is dat ze apple roemen om de kleur-stabiliteit met name tussen de diverse apparaten. Juist daarom blijven veel beeld-verwerkers op apple apperatuur werken: de kleur is op alle apperatuur vergelijkbaar. Oranje blijft oranje en wordt niet geel of bruin wat je tussen msWindows beeldschermen nog wel eens ziet.

In het geval van 6, 8 of 10 bits per kleur, volgens mij zien mensen maar 6 tot 8 bits kleurdiepte, meer is dus zinloos. Omdat de kleur bij apple apperatuur stabiel is tussen de diverse apparaten, is niet meer kleur-info nodig. msWindows beeldschermen moeten gecalibreerd worden en daar kan met 10 bits de calibratie in de software gebeuren.... of zo iets.

Dit is zomaar een gedachte/filosofietje, denk vooral mee en val dit niet aan.
Grappig dit wist ik niet. Ik kan mij voorstellen dat een designer enorm veel baat heeft bij een beter kleurweergave.
Niet altijd, het heeft geen zin om meer kleuren weer te geven dan het menselijk oog kan waarnemen. Maar in dit geval is 10bit per kleurkanaal zeker wenselijk.
Net zoals UHD/retinaschermen geen zin hebben? ;)
We zitten nog lang niet op het aantal kleuren dat het menselijk oog kan waarnemen. Zolang er dithering nodig is om iedere willekeurige gradient op een UHD scherm zonder banding te kunnen tonen is er ruimte voor verbetering. Ik zou zelf nog kunnen bedenken dat we straks zelfs lumen/candela per pixel op kunnen geven (waarbij je als het ware een lamp kunt renderen met de helderheid van een echte lamp, of hoogglans witte vlakken zonder terug te hoeven vallen op kleuren anders als puur wit)

[Reactie gewijzigd door HerrPino op 20 april 2015 12:06]

Voor DTP doeleinden heb je niks aan 10bit kleur omdat het letterlijk niet uit de verf komt.
De grafische sector waar Apple veel gebruikt werd/word is dus vooral gebaat bij het zo natuurgetrouw weergeven op een scherm als het ook van de printer zou rollen.
LOL dus een beter design is niet nodig voor een beter resultaat. Zo praat je alles recht.
Wat is dat nou weer voor onzin reactie?
Ik praat helemaal niks recht, ik leg uit waarom 10bit onnodig is in de grafische sector omdat je bij lange na niet al die tinten kan printen.
Om die reden is het dus niet raar dat Apple ondanks z'n vertegenwoordiging in die sector die kleurdiepte niet belangrijk vind.
Zie de reactie van @Teijgetje hierboven

Quote: Net zoals UHD/retinaschermen geen zin hebben? ;)

Waarom dan wel meer pixels op het scherm dan ooit op papier kunnen.
Waarom dan wel meer pixels op het scherm dan ooit op papier kunnen.
The fuck? Op papier is 1200 dpi al decennia geen enkel punt, op schermen wel.
Dank je.

[Reactie gewijzigd door frankhan op 20 april 2015 12:29]

Voorlopig is het nog heel erg andersom, ik print al jaren op 1200DPI namelijk.
Mijn UHD 27" monitor heeft 163PPI... Los daarvan heeft dit weer niks met het topic kleurdiepte te maken.
Ik praat helemaal niks recht, ik leg uit waarom 10bit onnodig is in de grafische sector omdat je bij lange na niet al die tinten kan printen.
Ik ben het met je eens qua weergave. Qua bronmateriaal echter wil je wel een hogere bitdiepte vanwege afrondingsfouten bij compositing. Zo kun je dan bijvoorbeeld tot juistere 8-bits waardes komen als je begint met 10 bits materiaal.
Klopt niet, er is geen 'juistere 8-bits waarde' aangezien je aan de beperkingen van CMYK inkt en printers gehouden bent. Je kan niet rucksichtlos elke willekeurige RGB kleur uit een printer halen. Daarom wil je dus juist met een bepaald kleurenspectrum werken en niet met een 'betere' omdat dat op je scherm er dan heel anders uitziet dan het eindproduct.
Nogmaals, dit geldt voor dan print, voor video is het een ander verhaal.
Doordat je allerlei berekeningen doet op de waardes van het plaatje ontstaan er afrondingsfouten waardoor je uiteindelijk, bij het vertalen naar de CMYK waardes ernaast kunt zitten. Daarom heeft het dus zeker zin om het materiaal en de bewerkingen op hogere resolutie te doen en achteraf dat bereik terug te schalen naar bijvoorbeeld CMYK palette (of 8 bit rgb, of whatever).

Voor bepaald drukwerk kun je inderdaad ook gewoon beginnen met een slectie CMYK kleuren en alleen daarmee werken. Maar voor fullcolor spul is het makkelijker om in RGB te werken en dat achteraf te vertalen naar een set CMYK kleuren. En dan zul je een betere selectie kunnen maken als je in de weg daarvoor een grotere kleurenruimte gebruikte.

Dit is niet iets dat specifiek voor kleuren geldt, je hebt dit met alle soorten berekeningen die met gekwantiseerde informatie werken.
Als we jouw redenatie volgen dan is dus toch elke 10 bits kleur nagenoeg te vertalen naar CMYK en dat klopt gewoon niet. But I rest my case...

[Reactie gewijzigd door Clubbtraxx op 20 april 2015 16:33]

Als we jouw redenatie volgen dan is dus toch elke 10 bits kleur nagenoeg te vertalen naar CMYK en dat klopt gewoon niet.
Nee, dat zeg ik niet. Je weet gewoon nauwkeuriger welke quantisatie je moet doen naar de CMYK kleuren.

Je kunt overigens veel meer kleuren weergeven door dithering. Dus theoretisch kun je wel veel meer kleuren halen uit CMYK. Wat niet kan is bepaalde extremen binnen het spectrum. Dus enorm rood ofzo.

[Reactie gewijzigd door koelpasta op 20 april 2015 17:55]

Ik denk dat Clubbtraxx een punt heeft dat de gamut van CMYK en RGB verschillend is en dat (zeker mbt AdobeRGB of ProphotoRGB) RGB meer kleuren in het spectrum kan definiëren (waarvan een scherm er dan maar 92-99% van kan tonen).

Maar 10bit kleurinformatie bevat dezelde kleuren, maar als het ware beter gedefinieerd "na de komma" (sorry kan het niet beter uitleggen :9)

vb
rgb8bit ( 100, 120, 150) vs rgb10bit (100,16 , 119,84, 150,08)

Dus 10bit maakt wel degelijk een beter eindresultaat mogelijk, de vraag (bij print) is dan natuurlijk wat is de kleurgrootte van print? Als die maar 6bit zou zijn (met een eigen gamut maar dat is een andere discussie) heeft 10bit geen zin. Is die =>8bit dan heeft 10bit zeker zin!

[Reactie gewijzigd door moozzuzz op 20 april 2015 17:13]

Ik denk dat Clubbtraxx een punt heeft dat de gamut van CMYK en RGB verschillend is en dat (zeker mbt AdobeRGB of ProphotoRGB) RGB meer kleuren in het spectrum kan definiëren (waarvan een scherm er dan maar 92-99% van kan tonen).
Ja, dat weet ik. Maar zodra je met dat soort informatie gaat rekenen (helderheid veranderen, gamma curve veranderen, whatever) dan krijg je afrondingsfouten en verlies je dus kleurdiepte. Binnen dat proces wil je dus een zo groot mogelijk praktische bitdiepte aanhouden, whatever het eindformaat ook gaat zijn.
Vervolgens kun je uit die informatie weer een willekeurig formaat trekken.
Het verwondert me een beetje dat de eindstap (printen - niet digitaal) minder kleurschakeringen kan weergeven dan de digitale vorm. Normaal gezien geldt: Hoe minder digitale bits hoe minder natuurgetrouw? Vanuit die redenering zou je dus denken dat een scherm dat 10bits kan weergeven "juister" kan weergeven dan een scherm dat maar 8bit aankan.
Print (inkt...) maakt gebruik van Cyan, Magenta, Yellow, blacK als basiskleuren. Dat is heel iets anders om mee te werken dan RGB pixeltjes op een scherm. Om die reden is het technisch onmogelijk om net zo veel, of exact dezelfde kleuren weer te geven als een beeldscherm. Men zou het heel graag willen maar het zijn gewoon fysieke beperkingen van inkt die we kunnen maken.
ok maar jij hebt het nu over gamut verschillen? De discussie 8bit vs 10bit gaat over hoe "subtiel" (vind even geen beter woord) het verschil is tussen kleur (A, B, C) en kleur (A, B, C+1).

Voor diegenen die Gamut een lelijk woord vinden, hier een grafische voorstelling.
10 bit is niet echt nodig bij fotografen, maar meer voor de film industrie.
Nee hoor, DVD's, blu-rays, h264 is allemaal 8-bit. Maar goed. Apple ProRes (video codec) is gewoon 10-bit.
Bij jou op het scherm wel, maar bij de film studio's niet ;)
Apple claimt voor de grafische sector te zijn, als je dan een machine van enkele duizenden euro's basisprijs koopt dan is het erg schraal dat daar niet eens 10bit support op zit terwijl dit al bij pc's van onder de 1000 te vinden is in het windows kamp.

Verder is het misschien voor enkele kleine/verouderde dtp'ers en drukkerijen niet nuttig (heb er ook een paar in mijn familie die gewoon weigeren te luisteren) maar iedere grote speler die ik ken in de grafische sector (films, games en andere media vallen daar ook onder) licht dubbel om dit soort opmerkingen kan ik je vertellen.
Onze DTP afdeling van vele honderden mensen werkt allemaal met 10BPP apparatuur en zouden echt per direct opstappen als we ze met Apple apparatuur op zouden zadelen.
Dit vind ik wel vreemd? Apple stond juist bekend als het merk voor grafische dingen etc.. Als ze zoiets dus niet ondersteuning (wat blijkbaar al in Windows zit sinds XP) dan is dat op zijn minst vreemd te noemen... Of hebben ze hier een goede reden voor ?
Apple gaat ervan uit dat de klant van een fotograaf gewoon een 8 bit monitor heeft - raar maar waar.

Als ik met mijn 10 bit monitor een foto aflever met hoge contrasten, kan het zijn dat dit er perfect uitziet op mijn monitor, maar op de monitor van de klant, kan het er alsnog bagger uitzien, omdat de kans op banding ( strepen bij 8 bt monitos ) heel snel optreden bij zulk soort beeld materiaal.

Wil niet zeggen, dat ik het niet raar vindt, dat Apple geen 10 bit aanbiedt.

Edit.
Mijn vrouw bewerkt haar foto's op een Imac - ik bewerk mijn foto's op een pc - maar de mac doet niet onder voor mijn 10 bit monitor.

[Reactie gewijzigd door martin.M op 20 april 2015 12:19]

Een fotograaf kan een foto natuurlijk ook laten drukken en ik ga er even van uit dat daar ook al wel 10bit ondersteuning aanwezig is?

Dus als dat echt de reden van Apple is dan is deze nogal zwak te noemen.
Een fotograaf kan een foto natuurlijk ook laten drukken en ik ga er even van uit dat daar ook al wel 10bit ondersteuning aanwezig is?
Nope.
Dus als dat echt de reden van Apple is dan is deze nogal zwak te noemen.
Het is imo een uitstekende reden. Soortgelijk als als waarom audiostudio's Yamaha NS-10's hebben staan ipv B&W Nautilussen. Je wilt dat je een resultaat hebt wat voor de afnemer (consument) er ook goed uit ziet (klinkt). En als je dan het product alleen bekijkt op de meest high-end apparatuur is dat niet te doen.

[Reactie gewijzigd door CyBeR op 20 april 2015 12:29]

Geen 10-bit support maar wel 16-bit. Het gaat er om dat je het op zo'n hoogst mogelijke kwaliteit thuis al kan beoordelen. Als een 16-bit monitor zou bestaan (dan heb ik het niet over de LUT, die is al vaak 16-bit) dan zou dat nog beter zijn :)
Ja ik heb me vaak genoeg afgevraagd om een Apple te gebruiken en dit soort opmerkingen kom je echt tegen op de Apple forums.
Apple stond juist bekend als het merk voor grafische dingen etc..
Ja, precies, Mac is een merk. Desiners zijn nou eenmaal merkgevoelig en daarom is apple hip.
Ik ken ook genoeg mensen die zweren dat een mac makkelijker is in gebruik en vervolgens zie je ze klooien, ongelovelijk.
Tja het is allemaal gewenning....
Deels wel, maar deels is het legendes en verhalen. Apple had vroegah (jaren 80~90) een aantal pro drukwerk applicaties waardoor ze een naam verwierven. Hetzelfde hadden ze met audio. Maar de afgelopen 15 jaar zijn ze een stuk minder vooruitstrevend op dat gebied. Apple is een de facto standaard in design maar het platform heeft i.m.h.o. niet heel veel meer om dat te verantwoorden.

[Reactie gewijzigd door koelpasta op 20 april 2015 11:16]

Interessant eigenlijk hoe Apple fans zich in alle bochten wringen om dit goed te praten. Er is maar 1 reden en dat is dat Apple het niet wil dat Windows op grafisch gebied een betere keus is dan Apple.
Het wordt niet verdedigd er wordt enkel aangehaald waarom 10bits op dit moment niet eens zo interessant is en het ook geen rare keuze is dat Apple het dus nog niet ondersteund. Daarnaast staan er veel apples in de proffesionele wereld niet enkel met als reden dat ze op grafisch vlak superieur zouden zijn, maar ook om een hele hoop andere redenen, waarbij het geen zin heeft om daarop in te gaan aangezien de Apple haters er altijd weer te pas en ongepast een weerwoord op moeten hebben. Vaak zonder zelf ook ooit een Apple in het bezit gehad te hebben..

[Reactie gewijzigd door ro8in op 20 april 2015 13:36]

De grootste troef voor Apple fanaten in de grafische business is nog altijd geweest dat Apple producten het beste zouden zijn voor grafisch werk en met name de professionele toepassingen. Als je veel met CMYK werkt maakt niet uit uit om dat die kleurruimte toch ontzettend klein is maar werk je (professioneel) aan foto's dan is het toch érg fijn om minstens 10-bit output te hebben. Hier zie ik dan ook veel reacties waar het door Apple gebruikers toch goed wordt gepraat en dat er toch weinig ondersteuning is en noem maar op.

Nou wil dat niet zeggen dat Apple producten er helemaal niet voor geschikt zijn, in tegendeel want zoals je zegt zijn er genoeg andere redenen waarom het juist wél geschikt is (of zelfs beter geschikt is dan Windows).
Zie veel voorkomen dat mensen vinden dat het allemaal niet belangrijk is omdat ze bijv toch alleen met 8 bit JPEG's te maken hebben en dat je het dus toch niet ziet (vrije interpretatie van mij :D)

Als je in Photoshop edit, dan werken mensen hopelijk op (minstens) 16 bit.

Elke edit die je dan doet is dan nauwkeuriger. Verander je namelijk de helderheid of corrigeer je de kleuren, dan moet Photoshop aan het rekenen slaan en de waarden omzetten naar de nieuwe waarden.

Het is vrij logisch dat een 16 bit kleurruimte nauwkeuriger is dan de 8 bit van Jpeg en dat een 10 bit aangestuurd scherm daardoor nauwkeuriger de veranderingen kan laten zien dan een 8 bit aangestuurd scherm.

Daarna kan je het alsnog dus exporteren naar een 8 bit jpeg met een nauwkeurigere conversie waardoor de afwijking minder drastisch is.

Je ziet het op het net wel eens met foto's die helemaal verkeerd gaan. Je ziet dan volledig verzadigde kleuren met geen enkel detail of gradaties (fel rood jasje zonder structuur bijv)

Ook als je je tiff of psd naar de drukker of online print service stuurt, dan stuur je hen gewoon je 16 bit tiff/psd file. Ga er maar van uit dat zij wel kunnen omgaan met die hogere colordepth en dat hun schermen ook op 10 bit kunnen werken

Een tip is om de softproof functie van Photoshop te gebruiken. Dan kan je direct zien welke kleuren in een geselecteerd profile " Out of Gamut" gaan en die vervelende verzadigde kleuren veroorzaken bij prints of op het scherm tonen en altijd je gebruikte kleurprofiel in te sluiten.
Tegenwoordig lezen veel webbrowsers deze embedded profile en wordt de foto beter gerenderd op het scherm

Wellicht off-topic maar trekt hopelijk de gevolgen wel naar iets tastbaarders dan bitjes alleen 
Veel mensen zien het verschil ook niet snel omdat er gebruik wordt gemaakt van dithering en daarnaast kunnen veel mensen ook geen 10-bit output krijgen omdat ze geen DisplayPort gebruiken met een kaart die 10-bit output kan geven én geen beeldscherm hebben dat 10-bit weer kan geven.

Het beste wat je dan kan doen is gewoon goed kalibreren en hope for the best ;)
En dan het liefst hardwarematig te kalibreren schermen gebruiken van een gerenommeerd merk. 😉
Ik snap nog steeds niet dat we al 20 jaar bij 8 bits beeldschermen blijven steken.
Camera's gaan tot 14 bits of soms 16 bits maar geen enkel scherm kan dat weergeven. Herdere objecten worden daarom nog steeds als 'blobs' weergegeven.
Leve de 'vooruitgang'........
Het is een fabeltje dat Apple schermen en computers zo goed zijn voor grafische doeleinden.
Dat was vroeger wel zo en is blijven hangen bij de massa. Valt in de categorie dat je ook geen virusscanner nodig hebt voor een Mac.

Sinds jaren zijn er problemen met colormanagement en je kan er op vele fora informatie en klachten over vinden.
Zeker mensen die ook zelf printen en discrepanties zien tussen het scherm en de daadwerkelijke prints zijn overgestapt naar Windows.
Apple is prachtig om te “consumeren”, maar om een correct colormanaged workflow te hebben moet je helaas voor sommigen bij Windows zijn.

Apple staat natuurlijk qua gevoel heel bekend om dat zij creatieve mensen bedienen, het ziet er qua design immers prachtig uit. Dat die niet altijd de technische achtergrond kennis hebben van colormanagement en een correcte digitale workflow vind ik op zich niet raar. Het is een behoorlijk ingewikkeld en vooral technisch verhaal, terwijl mensen liever hun tijd besteden aan creativiteit.

Mocht je interesse hebben dan kan ik dit boek aanraden ;)
http://www.amazon.com/Rea...fRID=1W3TQ26BA7AS4N89JYF7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True