Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties
Bron: ExtremeTech

Deze week is een nieuwe versie van de HDMI-standaard aangekondigd die als belangrijkste toevoeging ondersteuning voor grotere kleurdieptes heeft. In revisie 1.3 van de specificatie kan 30, 36 of zelfs 48 bit per pixel worden verstuurd, een flinke verbetering ten opzichte van de huidige standaard, die niet verder gaat dan 24 bit per pixel. Volgens Leslie Chard van de ontwikkelgroep kunnen mensen meer dan 16 miljoen kleuren uit elkaar houden, waardoor 24 bits eigenlijk niet genoeg zijn voor een perfecte beeldkwaliteit.

Men heeft niet alleen aan het beeld gedacht: ook is er ondersteuning voor Dolby-HD en DTS HD-geluid toegevoegd. Nieuw is verder een feature die de tijdsvertraging tussen verschillende componenten meet zodat beeld en geluid perfect gesynchroniseerd kunnen worden. Een kleine versie van de stekker bedoeld voor camcorders maakt de nieuwe versie van standaard compleet. Om de extra beeld- en geluidsinformatie over dezelfde kabel te kunnen krijgen is de transmissiesnelheid opgevoerd van 165 naar 225MHz. Dit is genoeg voor een 1080p-beeld met 36 bit kleuren en 60Hz refresh. Binnenkort zullen een aantal bedrijven ondersteuning voor diepe kleuren aankondigen en tegen het einde van het jaar verwacht men al een hoop producten op de markt te hebben. Sony heeft in ieder geval al toegezegd dat de PlayStation 3 het ondersteunt.

HDTV
Moderatie-faq Wijzig weergave

Reacties (88)

Volgens Leslie Chard van de ontwikkelgroep kunnen mensen meer dan 16 miljoen kleuren uit elkaar houden
Er is al lang geleden aangetoond dat dat niet mogelijk is. Volgens verschillende onderzoeken ligt het aantal kleuren dat het menselijk brein kan onderscheiden ergens tussen de 350.000 en de 1.000.000 verschillende kleuren. Bij die 16 miljoen kleuren kom je nooit in de buurt en het idee van 48 bits kleur is ronduit onzinnig.
Het probleem is dat je ogen wel degelijk heel gevoelig zijn voor kleur/helderheids verschillen, alleen is het geen mooie lineaire karakteristiek, zoals je die in digitale systemen wel hebt.
Om te illustreren:
Maak maar eens een kleurverloop van geel naar groen.
Al doe je dit in 8 kleuren, dan nog zul je bijna geen kleurverlopen zien.
Doe je dit nu van zwart naar groen dan kom je zelfs met 256 groentinten niet soepel uit.
Mensen zijn niet digitaal, iets wat nogal vaak vergeten wordt.
Ik geloof inderdaad wel dat je ogen niet lineair werken, maar ik geloof dat de meeste monitors de kleur ook niet lineair verdelen.

Zelf vind ik trouwens zwart->groen er best vloeiend uitzien met 256 tinten:
http://adion.djdecks.be/images/zwartgroen.png
Je krijgt zometeen net zoals de amateur hi-fi freaks ook video freaks.

Die hi-fi freaks kunnen (zogenaamd) zelfs horen of je wel een hoge kwaliteit power cord hebt gebruikt voor je versterker. Sterker nog, er zijn er die denken dat de kleur van de speakers invloed heeft op je geluid.

Binnenkort komen er mensen die zeggen dat ze het verschil kunnen zien tussen 24 bits kleuren en 48 bits kleuren. Ook al zou wetenschappelijk zijn aangetoond dat dit niet kan....

In dit geval is een blinde test dan een beetje lastig :+
Ik heb dat onderzoek ook ooit gezien.
Zoals in deze thread aangegeven is het oog niet lineair.
Een voorbeeldje met fictieve cijfers.
24-bit = 8 blauw + 8 groen + 8 rood
Stel dat het oog erg ongevoelig is voor blauw en zeer gevoelig voor
rood. Dan zou de ideale verdeling misschien de volgende zijn:
24-bit is 6 blauw + 8 groen + 10 rood.
Misschien geeft zo een soort verdeling allerlei technische problemen
en kiest men ervoor om alle drie de kleuren te upgraden naar 10 bits.
Is dat allemaal backwards compatible? Maw: werkt al dat nieuwe spul op je tv met HDMI die je vandaag koopt?
HDMI heeft 2-weg communicatie, dus men kan de TV gewoon vragen wat ie allemaal wel en niet kan :)
Volgens mij werkt het allemaal wel als je een HDTV ready tv hebt gekocht, maar de kwaliteit krijg je pas met een echte HDTV
HDTV Ready IS echte HD! Het enige "verschil" is dat een HDTV Ready tv geen eigen HD tuner heeft en dus gebruik moet maken van een DVB box om het HD tv signaal naar de TV te krijgen.
ik dacht dat HDready was dat een scherm niet de goede resolutie heeft, maar wel het signaal kan verwerken...
(reactie op greyhound)
Dat klopt niet helemaal. Een scherm mag xpas HD-ready genoemd worden als het een resolutie van 1280x720p heeft. In prinicipe is dit dus al hd, aangezien de hdtv standaard begint bij deze resolutie. Zogenaamde "True HD" schermen hebben een resolutie van 1920x1080i of zelfs p. Dit wordt wel true HD genoemd, maar technisch gezien valt een HD ready tv ook al binnen de HDtv standaard. imho is een TV pas echt HDTV als het een 1080p resolutie native kan weergeven en een tuner daarvoor heeft. Maar t kan nog wel even duren voordat dat betaalbaar is :'(
@Farscape2: Om precies te zijn moet een 'HD Ready' TV aan de volgende eisen voldoen:
* Breedbeeld met minimaal 720 fysieke beeldlijnen
* DVI of HDMI aansluiting
* Analoge YPbPr aansluiting (mag via een adapter)
* Video formaten 720p (1280x720 @ 50Hz en 1280x720 @ 60Hz) en 1080i (1920x1080 @ 50Hz en 1920x1080 @ 60Hz) ondersteunen
* De DVI of HDMI aansluiting moet HDCP ondersteunen.
Bij de mediamarkt gisteren een Projection TV gezien die Full-HD was (1920*1080i/p), en 172" groot was... Kosten: 'slechts' 8999 eurootjes (wat eigenlijk best een schijntje is als je vergelijkt welke prijzen de eerste plasma-schermen hadden).

HD-ready != True-HD/Full-HD, HD-ready staat voor het feit dat de TV minimaal beschikt over een HDMI-ingang en de binnenkomende beelden kan converteren naar de juiste resolutie (die PAL-schermen van Sharp, of pioneer, hebben geen HD-res maar wel een HDMI-ingang en kunnen HD-resoluties converteren, en zijn ook als HD-ready bestempeld).
Nou volgens mij is 24bit best wel genoeg maar ach meer is altijd beter :+

Alleen vraag ik me af wat houd die snelheidverhoging in voor kabel lengte, want met projectoren is dit best een serieus probleem,

Want ik zit met 10m al 33% over het maximum wat zou mogen met de huidige HDMI standaard.
7.5m maximum recommendation laid down by the DDWG (Digital Display Working Group).
De doorvoer snelheid verhogen van 4.95-Gbps naar 6.60-Gbps, is denk ik vragen om problemen bij langere kabel lengte's

En losse signaal verstekers zijn ook behoorlijk duur, en niet te spreken van behoorlijk onhandig als je kabel netjes in de plint wil weg werken !

@MBK
Dat klopt ook maar goede lange kabels zijn duur,
En als ik op beamer forums lees dat er een hoop mensen problemen hebben met kabels langer dan 15m.
En dan of hele dure kabels moeten kopen (400+ euro) of door een duure signaal versterkers tussen de kabel te zetten dan pas over die lengte kunnen gaan.
Dan vraag ik me af of met de verhooging van snelheid deze lengte's niet nog korter worden.
Want beamers worden vaak in grote ruimtes gebruikt waar de signaal bron en de projector vaak tegenover elkaar in de gebruikte ruimte staan, en dan is 20m+ echt niet iets bijzonders.
Die 7.5 meter is een afstand die ze waarschijnlijk kunnen garanderen. Dus ook als je 3 kabels gebruikt van 2.5meter zou het nog moeten werken. Als je 1 goede kabel gebruikt met betere karaktristieken dan minimaal nodig volgens de HDMI standaard kun je gewoon grotere afstanden halen.
precies! Wat nou "kan meer dan 16 miljoen kleuren uit elkaar houden, waardoor 24 bits eigenlijk niet genoeg is"
2^24= 16.777.216 > 16 miljoen!

Het probleem is niet de hoeveelheid kleuren die weergegeven kan worden, het probleem is dat bij compressietechnieken als MPEG heel veel kleurinformatie weggegooit wordt...
Nu nog die prijzen omlaag, en support voor HDTV vanuit de kabelleveranciers en we hebben er wat aan buiten gameconsoles :)
en natuurlijk schermen die die kleurdiepte ook ondersteunen. de huidige lcdtv's kunnen dat in iedergeval nog niet (die blijven steken op 10bit (of 12 bit)
ik heb nog niet veel 10-12bit native LCD panels gezien hoor en ik werk in die branche ... de eerste native 10bit panels worden nu gemaakt en 12bit is nog in R&D ...
Dat is het aantal bits per kleur, niet per pixel.
10 of 12 bit zoals jij het zegt is per dot (kleur) anders zouden het wel heel weinig kleuren zijn...

bijvoorbeeld:

10 bit per pixels=1024 kleuren.
10 bit per dot = 10*3 bit per pixel=30 bit per pixel=1073741824 kleuren.

Heb je een TV die 12 bit doet(=dus 36 bits per pixel zoals ze het in het bovenstaande artikel noemen) heb je juist waanzinnig veel kleuren. (68719476736 kleuren) Zoveel kunnen je ogen absoluut niet ondescheiden iig.
De kleuren worden niet dieper, maar er komen meer kleurnuances bij. Bij 24 bit heb je per kleurelement rood, groen of blauw de beschikking over 8 bits en daarmee kun je zoals bekend 256 waarden aangeven. Bij 48 bit worden dat er 16 per kleurelement en daarmee kun je 65536 nuances weergeven. Het aantal weer te geven kleuren zou daarmee in theorie toenemen van 16,8 miljoen naar 281,5 biljoen. Mijns inziens is dit totaal onzinnig, omdat niemand het verschil kan zien tussen de kleuren waarvan de RGB waarden zo dicht bij elkaar liggen. Daarbij vraag ik mij af hoeveel bronmateriaal er beschikbaar is met deze kleurdiepte. Deze ontwikkeling is mijns inziens typisch een voorbeeld van schijnnauwkeurigheid en marketingype.
De kleuren worden niet dieper, maar er komen meer kleurnuances bij. Bij 24 bit heb je per kleurelement rood, groen of blauw de beschikking over 8 bits en daarmee kun je zoals bekend 256 waarden aangeven. Bij 48 bit worden dat er 16 per kleurelement en daarmee kun je 65536 nuances weergeven. Het aantal weer te geven kleuren zou daarmee in theorie toenemen van 16,8 miljoen naar 281,5 biljoen. Mijns inziens is dit totaal onzinnig, omdat niemand het verschil kan zien tussen de kleuren waarvan de RGB waarden zo dicht bij elkaar liggen. Daarbij vraag ik mij af hoeveel bronmateriaal er beschikbaar is met deze kleurdiepte. Deze ontwikkeling is mijns inziens typisch een voorbeeld van schijnnauwkeurigheid en marketingype.
Als je ziet dat je de 256 grijstinten die met 24bit mogelijk zijn kan onderscheiden zie ik zeker nog een voordeel voor een hogere kleurendiepte;

http://www.aim-dtp.net/ai...eption/gray_linearity.gif

Als 24 bit genoeg was zou het een veel vloeiender proces zijn. Nou is het met grijstinten het meest zichtbaar maar het laat toch zien dat 24-bit niet helemaal al het zichtbare in zich heeft.
Dat is echt wel een heel foutief prentje om mee aan te tonen wat je wil aantonen.
Met uitzondering van de vakjes linksboven en rechtsonder zijn alle vakjes die recht naast elkaar liggen meer als 10 (van 255 mogelijke) grijswaardes uit elkaar.
Enkel als je de diagonaal volgt heb je effectief slechts 1 stapje genomen.
Als je een vakje dus vergelijkt met zijn buur rechts-onder dan kan ik eerlijk gezegd toch al niet meer zeggen dat de kleur echt verschillend is.

Even ter verduidelijking:
http://adion.djdecks.be/images/grijswaardes.gif
Bedankt voor het maken van dit grafiekje!

Maar in feite bewijst het dat 8 bits niet voldoende zijn: ik zie weldegelijk overgangen in grijsniveau. Het springt natuurlijk niet direct in het oog, maar het is wel zichtbaar. En dat is reden genoeg om het aantal bits te verhogen (en marketing vindt het natuurlijk ook fantastisch.)
Maar zie je het ook als het plaatje zou bewegen....?
slecht voorbeeld dat je geeft: je zou die 256 grijstinten eens lineair op een lijn moeten zetten... dan heb je goede ogen als je aan kan geven waar de eene tint overgaat in de andere.
De volgende stap = 9 bit = 512 grijstinten zie je al helemaal niet meer. 10, 12 of 16 bit per pixel is echt overkill
Sony heeft in ieder geval al toegezegd dat de PlayStation 3 het ondersteunt.
huh? die zijn ook overal als de kippen bij!

Maar leuk dit hoor, we hebben nog nauwelijks HDTV of ze komen alweer met wat nieuws. Ik ben blij met mijn huidige 32inch lcd-tv en wacht nog altijd met smart op de komende HD-sources :)

Gisteren Italie - Ghana gekeken in HD en dat is echt om te smullen!
Sony werkt dan ook mee aan de ontwikkeling van HDMI, dus het mag dan ook wel dat ze het willen gaan gebruiken.
ja ok daar heb je gelijk in maar ik vind het knap dat ze dit er meteen in bakken terwijl dit er nog niet eens is! Ze zeggen eind dit jaar pas en de PS3 staat toch iets eerder gepland toch?
Ik mag toch aan-nemen dat een standaard waar bijna 2 jaar aan gewerkt wordt niet in de laatste maand rigoreus zal veranderen. Hooguit dat ze dan de documentatie afmaken.
Als ik de HDMI problemen zie bij de HDTV decoders bij de huidige kabelaars, dan houd ik mijn hart vast.....

Straks blijkt bij de release dat net zoals bij de kabel decoders de HDMI standaard toch niet zo standaard is als het zou moeten zijn.

Zeker als Sony zegt dat bij hun al 1.3 in hun PS3 zal zitten terwijl de standaard er net is, vraag ik me af of hij wel 100% gelijk is aan de standaad is of dat ze net zoals veel tv bouwers maar 95%. En dan krijg je de zelfde problemen als Phillips en Samsung nu hebben.

@Countess: In theorie heb je natuurlijk gelijk, maar Samsung en Phillips hebben de laastse weken laten zien dat bij HDMI de praktijk toch ver van de theorie af staat.
Zeker als Sony zegt dat bij hun al 1.3 in hun PS3 zal zitten terwijl de standaard er net is
de PS3 is nog niet eens uit, het vervangen van de hdmi chip voor een iets nieuwer model lijkt me niet zo moeilijk dus sony kan dat makelijk zeggen

en verder blijkft alles backward compatible dus ik zie het probleem niet zo.
precies! We hebben nog niet eens HDTV dus waarom dan alweer verder gaan als het huidige nog niet eens werkt of beschikbaar is?

We willen gewoon HDTV, wat opzich al prachtig is, en als het dan weer meer kleuren kan hebben is dat leuk maar geef ons nu eerst maar HDTV!! :P
Wij niet nee... VS hebben allang HDTV...
Een standaard doet er gewoon een paar jaar over om ontwikkeld te worden en ligt dan nog een paar maanden bij een goedkeuringscommisie. In dat laatste traject veranderd er meestal niks meer aan de standaard en kun je hem dus eigenlijk al veilig implementeren in je hardware/firmware.
802.11n (en ook g) toont aan dat de werkelijkheid toch iets anders is. Daar wordt juist in de goedkeuringscommissie hard gevochten hoe de zaak precies moet functioneren. Wel is het zo dat er bij HDMI niet echt sprake lijkt te zijn van 2 kampen die allebei hun eigen ideeen willen doordrukken maar zolang het niet goedgekeurd is kan er altijd een totaal andere oplossing gekozen worden.
toch vraag ik me af of HD wel zo veel beter is. ok je hebt hogere resoluties, maar je zit nog steeds met response tijd.

pvd77 kun je bevestigen op HD dat je ook minder ghosting hebt als met reguliere uitzendingen?
Ghosting lugt niet aan een transportatie specificatie hoor! Dat treed op als je een traag LCD scherm hebt ofzo, HDMI heeft daar niks mee te maken
Volgens mij betekend versie 1.3 compatible helemaal niet dat het ineens 30 of meer bits aan kleurinformatie krijgt. Het ligt er vooral aan hoe het framebuffer is opgeslagen. Bijvoorbeeld als ze 32-bits framebuffer gebruiken (uitgaande dat het RGB is) kunnen ze met vier extra nul-bits de 36-bits specificatie gebruiken.
De GPU kan het iig aan: "128-bit pixel precision offers rendering of scenes with high dynamic range imaging"
Sony roept al een jaar dat de PS3 bijna klaar is, dit is gewoon marketingpraat om mensen geen xbox te laten kopen
in werkelijkheid hebben ze nog niet eens een testmodel klaar (zie nieuws: 'Sony kampt met hitteproblemen PlayStation 3') |:(
de specs liggen dus nog helemaal niet vast, ik ben dus benieuwd of ze de kerstperiode nog gaan halen (met voldoende voorraad), zoniet: over and out
want dan gaat MS en Nintendo echt teveel voorsprong hebben
in werkelijkheid hebben ze nog niet eens een testmodel klaar
Juister: Een anonieme bron meldde dat er hitteproblemen zijn.
Ze hebben klaarblijkelijk wel een testmodel klaar. Anders kunnen ze namelijk niet constateren dat er hitte problemen zijn.....
(voor zover het hele gerucht uberhaupt enige waarheidsgehalte heeft....)
Nog geen model zonder problemen dan :+
Een testmodel dat op en PC draait zeker.
En een vroeg PS3 model waarschijnlijk ook.
Maar met hun specs die ze nog altijd geregeld veranderen betwijfel ik of er al een developer iets heeft dat op de uiteindelijk harware zal lijken.
Op welke kleurdiepte wordt er digitaal uitgezonden? Digitale radio is begonnen op 14bit 33khz. Dus een tv die miljarden kleuren kan reproduceren maar er 64k krijgt aangeleverd????
De resolutie van het input signaal is niet zo belangrijk. Om te beginnen is het gecodeerd in een FFT-achtig formaat en kan je niet zomaar spreken van 14bit samples.
Daarbij komt een van de belangrijkste verbeteringen op TV gebied: hoge kwaliteit post-processing. Er zijn massa's nieuwe ruisreducties, kontrast aanpassing, de-interlacing en andere algoritmes uitgevonden die nu pas in real-time kunnen toegepast worden.

Om deze nuttig te maken, moet je TV genoeg kleurresolutie hebben.

Je mag je eigenlijk niet blindstaren op het totale aantal kleuren. Veel belangrijker is om naar 1 kleurcomponent te kijken: 24-bit kleur wil zeggen dat je per kleurcomponent slechts 256 verschillende waarden hebt. Neem daarbij dat onze ogen niet linear op kleurintensiteit reageren (de welbekende gamma coefficient) en je zit bij een gradient van 0 naar 255 echt wel op het randje. Door naar 10 of 12 bit te stappen, is dat probleem van de baan. 16-bit per kleur component is echt wel wat overdreven. :-)
Op welke resolutiekleurdiepte wordt er digitaal uitgezonden? Digitale radio is begonnen op 14bit 33khz. Dus een tv die miljarden kleuren kan reproduceren maar er 64k krijgt aangeleverd????
De kabelbedrijven moeten dus inderdaad wel op die kwaliteit uitzenden wil het nuttig zijn. Maar voor consoles geldt dus dat áls ze het ondersteunen het ook wel als output zal komen.
Leuk, maar ik wil eerst eens van al die losse settop boxes af, laat ze die ontvangers voor HD gewoon eerst eens gaan inbouwen in de tv en video apparaten.
AMEN

helemaal mee eens, wou een technisat hdtv kopen waar een 3-type DVB tuner in zat met ci sloten

Bleek dat het geen hd kanalen kon ontcijferen, toch maar even wachten

De enige die hier problemen met 16 bit heeft is hier mn computer (dan worden sommige pictogrammen verkeerd weergegeven)

of topic:
is er een crt hdtv ?
Zie UPC artikel zou ik zeggen. De kabelmaatschappijen willen zelfs die losse settop boxen verzieken zodat ze niet uitwisselbaar zijn. Dat maakt jouw, op zich goede idee, onmogelijk.
dat gaat nog wel een jaartje of 2 duren denk ik
In Amerika is dit al gewoon.. De afgebeelde TV van SAMSUNG heeft dit bijvoorbeeld al gewoon. CableCard systeem heet dit geloof ik.
Mooie ontwikkeling, alleen moeten ze bij de codering van HD filmmateriaal dan ook hier rekening mee houden lijkt me. Nu wordt bij DVD de kleurinformatie opzettelijk onnauwkeurig geregistreerd, omdat dit ruimte bespaard en het oog meer gevoelig is voor variaties in helderheid dan in kleur. Je houdt dan effectief echter iets van 12bit aan kleurinformatie over. Dit is vaak zichbaar in bijv tekenfilms, waarbij je duidelijk "banden" zit ipv een vloeiend kleurverloop.

Het zou me niet verbazen als veel HDDVD-/Bluray-producenten het "lekker makkelijk" houden en geen gebruik maken van de extra kleurendiepte. :Z Dus weer iets voor de echte filmfreaks om zich druk over te maken. Dat, of wordt gepimped tot iets superspeciaals waarvoor je dan extra dure "superbit" :P releases mag aanschaffen.
...ik wacht op de eerste verhalen van mensen die onwel worden omdat hun hersenen proberen teveel kleuren te zien. :Y) (En uiteraard de eerste rechtzaken in de VS daarover :P )
Ja hoor, en de echte wereld om je heen bestaat zeker ook maar uit 24 bits kleuren :z
Idd, je moet het niet zo zwart-wit zien! :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True