Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 35 reacties

Het HDMI Forum heeft de hdmi 2.0a-specificatie vrijgegeven. Toegevoegd is de mogelijkheid om beelden in hdr-formaat via hdmi te laten verlopen. Waarschijnlijk kunnen fabrikanten apparaten via een firmware-update bijwerken naar hdmi 2.0a.

De hdmi 2.0a-specificatie maakt het mogelijk voor bijvoorbeeld tv's die hdr-weergave ondersteunen, om de hdr-metadata-flags te herkennen bij ontvangst van een videosignaal via hdmi. De update omvat ook ondersteuning voor de onlangs bijgewerkte HDR Static Metadata Extensions van de CEA.

Het HDMI Forum laat in het midden of voor de standaard nieuwe hardware vereist is, maar Hdtvtest schreef onlangs dat volgens TP Vision bijwerken via een firmware-update voor zijn tv's mogelijk wordt. Hdmi 2.0 werd in 2013 aangekondigd en maakt de doorvoer van 4k-video op 60fps mogelijk. De meeste uhd-televisies die in 2015 op de markt verschijnen, ondersteunen hdmi 2.0.

Hdr wordt gezien als de volgende stap voor tv's om betere beeldkwaliteit te bieden. De techniek zorgt ervoor dat het contrast van het beeld wordt vergroot, door onder andere de pieken in helderheid beter weer te geven. De grote elektronicaorganisaties en tv-fabrikanten zijn echter nog niet tot een overkoepelde standaard voor hdr-weergave gekomen. Tijdens de CES in januari werden televisies met hdr-ondersteuning gedemonstreerd. Er is nog nagenoeg geen hdr-content beschikbaar.

Een uitleg en de stand van zaken rond hdr kwam aan bod in een eerder achtergrondartikel en een overzichtsartikel over de CES.

Moderatie-faq Wijzig weergave

Reacties (35)

Wat men wil bereiken met deze techniek is dat het beeld reler wordt. Met bijvoorbeeld OLED-schermen kan het beeld niet zwarter dan zwart worden natuurlijk, maar wit laat nog te wensen over.
Hoe vaak zie je niet een scene met zonlicht of explosies, die er fantastisch uitzien op TV, maar waar je normaal gesproken je ogen voor dicht zou moeten knijpen omdat het zo fel is? Dat willen ze met deze HDR-mogelijkheid bereiken. Men wil een groter bereik in licht-intensiteit.

Zo zou je dus bij scenes met zonlicht echt het idee moeten krijgen dat je buiten bent, of op z'n minst door een raam naar buiten kijkt. Met de huidige schermen is dat nog niet het geval.

Ik moet nog zien of dit een succes wordt. Om nou straks met een zonnebril voor de TV te gaan zitten, gaat mij iets te ver. :+
Ik zie dat er hier heel veel dingen door elkaar gehaald worden in de reacties. Dynamisch bereik is niets anders dan de verhouding tussen de helderheid van zwart en wit. Over het algemeen wordt van HDR gesproken vanaf een ruime 14 stops DR (>20.000:1 contrast ratio). Op beeldschermen / TV's wordt dynamisch bereik vrijwel altijd uitgedrukt als contrast ratio, voor camerasensoren (zowel foto- als videocamera's) in stops. Soms wordt bij camerasensoren ook nog gespecificeerd hoeveel stops dynamisch bereik je onder en boven een bepaalde referentiewaarde hebt.

Bij beeldschermen wordt dat eigenlijk nooit gedaan, maar ook daar is het van toepassing. Zo kan bijvoorbeeld de Dolby Vision Reference Displayy (een LCD scherm met quantum dot enhancement film (QDEF) en full array local dimming (FALD) LED backlight) van 2000 cd/m (800 cd/m voor volledig scherm) voor wit tot 0,003 cd/m voor zwart, wat een dynamisch bereik is van 19,3 stops (18,0 stops volledig scherm).

Een OLED TV komt aan de kant van zwart natuurlijk nog een stuk lager dan dat, maar aan de kant van wit is het ook lager. De LG 55EC930V heeft bijvoorbeeld een wit van zo'n 350 cd/m (100 cd/m voor volledig scherm). Aan de bovenkant verlies je dus zo'n 2 2,5 stops en aan de onderkant win je zeker zo'n 3 4 stops (lastig precies te zeggen aan gezien er bijna geen meetapparatuur is die donker genoeg kan meten).

Bij gelijke kijkomstandigheden (omgevingslicht e.d.) zal het LCD scherm met QDEF en FALD backlight dus beter zijn voor content met veel heldere stukken, zoals explosies. De OLED is weer beter voor content met veel donkere stukken.

De relatie tussen content en weergave is als volgt:

LDR content op LDR scherm: goede onderlinge verhouding van helderheid, maar clipping in highlights en de donkere schaduwtonen

LDR content op HDR scherm: dynamic range expansion, schaduwtonen net boven zwart worden te donker weergegeven, highlights net onder wit te helder. Beeld is te contrastrijk.

HDR content op LDR scherm: dynamic range compression, schaduwtonen net boven zwart worden te helder weergegeven, highlights net onder wit te donker. Beeld heeft niet genoeg contrast.

HDR content op HDR scherm: goede onderlinge verhouding van helderheid, realistische(re) highlights en schaduwtonen.

Ik had hier laatst ook iets over geschreven in het Canon EOS 5DS (R) topic toen Nomad schreef dat hij het contrast van foto's van een Nikon D600 vond tegenvallen:
Dat valt natuurlijk te verwachten. Het dynamisch bereik van je beeldschermen of drukwerk blijft gelijk, dus als je een groter dynamisch bereik van de camera gaat mappen naar het dynamisch bereik van je beeldscherm of drukwerk dan wordt het beeld minder contrastrijk.

Wat eerst zwart was kan nu best donkergrijs zijn, doordat dat deel dan niet meer de donkerste vastgelegde waarde is. Aan de andere kant kan een deel dat eerst clipte naar wit nu donkerder zijn, bijvoorbeeld de lucht rond de zon. Al zat dat minder snel de indruk geven van een minder contrastrijk beeld.

Een minder contrastrijk beeld is dus inherent aan een grotere dynamisch bereik van de sensor. Andersom gaat het ook op, als je een foto van een 11 stop DR sensor op een 14 stop DR beeldscherm weergeeft wordt deze te contrastrijk weergegeven.

Een groter dynamisch bereik is dus alleen direct interessant voor een HDR medium, maar ook voor LDR media is het interessant, door de veel grotere bewerkingsvrijheid die het geeft. Dit is ook precies wat je terug ziet in [Verzamel] HDR en tonemap. Die foto's zijn strict gezien helemaal geen HDR. Wat er daar wordt gedaan is dat het dynamisch bereik van de (samengestelde) HDR bron wordt gecomprimeerd tot LDR, in plaats van dat het wordt afgekapt (clippen) zoals met een LDR bron. Maar je ziet allemaal dat het niet echt HDR is, de belichting is niet natuurlijk. Maar dat komt dus omdat je nooit echt HDR kan weergeven op een LDR medium.

[Reactie gewijzigd door Kid Jansen op 9 april 2015 15:23]

Is dit zo simpel als ondersteuning voor 10-bit RGB of moet ik het meer zien als nog steeds 8-bit, alleen 0 is "zwarter" en 255 is "witter".
Het verschil is best groot, kwam het net toevallig ergens anders tegen en daar zie je een vergelijking foto. Groot verschil en ziet er een stuk realistischer uit.
http://hexus.net/tech/new...a-specification-released/

EDIT: zoals ik al zei dit is iets wat ik toevallig tegenkwam voordat dit artikel op tweakers verscheen, bedankt imqqmi voor de uitleg daar hebben we tenminste wat aan.

[Reactie gewijzigd door KingHawk op 9 april 2015 13:27]

HDR wordt heel vaak verward met tone mapping. Het voorbeeld in de link van KingHawk wordt een normale foto vergeleken met een tone mapped variant. Vandaar de banden rondom contrastrijke delen.

HDR kan namelijk niet getoond worden op normale schermen, hiervan wordt dan eerst het dynamisch bereik gecomprimeerd tot het normale dynamische bereik van een beeldscherm (doorgaans passend in sRGB of the HDTV color space).

Wat ik hoop dat gaat komen zijn schermen die deze tone mapping niet nodig hebben en daadwerkelijk een groot deel van het hoge dynamisch bereik kan weergeven. Wellicht dat dit soort schermen er al zijn. Dus als de zon in het beeld is, dan moet dat echt goed fel voor de ogen zijn, terwijl je ogen nog steeds detail in de schaduwen kunnen waarnemen.
Of als je een kamer ziet met een raam met daglicht, dan zie je het landschap vol detail (maar een stuk feller aan de ogen) en binnen de schaduwen met detail. Bij normale camera's zie je of alleen het buiten gedeelte goed belicht en binnen solide zwart zonder detail, of het raam als een wit solide vlak zonder detail en de muren binnen met detail en normaal belicht.
Wellicht dat dit soort schermen er al zijn
Ze waren er al wel al, van Brightside Technologies - ondertussen alweer meer 10 jaar terug - maar ja, duur, dik (en de trend was naar immer-plattere toestellen, dus dat kon natuurlijk niet), relatief luid (ventilatoren om de toen nog inefficiente LEDs te koelen), etc.

En net toen het aantrekkelijk leek te worden (efficientere LEDs, plattere display technologie, massaproductie goedkoop te doen), kocht Dolby de boel op - en dan weet je het wel.. moeten eerst alle technologin uitgeplozen worden om te kijken wat er verder patentwaardig is, de boel uitmelken, etc. en vervolgens nog steeds te duur op de markt zetten als Dolby Vision.

Ik heb het jaren terug (nog onder Brightside) gezien op een beurs voor TV producties, en het zag er toen al ontzettend goed uit - stereo-3D, 4K, 100fps en al die andere meuk kunnen me gestolen worden als ik daar HDR voor terug krijg.
Ik zie een halo om het huis heen bij de overgang van lucht naar het huis. Ik zie ook wel meer detail maar om een of andere reden is de blur weg. Is dit niet gewoon een foto ipv een tc beeld...
Alleen kan je het echte verschil nooit tonen op een "normaal" scherm, jouw link is uiteraard een simulatie.
Dit lijkt mij vooralsnog alleen zichtbaar op een scherm die HDR zou ondersteunen, ofwel een groter kleurbereik heeft.
Het voorbeeldplaatje is niet enorm nuttig. Je hebt een HDR scherm nodig om het te zien, een scherm die zeg maar kan schijnen als de zon, en zo donker als de nacht. Anders krijg je altijd een op n of andere manier een foto met compressie/afkappen.
lol, van zo'n plaatje wordt je toch ook niks wijzer. Die korrelige nep scherpte bereik je door 'scharpness' en 'colour' open te trekken op een "gewone tv". alles behalve realistisch ik ben bang dat je toch echt zelf naar de electronica winkel zal moeten om het te bekijken |:(
maar wat is nu de beste in vergelijking met de realiteit...ik persoonlijk vind de HDR versie er veeeeeeeeeeeeeel slechter (lees on-echter) uitzien!
Zwarter dan zwart kan natuurlijk niet dus 0 is 0. De maximale helderheid van een scherm hangt af van de gebruikte technologie. Maar omdat met 10 bit per kleurkanaal meer tussenstappen mogelijk zijn dan met 8 bit (4 keer zoveel) kun je de maximale helderheid van een display sterk vergroten zonder dat er zichtbare banding optreedt. HDR op zichzelf zegt alleen iets over het bereik van de helderheid. Dat zou je net zo goed met 8 bit of minder kunnen weergeven alleen dan oogt het niet meer natuurlijk.
HDMI 1.3(a?) voegde al ondersteuning voor Deep Color toe met 30, 36 of 48 bit kleurruimte. Niet dat het tot nu toe echt gebruikt of ondesteund wordt door afspeeldevices, TV's of content, maar dat is een andere zaak.

@2fish (hierboven) - zwarter dan zwart kan inderdaad niet nee, en voor een PC monitor heb je gelijk, bij 8 bits kleur word inderdaad 0-255 gezien als geldige waardes. TV's, en ook HDMI werken standaard met een beperktere set kleuren (16-235), die is, net als bijvoorbeeld overscan, een overblijfsel uit de analoge tijd.

Bij TV's is dus, met de standaard instelingen, alles beneden de 16 zwart, en alles boven de 235 wit. Je raakt hier kleurruimte kwijt. Meer info hier

Overigens heeft dit volgens mij niets met HDR te maken...

[Reactie gewijzigd door knirfie244 op 9 april 2015 13:14]

Bij HDR in televisies is het vooral het wit wat helderder word. Hierdoor lijkt zwart ook dimmer te zijn dan dat het is. Beide resulteren in een groter dynamisch bereik van de tv, wat nu eenmaal het belangrijkste is aan de beeldkwaliteit.
Ik zie helaas nog steeds geen barebones/htpc`s met hdmi 2.0...
Videokaarten die hdmi 2.0 ondersteunen zijn vanaf 200 euro (zie pricewatch), kans dat het op/in barbone komt te zitten lijkt me nihil.
nee hoor, er komen vanzelf intel atom boards uit en die ondersteunen hdmi 2.0.
rond september/oktober zul je goedkopere kaarten hebben met hdmi 2.0
HDR is een manier toch om een foto of video realistischer te maken, bij het nemen van die beelden.
Het resultaat hoeft toch geen HDR meer te bevatten?
Dus als ik het goed heb is het dan mogelijk dat je daar zelf mee begint te prutsen?
Doorgaans wil een regisseur dat mensen de film zien zoals gij werd opgenomen en aangepast. Niet zoals ze hem zelf gaan aanpassen...
Komt beetje op hetzelfde neer als al die foefelinstellingen zoals uw tv op 'sportmode' zetten. Of prutsen met witbalans, contrast, etc... Op een gsm zie je toch ook niemand daar mee prutsen? Dit moet gewoon goed staan van bij aankoop.
Niet om het realistischer te maken, maar om de dyanmische range groter te maken. Dus het uiteindelijk beeld heeft geen over- en onderbelichte delen maar toont meer details. Als het te extreem wordt teogepast wordt het er juist onrealistischer van.

Practisch voorbeeld:
Camera staat binnen waar het donkerder is en buiten is het licht; Wanneer de belichting is ingesteld voor binnen zie je alleen een witte vlek op de plek waar je naar buiten kijkt door de overbelichting.
Wanneer de camera is afgesteld op het beeld van buiten, is alles binnen onderbelicht.

Met HDR wordt de belichting zo aangepast dat je zowel binnen als buiten alle details kunt zien.

Bij foto cameras worden twee+ foto's gemaakt en worden deze gecombineerd in de sw, maar er komen ook al sensors die een grotere range aankunnen.
ja, maar uiteindelijk is HDR dus de methode om dit te bekomen. Niet het resultaat zelf.
Waarom dit dan in een hdmi kabel aanwezig moet zijn is me een raadsel...
Ben nog steeds benieuwd of de PS4 HDMI chip 2.0 support heeft, of dat ze dit via een firmware update in de toekomst kunnen aanpassen.
Volgens mij 1.4a, waarbij ze hooguit wat softwarematige features van 2.0 zullen kunnen implementeren, indien mogelijk of interessant.

Wellicht dat een 'PS4 slim' of een nieuwe revisie wel HDMI 2.0 zal toevoegen, net als dat de PS3 slim een nieuwere HDMI 1.3-versie toevoegde met support voor CEC.
Vreemd, HDMI support 'vergroot'contrast native daar het gewoon een contrast waarde(0-255) doorgeeft, een hdr beeld zou doorgaans 10/16 bit zijn. waar normale kleurwaardes/profielen 8 bit zijn.

HDRI (met de i van image) is echter ook vaak een omgezet beeld (tonemapped) of door gepiel met lokaal contrast en saturatie gemanipuleerd. Ik ben benieuwd wat voor bron materiaal er over hdmi 2.0 HDR moet lopen.. Zonder opgegeven bitdiepte zie ik de meerwaarde niet.

zou er dan een keer 4:4:4 10/16 doorkomen voor alle video? lijkt me vele malen interessanter dan die nutteloze resolutierace.
Voor personen die net zoals ik niet zo goed weten wat HDR is, staat er op deze Wikipedia pagina kort uitgelegd wat het is.
High dynamic range (HDR) duidt op beelden met een hoog dynamisch bereik (zowel zeer donkere delen als zeer heldere delen worden goed weergegeven).
Verder voor wat meer diepgang kan dit artikel raad gepleegd worden:
HDR, as its name implies, is a method that aims to add more "dynamic range" to photographs, where dynamic range is the ratio of light to dark in a photograph. Instead of just taking one photo, HDR uses three photos, taken at different exposures. You can then use image editing software to put those three images together and highlight the best parts of each photo. In the case of HDR on smartphones, your phone does all the work for you—just snap your picture and it'll spit out one regular photo and one HDR photo. The result is something that should look more like what your eyes see, rather than what your camera sees.
Laat ze OLED nu eens goedkoper maken in plaats van die marketingtruukjes om oude technologie eindeloos te blijven verkopen. Heb me laatst eens echt verdiept in beeldschermen omdat ik een nieuwe tv wilde gaan kopen, maar waar ik ook lees, het valt vooralsnog allemaal tegen.

Leuk, HDR, maar dan wel op een beter scherm.
Ik vraag mij af wat nou het grote verschil is tussen een hdr foto en een gewone foto op het gebied van het op je scherm tonen i.c.m. deze hdmi ondersteuning. (ja ik weet de detailverschillen door het combineren van lichte en donkere foto's maar let me finish)

Als je een foto hebt waar een grasveld op zit zal dit vaak uitten in een groen vlak met kleine kleurnuances voor de schaduwen. Maar met HDR maak je die nuances beter zichtbaar door het donkere uit een donkere foto te halen en het lichte uit een lichtere t.o.v. het gemiddelde. Maar is het niet zo dat als je een normale foto heb met zn juiste pixels (dus gras is groen en schaduw is donker groen) en een HDR (gras heeft 4 levels groen van licht naar donker en ook de schaduw) dat buiten misschien een groter bestand er niet veel verschilt qua kleurdiepte ed.? een beetje camera of photoshop kan dit voor jou in elkaar zetten.

Of.. is het zo dat het betreffende apparaat dit voor jou gaat renderen?

Of sla ik in beide gevallen de plank volledig mis.Help!


edit: 'i.c.m. deze hdmi ondersteuning' toegevoegd voor het verduidelijken van de vraag

[Reactie gewijzigd door ignition_mp op 9 april 2015 13:06]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True