Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

VESA gaat met DisplayHDR-standaard hdr-capaciteiten van monitoren aangeven

De Video Electronics Standards Association komt met een nieuwe open standaard die aangeeft hoe goed de hdr-capaciteiten van monitoren zijn. De DisplayHDR-specificatie onderscheidt drie niveaus, waarbij het vooral gaat om de maximale helderheid.

Met de DisplayHDR-standaard worden factoren zoals de hdr-kwaliteit, maximale helderheid, kleurruimte en of het gaat om een 8- of 10-bit-scherm vastgelegd. Fabrikanten moeten hun schermen testen volgens door VESA bepaalde testspecificaties om een DisplayHDR-logo te mogen voeren. Het idee is dat VESA drie niveaus van prestatiestandaarden neerzet, waar fabrikanten van hdr-monitoren hun specificaties op kunnen afstemmen. VESA lijkt niet voor te schrijven welke hdr-standaard moet worden gehanteerd; in de praktijk is dat bij hdr-monitoren eigenlijk altijd hdr10.

De drie verschillende niveaus worden vooral gebaseerd op de maximale helderheid. DisplayHDR 400 wordt toegekend aan monitoren met een piekhelderheid van 400 cd/m², waarbij de gehele zone van het backlight kan dimmen voor het verbeteren van het contrast. Monitoren die deze aanduiding krijgen moeten een 8-bitpaneel hebben dat 95 procent van de Rec. 709-kleurruimte kan weergeven.

DisplayHDR 600 vereist een piekhelderheid van 600 cd/m² en een 10-bitscherm dat meerdere zones lokaal kan laten dimmen. De kleurruimte moet 99 procent van Rec. 709 zijn, of 90 procent van DCI-P3. DisplayHDR 1000 heeft dezelfde eis voor de kleurruimte; monitoren met deze standaard moeten echter een piekhelderheid van 1000 cd/m² halen en ook beschikken over een 10-bit scherm. Behalve de hogere helderheidsvereiste is DisplayHDR 1000 redelijk vergelijkbaar met DisplayHDR 600.

Schermen met de hoogste twee DisplayHDR-standaarden moeten ten opzichte van DisplayHDR 400-schermen met het backlight in staat zijn om sneller te reageren op veranderende lichtomstandigheden in bijvoorbeeld een game. Er wordt echter geen FALD-backlight als vereiste voorgeschreven. Bij DisplayHDR 1000 moeten de monitoren de piekhelderheid ook relatief lang kunnen aanhouden en moet de local dimming dermate goed zijn dat het contrast twee keer zo groot wordt als bij DisplayHDR 600-schermen. Specifieke waardes worden daarbij niet voorgeschreven.

De organisatie wil met deze testmethode van DisplayHDR zorgen voor duidelijkheid bij consumenten. VESA zegt dat er nogal wat hdr-logo's en -merken worden gehanteerd, zonder dat ze transparant zijn of duidelijk maken welke prestaties daarbij horen.

De nieuwe standaard is opgezet met onder andere AMD, Nvidia, Intel, Asus, Dell, HP, Lenovo, LG, Samsung en Microsoft. DisplayHDR geldt alleen nog voor lcd-monitoren; volgens VESA heeft 99 procent van de pc-monitoren een lcd. Als in de toekomst andere schermtechnologieën zoals oled gangbaarder worden, zal de organisatie nieuwe versies van DisplayHDR uitbrengen zodat ook deze monitoren kunnen worden voorzien van de standaard. De eerste monitoren met het DisplayHDR-logo zijn te zien op de CES 2018.

Door Joris Jansen

Nieuwsredacteur

12-12-2017 • 11:02

57 Linkedin Google+

Reacties (57)

Wijzig sortering
Dus DisplayHDR 400 is meer 'het snapt een HDR signaal, maar kan het niet weergeven'...Heeft dat eigenlijk nut op dat niveau? Geeft dat nog beter beeld als het scherm eigenlijk niks van de andere HDR vereisten haalt (contrast, kleur, helderheid)? Lijkt me zo meer een marketing sticker om 'me too' te kunnen zeggen...

Edit: Anandtech (https://www.anandtech.com...displayhdr-spec-and-tiers) heeft de specs wat concreter gelist, en er wordt dus wél een eis aan de zwartwaarde gesteld (al is die bij de 600 en 1000 tier veel strenger), en ook moet DisplayHDR 400 minstens een écht 8-bit paneel hebben (geen 6-bit + dithering). Dus het betekent wel iets meer dan hier wordt weergegeven...Still, de enige échte HDR implementaties zullen bij DisplayHDR 600 en 1000 qua meerwaarde over gewoon een helder scherm wat een HDR signaal snapt.

[Reactie gewijzigd door Cow86 op 12 december 2017 14:41]

Heerlijk inderdaad, er wordt weer een standaard met buitenkansen voor misleiding opgetuigd.

Feit blijft dat 90% van de panelen vandaag de dag niet 'capable' is, puur door de gebruikte techniek. Het zou VESA sieren om daar een eerlijker verhaal over neer te zetten met deze standaarden. Dus niet 'genuine entry point' maar gewoon 'not true HDR capable'.

HDR loopt eigenlijk op de muziek vooruit. Want ook een paneel met bizar hoge helderheid houdt slechte zwartwaarden - en laat dáár nou juist het wow effect van mooi beeld in zitten. Hoe dieper het zwart, des te beter alles eruit komt te zien. TN en IPS vallen per definitie dus al af, en VA is een 'poor man's HDR' oplossing momenteel. Op al deze panelen is HDR gewoon een leukere, moderne benaming voor 'Dynamic Contrast' dat we allemaal kennen als uitermate lelijk omdat je backlight constant staat te knipperen en 'dynamisch' je beeld verstoort. Daar hebben we nu dan zones voor... het blijft behelpen.

[Reactie gewijzigd door Vayra op 12 december 2017 12:36]

Tot op zekere hoogte mee eens.

Voordeel van "het kunnen uitlezen van HDR content" is dat je niet 100% afhangt van de TV software interpretatie die de dynamic range calculeert.

Maar ja een 10bit signaal kun je niet uit een 8 bit paneel persen.

Ik verwonder mij telkens weer hoe eerst techniek als een kip zonder kop rondgegooid wordt om het als warme broodjes over de toonbank te laten gaan en vervolgens gaan instanties pas ff denken.... HMM misschien maar even een standaard uit persen. Die overigens niet het volledige spectrum van de techniek gebruikt.... bedoel piek helderheid is leuk, maar vervolgens zijn de zwarten zowat grijs want er is geen minimum.... Nou dan heb je ook niet veel aan HDR.
Het zegt wel iets over de kwaliteit van het (8-bit) paneel wat er in zit, maar veel meer ook niet.
In een grotendeels donker beeld kan de backlight op halve sterkte, en kunnen de pixel-waardes verdubbelt worden om de extra bit aan de onderkant weer te geven en dus meer details te tonen.
Ook bij een grotendeels licht beeld kan de backlight dubbel zo sterk gaan branden, de pixel-waardes gehalveerd wroden en de extra bit aan de bovenkant geeft je dan weer meer detail in de extreem lichte scenes.
Je hebt er dus wel meer aan dan aan een 8-bit paneel zonder deze ondersteuning.

In een scene met zowel lichte als donkere delen krijg je inderdaad slechts 8 bits aan bereik en dus niet bepaald meer details.
Jammer dat het nog zo beperkt is. De Dolby Vision standaard biedt digitale ruimte voor 12 bits en 10.000 nits (1nit = 1cd/m2). In de praktijk heb ik grading schermen gezien die tussen de 3000 en 4000 nits liggen. Dat is wel even een andere beleving dan de 1000 nits waar de maximale vesa standaard tot gaat en het minimum wat Dolby vereist tegenwoordig. Verder zegt t ook niks over de dynamische metadata die met Vision en HDR10+ (de opvolger van HDR10) wordt meegestuurd. En verder snap ik niet dat er ook niet percentages BT2020 colorspace vereist worden. Ik snap dat op t consumentenvlak nog weinig in de buurt komt van die highend grading schermen maar je kunt er in je standaardisering beter in voor zijn dan achter de feiten aan blijven hobbelen.
Tja, die 1000 halen nog maar weinig schermen. Dus de onderscheidingsfactor is er daar zeker. De vraag is vooral waarom ze die 400 in het leven geroepen hebben. Alleen de 600 en 1000, of zelfs enkel de 1000 was veel beter geweest op lange termijn. Dan krijg je veel meer een doel om naar te streven. In alle gevallen kun je later prima nog een 2000 / 12-bit variant toevoegen, maar de kracht boet toch wat in als dat de 4e is in plaats van de tweede, consumenten weten zo'n uitgebreide schaal nauwelijks te snappen. Neem een A+ koelkast, zou je zo kopen, tot je weet dat er inmiddels A++++ is :o
Wat is eigenlijk dat gedoe met local dimming?
Ik bedoel, hoe kun je 10 bits per kleurkanaal claimen maar nog steeds truuks als local dimming nodig hebben om het bijhorend contrast voor elkaar te krijgen?
Omdat tien bit niets met contrast te maken heeft.
Hoezo niet? Het heeft wellicht niks te maken met het maximale contrast, maar wel met de mogelijke contrastniveau's. Een scherm waarbij elke pixel volledig brand of volledig uit staat is natuurlijk nutteloos, omdat twee niveau's te weinig contrastniveau's zijn om (prettig) mee te werken.

Het verschil tussen 8 bits en 10 bits is wellicht kleiner dan het verschil tussen 1 bit en 8 bits, maar het heeft nog steeds wel IETS met contrast te maken.
Ja, maar 10bits zegt alleen maar welke kleuren je weer wilt kunnen geven als ingangssignaal. Het heeft verder niks te maken met hoe je het weergeven daarvan doet, of zelfs of je dat ook goed doet.

Daarom specificeert de standaard ook hoeveel van welke kleurruimte je daadwerkelijk moet behalen en of je dat met local dimming mag bereiken, want dat gaat over output.

[Reactie gewijzigd door StefanDingenout op 12 december 2017 12:48]

Ja, maar 10bits zegt alleen maar welke kleuren je weer wilt kunnen geven als ingangssignaal. Het heeft verder niks te maken met hoe je het weergeven daarvan doet, of zelfs of je dat ook goed doet.
Alleen beperkt die local dimming lokaal de bitdiepte.
Binnen een local dimming blok kan slecht een bepaald dynamisch bereik worden weergegeven en als in zo'n blok genoeg kontrast zit verwerkt dan worden er bitjes weggegooit.

Deze drie standaarden doen mijns inziens dus afbreuk aan het idee dat je 10 bits per kleuirkanaal per pixel aan informatie aangereikt krijgt. Zelfs als je tv de hoogste hier besproken standaard hanteert zul je nog niet alle 10 bits tot hun recht zien komen.
Ja, dat klopt. Het kleurbereik kan dan op papier wel gehaald worden, maar zoals deze standaard het omschrijft niet perse tegelijkertijd in hetzelfde gebied.

Maar ja, de standaarden zijn dan ook om (nu nog LCD-) monitors onderling te vergelijken, niet in verhouding met perfect.

De vraag is natuurlijk wat ze dan gaan doen als OLED meer gangbaar word, want je wilt natuurlijk wel een eerlijke vergelijking tussen monitors, ongeacht welke techniek ze gebruiken.
Voor LCD en OLED zijn al verschillende standaarden afgesproken, met name over de minimale helderheid. Een op een vergelijken gaat in de toekomst dus ook niet lukken.
Ow, maar dat is interessant!
:)
Op deze pagina (ongeveer halverwege).
http://www.trustedreviews...evision-explained-2927035
STANDARD 1: More than 1,000 nits peak brightness and less than 0.05nits black level. (LCD)

STANDARD 2: More than 540 nits brightness and less than 0.0005 nits black level. (OLED)

[Reactie gewijzigd door slopert op 13 december 2017 16:43]

Omdat tien bit niets met contrast te maken heeft.
Wel in een displayformaat zoals hier voorgesteld.
Contrast gaat over verschil tussen donker en licht. Tien bit heeft alleen te doen met hoeveel gradaties je in kleur kan weergeven. Niet met de zwartwaarde of piekhelderheid.
Tien bit heeft alleen te doen met hoeveel gradaties je in kleur kan weergeven. Niet met de zwartwaarde of piekhelderheid.
Nogmaals, met een displayformaat worden dit soort dingen dus wel aan elkaar gerelateerd.
Het gaat, zeg maar, over hoe die 10 bits over het dynamisch bereik worden verdeelt. :)
geen idee of ik de juiste termen gebruik, maar de tien bits zijn voor het kleurbereik, niet de felheid/helderheid van die kleuren, daarvoor moet de backlight feller of donkerder worden. local dimming is om te voorkomen dat het backlight door schemert, zodat het contract tussen lichte en donkere kleuren groter wordt.
maar de tien bits zijn voor het kleurbereik, niet de felheid/helderheid van die kleuren,
Nee, dat is juist andersom. :)
De grotere kleurenruimte wordt naast de grotere bitdiepte gespecificeert.
Die bits heb je dan ook voornamelijk nodig om een hoger dynamisch bereik te bewerkstelligen.

Maar op zich heeft dit niks met mijn vraag te maken.
local dimming is om te voorkomen dat het backlight door schemert, zodat het contract tussen lichte en donkere kleuren groter wordt.
Mijn punt is eigenlijk dat als doorschemerende verlichting een probleem is dat die hele extentie van het dynamisch bereik een soort farce is.
Beeld dat uiteindelijk middels local dimming wordt getoond kan denk ik prima in 8 bits gecodeert worden.

[Reactie gewijzigd door koelpasta op 12 december 2017 15:18]

Wat mij bevreemd is dat:
  • Dit kennelijk afhankelijk is van de technologie. Waarom niet één standaard die onafhankelijk is van of het een LCD of een OLED of wat voor scherm dan ook betreft?
  • Waarom alleen voor monitoren? Juist voor TVs lijkt me dit ook van belang.
Er staat nu juist niks van specifieke technologie bij. Alleen kleurbereik, maximale helderheid, duur dat je die helderheid volhoud, en of je je hele scherm of delen daarvan mag dimmen voor contrast. Er word nergens iets gezegd over welke technologie ervoor gebruikt mag worden, behalve dat een FALD-backlight niet verplicht is.

Waarom alleen voor monitoren? Omdat het een andere markt is, waar andere eisen aan gesteld worden. Natuurlijk, als perfectionist wil je dat alles aan een absolute standaard voldoet. Maar vaak zou je realistisch gezien het verschil niet eens zien, en al zou je het zien wil dat niet zeggen dat het financiële plaatje realistisch is binnen elke markt (een TV scherm is bijvoorbeeld veel groter dan een monitor).
Nou, het artikel zegt:
DisplayHDR geldt alleen nog voor lcd-monitoren; volgens VESA heeft 99 procent van de pc-monitoren een lcd. Als in de toekomst andere schermtechnologieën zoals oled gangbaarder worden, zal de organisatie nieuwe versies van DisplayHDR uitbrengen zodat ook deze monitoren kunnen worden voorzien van de standaard.
Dat lijkt me toch te wijzen op LCD-specifiek.
Oh, dat stukje had ik gemist. Maar toch, niks van wat er voor de rest in het artikel staat is daadwerkelijk alleen op LCD van toepassing, buiten local dimming. Begrijp dus niet echt waarom het alleen voor LCD zou gelden, behalve dan omdat iets anders simpelweg toch vrijwel niet gebruikt word.
Precies. Dus waarom alleen voor lcd? Maak maar een standaard die kan aantonen of juist ontkrachten dat OLED of Qled superieur is voor HDR. Nu valt er nog weinig te vergelijken.
Snap wat je bedoelt, maar misschien toch omdat er teveel verschillen zijn.

Wat ik begrijp is dat er op dit moment 3 hdr standaarden zijn bij TV's. De zwakste is HDR10.
Ik ben wel benieuwd hoe de Vesa hdr standaarden vergelijken met die van de tv. Ik vind namelijk de benaming die ze gebruiken ook erg goed. Het zorgt voor gemakkelijke uitbreiding in de toekomst.
XBWillem beweert juist dat HDR10 beter is dan HDR1000.
als dat zo is dan is het een waardeloze standaard gezien HDR 10 de zwakste on de tv's is. Er is dan geen ruimte om betere producten te laten uitblinken.
volgens mij duidt de 10 in hdr10 enkel op 10 bits? Dit lijkt me dat gelijk aan het nieuwe HDR1000 waarbij de 1000 slaat op de helderheid van 1000 cd/m², maar ook met 10 bits.

Ik snap ook niet precies hoe 10 dan beter zou zijn. Misschien omdat HDR10 Rec. 2020 voorschrijft ipv 709 voor HDR1000? (weet de verschillen daartussen niet precies)
als je er op google, en de eerste paar resultaten bekijkt. Kan het ook betekenen dat televisies met deze kenmerk hdr10 data kan ontvangen en gebruiken. Ik kon niet echt specificaties over de schermen zelf vinden betreft hdr10
DisplayHDR 600 vereist een piekhelderheid van 600 cd/m² en een 10-bitscherm dat meerdere zones lokaal kan laten dimmen
De zones is een belangrijke specificatie indicatie. Dat zorgt voor minder backlight bleeding maar ook meer variatie in belichting wat hoger contrast geeft en een belangrijk onderdeel van hdr is.

Dit kwartaal is net een nieuw ultrawide panel in productie met meer dan 300 pocketzones.
Zou kunnen, ik weet het niet, heb ze nooit kunnen vergelijken. Maar het gebeurd natuurlijk regelmatig dat een standaard een hele hoop technische dingen specificeert, maar dat die dingen niet automatisch tot een beter resultaat leiden. Of dat een standaard resultaten specificeert, maar dat je nogal wat speelruimte hebt in hoe je die resultaten claimt. Ik heb me zelf echter nooit echt in HDR verdiept, dus geen idee.
HDR 1000 zegt enkel dat het paneel 1000+ nits aan helderheid kan weergeven
Ik hoop dan wel dat die local dimming test dusdanig is dat simpele edge dimming er niet door heen komt voor de HDR600 en 1000. Want dat ziet er niet uit veel te veel blooming.
FALD is dan nog de beste oplossing maar duur. Sony heeft ook een soort van Edge dimming die verfijnder werkt met extra light ducs zodat ze verschillende delen van het scherm belichten niet ideaal maar al beter.
Beste zou OLED zijn waarbij elke pixel kan dimmen.

Met Edge dimming of geen local dimming kan je IMO niet van HDR spreken contrast is veel te slecht.
en met donkere beelden waarbij een deel licht is kan je niet de hele backlight laten dimmen want dan worden ook dingen die niet donker moeten zijn ook te donker. En zo niet zijn je zwart waardes ruk. Om die rede heb ik zelf een TV met een 288 zonde FALD backlight gekocht en het resultaat is geweldig tov de vorige die dat niet had.

Dus als ik een PC scherm met HDR zou kopen wil ik toch eigenlijk minimaal 64/128 zones.

[Reactie gewijzigd door Astennu op 12 december 2017 12:36]

precies backlight dimming geeft wel betere contrast- (meet)waarden, maar in de praktijk ziet het er vaak niet uit. Bijvoorbeeld een donkere scene met (witte) ondertitels die telkens aan en uit gaan. :'(
Dat idd.
Fald heeft dat wel een beetje maar als je een fijnmazige hebt met een goed algoritme er achter valt het reuze mee.
Goede zaak. Nu zijn er zoveel rare HDR stickers die op de doos worden geplakt. Het mooiste vind ik nog HDR 10 en HDR 1000. Zou je denken dat de 1000 veel beter is, is het precies tegenovergesteld.
Nee toch? HDR10 is ook heel iets anders dan DisplayHDR1000 (namelijk manier van data coderen vs kwaliteit/capaciteit van monitor.
De Xbox 360 en de Playstation 3 zijn het met je eens.
Je vergelijkt twee totaal verschillende dingen. HDR10 is een manier van coderen, zoals HLG, DolbyVision etc.

VESA komt nu met een standaard voor de weergave van het signaal.
Ik zie heel weinig specifiek over contrast. Moet ik het zo zien dat eenzelfde kleurruimte bij een hogere helderheid automatisch inhoud dat je dus ook een hoger contrast haalt (omdat anders de kleuren fletser zouden worden)? Dus dat je door de kleurruimte en helderheid te specificeren indirect ook het benodigde contrast specificeert?

[Reactie gewijzigd door StefanDingenout op 12 december 2017 11:25]

volgens mij wel ja. och het is in ieder geval iets, al krijg ik er wel een HD-ready gevoel bij (gotta love marketing)
"Dus dat je door de kleurruimte en helderheid te specificeren indirect ook het benodigde contrast specificeert?"

Bij LCD heeft een hogere helderheid tot gevolg dat de zwartwaarden ook omhoog gaan omdat er gewoon meer licht door de "zwarte" pixels heen schijnt. 1:1000 blijft in dat geval ongeveer 1:1000 omdat het slechts een verhouding is tussen maximale en minimale doorlaatbaarheid van pixels.

Je ziet het heel duidelijk bij reviews van de huidige generatie monitoren, het contrast van IPS panelen ligt vrijwel altijd tussen de 1:900-1:1200 en is onafhankelijk van de helderheid. VA panelen hetzelfde, de vaak gemeten contrastwaarden van 1:3000 is onafhankelijk van de piekhelderheid.

Dus, op naar OLED.

[Reactie gewijzigd door Thekilldevilhil op 12 december 2017 13:16]

Mja, ik had het zinnetje gemist waarin ze zeiden dat het alleen voor LCD van toepassing is.
het voelt alsof ze een standaard moeten maken voor hdr standaarden, voor hoever je het zo mag noemen want het doel van een standaard is dat het standaard is, niet dat er veel versies van zijn die voor verwarring zorgen
Je moet dit zien zoals jaren geleden de HDready standaard werd geintroduceerd als indicator dat een (meestal plat) scherm aan bepaalde eisen voldeed. Ansich had dit niets met de ITU-rec.709 (HDTV) standaard zelf te maken, maar hierdoor werd het voor consumenten makkelijker om te zien welk scherm ze wel of niet konden kopen om HD te kunnen kijken.
De ITU gaat over tv uitzendingen en die komen met een eigen standaard voor HDR.
Mooi zo, veel beter dan HDR: yes/no
Wordt dit straks geen andere vage sticker? Fabrikanten vinden soms allerlei rare trucjes om zo goedkoop mogelijk aan een standaard te voldoen zonder dat het apparaat op het totaalplaatje beter wordt.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True