Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 83 reacties

YouTube ondersteunt nu hdr-videobeelden. Gebruikers kunnen per direct hdr-beeldmateriaal uploaden naar de bekende videodienst van Google. Kijkers die de juiste hdr-capabele hardware in huis hebben, kunnen eveneens per direct de beelden met verrijkte kleuren gaan kijken.

YouTube spreekt er op zijn blog van dat 'per direct naar hdr-beelden gekeken kan worden op ondersteunde apparaten, zoals hdr-tv's met de nieuwe Chromecast Ultra en binnenkort ook alle Samsung suhd- en uhd-tv's uit 2016.' Op dit ogenblik lijkt het dus alleen mogelijk om hdr-YouTubebeelden te kijken met de Chromecast Ultra en een hdr-capabele tv. Verder stelt YouTube dat 'naargelang er meer hdr-apparaten op de markt komen, YouTube met partners zal samenwerken om het streamen van hdr-versies mogelijk te maken'. Het is dus niet zo dat iedere hdr-capabele televisie nu YouTube-video's met hdr kan afspelen. YouTube en de fabrikant moeten dat dus eerst onderling regelen.

Wie een ondersteunde hdr-capabele televisie heeft staan kan direct de functionaliteit uitproberen met een afspeellijst die YouTube in samenwerking met enkele makers heeft samengesteld. Wanneer alles in orde is en de beelden in hdr worden weergegeven, zien gebruikers een hdr-logootje bij de bediening van de video. Video's die in hdr geüpload worden naar YouTube worden nog wel gewoon in sdr getoond aan gebruikers zonder de nodige hardware. YouTube heeft wat documentatie over het proces online gezet.

Hdr, of high dynamic range, zorgt ervoor dat er tussen donkere en lichte delen van het scherm meer contrast ontstaat. Lichte delen worden fel weergegeven zonder dat er detail verloren gaat in de donkere gedeeltes. De introductie van hdr op YouTube is al eerder gepland en gaat min of meer gepaard met de release van de ChromeCast Ultra, die op 8 november verkrijgbaar zal zijn. Deze heeft naast hdr ook ondersteuning voor 4k-resoluties. Ook Netflix en Amazon Prime hebben tegenwoordig ondersteuning voor hdr bij specifieke materialen.

Hdr-sdr-vergelijkingHet gesimuleerde verschil tussen sdr en hdr (beeld: YouTube)

Moderatie-faq Wijzig weergave

Reacties (83)

Jongens, dat 'gesimuleerde' voorbeeld slaat nergens op.
In feite is het precies het omgekeerde van wat het pretendeert te zijn.

Het linkerbeeld is eigenlijk HDR beeld weergegeven in de dynamische ruimte van een SDR scherm. De extra dynamische ruimte van het HDR zorgt dat er veel grijs te zien is op een SDR scherm.

Het rechterbeeld is eigenlijk een simulatie van hoe dat HDR beeld er correct uitziet op een SDR scherm (alleen vallen dan de extremen van de bereiken uiteraard weg omdat we SD kijken).

Het linker is dus een ongecorrigeerd HDR beeld op SDR en het rechter is een gecorrigeerd HDR beeld op SDR.
Veel mensen zullen dit verkeerd interpreteren.
Het is een simulatie, dus natuurlijk is het geen correcte weergave van de werkelijkheid. Maar het benadert wel de perceptie van het relatieve verschil zoals wij dat waarnemen bij een directe vergelijking. Dat is het grappige van onze hersenen en ogen, die passen zich continu aan aan de hoeveelheid licht en contrast of dynamisch bereik, afhankelijk van content en referentiemateriaal. Als je geen vergelijkingsmateriaal hebt, zal het linker beeld in werkelijkheid er prima uitzien. Zet je er het rechter (HDR) direct naast, dan ziet het linker er in vergelijking flets uit, simpelweg omdat een relatief groot dynamisch bereik (onze omgeving beslaat meestentijds >12 EV stops, camera's kunnen tegenwoordig 12 tot >14 EV stops opnemen) gecomprimeerd is naar een Rec 709 formaat dat slechts zo'n 6 EV stops toelaat. Met andere woorden, schaduwen zijn lichter dan ze in het bronmateriaal of de originele scene waren en/of lichte partijen donkerder dan het origineel. Precies zoals de simulatie dat suggereert (even los van gamma curves die dat pogen te verbloemen).

Op het moment dat je wél meer dan 12 EV stops direct kunt weergeven in het nieuwe HDR formaat, geeft dat een veel realisticher beeld, veel minder "afgevlakt". Beter dan bovenstaande simulatie kun je het niet weergeven in een sRGB profiel. De beste manier om het te beoordelen is op een TV die het (bijv. de HDR10 standaard) volledig ondersteunt, naast een TV die hetzelfde materiaal weergeeft in Rec 709. Uit ervaring kan ik je melden dat dat inderdaad een groot verschil is. Zonder direct vergelijk, is Rec 709 prachtig, maar zet je er HDR materiaal naast (ook al is het dezelfde TV), dan vraag je je af hoe eerstgenoemde ooit zo goed leek (zie opmerking hersenen en ogen in eerste alinea). IMHO een veel grotere stap dan de stap naar 4K of zelfs van 720P naar 4k op het gemiddelde beeldformaat en met de gemiddelde kijkafstand die je doorgaans tegenkomt.

[Reactie gewijzigd door Jortio op 8 november 2016 14:27]

Maar het benadert wel de perceptie van het relatieve verschil zoals wij dat waarnemen bij een directe vergelijking.
Ja, nee.
Ten eerste is dat verschil dus de verkeerde kant op.
Maar ten tweede is dit niet wat wij zouden zien. Je zult in geen enkel geval op 1 van de 2 formaten al dat grijs gaan zien. Het is dus een hartstikke neppe en verkeerde 'simulatie'.
Zet je er het rechter (HDR) direct naast, dan ziet het linker er in vergelijking flets uit, simpelweg omdat een relatief groot dynamisch bereik (onze omgeving beslaat meestentijds >12 EV stops, camera's kunnen tegenwoordig 12 tot >14 EV stops opnemen) gecomprimeerd is naar een Rec 709 formaat dat slechts zo'n 6 EV stops toelaat. Met andere woorden, schaduwen zijn lichter dan ze in het bronmateriaal of de originele scene waren en/of lichte partijen donkerder dan het origineel. Precies zoals de simulatie dat suggereert (even los van gamma curves die dat pogen te verbloemen).
Eeh, nee, de 'simulatie' suggereert het niet, die 'simulatie' is het enige dat dit doet. In werkelijkheid is dit niet wat je zult zien aangezien er een uitsnede iot dat dynamisch bereik eventueel op een SDR scherm zou verschijnen. Daarmee maken ze het veel erger dan het is en daarmee is het ook geen simulatie.

Ik ben het er wel mee eens dat heit IETS aangeeft.
Op het moment dat je wél meer dan 12 EV stops direct kunt weergeven in het nieuwe HDR formaat, geeft dat een veel realisticher beeld, veel minder "afgevlakt".
Ja, maar je had ook het contrast omhoog kunnen draaien, dan had je hetzelfde bereikt. Geen HDR tv voor nodig.
Er is in werkelijkheid geen situatie dat jij als kijker die grijze zooi had gezien. Dan had je werkelijk een HDR in een Rec 709 bereik moeten prakken. Maar dan doe je het dus verkeerd.
Nee, dat verschil is exact de goede kant op als het gaat om relatieve perceptie. Dus niet te verwarren met een losstaande beeld, want dan kloppen uitreraard de zwartwaarden en witwaarden niet.

De enige andere manier om het te simuleren, is lichte partijen en donkere partijen clippen bij de HDR versie, maar dat is niet hoe we het waarnemen.
Het probleem is dat je HDR content niet correct kunt weergeven binnen sRGB en daarom zul je schaduwpartijen van de Rec709 versie inderdaad lichter moeten maken om die relatieve perceptie te simuleren. Bij het zien van bronmateriaal met een groot dynamisch bereik, passen onze ogen en hersenen zich aan met een soort van nulmeting/indexering vanaf de meest lichte partijen (in de natuur een bescherming van het netvlies). Kijk je dan direct naar materiaal dat binnen 6 EV stops is gecomprimeerd (dus ook een afvlakking van lichte partijen), dan geeft dat gevoelsmatig een donker beeld. Daarvoor zullen je hersenen deels weer corrigeren, met als gevolg dat donkere partijen daar voor het oog ook omhoog schuiven en dus lichter lijken. Dát geeft het gevoel van een flets beeld.

Vergelijkbaar met een foto scene met of zonder direct tegenlicht. Ook al houd je de schaduwpartijen op eenzelfde niveau (exact dezelfde RGB waardes), als daar een veel fellere zon tegenover staat, lijken de schaduwen ook donkerder, dan wanneer er een wolk voor die zon zit. Dit is een mooie illustratie van dat fenomeen, waarbij de vakjes A en B exact dezelfde kleur en helderheid hebben.

[Reactie gewijzigd door Jortio op 8 november 2016 17:14]

Het probleem is dat je HDR content niet correct kunt weergeven binnen sRGB
Dit is wat mij betreft het enige dat je in gedachten moet houden :)

Verder snap ik wel wat ze bedoelen hoor, maar het geeft alsnog geen goede indruk van de echte situatie.
Je snapt pas wat die vergelijking betekent als je al snapt hoe je het moet interpreteren. En dan hoef je niet zo'n plaatje te hebben.
Je huidige spullen worden door de adverteerders altijd graag de grond in geboord.
Het linkerbeeld is eigenlijk HDR beeld weergegeven in de dynamische ruimte van een SDR scherm.
Maar dat is ook niet helemaal waar. Dat beeld is gewoon SDR met belabberd contrast. Hoog contrast is niet hetzelfde als hoog dynamisch bereik. In theorie zou een HDR-beeld er op een SDR-TV hetzelfde uit moeten zien als op een HDR-TV, met als enig verschil dat je op de HDR-TV in de zwarten en de witten nog details moet kunnen zien, en op de SDR-TV niet.

Je zou ook kunnen stellen dat het linkerbeeld feitelijk een SDR-beeld is, dat kunstmatig is omgezet naar HDR, waarna vervolgens het dynamisch bereik ervan is "samengeperst" tot een SDR-niveau. Dus alle details die je had moeten zien in het wit en het zwart, is juist expres weggeflikkerd.

Als je een werkelijk HDR-beeld op een SDR-TV wilt weergeven, kun je twee dingen doen:
1) De "witter dan wit" en "zwarter dan zwart" gedeeltes negeren en renderen als resp. wit en zwart.
2) Het dynamisch bereik comprimeren om alle details te zien, met een lager waargenomen contrast als resultaat.

Nummertje 2 wordt in fotografie vaak gedaan, en als het op de verkeerde manier wordt gedaan, krijgt je die typische kleurkots. Van die landschappen met véél te veel kleur. Hoewel in de fotografie is HDR ook véél meer dan 10 bits. 14 bits noemen we nog niet eens HDR zelfs. als ik zelf iets met HDR doe, dan wordt het 32 bits. Dus 96 bits per pixel :P

[Reactie gewijzigd door _Thanatos_ op 8 november 2016 02:12]

Hoewel in de fotografie is HDR ook véél meer dan 10 bits. 14 bits noemen we nog niet eens HDR zelfs. als ik zelf iets met HDR doe, dan wordt het 32 bits. Dus 96 bits per pixel :P
Ook dit is marketing. Als ze meteen HDR in 32bits aan gaan bieden (technisch prima mogelijk als het in de fotografie al gebruikt wordt) kunnen ze later geen UHDR meer introduceren waarmee ze je gloednieuwe HDR spullen de grond in kunnen boren en je weer een nieuwe TV verkopen terwijl de oude nog prima werkt.

Net zoals die 4K-hype eigenlijk, die totaal overbodig is voor de meeste consumenten. Op de afstand waarop in huiskamers de TV hangt zie je het verschil tussen 720p en 1080p alleen als je echt heel goed oplet (en de TV er groot genoeg voor is, dus geen standaard 40" scherm). En dan komen ze met 4K omdat het zoveel mooier zou zijn? Hoe lang zullen ze nog doorgaan met voor het oog onzichtbare details toevoegen?
Dat beeld is gewoon SDR met belabberd contrast.
Ja, dat krijg je dus als je een HDR dynamisch bereik samenprakt om in een SDR bereik te passen. En dat is inderdaad dus neit hoe dat in werkelijkheid zou worden afgehandelt.
Als je een werkelijk HDR-beeld op een SDR-TV wilt weergeven, kun je twee dingen doen:
1) De "witter dan wit" en "zwarter dan zwart" gedeeltes negeren en renderen als resp. wit en zwart.
2) Het dynamisch bereik comprimeren om alle details te zien, met een lager waargenomen contrast als resultaat.
Klopt.
Maar alleen 1 is enigzins juist, anders krijg je dus enorm veel grijs.
1 klopt wel degelijk en zou wel degelijk een prima uitziend SDR beeld produceren. HDR betekent dat je meer kleurinformatie hebt dan je normaliter zou kunnen weergeven. Dus als je die extra kleurinformatie weggooit, hou je een normaal beeld over.

Dus als je bijvoorbeeld RGB waardes 200-800 als het normale SDR zou zien, is alles daarbuiten dus HDR. Dat betekent ook dat 200 is perfect zwart, maar <200 is "zwarter dan zwart". Daar heeft een SDR TV niets aan, maar het wordt niet opeens grijs. Het world wél grijs als je bij HDR stelt dat 200==zwart, maar bij SDR opeens zegt dat 0==zwart. Dan klopt het niet, en krijg je inderdaad een vertekend contrast.
Ja, dat zeg ik dus ook,. Van de 2 opties die je geeft is deze de betere. Maar het is nog niet de beste manier om HDR om te zetten. Ik ben het dan ook niet eens met je stelling dat het 'prima uitziend SDR' produceert. Je krijgt overbelichte en onderbelichte delen in beeld.
Het bronmateriaal moet ook niet over- danwel onderbelicht zijn. Dan moet je altijd proberen te voorkomen, tenzij het een effect is waar je voor gaat.

Maar het is niet erg als je HDR beeld op een SDR TV toont en wat over- en onderbelichte delen te zien krijgt. Op een zwartwit TV zie je immers ook geen kleur, en dat is dan ook niet erg. Het punt is, HDR moet geen onoverkomenlijke vereiste zijn om de film te kunnen volgen.

HDR is een *extra*, net als bijv stereoscopisch beeld.

[Reactie gewijzigd door _Thanatos_ op 15 november 2016 11:12]

Maar het is niet erg als je HDR beeld op een SDR TV toont en wat over- en onderbelichte delen te zien krijgt. Op een zwartwit TV zie je immers ook geen kleur, en dat is dan ook niet erg.
Hier kan ik me helemaal niet in vinden.
We kunnen kleur missen omdat dat niet de belangrijkste visuele informatiebron is. Dat is namelijk helderheid. Dat moet altijd in orde zijn. En dit kan alleen als het origineel al het interesante deel van het beeld ingeklemd heeft in een SDR bereik (met alleen voor het effect kleine gebieden met werkelijk HDR waardes).
Conversie gaat dus pas goed als het materiaal niet erg veel gebruik maakt van het uitgebreider dynamisch breik.
Anders wordt het echt handwerk.
Is dat dan integer of floating point? En ik dacht dat de meeste digitale camera's ook gewoon maar 14 bit ADCs hebben. Jouw Olympus OM-D E-M5 lijkt 12 of 14 te hebben volgens deze discussie
Als je meerdere frames combineert tot 1 HDR frame, kun je het maar beter als FP opslaan, want dat geeft de grootste flexibiliteit. Ik zou het ook als 32-bits integer kunnen opslaan, maar dat maakt eignlijk niet zoveel uit. Het punt van HDR is dat het bereik veel groter is. Of je dat nou met 14 bits of 32 bits doet, of je dat nou met FP of INT doet, maakt allemaal niet zoveel uit. Maar meer kleurinformatie geeft meer flexibiliteit, en zorgt dat zoveel mogelijk kleurinformatie intact blijft.

Daarom kies ik voor 32bpc FP. Gewoon, just in case. En dan maakt het ook niet uit of een HDR frame dan +/-3EV is, of een absurde +/-10EV. Het past iig altijd in de kleurdiepte.
Hmm, ik ben computer architect van beroep, dus bedankt voor de tip. Ik ga denk ik maar één datatype maken. 14 bit 32 bit integer floating point, maakt allemaal toch niet uit :X

Maar even serieus: floating point heeft alleen meerwaarde als je ook werkelijk iets met het bereik doet. Ik heb al zo vaak meegemaakt dat mensen integer problemen oplosten met floating point, puur omdat dat "meer bereik" zou hebben.
En van een 14 bit Int maar 32 bit FP maken "omdat het kan". You can't polish a turd...
(Ja, ik ken de myth busters aflevering)

[Reactie gewijzigd door MeMoRy op 10 november 2016 19:59]

Natuurlijk. Je hebt niet magischerwijs meer kleurinformatie alleen maar door er een floating point van te metselen.

Maar van 5 frames met *ieder* 14bpc INT samensmelten naar een *enkele* 32bpc FP, waarbij ieder frame 1 stop licht verschil heeft met het volgende frame. Dat heeft wel degelijk zin. Dat is wat HDR is. Je hebt dan meer kleurinformatie van je camera oorspronkelijk kon vastleggen in 1 frame, en je hebt meer kleurinformatie dan je monitor in een keer kan weergeven. Dat is HDR.

Wat ik probeerde te zeggen met "het maakt allemaal niet uit", is simpelweg dat je iedere kleurdiepte in principe HDR kunt noemen. Je kunt 14bpc HDR noemen, omdat er al meer informatie in zit dan in 8bpc. Maar je kunt 8bpc net zo goed HDR noemen als je minder informatie in de highlights en schaduwen hebt.

Maar nee, je kunt niet 1 frame SDR naar 1 frame HDR converteren. Het is geen magie. Je moet altijd voldoende broninformatie hebben. En of je dat dan SDR of HDR noemt, is niet meer dan een naampje.

[Reactie gewijzigd door _Thanatos_ op 15 november 2016 11:25]

Hmm, ik ben computer architect van beroep,
Dan zou jij moeten kunnen snappen dat rekenen in een grotere getallenruimte leidt tot minder kwantisatiefouten. :D

Het gaat dus helemaal niet om het polishen van turds maar om minder fouten te genereren bij het rekenen met die data.
Dit geldt in princiepe voor alle vormen van sampling.
Ik dacht het zelfde. Net als die TV reclames voor andere TV's die laten zien hoe scherp en kleurrijk die nieuwe TV dan zou worden. Nou als ik dat kon zien op mijn oude TV dan had ik geen reden om een nieuwe te halen, wel? :+
Ach je moet toch wat om die extra gradaties zichtbaar te maken :) Het is en blijft gewoon marketing natuurlijk.

HDR is niet zo'n enorm verschil zolang het niet wordt weergegeven op een goed paneel. En 99% van de panelen voldoen eigenlijk niet. HDR is dan ook in al die gevallen een manier om waarde toe te voegen aan dezelfde oude LCD rommel die we al heel lang slikken. Alleen met een fatsoenlijk paneel erachter met stevige local dimming en/of OLED wordt het interessant.

Anders is HDR niet meer dan een anders ingevulde toepassing van dynamisch contrast, dat in veel gevallen niet meer is dan een backlight die feller gaat branden waardoor ook je zwart lekker grijs wordt en het beeld bizar lelijk.

[Reactie gewijzigd door Vayra op 8 november 2016 11:33]

Jongens, dat 'gesimuleerde' voorbeeld slaat nergens op.
Onbegrijpelijk dat Tweakers met open ogen in deze non-sense trapt.

Dat je plaatjes faked om je paarse-broeken-bla-bla-bla (a la Apple) goed te praten, is tot daar aan toe - maar Google heeft hier niets meer gedaan dan een auto-level over de src te gooien (en wellicht zelfs de src eerst doffer te maken, om hem daarna als "beter" te presenteren).

https://imgur.com/ikgfM98.png
Kan HDR eigenlijk niet perfect software-matig geregeld worden?
Verwar HDR video niet met HDR foto's. Bij HDR foto's worden twee of meer foto's van verschillende belichting gecombineerd. Dit is een kunstmatige omweg om het beperkte dynamisch bereik van camera's te omzeilen. Het resultaat is een groot dynamisch bereik samengeperst in een enkele foto van normaal (beperkter) bereik. HDR bij foto's zou om die reden misschien juist beter dynamic range compression genoemd kunnen worden.

Bij HDR video is het beeldmateriaal vastgelegd door een sensor die daadwerkelijk een groter dynamisch bereik heeft dan normaal. Dat materiaal wordt vervolgens weergegeven op een beeldscherm dat hardware-matig eveneens een groter dynamisch bereik heeft. Om deze grotere ruimte weer te kunnen geven zonder het ontstaan van zichtbare banden hebben ze per kleurkanaal het aantal bits verhoogd van 8 naar 10. Zo zijn er 1024 ipv 256 stappen mogelijk (4 keer zoveel) om de verschillen in helderheid weer te geven.

Dus zowel op analoog als op digitaal vlak wordt er t.o.v. SDR informatie toegevoegd. Deze extra informatie kan er niet bij verzonnen of gerekend worden. Eventueel zou je met AI-achtige software nog een zon in SDR-materiaal feller kunnen maken om de illusie van HDR te wekken, net zoals ze 2D kunnen omrekenen naar 3D. Echter aan de weergavezijde zal de monitor dan nog steeds het hoger aantal bits moeten kunnen verwerken en die moet ook nog eens in staat zijn om simpelweg een hogere helderheid te bereiken dan een normale SDR monitor.

[Reactie gewijzigd door 2fish op 8 november 2016 05:40]

2 dingen defineren een HDR tv

1. Contrast
Een hdr tv moet een bepaald contrast ratio bereiken om hdr tv te kunnen zijn. Contrast is het verschil tussen het herderste en donkerste dat het scherm kan tonen.

2. Kleuren
Een hdr tv moet 10bit content kunnen verwerken. Een gewone blu-ray bevat ter vergelijking 8bit kleuren. Dat betekent dus dat een hdr meer kleuren kan tonen. (Een video die dit uitgebreider uitlegt: https://www.youtube.com/watch?v=bKjSox0uwnk)

Een hdr tv is dus in feite gewoon een tv die aan bepaalde eisen voldoet. HDR content is te bekijken op een gewone tv, maar je gaat waarschijnlijk geen verschil merken, omdat je gewone tv niet aan die hdr eisen voldoet.

Bron:http://www.trustedreviews...amic-television-explained

[Reactie gewijzigd door Swindowmasher op 7 november 2016 21:05]

In het 'Ultra HD Premium' certificaat hebben ze afgesproken wat een LCD paneel en een OLED paneel aan moeten voldoen om het 'Ultra HD Premium' logo te dragen.

LCD: Moet meer dan 1,000 nits piek helderheid kunnen weergeven en minder dan 0.05 nits zwart waarde weergave mogelijkheid hebben.

OLED: Moet meer dan 540 nits piek helderheid kunnen weergeven en minder dan 0.0005 nits zwart waarde weergave mogelijkheid hebben.

Beiden moeten 10 bit kleuren kunnen weergeven met minimaal 90% van het DCI-P3 kleuren standaard. Het minimum vereiste resolutie is 3,840 x 2,160.

Wat werkt verwarring in de hand is dat men 'Ultra HD Premium' HDR noemen, omdat het korter en makkelijker uit te spreken is. Veel mensen kennen het oude HDR techniek, en denken dat het daar over gaat.
Okey, een oud collega van mij maakte altijd HDR foto's. (Het waren foto's in verschillende belichtingen en die plakte die later over elkaar ofzoiets) is dit hetzelfde maar dan met film?
Dat is wat anders - bij de 'hdr' van camera's word er om het beperkte dynamische bereik van een camera gewerkt door twee of meer foto's met een verschillende belichting te nemen en die dan binnen de 8 bits en sRGB kleuren ruimte te mappen zodat het er beter uitziet. Maar licht wordt er niet lichter van en donker niet donkerder, blauw niet blauwer en rood niet roder. Bij de HDR waar we het hier over hebben is dat wel het geval: er word meer kleur informatie weergegeven.

Zie ook 2fish in 'nieuws: Google implementeert hdr-ondersteuning bij YouTube op speci... - ik kan op mijn telefoon niet zo snel zo'n uitgebreid antwoord geven ;-)

[Reactie gewijzigd door Superstoned op 8 november 2016 08:13]

Goed, het blauw rood en groen ordt niet intenser, maar het licht/donker bereik wordt wel beter licht wordt lichter en donker wordt donkerder, omdat, zoals je zelf zegt, jede dynamiek van de camera vergroot door verschillende beelden te gebruiken.
Ja en nee. Dat kan spijtig genoeg niet, want een jpegg kan niet meer weergeven dan wat een camera ziet in 1 foto. Minder zelfs, veel cameras kunnen meer dan 8 bits aan info kwijt, jpeg dus niet. Maar het is wel zo dat bij een overbelichte foto (of onderbelicht) je met bewerking uit de 2e foto nog wat kunt halen. Maar feitelijk is het een soort van compressie van meer informatie in 1 foto die er daardoor minder natuurlijk uitziet. Met echte HDR zou je evenveel zien maar met een realistische verhouding tussen licht en donker.

[Reactie gewijzigd door Superstoned op 9 november 2016 09:11]

Dat wordt ook softwarematig geregeld, alleen hardwarematig weergegeven...
Ik hoop trouwens dat Youtube alleen HDR beeldmateriaal heeft wat daadwerkelijk HDR is opgenomen. Je kunt non-HDR materiaal "oprekken" naar de grotere kleurruimte door de extreme kleuren softwarematig verder in de grotere kleurruimte op te rekken. Ziet er indrukkendwekkend uit, maar is onnatuurlijk. Denk maar aan hoe OLED-televisies enkele jaren terug in de showroom stonden.
Het is dus niet zo dat iedere hdr-capabele televisie nu YouTube-video's met hdr kan afspelen. YouTube en de fabrikant moeten dat dus eerst onderling regelen.
Volgens mij wordt "kan" hier in een verkeerde context gebruikt. Volgens mij zou "zal" beter passen.
Want ze kunnen het (waarschijnlijk) wel, maar ik heb eerder het idee dat youtube het niet toelaat. Waarom weet ik niet precies, maar ik vind het eng klinken als youtube gaat bepalen hoe ik iets ga kijken. Daarom zal ik de "smart" van smart-tv's weglaten, maar gebruik maken van een computer bij de televisie.
Bitrate

edit; waarom irrelevant gemod? ik beschrijf met één woord waarom HDR op YT nog niet doorgebroken was en ook nu nog zijn limieten kent.

[Reactie gewijzigd door ExIT op 8 november 2016 12:11]

Inderdaad.

Hoe nuttig is dit in combinatie met de compressie die Youtube hanteert? HDR is leuk, maar liever bieden ze een hogere bitrate, en minder compressie zodat kleurdiepte gewaarborgd is en geen banding ontstaat.

Maar goed, wellicht pakt men dit inmiddels ook wat beter aan.

[Reactie gewijzigd door Flozem op 8 november 2016 06:27]

Is (am)oled al niet hdr
Ik dacht aanhetzelfde. Contrast zal niet het probleem zijn, wellicht 10bit kleuren wel.
Geen van beide is het probleem. De Note 7 was (...) de eerste telefoon die HDR10 (compliant) content native ondersteunde. Mede dankzij het hoge contrast waartoe het paneel in staat is en de grote gamut die AMOLED panelen kunnen weergeven.
Een grotere gamut is onderdeel van de HDR standaard, zoals je hier kunt lezen.

In eerste instantie dacht ik dat de S7 (Edge) dit ook zou moeten kunnen ondersteunen middels een software update, maar het blijkt dat de Note 7 een dedicated beeldverwerkingschip aan boord had (afgeleid van hun tv's met deze functie) om HDR materiaal (dus ook met een grote kleurengamut) te verwerken en correct weer te geven.*

Overigens is het een misverstand dat een paneel 10bits kleuren moet kunnen weergeven om te voldoen aan bijv. de HDR10 standaard. Het apparaat moet 10bits materiaal correct kunnen verwerken. De meeste (betaalbare) HDR TV's hebben ook geen 10 bits paneel, maar wel een chip die het materiaal correct verwerkt. Op een telefoon zijn die extra weer te geven stapjes ook minder essentieel omdat de pixeldichtheid al zo groot is en het beeld zo klein, dat zogeheten banding of posterization lang niet zo snel zichtbaar zal zijn. En als het zichtbaar zou kunnen zijn, kan het effectief worden voorkomen middels dithering, waarbij het beetje ruis dat daarmee wordt geïntroduceerd waarschijnlijk onzichtbaar zou zijn op een telefoon om bovenstaande 2 redenen.

*Theoretisch zou de CPU en/of GPU dit ook voor rekening kunnen nemen, maar dat schijnt lang niet zo efficiënt te zijn.

[Reactie gewijzigd door Jortio op 8 november 2016 01:20]

Maar het color gammut(?) van oled is toch veel hoger?
Color gamut en HDR zijn andere dingen.
Bij HDR heb je meer bitjes, meer stapjes tussen de ene kleur naar de andere kleur. De gamut geeft weer hoe ver de maximale kleurenweergave uit elkaar liggen.

Het is dan wel zo dat met een groter color gamut, HDR wel wenselijk is. Zodat je minder last van 'banding' hebt.
Meer bitjes geeft geen HDR. Je kunt een beeld pas HDR noemen als je iets hebt dat "zwarter dan zwart" of "witter dan wit" is. Dus lichter of donkerder dan een normale TV kan weergeven. Op een normale TV gaat die kleurinformatie "voorbij" het zwarte en het witte feitelijk verloren, maar op een HDR TV kun je daar nog details ontdekken.

HDR heeft niets te maken met contrast, want contrast het is verschil tussen wit en zwart. HDR gaat verder dan wit, en verder dan zwart, dus je kunt wel stellen dat het contrast hoger is, maar dat klopt niet. Wat hoger is, is het dynamisch bereik.

Met een grotere kleurruimte (colour gamut) heb je ook nog geen HDR. Het enige dat je daarmee bereikt, is dat de kleuren "natuurlijker" zijn, en dus dichterbij de bron liggen. Een rode roos is dan dichterbij het rode van een échte roos. Maar een hoger dynamisch bereik geeft het niet. Een grotere kleurdiepte (meer bits) is inderdaad wel wenselijk, maar zoals ik al zei, dat geeft niet (niet per se) gelijk automagisch ook HDR.
witter dan wit of zwarter dan zwart kan natuurlijk niet. Maar als dat het is wat je bedoeld, heb je wel degelijk contrast met contrast te maken.

Het voornaamste punt is helderheid. Een HDR scherm kan heel fel zijn.

En je wilt dat het zwart gewoon donker blijft. Die verhouding tussen helderheid bij wit, en helderheid bij zwart (ideaal is die nul) is contrast.

En je hebt de bitjes nodig om die extra ruimte op te vullen. Je hebt meer helderheid. Hoge dynamische range betekend dat je een groter bereik hebt. Als je dezelfde stapgrootte wilt.behouden tussen helderheid, heb je dus bij HDR meer bitjes nodig.
Je hebt gelijk dat meer bitjes nog niet HDR maken.
witter dan wit of zwarter dan zwart kan natuurlijk niet.
Dat is de grondslag van HDR juist. Je hebt een kleurwaarde van bijvoorbeeld 0, die stel je vast als "zwart". In een HDR-pixel kun je dan bijv -20 hebben, die is dan nóg donkerder.

Het omgekeerde is ommers ook waar: een LDR-beeldscherm heeft bijv waardes 0-20 allemaal als "zwart" of 240-255 allemaal als "wit". TN-panelen werden berucht om dat soort geintjes. Dan heb je een SDR-beeld op een LDR-monitor. De middenwaardes zien er prima uit, maar de hoge en lage waardes zijn niet te onderscheiden.

Dat is precies wat er nu gaat gebeuren met HDR-materiaal op een SDR-monitor.

[Reactie gewijzigd door _Thanatos_ op 8 november 2016 21:16]

Nee dat is niet de grondslag van HDR. Wit kun je in verschillende gradaties van helderheid hebben. Zwart is gewoon zwart. Donkerder dan zwart gaat niet. Dat is wetenschappelijk onmogelijk.
Als je naar een 'zwart' scherm kijkt op een LCD scherm dan zie je nog licht. Maar dat is een ander verhaal. Dat is een tekortkoming van de techniek. Op een OLED scherm betekend zwart dat er een licht van af komt. Hoe wou je minder licht van iets af laten komen dat geen licht geeft?

Ergens heb je een verkeerd verhaal gelezen, of de verkeerde conclusie getrokken.
Zwarter dan zwart betekent simpelweg dat de kleur donkerder is dan een normale TV kan weergeven. Donkerder dan zwart is wetenschappelijk absoluut mogelijk. Pak maar es een zwarte stift, en kladder ermee op een stuk papier. Wedden om een kratje bier dat ik je vervolgens iets kan geven dat donkerder is dan jouw zwart?
Mijn definitie van zwart is gewoon het uiterste zwart, geen enkele vorm van licht. Een zwarte stift op papier is dus ook niet zwart. Het is gewoon heel erg donker. Maar we noemen het voor het gemak zwart.

Zwarter dan zwart bestaat niet. Dingen zijn meestal minder zwart. daar is je verwarring.

Als je in een ruimte zit waar geen licht binnenkomt. Dan heb je zwart. Als je in diezelfde ruimte een LCD Tv aanzet, en het beeld op zwart zet, zul je zien dat er toch licht van afkomt. Zwart op een LCD scherm is dus niet echt zwart. Als je in diezelfde ruimte een OLED scherm op zwart zet, zul je zien dat er geen licht van af komt. Meer zwart kan het niet worden.
Color Gamut staat los van hoe het aangestuurd wordt. HDR dient met 10 bits per kleur te worden aangestuurt, terwijl het overgrote deel van de schermen nu met 8 bits wordt aangestuurd.
Ik heb nog nooit HDR televisies in het echt gezien, maar ik vind de gesimuleerde plaatjes altijd lachwekkend. Er zal vast verschil zichtbaar zijn als je de twee naast elkaar zet, maar het lijkt hier bijna het verschil tussen een zwart-wit en kleuren televisie.

Wat is nu het voornaamste voordeel van HDR, de diepte van de kleuren (alleen door echt oplettende kijker zichtbaar) of de mogelijkheid om meer contrast aan te brengen tussen donkere en lichte delen in het beeld?
Ik dacht precies hetzelfde... HDR zal vast wel een stuk beter uitzien, maar van de voorbeelden die ik regelmatig voorbij zie komen geloof ik geen bal. Ik zal het toch eens met mijn ogen moeten gaan bekijken. Ben trouwens benieuwd naar HDR-monitoren.
Het is de moeite beslist waard vind ik, ook al heeft mijn TV een beperkte licht-opbrengst. Maar het echte zwart maakt dat weer aardig goed is mijn indruk. YT HDR wordt (nog) niet als zodanig ook weergegeven zie ik, daar zal wel een update van de YT app voor nodig zijn? LG, doe je best.
Jaaaa en dan zal je zien dat net jou tv die update niet krijgt :P want niet genoeg power je hebt toch net 256mb memory meer nodig.
kwestie van een Chromecast Ultra. ¤79 kan er ook wel van af als je je een OLED-tv'tje kunt veroorloven en uiteindelijk moet je daar toch wel aan geloven :+
HDR heeft alleen zin als het weer te geven beeld heel veel contrast heeft. Bijvoorbeeld een ondergaande zon. Of laten we een voorbeeld nemen van een kamer met een klein raam met buiten veel licht.
Omdat je de 256 helderheidswaarden dan moet verdelen over de scene buiten en de scene binnen (en veel tussenliggende waarden worden niet eens gebruikt in dit voorbeeld) heb je misschien maar 60 waarden over voor de kamer en 60 voor de blik naar buiten. En dat is te weinig. Door 10 bits kleur te gebruiken zijn er voldoende tussenstapjes voor beide beeld-gedeeltes.
Door op te nemen in 10 bit heb je altijd een mooier beeld ook als de zon niet ondergaat. daarnaast is er altijd genoeg contrast mits je het kan opnemen met een camera en tv die het kunnen opnemen en weergeven. zelf in een donkere ruimte zal het contrast dan altijd hoger zijn .
tis alleen jammer dat zoals netflix oud matriaal geüpgrade hebben naar hdr zodat het nog niet is zoals het zou moeten zijn.
Hdr zorgt ervoor dat bijvoorbeeld dat je reflecterend licht op een auto beter kan vastleggen, met sdr zie je gewoon een witte vlek op je auto, met hdr kan dat reflecterend licht veel realistischer worden gebracht op je scherm.
Beetje overrated. Verrijkte kleuren heb je niet echt zo extreeem als op de foto gesimuleerd wordt. HDR staat voor high dynamic range. Dus in de hooglichten en schaduwen zit meer detail en contrast. Daar komt het eigenlijk op neer.
je hebt ook veel meer kleuren dus het gaat wel wat verder dan alleen maar hooglichten en schaduw .
gaat van 8 naar 10 bit das nogal een verschil
8 bit heeft 256 grijstinten en 16.7 miljoen kleuren terwijl 10 bit 1024 grijstinten en 1.07 miljard kleuren

[Reactie gewijzigd door titatovernaar2 op 7 november 2016 23:04]

Het is ook een gesimuleerd beeld. Dat staat er onder.
Ik heb geen HDR tv en ook nog nooit eentje gezien (als in, properly). Ben wel benieuwd, maar nu ik net over ben naar 4K zal het nog wel een aantal jaar duren.

Ik vind het verschrikkelijk triest dat YouTube zo ontzettend snel is met dit soort zaken, maar qua geluid nog steeds zwaar achter loopt. 2.0 geluid is echt niks.
Youtube heeft wel degelijk support voor 5.1 audio.

Bron:http://superuser.com/questions/906385/does-youtube-support-proper-output-of-dts-encoded-files
Naja, support is dan een groot woord als het zowat nergens op werkt...
Had de Nvidia Shield TV ook verwacht met ondersteuning voor Youtube HDR.
https://shield.nvidia.com...ld-experience-upgrade-3.2

Deze ondersteund sinds versie 3.2 in juni Netflix HDR.
Een iPhone 7 zou dit toch ook moeten kunnen ondersteunen?
Waarom denk je dat?

Is de display aansturing 10bit (hardwarematig)? Want daar gaat het om. Ik denk niet dat dat het geval is.
Wide color gamut is iets anders dan HDR, als dat het is waarom je denkt dat het mogelijk is.

[Reactie gewijzigd door gjmi op 7 november 2016 22:38]

10bits is ook iets anders dan HDR. Als de maximale waarde RGB 1023,1023,1023 gelijk staat aan de maximale RGB 255,255,255 op een 8bpc display, heb je géén HDR. Je hebt alleen meer stappen van zwart tot wit.
Hoe zit dat dan als je 12bpc met full range RGB hebt?
In dit geval van een MSI 970GTX naar een Philips 32PFL9604H/12, welke een lg paneel heeft die 2250 biljoen kleuren a 17-bits rgb aan zou kunnem. Een oude doch capabele 1080p TV dus.
Simpel gezegd: het aantal stapjes van zwart tot wit zegt niets over het dynamisch bereik. Dat zegt alleen maar iets over hoeveel kleurinformatie je ter beschikking hebt. Waar al die kleurinformatie voor gebruikt wordt, is aan de implementatie.
Noem mij maar dom, maar het lijkt me nogal voor de hand liggend dat deze informatie gebruikt word om een beeld op te bouwen in de grafische kaart, welke deze dan als per pixel RGB data verstuurd naar de monitor. Welke deze dan, bij uitgeschakelde 'verbeteringsfuncties' en gelang het bereik al gegeven in de specificaties, het beeld dan zo zal weergeven als deze het binnengekregen heeft.
Het lijkt mij niet dat de kleurinformatie nog veranderd vanaf grafische kaart in elk geval, en het doel van deze kaart en de monitor lijkt me nogal simpel.

Kort samen gevat denk ik dat ik jouw laatste opmerking dus niet helemaal begrijp. Wellicht denk jij aan de vertaalslag van media naar informatie waar je grafische kaart mee aan de slag gaat?
Als je 10 bits per kanaal (10bpc) hebt, dus 30 bits per pixel, wil dat nog niet zeggen dat je een HDR-beeld hebt. Alleen maar meer dan 8bpc is niet gelijk automatisch HDR. HDR heeft wel meer dan 8bpc nodig, maar meer dan 8bpc is niet per se HDR.

Je kunt wel 100bpc hebben, maar dat is nog steeds geen HDR. Het is pas HDR als je voorschrijft dat die bits een HDR-signaal vormen.
Dus je kleur bereik is nog niet gelijk je kleur bereik...? 8)7

Klinkt weer als een marketing gimmick als ik eerlijk moet zijn, of een één of ander kleurverbetersysteem welke weer onnodig latency veroorzaakt wanneer de TV dit moet vertalen.

Meh... Ik koop wel gewoon weer een TV moet een deugdelijk paneel erin als ik het eraan toe heb. Ik denk dat ik daar meer aan heb als ik eerlijk moet zijn.

Bedankt voor de uitleg in elk geval.
Deels mee eens. Die meer stappen heb je nodig omdat je anders nog meer banding krijgt dan met niet-HDR. je hebt natuurlijk ook een scherm nodig dat hoog contrast weer kan geven.
Nee, peak brightness zou op minimaal 1000 nits moeten zitten bij een LCD paneel.
Kan dit op de nieuwe Macbook Pro's? Zijn die HDR capable?
Weet iemand toevallig met welke software /codec hoe ik zelf hdr video's kan renderen in bijvoorbeeld 3d studio max in het formaat hdr 10

[Reactie gewijzigd door titatovernaar2 op 7 november 2016 23:05]

Je kunt H.264 of HEVC als codec gebruiken, die ondersteunen beide 10-bit. Als encoder kun je x264 of x265 gebruiken, ook die ondersteunen beide 10-bit.

Zoals gjmi al aangaf moet je bron materiaal wel 10-bit of meer zijn. Een Blu-ray, DVD of iTunes download zijn bijvoorbeeld allemaal 8-bit en dus niet geschikt.

[Reactie gewijzigd door JackDashwood op 7 november 2016 23:22]

dankje en Kwam erachte dat adobe 2017 ppremière ondersteuning bied voor hdr
De 10bit ondersteuning moet al in de bron zitten, dus bijvoorbeeld 3D studio MAX. Anders heb je er niets aan. Als de bron 8bit maakt, kun je het niet omzetten in echt HDR. Het zal wel het formaat hebben, maar niet het gewenste HDR effect.
dat wist ik ja bedankt.
Waar die 32bit voor staat is denk ik iets anders dan waar die 10 bit voor staat.
Die 32 bits is 4*8bits, dus 8bits per kanaal. En bij 10bit HDR is het 10bit per kanaal.

Je render software zal specifiek HDR ondersteuning moeten hebben.
Je kunt het beter vragen op een forum over 3D studio max. Daar zullen ze je beter kunnen helpen.
dankje ik render gewoon uit op 16 bit in max dan moet goed zijn lijkt me.
er is jammergenoeg nog weinig info verder .


Om te kunnen reageren moet je ingelogd zijn



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True