Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Samsung werkt samen met Panasonic en 20th Century Fox aan HDR10+-standaard

Door , 26 reacties

Samsung heeft gezegd dat het samen met 20th Century Fox en Panasonic gaat werken aan de ondersteuning van HDR10+. De drie bedrijven richten een entiteit op die de standaard vanaf januari 2018 gaat aanbieden. Hiermee wil Samsung tegenwicht bieden aan de Dolby Vision-standaard.

Deze samenwerking van Samsung met Panasonic en 20th Century Fox betekent waarschijnlijk dat tv's en content van deze bedrijven voorlopig geen ondersteuning zullen bieden voor het concurrerende Dolby Vision. Samsung heeft in recente hoogwaardige tv's al de HDR10+ standaard geactiveerd, al werkt dat nog niet via hdmi. Vanaf januari komt de standaard beschikbaar voor onder meer fabrikanten van tv's en blu-ray-spelers. Op de IFA-beurs in Berlijn toont Panasonic waarschijnlijk de eerste tv's die HDR10+ ondersteunen.

Samsung presenteerde in april HDR10+ als nieuwe open standaard voor hdr. Daarbij werd bekendgemaakt dat Amazon heeft toegezegd de standaard te gaan gebruiken voor zijn eigen videostreamingdienst. Samsung meldde toen al dat het met meer partijen in gesprek was om de nieuwe standaard te gaan ondersteunen, maar naast Amazon werden geen namen genoemd.

Alle grote tv-fabrikanten ondersteunen de open HDR10-standaard en ook producten als de PS4, Xbox One en Chromecast kunnen met HDR10 overweg. Daarmee is de ondersteuning veel breder dan bij het concurrerende Dolby Vision. De door Samsung aangekondigde uitbreiding moet juist een van de nadelen van HDR10 tegenover Dolby Vision opheffen. HDR10 ondersteunt namelijk alleen statische metadata en geen dynamische. Bij dynamische metadata kunnen de gemiddelden en grenzen op basis van scene-bij-scene en zelfs frame-bij-frame bepaald worden, waardoor de weergave getrouwer moet zijn.

Dolby Vision ondersteunt in tegenstelling tot HDR10+ een 12-bits kleurenweergave en een maximale helderheid van 10.000 cd/m². De standaard van Samsung gaat tot 1000 cd/m². Daarnaast vraag Dolby voor het toepassen van zijn eigen standaard een licentiebedrag, terwijl Samsung alleen een klein administratiebedrag in rekening brengt. Hoe hoog dat bedrag is, of andere nadere details daarover, zijn niet bekendgemaakt.

Vooralsnog is HDR10 de dominante hdr-standaard, al lijkt Dolby Vision aan een opmars bezig. Duurdere tv's van LG ondersteunen Dolby Vision, en datzelfde geldt of gaat gelden voor tv's van Sony, Loewe en Vizio. Ook Netflix ondersteunt de standaard; veel eigen Netflix-series zoals een aantal uit de stal van Marvel Studios ondersteunen Dolby Vision. Alle grote Amerikaanse filmstudio's, op 20th Century Fox na, hebben gezegd films te gaan uitbrengen in Dolby Vision. Vrijwel alle uhd-blu-ray-films ondersteunen vooralsnog alleen HDR10, al kwamen eerder dit jaar de eerste films uit met Dolby Vision: Despicable Me en Despicable Me 2.

Door Joris Jansen

Nieuwsredacteur

28-08-2017 • 18:08

26 Linkedin Google+

Reacties (26)

Wijzig sortering
Uiteindelijk geef 12 bit dolby vision gewoon meer kleuren dan 10 bit hdr.
Jammer natuurlijk dat het een gesloten standaard is.
Maar goed uiteindelijk gaat het om de content maker wat die maken en daar zit dolby goed. Niet alleen met dolby vision of atmos en andere systemen voor surround sound doet dolby het gewoon goed.

Maar goed hdr wordt na de 4k 8k het nieuwste verkoop argument voor alweer een nieuwe tv. 4k content begint pas net en of je het echt nodig hebt hangt af van je tv hoe groot en hoe ver zit je er af.

Meer kleuren is iets dat men al jaren had kunnen doen maar schijnbaar pas nu mee komt. Het lijkt er haast op dat ze gewoon wachten, eerst van hd naar 4k, vooruit 3d was een flop.
Zit je met 4k dan kun je over paar jaar de boel weer wegdoen en vision of hdr10 kopen. Ja de marketing machine gaat goed door.
De HDMI 2.1 standaard dat wordt de eerste bottleneck voor de huidige generatie 4K TV's, denk ik. Pas met HDMI 2.1 aan boord heb je echt genoeg bandbreedte voor 4K 60Hz/120Hz 10 Bit HDR Chroma 4:4:4.

Bron: https://en.m.wikipedia.org/wiki/HDMI.
Die 12-bits doelt toch alleen over de gradaties, niet over de diepte van de kleuren? Ik denk zelf dat colorspace eerst belangrijk is. Wanneer dat resulteert in zichtbare kleur-stapjes wordt dat 12-bits pas interessant. (en voor in de huiskamer is dat nog niet zo ver, ben ik bang)
Klopt, 8, 10 of 12 bit vertelt alleen over de gradaties per kleur kanaal (RGB: 256, 1024, 4096)
sRGB, aRGB, DCI-P3, REC2020 vertelt over de kleurruimte (diepte).
Alleen de intensiteit voor het stralen van het licht wordt naar mijn weten alleen besproken in HDR10 en de Dolby Vision standaarden.
12 bit is zeker de moeite waard, je krijg kleuren die je nu op een scherm gewoon niet te zien krijgt. Bepaalde tinten zijn in 8 bit gewoon niet mogelijk in 12 bit wel.
Maar dat zijn altijd kleuren die tussen 2 kleuren in liggen, niet een nóg intensere kleur rood bijvoorbeeld. Dat komt gewoon omdat de kleurrruimte beperkt is en die wordt met het aantal bits niet groter, alleen fijner ingevuld.

Die verwarring gebeurt wel vaker helaas.
Ik heb twee jaar geleden al een joekel van een TV gekocht, die al 4K is en HDR ondersteunt. Voorlopig doet Ziggo nog geen van beiden. Sterker nog, wat voor HD door moet gaan is kapot gecomprimeerd en vaak was de bron niet eens echt HD.

Prachtig dat er al aan 8K en 10-bits HDR gewerkt wordt, maar wie gaat daar zijn TV voor inruilen als Ziggo, de commerciële en publieke omroepen en het gros van het Netflix aanbod en concurrenten nog niet eens op 4K zitten?

Daarom loopt het volgens mij wel los met ghet voortijdig 'wegdoen' van TV's. Voordat 4K en UHD een beetje standaard zijn, ben je zoveel jaar verder dat je TV waarschijnlijk al gesneuveld is en je toch al een nieuwe moest kopen.
Tja je had je ook die vraag 2 jaar geleden kunnen stellen. Waarom toen 4k kopen, was een stuk duurder dan hd en je hebt er nu 2 jaar later nog niets aan.

Wat ik aangeef is dat het allemaal marketing is.

We hebben de flop 3d gehad.
Nu krijgen we al jaren 4k te horen maar uitzendingen in 4k zal nog heel wat jaren duren. We zitten pas op full hd en sommigen zenders zitten er nog niet eens op. Dus 4k, leuk voor de marketing en die ene youtube of netflix film maar echt nodig hebben.
Echt nodig heb ik sowieso die hele TV niet ;)

Maar ik zou zó weer een 4K UHD kopen als ik in dezelfde situatie was. Vorige TV ging 10 jaar mee. Ik heb weinig trek om nog 10 jaar 'HD ready' oftewel half HD te kijken, terwijl alles langzaam naar HD opschuift en ik voor ¤12 p/m op Netflix 4K kan zien.

Het was wel een dure TV maar een Ziggo abbo kost meer (per jaar).
Je hoeft nooit achter elke nieuwe technologie aan te lopen natuurlijk. Als je gisteren tevreden was met HD dan ben je wel een hele grote sufkop als je dat vandaag ineens niet meer bent omdat 4K er is. Al hoef je de levensduur van je TV ook niet uit te zitten natuurlijk. Altijd wel iemand die je er een groot plezier mee doet omdat hij/zij wat minder hoge eisen stelt. En wees eerlijk. Niet elke verbetering zie of hoor je daadwerkelijk als je onderuit op je bank ligt te kijken. Vooral de verschillen tussen HDR10, HDR10+ of Dolby Vision zijn voor veel mensen oren of ogen niet meer waarneembaar.
Voor de gemiddelde consument is het allang niet meer te volgen al die nieuwe technieken.. Van de week nog iemand uitgelegd dat hij ook HD kanalen had op z'n dure 4k TV, die zat tot nu toe SD kanalen te kijken en vond dat ook al prima.. Leg die maar eens uit wat HDR10, HDR10+ of Dolby Vision is.. Heeft totaal geen zin, de meesten weten het verschil tussen LCD met CCFL of LED en OLED niet eens..

[Reactie gewijzigd door Inflatable op 28 augustus 2017 19:10]

Precies, ja daar woord ik ook erg moe van, het zou lekker zijn dat ze aan een of twee standaarden houden 10 jaar en dan weer een betere nieuwe standaard nemen, maar daar verdienen ze niet genoeg aan vinden ze, ze verdienen veel meer als je iedere 5 jaar een nieuwe moet kopen als je gebruik kan maken van de nieuwe standaarden.
Even een n00b vraag - er even vanuit gaande (misschien foutief) dat een tv scherm 24/32 bit kleuren gebruikt. Hoe verhoudt zich dat dan tot HDR? Waar komen die 10/12 bit in het spel?
Die maken het mogelijk meer gradaties van kleuren weer te geven waardoor je minder kans hebt om strepen (banding) te gaan zien. Ook bij HDR heeft dit (volgens mij) als voordeel dat je geen strepen gaat zien als een deel lichter of donkerder weergegeven wordt ten opzichte van niet-HDR.

De bitdiepte zelf maakt iets niet HDR, het voorkomt alleen problemen. De metadata wordt gebruikt om te bepalen hoe licht/donker een scene er uit moet zien, simpel gezegd.
Als je je verdiept in het kleurbereik van een westerling of bosjesman, dan is voor de westerling de kleur groen gewoon groen maar de bosjesman ziet heel veel soorten groen.
Voor de bosjesman is rood gewoon rood maar de westerling ziet meer kleuren rood.
Dat effect komt doordat je ogen worden getraint op de kleuren in je omgeving.
12bit is dus niet perse beter
Of juist wel, want met het aantal uren dat we achter een scherm doorbrengen zouden we maar zo eens op den duur wat kleur gaan missen.
Ben benieuwd wat deze standaarden ons gaan brengen en vooral wat de consequenties zullen zijn voor de bezitter van een bepaald merk tv en de diverse streamingsdiensten. Moet ik met mijn Loewe tv dan maar gaan voor Amazon, ipv Netflix? Kan mijn Sony ook met de toekomstige Disney streamingdienst overweg? Of heb ik dan minder beeld dan mogelijk. Misschien tijd voor een oude bekende xkcd? :) Een nieuwe standaard die deze verenigt of achter zich laat? Dan hebben we lekker drie standaarden!
Heel eenvoudig heb je nu een 8 bit flatscreen dan kun je hdr in 10 bit wel afspelen maar je ziet de extra kleuren gewoon niet.

Het is zoels 4k op een hd tv afspelen, jij ziet de scherpte niet, die zie je alleen op een 4k tv, idem met 10 bit hdr of 12 bit dolby, je scherm of beamer moeten het technisch aankunnen.

Meest grappig is als je op je oude scherm een website bezoekt waar ze het verschil laten zien, groter kleurbereik en bla bla. Je kan het verschil op een oud scherm gewoon niet zien. d.w.z je bent beperkt tot het aantal kleuren dat je scherm kan laten zien.

HDR op zich ios de techniek van filmen, stel je kijkt door raam, dan is of de kamer donder of het raam, met hdr zijn beide goed. Dat kun je op een oude tv ook zien, maar 10 bit kleuren dus niet.
HDR op zich ios de techniek van filmen, stel je kijkt door raam, dan is of de kamer donder of het raam, met hdr zijn beide goed. Dat kun je op een oude tv ook zien, maar 10 bit kleuren dus niet.
Nee, als beide goed zijn dan komt dat door tonemapping, wat overigens al jaren standaard is in digitale cinematografie. Bij fotografie word de HDR term misbruikt voor HDR opnames (RAW of exposure bracketed foto's) die terug naar een "LDR"-formaat zijn getonemapped, zoals jouw voorbeeld. Bij echt HDR (zoals Dolby Vision) zou de kamer 'normaal' zijn, en tegelijkertijd uit het raam, komt er een gigantische bak met licht (zonder clipping).

Dat kan uiteraard enkel fatsoenlijk weergegeven worden met een OLED paneel of heel fijnmazige full-array LED backlight, of een goede projector.

De 10/12-bpc (wide gamut) kleurpaletten die door DCI-P3 en Rec.2020 gespecificeerd zijn kunnen ook met minder luxe "HDR" TV's weer worden gegeven, alleen krijgen ze dan geen Dolby Vision labeltje, omdat ze met hun backlight niet aan alle eisen voldoen.

12-bit per channel kleur is overigens niets nieuws, "Deep Colour" bestaat al een hele tijd, en werd (iirc) ook daadwerkelijk bij PS3 games gebruikt mits de TV dat die functionaliteit had. Dat was echter 10/12/16-bpc in het standaard (beperkte) gamut, dus om banding tegen te gaan.

[Reactie gewijzigd door SirNobax op 28 augustus 2017 20:24]

Alle tvs die niet het aantal lumen halen waar de content in geschoten is doen aan tonemapping. Dit is voor praktisch alle tvs het geval aangezien er bijna niks gemasterd wordt op 1000 nits. Sowieso alle oleds moeten tonemappen met hdr content omdat die de 1000 niet eens halen in de praktijk.
Ik heb een tv die allebei de standaarden ondersteund zowel hdr10 als dolby vision.

Bij zijn schitterend om naar te kijken.
Dat zou niet zo slim zijn want de Loewe TV ondersteunt Dolby Vision en Amazon HDR10+. Netflix ondersteunt wel Dolby Vision.

Maar ik begrijp je punt. Al die "standaarden" zijn zo gefragmenteerd dat het geen standaard meer is. En het is jammer dat de open standaard (HDR10+) kwalitatief gewoon minder is dan de Dolby Vision standaard.
Nu maar hopen dat er snel één standaard komt, anders krijg je straks problemen met bepaalde content tov de televisie die je gebruikt, waardoor het eea niet overkomt zoals het bedoeld is..
Hoewel ik zelf ook hoop dat er snel 1 standaard overblijft (altijd duidelijker voor de consument) verwacht ik wel dat de juiste afspeelsoftware en -hardware het mogelijk zal maken om content in het ene formaat af te spelen op het andere formaat.
De HDR10 standaard is iig op dit moment de meest ondersteunde.
Voor wie eens wil zien hoe Dolby Vision eruit kan zien, moet maar eens naar de Dolby Cinema bioscopen gaan in Eindhoven of Hilversum. Adembenemend. :)

In Europa zijn er maar zes van deze bioscopen, waarvan twee dus in Nederland.

[Reactie gewijzigd door honey op 28 augustus 2017 21:02]

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*