Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Samsung en Amazon komen met HDR10+-standaard

Door , 71 reacties

Samsung presenteert een nieuwe open standaard voor hdr: HDR10+. Het gaat om een uitbreiding op de bestaande HDR10-standaard met dynamische in plaats van statische metadata. Amazon gaat de standaard gebruiken voor zijn streaming Video-dienst.

De gehele uhdtv-lijn van Samsung van dit jaar kan al overweg met HDR10+ en de uhd-modellen van vorig jaar krijgen in de tweede helft van 2017 ondersteuning via een firmware-update. Samsung meldt met meer partijen dan Amazon samen te werken voor HDR10+-content, maar namen noemt het bedrijf niet. Ook is niet duidelijk of andere fabrikanten achter de standaard staan.

Alle grote tv-fabrikanten ondersteunen de open HDR10-standaard en ook producten als de PS4, Xbox One en Chromecast kunnen met HDR10 overweg. Daarmee is de ondersteuning veel breder dan bij het concurrerende Dolby Vision. De nu door Samsung aangekondigde uitbreiding moet juist een van de nadelen van HDR10 tegenover Dolby Vision opheffen.

HDR10 ondersteunt namelijk alleen statische metadata en geen dynamische. Met statische metadata is tone mapping en zijn de gemiddelden en grenzen wat betreft helderheid voor een hele film vastgelegd, bijvoorbeeld van 0 tot 1000cd/m2. Bij films met veel felle beelden, kunnen scenes met weinig licht er daardoor donkerder uitzien dan de bedoeling van de regisseur was, omschrijft Samsung het. Bij dynamische metadata kunnen de gemiddelden en grenzen op basis van scene-bij-scene en zelfs frame-bij-frame bepaald worden waardoor de weergave getrouwer moet zijn.

Reacties (71)

Wijzig sortering
HDR10+ lijkt eerder een middel om het voor tv's juist makkelijker te maken om toch maar te voldoen aan de HDR10 standaard. Waar een tv eerst gewoon 0-1000 nits moest kunnen weergeven, is het dadelijk mogelijk om dynamisch de boel aan te passen. In andere woorden: wanneer het te lastig wordt voor de tv om goed weer te geven passen we gewoon dynamisch de metadata aan waardoor de tv toch voldoet aan de standaard.

Zodra het technisch mogelijk wordt om nog veel meer nits weer te geven, geef ik Dolby Vision de grootste kans van slagen. Als eerste omdat het tot 10.000 nits gaat, daar waar HDR10 maar tot 1000 nits gaat. Daarnaast is Dolby misschien wel de allergrootste speler op de markt. Wanneer er apparaten zijn die inderdaad tot 10.000 nits gaan, zullen meer en meer films gemastered zijn volgens de Dolby Vision standaard en zal het ook voor thuisgebruik een stuk eenvoudiger zijn.

Helaas is er nog wel een lange weg te gaan. Kijken we naar de huidige top monitoren (die waar Dolby Vision mee gemastered wordt) dan zien we dat de, watergekoelde, Dolby Pulsar monitoren maar tot 4000 nits gaan. Nog niet eens de helft van hetgeen ze uiteindelijk (ooit) moeten weergeven.

Buiten dit alles heeft misschien Netflix nog wel de allergrootste vinger in de pap. De Ultra Blu-ray's zullen nooit echt van de grond komen, daar alles verplaatst is naar online. Vergeleken met Netflix is Amazon Video weer een kleine speler...

[Reactie gewijzigd door MazeWing op 20 april 2017 21:23]

Netflix heeft nauwelijks nieuwe films, enkel eigen content bestaat in HDR bij mijn weten. Je kunt ook niets vastzetten, wanneer hun overeenkomst voor een stuk content afloopt ben je dat onherroepelijk weer kwijt. Verder streamen ze HDR 4K met minder dan 24 Mbps met een vergelijkbare codec waar UHD Bluray tot maar liefst 128 Mbps kan pieken (op 100GB schijven). UHD Bluray heeft ook praktische voordelen boven DVD en Bluray buiten de resolutie: HDR en 60 frames per seconde worden ondersteund en je ziet geen schijven met regiocodes meer. In die zin is het niet enkel streaming vs. UHD Bluray, maar in bredere zin streaming vs. schijfjes.

Netflix in zijn huidige vorm heeft nog teveel nadelen om schijfjes overbodig te maken voor mijn gevoel, net als dat Bluray te weinig voordelen had om DVD te doen vergeten. Er worden echter nog dagelijks zeer veel schijfjes verkocht. Het daalt wel, maar het gaat nog altijd om honderden miljoenen per jaar. Dat stopt ook niet zomaar, want zo hebben we in Nederland alleen al rond de 300.000 huishoudens die een fundamenteel obstakel hebben op weg naar internet snel genoeg voor lage kwaliteit Youtube streams. Een opstelling om (UHD) Bluray te kijken kun je echter op al die plekken zo neerzetten.

http://politiek.eenvandaa...aag_internet_buitengebied
https://www.avforums.com/...sales-statistics.2004986/

Verder een prima post. De HDR10 limieten van 1.000 nits en 10 bits kleur per kanaal blijven handhaven bij HDR10+ komt niet erg toekomstbestendig over inderdaad. Gemiste kans...
> Bluray te weinig voordelen had om DVD te doen vergeten

Euhm? Alleen al de toename in resolutie (van pal/ntsc) was genoeg voor mij om het voordeel te zien...
Bluray is zeker een mooie stap voorwaarts, maar er worden ook in 2017 nog meer DVD's verkocht dan Blurays. Dat probeerde ik vooral te zeggen. DVD heeft VHS wel doen vergeten afgezien van nostalgie, want VHS wordt niet meer op grote schaal verkocht en verhuurd.
Leuke foto maar toon dan HDR10 vs HDR10+ :+

Verder weet ik niet of ik wel geloof in de beschrijving van Samsung, ik kan me bijna niet voorstellen dat een film op DVD/BluRay word geslingerd zonder even te checken of alle donkere scenes nog wel te volgen zijn, en alle lichte scenes niet te licht zijn, dit is gewoon een doorsnee geval van 'features bedenken zodat mensen weer een nieuwe tv "nodig" hebben'
Leuke foto maar toon dan HDR10 vs HDR10+ :+
Sterker nog, als je de foto op een niet-hdr scherm bekijkt, zie de werking van hdr helemaal niet (net zoiets als "Kijk hoe goed UHD is!" op een 1024x768 monitor).

Verder heb je volkomen gelijk wat de "features bedenken" betreft... ik heb heel wat films én in de bios én thuis via de beamer of tv (beide gewoon FHD) bekeken, en ik heb nog geen één keer het gevoel gehad van "Goh, dit ziet er totaal anders uit dan ik me herinnerde...".
Klopt niet helemaal wat je zegt.

Als ik een UltraHD film kijk op een FullHD scherm dan ziet dat er toch scherper uit dan een FullHD film op een FullHD scherm.
Heb je hier een bron van? Dat lijkt me heel sterk
Niet de persoon op wie je reageert, maar dit is wel een bekend fenomeen inderdaad. Het heeft te maken met de compressie in zekere zin.

Zie :https://en.wikipedia.org/wiki/Chroma_subsampling voor meer uitleg.

Kort samengevat komt het erop neer dat de kleurinformatie van een pixel wordt opgesplitst in een apart "luminantie"-kanaal (helderheid), en 2 kleurkanalen. Dit komt meer overeen met de manier waarop onze hersenen beeld verwerken. Scherpte zit 'm vooral in de luminantie. Het is dus gebruikelijk dat de kleurinformatie wordt gedeeld over groepen van meerdere pixels. Een mogelijkheid zou zijn 4:2:0 subsampling, waarbij kleur-informatie wordt gedeeld over sets van 4 pixels.

Op het moment dat je dus van een resolutie van 4k HD met 4:2:0 subsampling terug schaalt naar full HD, heb je dus een hogere kleur-resolutie (kleurinformatie per pixel IPV kleurinformatie per 4 pixels), wat er net even wat scherper uit ziet.

[Reactie gewijzigd door C0R4x op 21 april 2017 14:26]

Kijk dit lijkt mij een betere uitleg dan dat 'uhd naar fullhd dus interpolatie dus scherper' verhaal.

Rekening houdend met compressie is het natuurlijk wel mogelijk dat je een beter beeld krijgt. In feite kijk je naar een minder gecomprimeerd beeld (wat ook terug te zien is in de bitrate).
Zoek maar op Google.

Het is gewoon ook logisch want doordat een film geinterpoleerd wordt weergegeven krijg je een net iets scherper beeld dan een niet UltraHD film.
Dat lijkt me niet correct: dat UltraHD dat geïnterpoleerd wordt tot FullHD op je TV, had dan toch ook als FullHD variant aangeboden kunnen worden?

Het is op zich wel mogelijk dat het er beter uitziet, maar dat komt dan niet doordat het UltraHD geinterpoleerd naar FullHD is, maar doordat er een slechtere variant via FullHD gestuurd is.

De enige reden die ik kan verzinnen waardoor het er wellicht beter uit zou zien, zou te maken moeten hebben met compressie. Als de compressie voor FullHD waarneembaar minder goed beeld oplevert, kan het zijn dat de UltraHD variant teruggeschaald naar FullHD er beter uitziet.

Een andere mogelijke reden is, dat er bewust gekozen is om bepaalde beelkwaliteitsaspecten van de FullHD-variant beperkter te houden, om de UltraHD extra goed te laten lijken. Zoiets is ook wel eens gedaan bij AudioCD en SuperAudioCD, om SACD er beter uit te laten komen...
Het word niet geinterpoleerd omdat het gedaan wordt door de software of hardware maar omdat het nou eenmaal zo is dat de interpolatie vanzelf gebeurt.

De makers van eem film kunnen toch niet achteraf een film in slechte versie uitbrengen?

Bovendien heb ik dit gemerkt bij heel veel verschillende films en is het niet zo dat net die ene film door de makers is aangepast of zo.

Jij zoekt nu naar dingen om het te weerleggen omdat je je niet kan voorstellen dat het klopt wat ik zeg, maar dat jij het je niet kan voorstellen wilt niet zeggen dat het niet zo is.
Als jij verschil ziet, zal ik dat niet tegenspreken, hoor!

Het interpoleren gebeurt zeker niet "vanzelf". Een UltraHD (4K) video stream zal toch echt in software of hardware omgezet moeten worden naar iets dat uiteindelijk de pixels in je FullHD panel kan aansturen.

Daar zit typisch heel wat geavanceerd soft- en hardware achter om dit snel en efficient te kunnen uitvoeren. Als je iemand kent die e.e.a. van beeldverwerking weet, kan die je wel wat problemen uitleggen die daarbij komen kijken :-).

Het enige wat ik wilde zeggen is dat als je panel FullHD is, dat
je uiteindelijk naar FullHD op je scherm kijkt, dus wat je daar ziet had ook als FullHD naar je TV gestuurd kunnen worden. Het effect van interpolatie kan daar ook in verwerkt worden. In de praktijk zitten daar wel wat mits-en en maar-en aan, omdat FullHD vrijwel altijd gecomprimeerd (bijvb. subsampling van de kleurenkanalen, of h264 of mpeg2 compressie op het hele signaal) bij je TV of decoder komt.

Als je het niet eens bent met m'n uitleg of hoe ik denk dat dit allemaal werkt, dan kunnen we er maar beter een punt achter zetten of een keertje een biertje drinken en er eens in het echt over praten ;).
Het gaat er niet om of ik het eens ben met jou of niet.

Ik heb het over de interpolatie dat je ogen creeeren samen met de beeldweergave op het scherm dat door het optische effect van snel bewegende beelden een interpolatie creeert dat met het zichtbare licht in jouw ogen tot stand komt.

Ik heb het helemaal niet over de hardware en software die intern de interpolatie uitrekenen en de algoritmes die daar bijhoren.

Het is net als wanneer je tekent in een stapeltje papier en dan een animatie creeert zoals makers van animatiefilms doen, de animatie ontstaat omdat je de ontbrekende stukjes animatie van de beelden in je hersens zelf compleet maakt.

Dat is hoe de interpolatie ontstaat waar ik het over heb, en dat ontstaat dus vanzelf.
Jouw scherm gaat echt niet magisch meer pixels dan FullHD laten zien met een 4k film.

Die interpolatie zit er al in toen ze de film op full hd gingen renderen.
Waar zeg ik dat mijn scherm meer pixels rendert?

En over welke interpolatie heb jij het?

Ik heb het over de interpolatie die als bijkomstigheid zichtbaar wordt omdat je een hogere resolutie content op een lagere resolutie scherm bekijkt.

Je hoeft het niet te geloven, maar dat wilt niet zeggen dat het niet waar is.
Het kan gewoon niet ineens scherper worden als je op een fullhd scherm een 4k video gaat kijken. Dat scherm kan dat simpelweg gewoon niet weergeven. Het interpoleren van de pixels is al gedaan toen de film werd gemaakt en op de gewenste resolutie werd gerenderd. Dus of je nou fullhd of 4k kijkt je zal kijken naar geïnterpoleerde pixels.

Als jij denkt dat 4k scherper is op een fullhd scherm dan komt dit omdat je dit resultaat wilt zien en daarom lijkt het dan ook zo. Wellicht wel interessant voor een blinde test.
Sorry hoor maar jij zit nu feiten te ontkennen omdat jij vanuit je onderbuikgevoel redeneert dat het niet zou moeten kunnen.

Je leunt nu op geen enkel argument, ik zit hier niet dingen te verzinnen.

Ga maar even een onderzoekje doen op google en kom dan terug want je hebt alleen jezelf ermee als je op deze manier feiten gaat ontkennen.
Ik kan helemaal niks over jouw bewering vinden.

Mijn argument is dat een fullhd scherm simpelweg maar ~1/4 van het aantal pixels heeft ten opzichte van een uhd scherm. Dus zal het niet ineens magisch scherper worden als je een uhd film op een fullhd scherm afspeelt.

Het is wat anders als je bijvoorbeeld games speelt en deze op een hogere resolutie render en dan downscaled zodat je een soort AA effect krijgt. Bij films is dit echter allang gedaan.
Dat een FullHD scherm minder pixels heeft weet ik en dat het niet magisch scherper wordt weet ik ook.

Alleen is het gewoon zo dat het beeld scherper is, je hoeft het niet te geloven maar daar heb je jezelf alleen maar mee.

Het is namelijk gewoon zo en dat is een feit.
De foto is ook enkel ter illustratie. Als men bijvoorbeeld wil laten zien hoe goed UHD is doet men dat doorgaans door het gebruiken van overdreven voorbeelden, dit is ook zo'n geval.

Overigens is het logisch dat je bij het thuis kijken naar een film niet denkt dat het er anders uit ziet omdat je het niet kunt vergelijken. Je hebt de film misschien wel in de bios gezien maar je geheugen is niet perfect. Als je het TV beeld naas het bios beeld zou leggen (dus een 1 op 1 vergelijking) zou je wel degelijk verschil zien. Ik denk dat deze feature wel toegevoegde waarde heeft.

[Reactie gewijzigd door EnigmaNL op 20 april 2017 18:32]

Laat ze dat nu nog maar even doen hdr is nog steeds in de kinderschoenen. Alle verbereringen en betere standaarden verbeteren de markt alleen maar.
ik kan me bijna niet voorstellen dat een film op DVD/BluRay word geslingerd zonder even te checken of alle donkere scenes nog wel te volgen zijn, en alle lichte scenes niet te licht zijn,
Nee, dat ga je inderdaad nooit zien op een DVD of Blu-ray, want HDR data wordt pas bij UHD Blu-ray toegepast :P
Ik denk dat die scene-by-scene aanpassing wel gaat gebeuren. Zeker als HDR in de bioscoopversie gebruikt gaat worden: dat werk is dan al gedaan, en kan gewoon 1 op 1 worden overgenomen op de UHD-consumenten uitgave.
dit is gewoon een doorsnee geval van 'features bedenken zodat mensen weer een nieuwe tv "nodig" hebben'
Dat is het altijd. Gelukkig maar, ander zaten we nog steeds naar een zwartwit beeld vol ruis op een bolle CRT te kijken. :P
Ik heb een LG 65 inch B6 oled en dat hele HDR lijkt me een grote farce. Ik zie totaal geen verschil tussen "normale content" en "hdr content".

Het hele HDR heb ik totaal niet gevolgd, echter verschil zie ik dus niet. Kan iemand in jip en janneke taal uitleggen wat HDR doet en waarom dat verschil in kwaliteit kan opleveren ten opzichte van een "normale" video? Heeft het met een groter kleurbereik te maken omdat er meer bits per r,g of b channel beschikbaar zijn? Of hoe moet ik me HDR nou voorstellen?
Om direct antwoord te geven op je vraag: het verschil tussen non-HDR en HDR materiaal is duidelijk op te merken. Het is afhankelijk van je type TV (met name het aantal bits) en type media. 4K HDR Blu-ray is al een tijdje verkrijgbaar.

HDR geeft een betere weergave van kleuren en heeft een hogere output van helderheid (uitgedrukt in nits), door o.a. gebruik te maken van BT2020 t.o.v. het 'oude' BT709.

Niet-HDR materiaal maakt gebruik van BT709. BT709 omvat 34% van het totale kleurbereik en het bereik van BT2020 is ongeveer twee keer zo groot als BT709 en dekt 63% van alle kleuren. Kortom; er zijn meer kleurencombinaties mogelijk.
Verschil BT709 vs. BT2020

BT2020 is slecht een factor voor het weergeven van HDR materiaal. Voor een betere beeldweergave heb je ook nog te maken met 8bit vs 10bit media en scherm en Chroma Subsampling. :)

Voor mocht je meer willen lezen:
Alles over HDR (8bit vs 10bit)
Chroma Subsampling uitleg
Wat is High Dynamic Range (HDR)

Uitgebreide - meer complexere - uitleg (Engels):
http://www.acousticfrontiers.com/uhd-101-v2/

Hoop dat dit je enigszins wegwijs maakt.

[Reactie gewijzigd door HS2005 op 20 april 2017 22:38]

Zijn er al technieken om 100% kleurbereik te halen?
Wellicht dat er achter de schermen al gewerkt wordt aan een nieuwe standaard die 100% van het kleurenbereik, ofwel color gamut, kan weergeven. Echter zijn er nog geen schermen voor consumenten beschikbaar die dit bereik kunnen weergeven. Daarnaast is er geen media beschikbaar.

Mijn verwachting is dat dit tussen de 7 en 10 jaar het geval kan zijn. Tegen die tijd is 8K/10K ook geïntegreerd. Dit zijn puur speculaties vanuit mijn kant.

Afbeelding BT709/BT2020/DCI-P3

[Reactie gewijzigd door HS2005 op 20 april 2017 22:39]

Dan is dat in elk geval iets waar je bij de aanschaf van een nieuwe tv nog niet op hoeft te wachten ;)
Wellicht dat er achter de schermen al gewerkt wordt aan een nieuwe standaard die 100% van het kleurenbereik, ofwel color gamut, kan weergeven.
Zou het voor de volledigheid niet moeten zijn: 100% kleurbereik voor 10-bit media
Want eigenlijk zijn er oneindig veel kleuren?
Het gaat zelfs verder dan 10-bit.
8-bit: 256(rood)*256(groen)*256(blauw) = 16.777.216 kleurencombinaties
10-bit: 1024*1024*1024 = 1.073.741.824 kleurencombinaties

Schotel mij maar 12-bit media voor. :*)
12-bit: 4096*4096*4096 = 68.719.476.736 kleurencombinaties

Het CIE-standaardchromaticiteitsdiagram geeft een benadering van het gehele kleurbereik van het menselijk oog aan.

Ter aanvulling:
Een impressie van waar media naartoe gaat. De RED HELIUM 8K S35 Sensor kan 8K (8192 x 4320) op 60fps en 8K (8192 x 3456) op 75fps schieten.

De content ziet er geweldig uit! Als je een impressie hiervan zou willen bekijken kan dat hier. Peru 8K HDR 60FPS (FUHD) (Uiteraard geschoten in HDR)

[Reactie gewijzigd door HS2005 op 21 april 2017 11:29]

Deze info die je aan geeft klopt allemaal wel, maar......

Wat heb je er in de praktijk aan. ?

Vindt je het leuk ? Go for it.
Nu heb ik thuis nog een oude samsung plasma staan. Prima beeld. Het wow factor is eraf, ik kijk al 8 jaar naar dit scherm. Maar wat echt zoden aan de dijk zet is of een tv de kleuren correct weer geeft! Desnoods iemand met een spyder laten calibreren.

Je moet echt content hebben wil je hier gebruik van kunnen maken. Dan blijft nog maar de vraag ga je het zien. Het verschil tussen 1 bit kleurverschil is bijna niet merkbaar. Laat het 2 bit zijn. Iets merkbaar. Kijken we elke dag naar bloemen, nemo's of avatars op tv? Nee. Heel realistisch gezien die rode bloem spat van je scherm af alleen zie je ook heel goed alle pukkels in je gezicht als je net die vakantie foto's laat zien op je hdr scherm. Maw. je zet de tv niet ook altijd op volle helderheid als je juist die film in een donkere kamer aan het kijken bent. Die plaatjes die ze presenteren zijn altijd uitgewassen plaatjes zonder enig contrast.

Stukje marketing.
Is dat niet waar Samsung mee adverteert met die nieuwe QLED lijn? In de praktijk blijven ze volgens mij echter steken op iets van 95%, maar is dus aardig in de buurt wat ik begrijp.
Ik heb zelf een 75" Samsung JS9000 dat ook HDR kan weegeven. 10-Bit 4:2:2 content kan ik niet bekijken aangezien dit type scherm 8-bit is.

Tijdens de aanschaf was ik niet bezig met zaken zoals HDR en Chroma Subsampling. De kleuren zagen er gewoon mooi uit. :)

Fabrikanten geven echter niet goed aan of hun type scherm 8-bit of 10-bit is. Iets wat wel degelijk belangrijk is bij dit soort zaken. Net zoals je voorheen HD-ready had is dit bijvoorbeeld HDR-ready.

Samsung zijn nieuwe QLED lijn maakt gebruik van een 10-bit paneel, maar of dit daadwerkelijk 95% van het kleurbereik kan weergeven klinkt mij meer als een marketing kreet dan door de techniek aangetoond kan worden. Zelfs al zou het scherm dit kunnen weergeven dan heb je alsnog te maken met BT2020.
Altijd goed om even door te lezen, bedankt voor info, ga er zo gelijk mee beginnen. Ben toch aan het werk :)
Wat heb je vergeleken aan media dat je tot die conclusie bent gekomen?
Enige wat ik aan HDR materiaal heb is via Netflix... Iron Fist, of Dare devil ofzo. Dolby Vision logo verschijnt rechtsboven in het beeld, waarmee de LG aangeeft dat hij dus HDR materiaal herkent en aan het spelen is, maar ik zie echt geen verschil.
HDR via Netflix is over het algemeen idd van weinig toegevoegde waarde. Je zou het voor een eerlijk vergelijk uit goede bron moeten bekijken. Vanaf een UHD BluRay schijf of als demo misschien via USB.
Ik heb geen Blurayspeler.

Maar eerlijk gezegd begrijp ik de techniek niet. Als ik een X aantal bits heb om de helderheid van een rode pixel in te stellen, en zo ook voor de blauw en groene waarde, dan is dat toch de limiet van het kleurenbereik. Wat doet HDR dan precies? Ik ken de term HDR alleen uit de fotografie, maar dat heeft werkelijk niets met digitale panelen te maken en het kleurbereik van een dergelijk paneel.
Misschien geeft het volgende artikel wat meer zinnige info voor je?

https://www.cnet.com/news/how-hdr-works/

https://www.cnet.com/news...tvs-whats-the-difference/

[Reactie gewijzigd door hardware-lover op 21 april 2017 17:07]

HDR beeld zal trouwens niet "brighter" zijn dan niet HDR beeld, alleen de highlights zullen een stuk feller zijn.
Zelfs dat laatste hoeft niet perse het geval te zijn. Soms wordt het heel subtiel gebracht zoals bij onderstaande film.

https://youtu.be/Ebf2Oi23Pw0

Maar het is inmiddels misschien wel duidelijk wat de doelstelling is van HDR bij TV? Niet dat dit altijd goed in de praktijk wordt toegepast. Er schijnen zelfs twee referenties daarvoor te zijn. Specifiek voor Oled, op basis van het ultieme zwart, en specifiek voor LCD (waaronder Qled), op basis van de haalbare piek helderheid.
Ik heb een LG C7 en ik vraag me toch af welk materiaal jij hebt bekeken en of je instellingen wel goed staan. Want op de C7 is HDR toch echt wel top hoor.
Ja maar leg eens uit welk verschil jij dan precies ziet! Waar moet ik op letten om het verschil te kunnen zien?
De nu door Samsung aangekondigde uitbreiding moet juist een van de nadelen van HDR10 tegenover Dolby Vision opheffen.
En kan dit worden toegepast met een firmware update? Anders is het straks nog meer versnippert.
Netflix support overigens wel gewoon Dolby Vision.

En zoals ik het lees moet je dus ook weer alle bron materiaal opnieuw gaan uitgeven. Leuk standaarden.
https://xkcd.com/927/ is en blijft relevant. (Neem aan dat de tweakers onder ons hem natuurlijk al kennen).

Zo voelt het nu ook weer aangezien ik niet zie dat een alliantie een nieuwe standaard maakt maar één producent en één online distributeur.
Het is dus afwachten welke standaard omarmd gaat worden. Dolby? Technicolor? Samsung? En dat hoeft niet per definitie de beste te zijn. Het kan ook erg lang naast elkaar bestaan, zoals Dolby en DTS geluid.

[Reactie gewijzigd door Jorgen op 20 april 2017 22:15]

In het artikel staat dat bepaalde modellen een firmware upgrade krijgen.
Netflix moet lekker hogere bitrates gaan ondersteunen voordat ze iets misbaars als HDR implementeren. Ook graag de lossless codecs voor audio. Om optimaal gebruik te maken van je installatie ben je nog steeds aangewezen op 4K blurays
probleem met geluid is dat je dat met de apps op de tv (die dan de meeste mensen gebruiken) totaal niks aan de geluid heb. Want hoe krijg je dat weer uit je tv je versterker in? HDMI-ARC werkt nog niet voor meer de DD+ daar zijn we 2.1 voor nodig
Dat probleem geld voor mij totaal niet want ik gebruik mijn xbox one s voor Netflix. En zo zijn er meer digitale tv decoders die een netflix app hebben. En zoals al vanaf het begin van HDMI kan je lossless audio versturen op de hdmi uitgang van een apparaat

Edit: al sinds het begin van HDMI arc heb ik er alleen maar problemen mee ondervonden (synchronisatie, audio receiver die niet schakelt naar het arc kanaal) al die keren was het probleem zeer simpel opgelost door gewoon een spdif kabeltje te leggen. Dus de HDMI Spec moet wat strenger worden omtrent de implementatie en verwerking van arc voordat het een goed alternatief word. Anders flopt het net zo hard als hdmi cec

Edit2: graag even uitleg voor de -1 die gegeven word.

[Reactie gewijzigd door mikesmit op 21 april 2017 06:50]

Arc werkt hier perfect. Geen enkel probleem mee.
Ik heb tv's hier met 4k en met hdr10 en ook Dolby Vision. Verschil is er nauwelijks bij veel content. Eerlijk gezegd zie ik soms geen verschil. Dus ja concludeer daaruit wat je wil.
Op de zaak hangt een LG Oled, en ti's dat ik dan weet dat het er 1 is, en ik probeer ook wel m'n best te doen het verschil te zien... maar eigenlijk geeft het apparaat nauwelijks beter beeld dan de Philips dis ik thuis heb staan. Nou spelen we er niet all-day-long 4K HDR content op af, maar zelfs met Netflix, 4k youtube of een usb filmpje zie ik werkelijk geen verschil...nogmaals, ik doe er echt m'n best voor om in te willen zien waarom die Oled zoveel beter zou zijn.

Vooralsnog zal dedicated content zeker wel beter zijn op zo'n toestel, maar hier thuis staat de tv tekenfilmpjes en de rijdende rechter af te spelen ...sporadisch een Netflix 4k film. Daar ga je het verschil echt niet maken. Daarbij, ik ben weinig bereid om een moeizaam dure 4k hdr speler /content aan te kopen of überhaupt even 50+ GB te gaan zitten downloaden. Ik geloof iedereen op zijn woord die meent dat het beter is, maar in de meeste praktijk gevallen ga je volgens mij nooit het verschil er echt uit halen ...althans, optimaal benutten.
Helemaal eens. Als je een LG HDR OLED wilt zien excelleren dan is het zo simpel als 1, 2 en 3:

1. UHD Bluray speler met HDMI 2.0a bekabeling
2. UHD Bluray schijf met HDR en UHD premium logo's, bijvoorbeeld Planet Earth II
3. Verduister de kamer tot het punt dat je ogen moeten wennen aan de duisternis

Uiteraard zijn er ook andere manieren, maar dan is het veel lastiger om te bepalen of je echt de gewenste kwaliteit haalt. Als dit niet je ding is, dan valt er veel geld en tijd te besparen :Y)

http://www.techradar.com/...hd-blu-ray-movies-1329414
Ik durf bijna te beweren dat HDR10/Dolby Vision, in ieder geval op de hedendaagse 10 bit panelen, pure oplichting is.

Ik heb nog een derde tv hier (LG UF850V) een 4K tv die geen HDR heeft en daar speel ik dan een Costa Rica 4K filmpje van youtube op af, en het filmpje spat van het scherm en zou bijna zeggen dat het HDR is.

Nu wil ik dan 'echte' HDR filmpjes gaan vergelijken met mijn andere 4K HDR Dolby Vision en HDR10 tv's en dan kan ik dat 'opeens' niet afdraaien op mijn UF850V ... Dit is m.i. gewoon 'geblokkeerd' omdat als wanneer je het wil gaan vergelijken je dan niet/nauwelijks verschil ziet. ;)
Wat voor backlight hebben die TVs?
De Sony heeft FALD, de lg is een Oled.
Gebruik je wel een bron die met HDR of Dolby vision gemaakt is? Anders zie je ook eigenlijk geen verschil. Ook een bestaande film die met HDR formaat gecodeerd is zal niet anders zijn, bij het maken moet er rekening mee gehouden zijn.

[Reactie gewijzigd door gjmi op 20 april 2017 18:48]

Ja enkele Netflix series en enkele films zoals Passengers en daar zie ik geen verschil.
Daarnaast zie ik dat die conventionele foto gewoon donkerder is gemaakt. Ik bedoel de HDR10+ foto zou in mijn beleving dan een foto moeten zijn die iets zou toevoegen op een reguliere foto, maar rechts is voor mij een gewone foto. Niks speciaals.
Haha hier doelde ik dus op. Het is allemaal marketing, de consument gek maken met verdraaide beelden. Natuurlijk doen ze het 'normale beeld' veel doffer maken dan hoe het echt is. Anders kunnen ze het beeld rechts er nooit zo uit laten spetteren. Want hoe wil je op een 'normaal' scherm een beter beeld laten zien? Dat kan niet. ;)
Dat is hetzelfde als een audio-opname maken van speakers en deze dan terugluisteren over je eigen audioset en ze zo beoordelen. Dat gaat niet.
scene-by-scene is doenbaar, maar met frame-by-frame kan je zwaar epileptische toestanden veroorzaken :o
Het is leuk om die commerciële marketingplaatjes voorbij te zien komen tijdens een reclameblok op tv. Dan zijn er altijd wel mensen die een reactie geven in de trend van: "Wow moet je die kleuren zien!". Vervolgens ga je lachen en dan snappen ze niet waarom hen eigen reactie nergens op slaat. :9
(Commercieel marketingplaatje: https://ic.tweakimg.net/ext/i/imagenormal/2001478493.jpeg)
Wat is er mis met 265?
Ik overweeg dit jaar een nieuwe tv aan te schaffen. Wordt waarschijnlijk de LG B7V of C7V. Iemand enig idee of deze tv's (in potentie) de HDR10+ standaard gaan ondersteunen. Of koop ik dan weer iets wat op voorhand al weer achterhaald is.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*