Dvb-organisatie keurt standaard voor tv-uitzendingen in 4k goed

De DVB Steering Board heeft een nieuwe dvb-standaard voor uhdtv goedgekeurd. De dvb-uhdtv phase 1-standaard biedt voor tv-uitzendingen een resolutie van 3840x2160 pixels en biedt een verbeterde kleurdiepte van 10bit.

DVBDe nieuwe dvb-standaard is bedoeld voor zowel satellietuitzendingen als tv-zenders die via de kabel of ether uitzendingen in uhdtv-kwaliteit willen uitzenden. In plaats van de h.264-codec is gekozen voor de hevc-codec. Deze codec is gemiddeld tweemaal efficiënter en wordt onder andere door Netflix gebruikt voor zijn 4k-content.

Uhd-beelden, met een resolutie van 3840x2160 pixels bij 60Hz, krijgen in de dvb-uhdtv phase 1-standaard een verbeterde kleurdiepte van 10bit, meldt Techradar. De huidige dvb-standaarden bieden nog 8bit en hd-resoluties tot en met 1080p. Verschillende broadcasters wereldwijd, waaronder de BBC, experimenteren al met 4k-uitzendingen op basis van vergelijkbare technologie als in de standaard is vastgelegd.

De dvb-uhdtv phase 1-standaard zal door de DVB Steering Board, waarin meer dan tweehonderd bedrijven zitting hebben, naar het European Telecommunications Standards Institute worden gestuurd om er een officiële ETSI-standaard van te maken. In een mogelijke tweede fase van de standaard worden er mogelijk nog hogere resoluties en beeldverversingssnelheden gespecificeerd, al dan niet in combinatie met een nieuwe codec.

Ondanks het vaststellen van een nieuwe dvb-standaard zal het implementeren ervan enige tijd gaan kosten. Uhdtv's die momenteel op de markt zijn voldoen nog niet aan de standaard. Een mogelijke optie is om een nieuwe decoder de kopen. Deze moeten vanaf 2015 op de markt komen.

Door Dimitri Reijerman

Redacteur

08-07-2014 • 10:04

97

Submitter: VirinR

Reacties (97)

97
94
48
17
0
42
Wijzig sortering
10 bit 4k?? Mijn god, dat gaat extra bandbreedte vragen!

Ja, ze stappen over op HEVC, en dat is mooi, maar dat levert een bandbreedte reductie op van 50%, gemiddeld.

Echter, van 1080p naar 4k is x4 in aantal pixels, en daarmee ook gemiddeld ongeveer x4 in bandbreedte (de spatiale redundantie van 4k vs 4x1080p is echt te verwaarlozen), en van 8 bit kleurendiepte naar 10 bit kleurendiepte is een verdubbeling: eht is namelijk zo dat er neit gewoon 30 bits per pixel worden gebruikt. Elke subpixel (Y, Cb en Cr) neemt bij 8 bits kleurendiepte exact 1 byte in (laten we het subsample schema even achterwege om het makkelijk te houden).

Bij 10 bits wordt er echter neit gewoon 10 bits = 1.25 byte ingenomen, maar meteen 2 bytes, en dus is het echte effect wel degelijk een volledige verdubbeling in bandbreedte.

Alles tezamen -> aanstaande bandbreedte = huidige bandbreedt op 1080p x (afname door HEVC) 0.5 x (toename in resolutie) 4 x (toename in kleurendiepte) 2 = hudiige bandbreedte op 1080p x 4

Zelfs als ze wat slimme trucs uithalen (de redundantie zal in 10 bits kleurendiepte wss wel wat groter zijn dan bij 8 bits), wordt het minstens een verdubbeling of verdirevoudiging in bandbreedte. Kunnen de kabelaars en satelietproviders dat wel aan, vraag ik me dan af?
Of worden er gewoon 30 bits gebruikt plus 2 bits padding om zo op een mooie 4 bytes uit te komen?

Het ligt ook maar net aan de hoeveelheid compressie of de benodigde bandbreedte zo enorm omhoog zal gaan. Dat die omhoog gaat is wel duidelijk maar of het zo dramatisch is als jij schetst durf ik te betwijfelen. De meeste HD-uitzendingen zien er namelijk ook niet uit vanwege de belachelijke compressie.
Ik verwacht niet dat dat hierbij heel anders zal zijn.

Wat mij betreft mogen ze overigens eerst eens overstappen op een hogere framerate.
Of worden er gewoon 30 bits gebruikt plus 2 bits padding om zo op een mooie 4 bytes uit te komen?
Nee, want de Y, Cb en Cr pixels stemmen meestal niet overeen: meestal wordt er 4:2:2 subsampling gebruikt waardoor er voor elke 4 Y-sample slechts 1 Cb en 1 Cr sample is. Bij andere subsample schema's verschilt die verhouding. Enkel bij 4:4:4 subsampling zijn er 3 samples per pixel.

Jouw aanpak zou enkel werken bij 4:4:4, een schema dat enkel gebruikt wordt bij het RAW opslaan van beelden, niet bij broadcasting.
Ik ben niet heel erg thuis in deze materie maar bij 4:2:2 heeft ieder pixel een Y-sample en de helft van de pixels een Cb- en een Cr-sample. Dat komt dus neer op 1 Cr- en 1 Cb-sample per 2 Y-samples.

Wat jij beschrijft is 4:1:1.

Wat ik me afvraag is wat dan het verschil is bij het versturen van 4:2:2 en 4:4:4. Als het aantal bytes per kanaal toch hetzelfde is dan kan gelijk al die 4:<4:<4 onzin de deur uit.

Echter lijkt het mij onwaarschijnlijk dat ze zomaar loze bandbreedte verbruiken als er bekend is dat er bij ieder pixeltje 18 bits aan loze nulletjes meegestuurd wordt.
Maar nogmaals ben ik hier niet heel erg in thuis en ik baseer mijn mening dan ook op het ouderwets versturen van datapakketjes.

Ik snap sowieso niet waarom de resolutie maar omhoog blijft gaan terwijl we de helft (of meer) van de beeldinformatie weggooien. Begin dan eerst eens met het behouden van de informatie. Dat levert al een stuk beter beeld op.

De "ghosting" of smearing (geen idee hoe je dat moet noemen) die optreedt bij die mindere sampling doet de hogere resolutie behoorlijk teniet.

Het zal wel hetzelfde concept zijn als de megapixelrace bij camera's (meer pixels maar zoveel ruis dat het geen toegevoegde waarde heeft): klantjes verleiden met getalletjes.
Sateliet providers kunnen dit aan, het aantal zenders per transponder gaat dan wel naar beneden wat de kostprijs voor doorgifte gaat verhogen. Ik kan me dus voorstellen dat ze UHD een redelijk prijskaartje mee gaan geven. Bandbreedte op een SAT transponder is niet goedkoop...
> laten we het subsample schema even achterwege om het makkelijk te houden

Doe dat anders even niet want dat is precies hoe die bandbreedtebehoefte wat omlaag gebracht wordt.
Ja, maar nu wordt er sowieso altijd al 4:2:2 gebruikt. De toename door overgang naar 10 bit blijft dan x2, en de resolutie toename blijft x4.

Daarom da tik ook net alles RELATIEF uitdrukt :+
Volgens mij heb ik 4:2:0 zien staan zelfs ergens.
Maakt niet echt uit: ik had het over de relatieve toename in bandbreedte: bij gebruik van hetzelfde subsample schema neemt de bandbreedte toe van 1080p@8b color depth naar 4k@10b color depth, zoals ik vermeldde.
Dat uiteraard.
Ik neem aan dat (helaas) 4:2:0 nog steeds gebruikt wordt? Ik verwacht niet veel van de upgrade van 8 naar 10 bits (zoals Madshi, de ontwikkelaar van MadVR duidelijk uitlegde in een post).

Maar die 4:2:0 compressie hakt wel aardig in op de beeldkwaliteit. Het zou mooi zijn als deze optioneel kan worden uitgeschakeld.
Volgens mij ondersteunt DVB-C slechts 1080i en geen 1080p. Is dat bij 4K ook interlaced?

Of zijn de nederlandse kabelmaartschappijen iet in staat om 1080P aan te leveren en stoppen ze bij 1080i?
Volgens Wikipedia ondersteunt DVB weldegelijk 1080P:
http://en.wikipedia.org/wiki/1080p
yep, via satteliet (CD/TVV) kan je inderdaad 1080p ontvangen.
Opname 1 van CD: (NED 1 - Oudejaarsconferance "Einde oefening")

Video:
1920x1080 met 25 frames per seconde.
Bitrate: 5266kbps
Colorspace: YUV
Chroma: 4:2:0
Bitdepth: 8
Scantype: Interlaced

Audio:
Format: AC3
Channels: 6
Sample rate: 48khz
Bit depth: 16
Bitrate: 384kbit constant

Opname 2 van CD: (NED 3 - Glennis Grace in Concert airdate:3-11-2012)

Video:
Format: AVC
1920x1080 met 25 frames per seconde.
Bitrate: 8375kbps
Colorspace: YUV
Chroma: 4:2:0
Bitdepth: 8
Scantype: Interlaced

Audio:
Format: AC3
Channels: 6
Sample rate: 48khz
Bit depth: 16
Bitrate: 384kbit constant

Opname 3 van CD: (MTV Live HD - Ellie Goulding Live @ Ibiza Rocks 2013)

Video:
Format: AVC
1920x1080 met 25 frames per seconde.
Bitrate: 10.3 Mbps
Colorspace: YUV
Chroma: 4:2:0
Bitdepth: 8
Scantype: Interlaced

Audio:
Format: AC3
Channels: 6
Sample rate: 48khz
Bit depth: 16
Bitrate: 384kbit constant

Zomaar even een greep uit de verzameling, heb nog nooit Progressive uitzendingen gezien bij hun...
De opmerking van Terrestial kan ik staven aan daadwerkelijke streamrates die ik hier zie en ook in de opnames terug zien. De uitschieter van 10,3Mbit bij MTV Live HD was ook terug te zien in de kwaliteit van het beeld! Baal er dan ook nog steeds van dat CD die uit het pakket gegooid heeft want was een MTV zender met mooie concerten in goede beeld en audio kwaliteit!
Ging tenminste niet over zwangere tieners enzo...

Typo rechtgezet

[Reactie gewijzigd door Plopeye op 23 juli 2024 20:10]

Anoniem: 462912 @boner8 juli 2014 10:22
Ik zat ook een beetje in die lijnen te denken.
1080p wordt wel ondersteund door DVB-C/T, maar daar houdt het zo'n beetje mee op. Begrijp me niet verkeerd hoor, ik vind het mooi dat de ontwikkeling door gaat op het gebied van mogelijkheden, maar zonder adoptie heb je er geen reet aan. Kabelmaatschappijen zenden (liever) in 1080i uit dan in p om bandbreedte te sparen, denk ik dan. Maar als ze nu nog niet eens mainstream in 1080p uitzenden, wat gaat dat dan worden met 4k-uitzendingen? En als dat dan gebeurt, welke shortcuts gaan genomen worden om bandbreedte te sparen?
1080p wordt wel ondersteund door DVB-C/T
Ja, maar met een andere codec als normaal. Dus niet compatible met alle ontvanger en dus niet interessant om te gebruiken. Ik denk trouwens dat de uitkomsten bij een test van een groep mensen of ze 1080p, 1080i en 720p op een gewone TV kunnen herkennen vooral de optie "ik zie geen verschil" zal worden gekozen.
Anoniem: 462912 @mashell8 juli 2014 13:29
1080p, 1080i en 720p op een gewone TV kunnen herkennen vooral de optie "ik zie geen verschil" zal worden gekozen.
Als dit reëel is, dan ga je je bijna de wijsheid afvragen van de ontwikkeling van 4k resoluties.
Heb laatst een 1920x1080 naast een 4K UHD gezien. De persoon die dat verschil niet ziet wil ik toch echt eens aanraden een opticien te bezoeken.

Was op basis van deze beelden:

https://www.youtube.com/watch?v=54hMb55P4-I

Let op! het op youtube omschakelen naar 4K vereist een goede passende codec en gebruikt veelal nog software decoding omdat h.265 nog niet in alle videokaarten ondersteund is. Kortom je CPU krijgt het zwaar en een dikke Core i5 of i7 4th gen is wel aan te raden!

De ervaring leert dat een i7 2nd gen met een Quadro 2000 en laatste drivers zich behoorlijk verslikt in de 4K stream en vastloopt.
Ook is een bekabelde internet aansluiting aan te raden want ook Wifi zal geen goed doen aan de stream.

[Reactie gewijzigd door Plopeye op 23 juli 2024 20:10]

En waarom zou 1080i efficiënter zijn kwa bandbreedte dan 1080p? Het is allebei gewoon legitiem full HD. Het enige verschil is hoe het beeld wordt gescand. Bij interleniëring wordt elk frame opgedeeld in 2 seperate fields, en bij progressive wordt het gehele frame gescand. Uiteindelijk kost dit dus evenveel bandbreedte.
Anoniem: 462912 @VP.8 juli 2014 13:25
Wellicht legitiem full HD, maar 1080i bevat maar 50% van de informatie. Ik denk dat je in de veronderstelling bent, dat als een zender in 1080i uitzendt, dat ie dan ook een 2x zo hoge framerate uitzendt als 1080p en dat is niet zo. Althans, nu ga ik even uit van wat ik op internet heb gevonden en wat m'n TV aangeeft, maar met dat laatste kan het natuurlijk ook liggen aan de decoderkast die ik van UPC mijn kabelaar heb gekregen. Dat gezegd hebbende, heb ik enige tijd geleden me ook suf moeten zoeken naar een 1080p DVB-T kastje voor een kennis met satteliet. Verschil met satelliet is, dat daar, mits de zender 1080p ondersteunt, ook echt 1080p wordt uitgezonden.
Waarom een kabelmaatschappij 1080i/50Hz boxjes levert, terwijl ie in 1080p/50Hz (100 zou natuurlijk gewenst zijn) uit zou zenden, doet mij sterk vermoeden dat dit laatste niet gebeurt.
Als het goed is wordt 1080i uitgezonden in 50fps, en 1080p in 25fps.
Anoniem: 462912 @Spinal8 juli 2014 13:50
Niet dat ik je niet vertrouw, maar heb nog verder zitten koekeloeren en... je hebt gelijk. 't Is een leerzaam middagje geworden op het gebied van interlaced vs. progressive.
Interlaced of progressive heeft niets met het aantal beelden per seconde te maken. 1080i en 1080p materiaal op de Nederlandse buis zijn beide 25FPS. Je TV geeft 50hz (dus geen FPS) weer omdat dit de verversingssnelheid is.

Het is wel waar dat native interlaced materiaal er wat soepeler, dan wel fuzzier, uitziet. Dit komt omdat 1 frame uit 2 fields bestaat. Oftewel, per frame zie je twee halve velden die seperaat van elkaar gescand worden.

Toevoeging: 720p is het enige formaat wat standaard op een "dubbele" snelheid (zoals 50 of 60FPS) loopt. Maar ja, wie gebruikt dat nou nog?

[Reactie gewijzigd door VP. op 23 juli 2024 20:10]

De Duitse publieke omroepen (ARD/ZDF enz.) zenden op Astra 19,2 in 720p uit! Beeld van die zenders is bij tijd en wijle beter dan de 1080i streams van de Nederlandse zenders.

BBC doet het ook heel erg goed in HD. Die pak ik mee op 28,2 en sinds begin dit jaar 1/2/3/4 + Cbeebies en CBBC in HD. Ze zenden uit in 1080i maar wel bitrates die bij films zo rond de 10 tot 12Mbit hangt. Ook wordt er AC3 6 channel meegestuurd met films en staat er niet een zeer groot fel gekleurd logo in beeld bij de BBC. En last but not least geen reclames tussendoor!

Hint ze zijn gewoon allemaal ongecodeerd mee te pakken op Astra 28,2!!!

[Reactie gewijzigd door Plopeye op 23 juli 2024 20:10]

> De Duitse publieke omroepen (ARD/ZDF enz.) zenden op Astra 19,2 in 720p uit! Beeld van die zenders is bij tijd en wijle beter dan de 1080i streams van de Nederlandse zenders.

Dat is een bandbreedteverhaal. Gegeven een 25 fps progressive source is 1080i namelijk nog altijd een hogere resolutie dan 720p. (Namelijk hetzelfde als 1080p.) Maar als die satelliettoko de beide streams met dezelfde bandbreedte encodeert dan heb je voor 720p natuurlijk meer ruimte in je stream dan voor 1080i.
Mijn TS bestanden vertellen iets anders... Zie mijn post hoger in deze discussie:

Plopeye in 'nieuws: Dvb-organisatie keurt standaard voor tv-uitzendingen in 4k goed'

[Reactie gewijzigd door Plopeye op 23 juli 2024 20:10]

Hij zegt het ook verkeerd. 1080i wordt in Nederland uitgezonden op 50 fields per second, oftewel 25 volledige frames per second. Jouw TS-files zeggen '25' omdat die 't over volledige frames hebben ipv fields. De hoeveelheid informatie echter is nog altijd exact gelijk.
Ik verwacht dat zij toch echt grotendeels in 1080p aan de distributiemaatschapijen aanleveren. Dat zij dan weer gaan downscalen om bandbreedte te besparen, daar kan de zender niets aan doen.
Daar kan een zender wel wat aan doen, gewoon vragen of het zo doorgegeven kan worden... waarschijnlijk gaat de doorgifte partij dan zeggen dat het prima is maar dat er wel een ditto doorgifte tarief tegen over komt te staan.
Ik verwacht dat zij toch echt grotendeels in 1080p aan de distributiemaatschapijen aanleveren.
Nope. NPO stuurt 1080i de wereld in, net als elke andere broadcast-toko.
ik denk niet dat kabel maatschappijen in de toekomst nog het gewone tv abbonement zullen aanbieden en volledig overstappen op internet en dat je dan streams kan bekijken van bepaalde zenders.
Daarom is die HEVC zo belangrijk. Daar zit de besparing in bandbreedte... Slimmere codecs zorgen voor minder bandbreedte gebruik.
Dat laatste dus.
Als je weet dat de zenders zelf hun content filmen, verwerken en distribueren in 1080p, dan weet je dat het aan de distributeurs (niet noodzakelijk kabel) ligt.
goed nieuws, nu nog de prijzen van een 4K televisie wat lager zodat de gemiddelde nederlander er 1 kan kopen :-)
Ik wacht anders nog steeds op 1080p uitzendingen, voorlopig is alles nog 1080i dus ik vraag me af hoe lang het nog gaat duren voor het 4K wordt.
1080p zal er (denk ik) nooit komen voor reguliere uitzendingen. Ik verwacht dat ze meteen naar 4K gaan.
Krijgen we dan zeker 4K ready, dus 4000i oid :)
Dat zal 2160i zijn...Het gaat om de verticale resolutie... :)
De 'grap' in dit geval is eigenlijk dat 4K eigenlijk maar 3840x2160 is :o
Achja... marketing :+
4K is -eigenlijk- 4096 horizontaal. De echte 4K2K, voor de bios. De consumenten versie heet ook UHDTV en dat is dus ook 3840x2160.

Ontopic: goed dat ze de HEVC codec hebben gekozen. Veel beter. Hoop dat downloads dat ook snel gaan gebruiken.
Ja, 4K bekt net wat lekkerder dan het officiele "UHD" ;)
Het is jammer dat het zo gegaan is, want nu is er bij de gewone consument ontstaan met de DCI specificatie waar de term 4K vandaan komt (4096×2160 bij 24 fps).
Ik verwacht sowieso niet al te veel van de infrastructuur die in NL wordt benut voor het uitzenden in "hogere resolutie dan wat andere landen". Daarnaast zijn ze bij NHK Japan al bijna een jaar bezig met 8K opnemen en verwachten ze de eerste uitzending over dik een jaar al door de kabel/ether te gooien.

Ik vind dit eigenlijk niet meer dan logisch; de 4K-hype is puur een afgeleide van de "officiele" 8K-opnamen dus waarom zou je als NHK zijnde allerlei investeringen moeten doen om realtime terug te schalen en uit te zenden, als je ook de mogelijkheid hebt om direct 8K uit te zenden met "maar" een simpele bewerking van bitrate terugschroeven voor bandbreedte-issues bij de consument?

[Reactie gewijzigd door MAX3400 op 23 juli 2024 20:10]

Anoniem: 606804 @makaa8 juli 2014 10:09
Deze misschien?

pricewatch: Blaupunkt B39C4K Zwart

Monitors zijn al spotgoedkoop gelukkig. Voor €530,- heb je al een prima 4k monitor.
tja, leuk en aardig allemaal tot je een nieuw spel wilt spelen, dan blijkt het dat je een hele dikke vette dure videokaart nodig hebt om een beetje die resolutie aan te kunnen met alles aan..
Als je de spellen speelt op 1920x1080, representeerd elke gerenderde pixel, 4 pixels op je scherm. Dat schaalt fantastisch. En omdat de pixelafstand veel kleiner is ziet het er nog lichtjes beter uit dan op een 1920x1080 scherm.
ofwel het nut van een 4K scherm gaat dan compleet verloren..
Ik neem aan dat je zelf ook wel begrijpt dat het "future proofing"is. en dat je de 4k monitor (of eigenlijk UHD) nog wel een paar jaartjes gaat gebruiken. Daarbij zijn er al films en series in die resolutie en zelfs youtube heeft al filmjes in UHD resolutie. en ik zeg het je, dat ziet er zeer scherp uit. Dus als ik een nieuwe monitor aan zal gaan schaffen, wat ik dit jaar niet zie gebeuren, dan zal ik zeker voor een UHD monitor gaan. Simpelweg omdat de schaling perfect is is het ook highly backwards compatible.
Deze misschien?

pricewatch: Blaupunkt B39C4K Zwart

Monitors zijn al spotgoedkoop gelukkig. Voor €530,- heb je al een prima 4k monitor.
Is lekker goedkoop die Blaupunkt B39C4K maar wat heb je aan 4K TV als de TV maar 39" groot is, een gemiddeld persoon zit 2,5 a 3 meter van hun TV, en sorry maar dan kan je niet meer het verschil zien tussen 1080P en 4K.

Maak hem dan tenminste 60", maar ik lees dat deze TV's erg veel lag hebben, dus niet erg mooi om naar te kijken.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 20:10]

ik denk dat hij hem als computer monitor ziet. daarbij is 39" relatief klein inderdaad maar ik denk dat je het verschil nog wel kan waarnemen. (ook al ligt dat natuulijk weer aan de afstand van Jou ---> TV)

Die blaupunkt heeft vrij weinig aanslutingen, te weinig naar mijn mening. Plus een TN-paneel. Dus die zou ik zelf noooit aan schaffen. Daarbij kijk ik weinig TV en zit ik veel achter de pc, te modelleren of games natuurlijk en ook dan is UHD ook eigenlijk overbodig.
Maarja, dat dacht ik van FullHD ook toen het op de mobieltjes kwam. Ik dacht dat 720p meer dan genoeg was. Tot ik de Nexus 5 binnen kreeg. Nu wil ik niet meer terug naar 720p (behalve op 4"ofso).
Vooral de kleinere lettertjes zien er veel scherper uit en het is veel fijner lezen. Plus mijn achtergrond is superscherp. Ik zit er elke keer weer naar te kijken hoe scherp het wel niet is:P.
Anoniem: 14038 @SuperDre8 juli 2014 10:36
In de praktijk valt dat reuze mee hoor. Natuurlijk zijn er wel spellen waarbij je moet kiezen een lagere resolutie en meer eyecandy of een hogere resolutie en minder eyecandy.
Wat lastiger is dat oudere spellen 4k resoluties vaak niet eens ondersteunen.
een prima 4k monitor? Je bedoelt een monitor met een TN paneel voor dat bedrag. Heb ze ook even bekeken, maar uiteindelijk beslist te wachten tot de betere LCD technieken in prijs dalen.
Wat dacht je van deze? Een ultra-hd monitor met IPS paneel dat sinds december 2013 tot nu (ruim een half jaar) gezakt is van bijna €1.400 tot minder dan €800.
Maar dat is helaas wel een 24 inch scherm, dan is 4k alsnog mooi natuurlijk maar wel minder nuttig. Je zult minder snel 4 beelden naast elkaar zetten bijvoorbeeld en het resolutie verschil is minder merkbaar(er vanuit gaande dat je op een normale afstand gaat zitten). Sterker nog je zult in Windows flink moeten schalen om alles leesbaar te houden.
De lettertjes zullen er dan sowieso vloeiender uitzien. En als je je even voorstelt dat alle icoontjes en lettertjes twee keer zo klein worden dan is het nog prima te lezen op die normale afstand.

Ik zie op mijn 24" 1920x1200-scherm nog overduidelijk aliasing. Beter 4K op mijn 24" monitor dan op mijn 6" telefoonscherm ...
Je zult minder snel 4 beelden naast elkaar zetten bijvoorbeeld en het resolutie verschil is minder merkbaar(er vanuit gaande dat je op een normale afstand gaat zitten).
Wat bedoel je daar precies mee? Ik ben vaak geneigd om juist wel schermen naast elkaar te zetten maar dat werkt niet zo prettig omdat de resolutie eigenlijk net te laag is om twee documenten op 100% naast elkaar te zetten.
Bij gebrek aan HDMI 2.0 aansluitingen heb je praktisch gezien bijzonder weinig aan deze 4K televisie.

Daarnaast komt deze tv niet echt geweldig uit de review.

Lijkt me geen goede aankoop.
HDMI 1.4 kan ook 4K resoluties aan. Er zijn wel beperkingen in de framerate en fielding. Ondersteund in HDMI 1.4:
- 4K progressive @ 24Hz
- 4K progressive @ 30Hz
- 4K interlaced @ 50Hz
- 4K interlaced @ 60Hz
Heb je de reviews ook al gelezen?

- Slechte kleurweergave
- Hoge inputlag (geen games dus)
- Geen HDMI 2.0 ingangen, dus slechts 4K@30FPS (geen games dus)

Oftewel: leuk voor een matige weergave van 4K films, meer niet.

Laat dat "prima" dus maar weg. :)

Voordat 4K aanslaat bij het grote publiek zullen de prijzen eerst flink moeten dalen, er meer kleinere modellen verschijnen (niet iedereen wil 40 inch en groter in zijn/haar huiskamer hebben staan) en de technische specs flink moeten verbeteren.

4K zit nog in de introductiefase; voordat het grote publiek overstapt zal eerst een flink gedeelte van de groeifase doorgelopen moeten zijn, zoals altijd.
Het lijkt mij belangrijker om eerst de 4K TV's ondersteuning te geven voor deze standaard. Als ik het artikel goed lees, hebben alle mensen die nu dus een 4K TV hebben gekocht, vette pech aangezien de UHD TV's die nu op de markt zijn niet aan de standaard voldoen.
Neen, die kunnen met een externe decoder alsnog 4K uitzendingen ontvangen, net zoals zovele mensen vandaag een externe decoder gebruiken om gewoon digitale TV te kijken.
De nieuwe Samsung lijn (H) voldoet wel aan deze norm, hiermee is via Netfix o.a. House of Cards en Breaking Bad in UHD te bekijken.
Dat geldt voor alles dat nieuw is. Als ik zie wat mijn ouders voor hun 37 inch LCD TV hebben betaald 8 jaar geleden... Pff. Nou doet ie het nog steeds perfect, maar inmiddels koop je hetzelfde formaat voor 1/5e van de nieuwprijs destijds.

Kwestie van tijd. Op het moment dat de 4K content beter beschikbaar komt, zullen ook de prijzen van de TV's wel dalen.
Zolang de 4K TV's alleen als LCD te krijgen zijn ga ik niet over. Nog nooit een LCD gezien die ik prettig vond kijken. Hopelijk houdt m'n plasma 't vol totdat de OLED's betaalbaar zijn.
Deze 50" een Koopie als je het mij vraagt :)
Nu ik lees dat geen van de huidige tv's voldoet aan de standaard, wacht ik zeker nog met kopen.
Anoniem: 101094 @makaa8 juli 2014 12:06
goed nieuws, nu nog de prijzen van een 4K televisie wat lager zodat de gemiddelde nederlander er 1 kan kopen :-)
Goed nieuws, ja... maar helaas hebben heel veel Europese zenders al aangekondigd in ieder geval niet voor 2020 te beginnen met het uitzenden in 4K. Dus voorlopig zit je nog gewoon prima met een 1080P scherm.
Ik hoor iedereen los gaan op de resolutie, wat erg fijn is natuurlijk. Maar dit is het belang van 10bit videosignaal. Zorg dat je TV 10bit kan weergeven want het is het waard.
http://creativeclouduser....ds/2013/06/Bitdepth_1.jpg
Ik snap het punt van het plaatje niet. Ze beweren dat 8bit er significant slechter uit ziet dan 10bit door een vergelijk in 1 plaatje temaken. Echter het complete plaatje is een Jpeg, en Jpeg ondersteunt maar 8bit per kanaal, hoe kan het dan dat het rechter "10bit" plaatje er toch goed uitziet?
Ik snap het punt van het plaatje niet. Ze beweren dat 8bit er significant slechter uit ziet dan 10bit door een vergelijk in 1 plaatje temaken. Echter het complete plaatje is een Jpeg, en Jpeg ondersteunt maar 8bit per kanaal, hoe kan het dan dat het rechter "10bit" plaatje er toch goed uitziet?
Het plaatje is dan ook lichtelijk een "hoax".

Als je dat linker plaatje analyseert (met een stuk fotobewerkingssoftware) dan zie je dat die "kleurbanden" met opzet extra opvallend zijn gemaakt. Het komt er eigenlijk op neer dat er tussen iedere twee grijswaarden een iets donkerdere band is geplaatst.
Daarnaast slaan ze in het linkerplaatje (per grijsband) ook een aantal grijswaarden over.

Het lijkt erop alsof ze de grijswaarden niet sequentieel hebben neergezet maar "terugspringend".
Zo zou het moeten zijn (in simpele waarden): 9, 8, 7, 6, 5, 4, 3, 2, 1, 0.
Zo hebben ze het ongeveer gedaan: 9, 6, 7, 4, 5, 2, 3, 0, 1

Zo wek je de indruk dat het dramatisch is gesteld.

Simpel gezegd: het plaatje is dus gewoon oplichterij.

Edit: Je hebt dus gelijk dat je met een 8-bit-per-kanaal jpeg geen 10-bit kan weergeven.
Je kan overigens de boel nog meer foppen. Jpeg heeft ook een quality setting namelijk. Je kan dus ook een plaatje opslaan als quality 1 jpeg en gaan brullen dat het er veel slechter uitziet dan een quality 12 jpeg. Duh! ;)

[Reactie gewijzigd door VOODOO_WILLIE op 23 juli 2024 20:10]

[...]
Simpel gezegd: het plaatje is dus gewoon oplichterij.
Noodzakelijk kwaad, gezien de 8-bpc monitoren waar wij computeraars gebruik van maken.
Noodzakelijk kwaad, gezien de 8-bpc monitoren waar wij computeraars gebruik van maken.
Ik snap ook wel dat je iets moet verzinnen om het verschil te illustreren tussen iets dat je scherm niet kan weergeven en iets dat het wel kan.

Maar er zit een groot verschil tussen een (illustratieve) vergelijking maken en belachelijk overdrijven. Het is, in dat geval, ook wel zo netjes om er bij te vermelden dat je (flink) overdrijft.

Zelfs een 128-kleuren GIFje van zo'n gradient ziet er nog niet zo belabberd uit als dat linker stuk. Een 64-kleuren GIF begint in de buurt te komen. (en ja: dat heb ik zojuist getest)

Ik ben ook zeer op de hoogte van optische illusies en het feit dat je ogen een overgang tussen grijstinten kan zien als een donkerdere band. Echter leek dat effect mij in dit plaatje iets teveel van het goede en daarom heb ik dat plaatje dan ook eens bekeken in Photoshop. De rgb-waarden die PS laat zien bij het bewegen over die gradient liegen niet.

Zoals ik al zei: tussen de grijze banden is met opzet een tintje donkerder grijs gestopt om het er maar extra miserabel uit te laten zien.

Het verschil tussen 8- en 10-bit is, optisch gezien, lang niet zo dramatisch als tussen bijvoorbeeld 6- en 8-bit. Dit is simpelweg omdat onze ogen het verschil steeds minder goed kunnen waarnemen naarmate kleuren dichter bij elkaar liggen.

De vergelijking in dat plaatje is net zo scheef als dat je een 4-bit (16 kleuren) plaatje doet voorkomen als een 24-bit (16M kleuren) plaatje.

Het was dus, voor het idee, voldoende geweest om gewoon 128 platte grijswaarden te laten zien tegenover 256 zonder die rare truc.

Nu duidelijk waar mijn probleem met dat plaatje ligt? :)
Jpeg gebruik in de regel RGB en video YUV. Hierdoor is het verschil een stuk groter.
RGB of YUV maakt geen drol uit, dat zijn namelijk verschillende manieren om tot exact hetzelfde resultaat te komen. Alleen is YUV makkelijker om te subsampelen waardoor de behoefte voor bandbreedte lager wordt. En subsampling is ook direct de reden dat YUV-beeld er over het algemeen minder goed uit ziet dan RGB aangezien een deel van de kleurinformatie weggelaten wordt.
Nu moeten nog alle TV's in staat zijn om 10 bit kleuren weer te geven en alle camera's om dat te filmen. Maar als dat er eenmaal is zie je ook echt wel het verschil.
Volgens mij zorgt 10bit (encoded) video icm de huidige TV's al voor een visuele prestatie winst. Ik kijk veel 10bit encoded anime, en daar zie je met name op het gebied van "banding" een verbetering.

Ik hoop dat ze nu vanwege het oppakken van de HEVC codec in de DVB specificaties, HEVC in een stroomversnelling raakt. En dat ook de "hardware" decoders de HEVC standaard met hi10P gaan implementeren al dan niet icm 4k.
Waarom zijn dit soort organisaties altijd zo laat met het keuren van een standaard? Is het niet mogelijk om zoiets al vooruit te bedenken zodat niet alle fabrikanten al hun eigen standaard gaan verzinnen en we dus met weet ik veel verschillende interpretaties zitten. Het is niet zo dat ze pas geleden zoiets hadden van: Ja leuk, uhd, daar moeten we een standaard voor verzinnen. Zoiets kunnen ze ver van te voren aan zien komen.
Omdat 4K een nieuwe techniek is? Zelfs 4K over HDMI aan 60fps kan pas sinds de HDMI 2.0 standaard die eind vorig jaar is goedgekeurd. Eerst moet de technologie er zijn en moet men bekijken wat haalbaar is voor men kan gaan beslissen of iets een standaard haalt of niet. Tuurlijk kan je vandaag al beslissingen gaan nemen voor de volgende evolutie (8k? 16K?), maar tegen dat die schermen dan ook effectief verkocht worden ga jij in je standaard achterhaalde technieken beschrijven.
Het lijkt me beter om eerst een standaard te ontwikkelen en dan de technologie hier op afstemmen. Er kunnen dan standaarden zijn die nooit geïmplementeerd worden, maar dat zullen er niet zoveel zijn (denk ik).
Je moet je standaard natuurlijk niet beschrijven met de huidige technieken, maar met de gewenste technieken/specificaties, anders loop je inderdaad al achter voordat je begint.
Er zijn al wel enkele UHDTV's op de markt die een ingebouwde HEVC / H265 decoder hebben en 10-bit kleurdiepte ondersteunen, onder andere LG's 2014 UHDTV lijn. Ik kijk intussen met veel plezier naar 4K content van Netflix (House of Cards en Breaking Bad) die gebruik maakt van de ingebouwde HEVC decoder.
Anoniem: 375601 8 juli 2014 10:19
Maar Netflix geeft een matig 4K beeld vind ik. En zeker geen 10 bit kleurdiepte.
4K 10 bit zegt niets over de beeld kwaliteit, dat is de codec en de bitrate.
1080p 8bit @ 8 Mb/s > 4K 10bit @ 4 Mb/s
4K 10 bit zegt meer over de capaciteit van het origineel.
Ben benieuwd of de huidige generatie UHD-TV's te upgraden valt met een firmware. Ik hoop dat ze daar binnenkort uitspraken over gaan doen.

Op dit item kan niet meer gereageerd worden.