LG CX-oled-tv-gebruiker zegt HDMI-bandbreedte te hebben verhoogd tot 48Gbit/s

Een bezitter van een LG CX-oled-tv zegt op Reddit dat hij erin is geslaagd de HDMI-bandbreedte te verhogen van 40 naar 48Gbit/s. In de praktijk leidt dat niet tot noemenswaardige verbeteringen, al betekent dit waarschijnlijk dat de bandbreedte van 40Gbit/s geen hardwarematige beperking is.

Op Reddit zegt de gebruiker dat het hem gelukt is de bandbreedte te verhogen tot 48Gbit/s en hij biedt ook een stappenplan aan voor andere gebruikers. Kort gezegd heeft hij een tool van de maker ToastyX gebruikt, te weten Custom Resolution Utility. Daarmee is het mogelijk de EDID van de televisie via Windows aan te passen. Dit is een metadata-standaard waarmee televisies en monitoren hun capaciteiten kunnen doorgeven aan de videobron. Als bewijs voor de 48Gbit/s laat hij overigens zien dat het oproepbare FreeSync Information-scherm 4 lanes met 12Gbit/s aangeeft, of 4L12; voorheen was dat 4L10.

Volgens de gebruiker zijn er geen risico's aan verbonden, omdat via het stappenplan enkel de EDID wordt aangepast. Hij zegt ook dat alles normaal lijkt te functioneren, ook al heeft hij nog niet alle features van de HDMI 2.1-standaard kunnen testen, zoals e-arc. De gebruiker zegt in ieder geval dat het nu mogelijk is een signaal te gebruiken met 4k, 120Hz, 4:4:4-chroma subsampling en 12bit, terwijl dat voorheen beperkt was tot 60Hz. Bij 10bit-kleurdiepte is die beperking er niet en de LG CX beschikt over een 10bit-paneel.

In mei bleek dat LG's oled-tv's van dit jaar weliswaar wederom HDMI 2.1-ondersteuning hadden, maar dat de bandbreedte daarbij was beperkt tot 40Gbit/s. Dit terwijl de oled-tv's van LG uit 2019 wel de 48Gbit/s halen. De HDMI 2.1-specificatie gaat ook uit van 48Gbit/s. Over deze beperking bij de oled-tv's van 2020 ontstond enige verbazing en ophef, ook al is 4k in combinatie met 120Hz gewoon mogelijk met maximaal 40Gbit/s. LG gaf als verklaring dat het 'hardwaremiddelen' voor de chipsets van 2020 anders had toegewezen, zodat ze geoptimaliseerd zijn voor de ai-functies van de televisies.

In de praktijk is de volledige 48Gbit/s ten opzichte van 40Gbit/s eigenlijk alleen van toegevoegde waarde in het geval van 12bit-panelen. En dergelijke consumententelevisies zijn er momenteel nog niet. Inmiddels zijn er overigens meer apparaten die HDMI 2.1 ondersteunen, maar daarbij niet verder gaan dan 40Gbit/s, zoals de Xbox Series X-console van Microsoft.

LG CX

Door Joris Jansen

Redacteur

18-12-2020 • 08:54

129

Reacties (129)

129
128
46
9
0
65
Wijzig sortering
Gevalletje leuk dat het kan. Ik snap nog steeds het probleem niet dat er "maar" 40Gbit/s wordt ondersteund door LG aangezien (zoals in het artikel ook gezegd) het paneel toch 10bit is!
Het nu opkrikken naar de volle 48 gaat dus geen verschil in beeldkwaliteit maken.
Er word ook van een mug een olifant gemaakt. Dit is nooit een probleem geweest en had nooit nieuwswaardig moeten worden...en wat is dit nu? Al het 6e-7e nieuwsbericht hierover?

LG heeft juist precies gedaan wat ze moeten doen. De bandbreedte limiteren tot het punt dat het niet uitmaakt. het is een 10bit paneel, en dat word ook exact ingezet.

Nu word dit kunstmatig op 12bit gezet....word er flink extra cpu/gpu power ingezet om dat signaal goed te kunnen processen....om het vervolgens te outputten naar een 10bit paneel.

En vervolgens gaan klagen dat de beeldprocessen/interpolatie beeldfouten begint te vertonen....of dat het menu niet snel genoeg tevoorschijn komt...of dat het zappen zo langzaam gaat...
Helemaal mee eens, het wordt tot extreme hoogtes uit zijn proporties gehaald.

Het enige wat ik LG wel te verwijten vind is dat ze in essentie gewoon hebben gelogen wel. HDMI is al een chaos qua naamgeving (kan LG niks aan doen) maar als fabrikanten dan ook nog eens gaan claimen aan die specificaties te voldoen terwijl dat niet zo is, dat bevorderd de situatie niet.

Maar inderdaad, één nieuwsbericht waar de kern is 'Niet handig van LG, stop daarmee want het zorgt voor verwarring, maar voor deze TV's maakt het 0,0 uit' was voldoende geweest en had het 100% afgedaan.
Nee, ze voldoen juist wél aan de specificaties, door alleen de HDMI modes aan te bieden die zinvol zijn...
Het kan zeker wel zinvol zijn om HDMI modes aan te bieden die buiten het weergave bereik van het toestel liggen. Een use-case hiervoor is bijvoorbeeld het afspelen van een bluray film in DolbyVision. Dit heeft doorgaans een 12-bits kleurresolutie terwijl het scherm vaak maar 10-bits kleurresolutie heeft. Voor de weergave is dus een conversie nodig van 12-bits naar 10-bits. De vraag is dan:
- Laat je de bluray speler DolbyVision decoderen en met 10-bit kleurdiepte naar de TV sturen?
- Laat je de bluray speler DolbyVsion ongewijzigd naar de TV sturen en laat je de TV DolbyVision omzetten naar 10-bit kleurdiepte?

De keuze hangt mijn inziens af welke apparaat dit met de beste kwaliteit doet. Ik verwacht eigenlijk dat een TV dit het beste kan omdat de fabrikant de karakteristieke eigenschappen van het scherm kent.
Er is nog eigenlijk geen 12-bits Dolby Vision content beschikbaar. Het is theoretisch mogelijk zeker, maar voor als nog is bijna alle DV content gewoon 10 bit.
Dat ben ik niet helemaal met je eens. Een specificatie gaat over of iets het kan, niet of het nuttig is. Er is één specificatie, en dat moet één specificatie blijven. Het hele probleem is juist dat een bepaalde specificatie wordt gebruikt en daar de onderdelen uit worden gekozen die nuttig zijn. Technisch gezien is dat nuttig, maar voor de consument is dat totaal onhandig (en laten we eerlijk zijn, met HDMI en USB heeft de consument al genoeg te lijden).
Een spec geeft idd technische mogelijkheden aan.
De technische mogelijkheden worden in dit geval beperkt door het 10 bit scherm.
Het is dan ook een beetje mierenneuken door te zeggen ze voldoen niet aan de spec.
Maar dat is letterlijk wat ik zeg toch, alleen ik vind dat je het LG wel kan aanschrijven dat ze zeggen 'wij ondersteunen de spec' terwijl ze dat gewoon niet doen.

Is dat 7 artikelen waard, absoluut niet.
Ze voldoen prima aan de spec. De spec eist voor apparaten/chipsets de maximale snelheid die nodig is voor het apparaat/eindproduct, de kabel is een ander verhaal die is fixed op 48gbps.
Ze zijn bij de hdmi alliantie erg goed in onduidelijkheid door tich opties, uitzonderingen en gerommel met woorden.
De redactie (@joris jansen) is dan ook gewoon fout, lees maar eens goed (juridisch) de info van de hdmi alliantie

[Reactie gewijzigd door andries98 op 22 juli 2024 23:26]

Het kan wel zo zijn dat je het niet leuk vindt. Maar de HDMI standaard is een zootje, en je hoeft zeker niet aan alle requirements te voldoen om HDMI 2.1 te ondersteunen. Dat is nu eenmaal de realiteit.
Ja maar 'dat is nu eenmaal de realiteit' is niet een reden om te zeggen 'doe dan maar niet'
Wat is een standaard als je er niet aan hoeft te voldoen? Mag ik dan een koperen draadje leveren en zeggen 'het is HDMI 2.1'? Een standaard is juist zodat je altijd weet dat wat jij koopt doet wat die standaard doet, doen alsof cherry picking maar moet kunnen en zeggen 'het is zo, deal with it' is een hele domme zet als consument.
Sterker nog, LG gaf ook aan de "beperking" naar 40Gbit te hebben doorgevoerd zodat meer CPU kracht kon worden ingezet voor de AI voor een beter beeld.
Ergens is er ook geen probleem (en ergens anders wel):
Het is geen probleem, omdat er geen volledig gebruik gemaakt hoeft te worden van de volledige HDMI2.1 bandbreedte, omdat het kwalitatief geen meerwaarde zou hebben (op deze t.v.)
Maar er zijn twee andere "problemen":
1. de HDMI 2.1 spec blijkt heel complex. Uiteindelijk is de manier waarop het hier afgevangen is prima, anders zou je onnodig gaan overprocessen.
2. (en dit is wel een belangrijke): een standaard/specificatie wil je, om kwaliteit te borgen. Een reeks aan specificaties zijn nodig, om uiteindelijk een bepaalde performance te halen. Zo heb je de specificatie PK (vermogen) om een goede performance (0-100km/uur) te halen. En er is een trend dat de standaard/specificatie niet leidt tot een bepaalde verwachting.

Wij als mensen zijn gevoelig voor wat het beste is en we willen zo makkelijk mogelijk weten wat het beste is. Daarom leven we (steeds meer en meer overigens) in een wereld van merken en specificaties. We "straffen" ook als een product niet aan onze verwachtingen voldoet. Zo is Apple een sterke merknaam, of Ferrari, of Nintendo. Als je een product van hen koopt, verwacht je een bepaalde kwaliteit.

Maar hoe boos zijn we als onze smartphone maar 2 jaar updates ondersteunt, of niet de meest moderne SoC heeft, en de concurrentie wel?

Als je kijkt naar SD, HDMI, USB, HDR en Dolby Atmos, dan praten we over standaarden/specificaties, welke heel erg los zijn. HDMI 2.1 zegt iets over de capaciteit van de aansluiting, maar is geen garantie dat als je daarvan gebruik maakt, dat je op 120Hz 4K HDR 4:4:4 je beeld krijgt.
USB en SD: SD heeft de wijze van snelheid specificeren tot een farce gemaakt. Ik ben gestopt met het bijhouden van de specificatie, omdat het te snel en te onduidelijk verandert. USB heeft ook weer verschillende snelheden en verschillende mogelijkheden binnen één noemer.
HDR: vier standaarden, waarin de "beste", Dolby Vision, ook weinig zegt omdat de mogelijkheden erg groot zijn (tot 10.000nits), maar hier (praktisch) nooit volledig gebruik gemaakt van wordt.
Tel daarbij op dat OLED wel het Dolby Vision predikaat kan krijgen, maar eigenlijk niet volgens de specs. Volg je het nog?
En dan heb je bij Dolby Atmos de mogelijkheid tot hoogtespeakers, maar als je dan weet dat een smartphone dit zelfs ondersteunt, dan is het de vraag of dit een grap is, of dat je dan de telefoon boven je moet houden bij bepaalde geluiden.

En dát is dus het probleem waar LG nu ten onrechte de dupe van is. LG heeft HDMI 2.1 goed geïmplementeerd en de juiste keuze genomen om 40Gbit te ondersteunen, alleen de vraag is of de HDMI specificatie wel duidelijk is in welke kwaliteit je mag verwachten. Het eenvoudige antwoord is: absoluut niet. Het minder eenvoudige antwoord is: ja, maar dan moet je wel wat huiswerk doen. En wat is dan nog het nut van een standaard?
HDMI 2.1 zegt juist helemaal niets over de capaciteit van de aansluiting omdat je zo ongeveer alles al HDMI 2.1 mag noemen als je een of twee features implementeert.

Je kan zonder al teveel moeite drie apparaten met HDMI 2.1 naast elkaar zetten die alle drie iets anders onder HDMI 2.1 verstaan en waarvan de aansluitingen niet dezelfde mogelijkheden hebben.

HDMI 2.1 is gewoon pure marketing.
_/-\o_ De spijker op de kop geslagen. De snelheidsmeter in mijn auto gaat ook tot 220 kmph. Die topsnelheid haalt de auto ook niet of er nou lichte of zware voeten op het gaspedaal zijn en ook al volledig ingetrapt. Ergernog de doorvoersnelhied van de "hdmi" weg" is verlaagd naar 100, maar dat zorgt dat ik wel minder energie verbruik :*)
Zou het limiteren van de bandbreedte kunnen betekenen dat er meer HDMI kabels compatible zijn?
Volgens mij niet, ook voor 'slechts' 40Gbps heb je nog steeds een Ultra Speed HDMI kabel nodig.
Dat is te zwart/wit gedacht. kabels zijn passieve dingen die dempen op hoge frequenties. Het forum staat vol met berichten over mensen die problemen hebben omdat hun HDMI-kabel niet goed genoeg is. Als je minder bandbreedte over de kabel gooit, zul je minder snel problemen hebben.
Feit blijft dat je in een Ultra Speed HDMI kabel nodig hebt voor 4k 120Hz 4:4:4 chroma. Liefst gecertificeerd natuurlijk, dat geeft meer zekerheid dat je alle grijstinten tussen zwart en wit ook correct kan zien :)
Helemaal juist dat het momenteel een non-issue is en dat hier teveel aandacht aan gegeven is. Ik vraag me wel af wat de reden was om toch de beperking op te leggen.
Momenteel is het nog mogelijk om alles binnen de beschikbaar bandbreedte te doen, maar
- wat als er later nieuwe features uit komen die ook extra bandbreedte nodig hebben? Er zijn ook features die voor 2.1 voorzien zijn, maar ook op 2.0 kunnen worden geimplementeerd
- het was niet zo bij het vorige model. Dus het gevoel dat je er op achteruit gaat, is vanuit technisch standpunt terecht
- nu is de limiet van de bandbreedte ook wat het beeldscherm aan kan. Ik heb al berichten gezien dat er voordelen zijn aan een 12-bit signaal te converteren naar 10-bit en dat dit voor hogere kwaliteit zou zorgen.

Dus is het een issue? Niet echt, maar het zou potentieel voor beperkingen kunnen zorgen en ik heb nog geen goed argument gehoord voor het cappen van de bandbreedte.
Wat zouden die voordelen concreet zijn 12 bit naar 10 bit te downsampelen ?
Je brondata bevat meer kleurinformatie. Bij het filmen en post productie zal er dus met meer data gewerkt kunnen worden (bv: Dolby Vision kan 12bit aan). Het bron- of het doeltoestel zal dan een mapping moeten doen van wat er doorgegeven wordt tov wat het paneel kan tonen. Doordat er meer "keuze" mogelijk was bij de aanmaak, kan er dus potentieel een verbetering zijn in het getoonde resultaat.

Nu is het ook al zo dat panelen niet altijd alle kleuren kunnen tonen die in het signaal zitten (de bekende grafieken bij paneel testen). Het zou me niet verbazen dat een hogere kleurdiepte in het inkomend signaal voordeel kan bieden voor panelen die meer kleuren dan DCP-P3 kunnen tonen. Al ben ik hier zeker geen expert in en kan het perfect zijn dat de kleurruimte hier geen invloed op heeft en dit puur aan de kleurdiepte gelinkt is. Hopelijk kan iemand met inhoudelijk kennis hier meer over zeggen.

Het voordeel -als het er al is - zal hier wel minimaal zijn. Gezien het nog redelijk nieuw is, er nog niet veel bronmateriaal beschikbaar is in 12 bit en er nog niet echt testen zijn gedaan, is dit zeker nog een redelijk theorethische discussie.

Dit punt had ik ook als laatste gezet omdat het in deze non-discussie nog eens het minst significante punt is.

Mijn punt was vooral de waarom? Op de limiet zitten is zelden goed, ook al gaat het allemaal. Zeker bij duurdere toestellen die je voor langere tijd hebt.

Een aantal interessante Youtube films hierover indien je je tijdens de komende vakantie periode zou vervelen en je hier in willen verdiepen:
40 vs 48 - Does it matter: https://www.youtube.com/watch?v=GFJmjKJGx5o
C9 vs CX (48 vs 40): https://www.youtube.com/watch?v=FT5VK5YPTkc

Edit: doorstreept wat volgens mij een onjuistheid is ivm dcp-p3. Wie hier meer diepgaande info over heeft, mag het zeker toevoegen

[Reactie gewijzigd door flowrider84 op 22 juli 2024 23:26]

In antwoord op exact die vraag zei LG dat ze de bandbreedte omlaag hadden gebracht zodat er meer CPU kracht beschikbaar is voor de beeld AI (de grote feature voor de 2020 OLEDs). En de 4K en 8K panelen zullen nooit 48Gbit nodig hebben omdat ze 10 bit zijn. Daarnaast staat de HDMI 2.1 standaard compressie toe (losless), zoals bijvoorbeeld de Xbox Series X lijkt toe te passen. En dan kun je alsnog 4K@120 4:4:4 12-bit doen, mocht je dat echt willen.
Hoog "omdat het kan" gehalte. Het heeft geen enkel nut.
Maar is dat echt zo? Ik weet niet of alle output devices altijd zelf 12 bit kunnen "downsamplen" naar 10 bit. Dus als het device alleen 12 bit kan uitvoeren is het wel handig dat de tv dat in theorie in ieder geval zelf kan converteren.

Heb zelf een CX en er ook nog geen enkel probleem mee gehad 😂
Anoniem: 1088381 @Pieroman18 december 2020 14:46
4k 120p 4:4:4 10bit heeft 40.1Gbit/s nodig. Nu vraag ik mij af of de 40Gbit van LG dus 40.1 is of echt 40. Indien het laatste het geval is, valt hij terug op 4:2:0/4:2:0. Voor games op een groot scherm zie je dit helaas wel (compressie).

Niet alle games kunnen 4k 120p aan op de Xbox Series X, maar er zijn er wel een aantal.

De Ps5 is gecapped op 32Gbit, dus met die console ga je sowieso niet aan de 40.1 komen.

Source 9e post onder deze link is een afbeelding met een compleet overzicht tot aan 10k 100-120p.

[Reactie gewijzigd door Anoniem: 1088381 op 22 juli 2024 23:26]

Het is natuurlijk gewoon die 40.1 GBit/s de getallen wroden gewoon afgerond. het is echt niet een 40.000.000.000 in de spec hoor. Als bewijs kun je maar nemen dat die 4:4:4 10bit modus gewoon werkt I guess.
Ik zou niet zomaar concluderen dat het met het aanpassen van de EDID klaar is: De EDID is het middel van LG om HDMI tot 40 gigabps te beperken, niet de reden. Best kans dat die reden elders in de televisie zit, bijvoorbeeld dat de beeldverwerking het niet onder alle omstandighedent aankan. In dat geval kun je allerlei vage problemen gaan verwachten als apparatuur 12 bits gaat uitonderhandelen.

Kortom, ik zou er niet aan beginnen, er is immers geen praktisch voordeel.
Ik vraag me ook af in hoeverre het wel echt gebruikt wordt als er 12 bit 4k120 4:4:4 signaal binnenkomt. Maar qua processing is dat bij een pc aansluiting op game mode natuurlijk minimaal.
Ik kan begrijpen dat ze het wellicht uitgeschakeld hebben omdat de ingebouwde chip te weinig rekenkracht heeft om image processing stabiel te laten werken als er effecten worden ingeschakeld.
Maar op lagere framerate kan toch wel 12bit verwerkt worden? Dus dan is het niet onbruikbaar. Ik kan me voorstellen dat een interne kleurdiepte van 12bit naar 10bit geconverteerd toch wel een accurater beeld oplevert dan 10bit. Ik dacht dat veel monitoren ook zo kunnen werken. Maar of je het ziet en of je überhaupt de content hebt dat is dan wel twijfelachtig.
Op lage framerate is 12-bit geen enkel probleem: Mijn Vu+ Ultimo staat ingesteld op 4K, 50/60Hz en 12-bit RGB en dat neemt mijn C7 al aan zonder morren.
Je kunt het voordeel alleen zien als je beide situaties gaat vergelijken.
Dus eerst de originele situatie en later nadat de modificatie uitgevoerd is.
Op voorhand concluderen dat het toch geen zin heeft is voorbarig.
Foutje in het artikel "De gebruiker zegt in ieder geval dat het nu mogelijk is een signaal te gebruiken met 4k, 120Hz, 4:4:4-chroma subsampling"

4:4:4 is geen chroma subsampling want alle 3 componenten draaien full sample rate zonder compressie. Het is gewoon full chroma 4:4:4. Bij 4:2:2 en 4:2:0 praat je pas over subsampling.
Je hebt helemaal gelijk. Tweakers maakt deze fout in vrijwel elk artikel waarin chroma subsampling genoemd wordt.
Wat een puinhoop, HDMI 2.1 is het nieuwe USB 3.1, met alle ingewikkelde uitzonderingen daarbij. Ik volg het zelf allemaal amper, laat staan de minder techies onder ons.
Helaas is het niet alleen HDMI (2.1). Als je kijkt naar hoe HDR op de markt is gezet, is dit een regelrecht drama. We hebben:
  • HDR10
  • HDR10+
  • HLG
  • Dolby Vision
Op basis van specs zou je kunnen stellen dat Dolby Vision het meeste potentie heeft, maar volgens mij zegt het inhoudelijk niet zoveel. Waar de spec tot 10.000nits kan gaan qua helderheid, is er praktisch geen opnameapparaat, noch afspeelapparatuur, die hiermee om kan gaan.
Kortom: er kan veel, maar in de praktijk wordt dit niet waargemaakt?
Daarnaast heeft OLED een uitzondering gekregen voor het Dolby Vision predikaat, door het praktisch oneindige contrast.
Kortom: wat betekent de "beste" HDR-optie nu? Het is totaal niet duidelijk.

Dan hebben we ook nog (sorry, Dolby) Dolby Atmos, waarbij het meest belangrijke kenmerk is dat geluid van boven kan komen (god voice). Als dan blijkt dat smartphones hier ondersteuning voor bieden, dan zou je dat alleen kunnen uitleggen als je je telefoon boven je hoofd houdt.

Ik snap het volgende trouwens niet in het artikel:
Een bezitter van een LG CX-oled-tv zegt op Reddit dat hij erin is geslaagd de HDMI-bandbreedte te verhogen van 40 naar 48Gbit/s. In de praktijk leidt dat niet tot noemenswaardige verbeteringen ...
Verderop:
De gebruiker zegt in ieder geval dat het nu mogelijk is een signaal te gebruiken met 4k, 120Hz, 4:4:4-chroma subsampling en 12bit, terwijl dat voorheen beperkt was tot 60Hz.
Dat spreekt elkaar toch tegen?

EDIT: het paneel is maar 10 bit, dus effectief zie je dat inderdaad niet. Bedankt @MMaster23 @fwsmit voor de uitleg.

[Reactie gewijzigd door Nas T op 22 juli 2024 23:26]

Dan hebben we ook nog (sorry, Dolby) Dolby Atmos, waarbij het meest belangrijke kenmerk is dat geluid van boven kan komen (god voice). Als dan blijkt dat smartphones hier ondersteuning voor bieden, dan zou je dat alleen kunnen uitleggen als je je telefoon boven je hoofd houdt.
Dat is de meest bekende en meest significante toevoeging. Atmos houdt van wat ik begreep ook rekening met de positie van speakers, en kan met behulp van de metadata die films meesturen bepalen wat waarop op welk kanaal met hoeveel volume afgespeeld moet worden. Dat geldt ook voor alle conventionele surround kanalen.

Of dat ook in de praktijk een merkbaar verschil maakt is wat anders. Geluid van boven lijkt de belangrijkste use case. ;)
Nou, Atmos geeft wel degelijk een beduidend betere “plaatsing” van geluiden, zelfs zonder hoogtekanalen. Meer een “bubbel” van geluid, ipv. bij traditionele 5.1/7.1 mixen toch vaak geluid dat duidelijk uit een speaker komt.
Kan je vertellen dat je met goede speakers en juiste opstelling en inregeling Dolby Atmos zeker geweldig en merkbaar is!
Wat je zegt klopt niet helemaal. Dolby Atmos gaat nog altijd uit van een vaste speakeropstelling. Er zijn wel meerdere smaken voor thuisopstellingen zoals: (lees: surround, subwoofer, top) 5.1.2, 5.2.2, 5.2.4, 7.1.2, 7.2.2, 7.1.4 en 7.2.4. Echter Dolby Atmos 'verwacht' die opstelling wel en je kan daar niet van afwijken zonder de positionering te verkrachten.

DTS:X (de concurrentie van Dolby Atmos zeg maar) houdt echter wel volledig rekening met de positie en configuratie van je speakers waar je dus feitelijk geheel vrij bent om je config in te richten zoals je zelf wilt. Wil jij 4 frontspeakers en 6 surroundspeakers met maar 1 top speaker? Geen probleem. Natuurlijk is je receiver/versterker hierin wel meestal de beperkende factor, maar theoretisch ben je met DTS:X echt vrij om te doen wat je wilt.
Niet perse.. ja het klopt dat 120hz een verbetering is maar de TV kon al 4k, 120hz, 4:4:4 op 10bit aan. Het paneel is maar 10 bit.. dus je merkt er compleet niks van wanneer je het op 12bit zet.
Dat argument wordt vaak gebruikt, maar is het echt zo? Downscalen kan wellicht een accuratere kleurweergave betekenen. Of je het kunt zien weet ik niet, maar er zal toch zeker wel meetbare verschillen zijn als je 12bit naar 10bit downscalet tegenover 10bit signaal ongeconverteerd (afhankelijk van de content)?
Dat zal per apparaat / chipset verschillen maar net zoals met niet passende resolutie zal er een vertaling gemaakt moeten worden tussen de input en wat het paneel aan kan. Deze mapping is niet optimaal en zal missers hebben. Immers je bron apparaat denkt dat het met een 12 bit apparaat praat en stuurt je de informatie passend bij een 12 bit omgeving (zij het van een gemaskerde bron zoals film of real-time berekend in een game). Het is niet dat het apparaat dan maar 2 bit negeert, hij zal informatie moeten omzetten / compressen om het naar het paneel te sturen.
Uiteraard. Dat zal toch eerder accurater resultaat opleveren? Hogere precisie. Zoals met elke vorm van resolutie.
Hmmm, downscalen van 4k naar 720p wordt echt niet beter mits de bron niet gecomprimeerd etc. Is. De reden dat het meestal beter oogt is omdat er over het algemeen zware compressie gebruikt wordt.... (grappig feit: veel mensen vinden 4k veel mooier als 1080p maar kijken zelden naar ongecomprimeerd 1080p op een goed 1080p scherm en heb nooit/zelden gezien hoe mooi 1080p kan zijn)
sommige mensen vinden dat het beeld scherper oogt qua beweging maar eigenlijk geeft het meer vertraging (gelukkig kunnen de meeste mensen dit corrigeren met hun hersenen)

[Reactie gewijzigd door andries98 op 22 juli 2024 23:26]

Wat veel beter zou werken is als men dit gewoon in de mastering studio doet. In plaats van hopen dat een standaard curve het beste resultaat levert. In deze is meer dus niet altijd beter, gematched is beter.
dat geldt voor vooraf gemasterde content ja. En Dolby Vision wordt gemasterd in 12bit, dus wordt altijd gedownscaled naar 10bit op desbetreffende schermen.
Maar direct gerenderde content (als je een pc ofzo zou aansluiten, voor zover deze 12 bit zullen gebruiken uberhaupt) zal dat op het apparaat zelf moeten doen.
Dolby Vision wordt helemaal niet altijd gemastered in 12 bit? De Bluray masters zijn gewoon 10bit voor bijna alle releases. Dus het scherm doet er verder vrij weinig mee.
En dan ga je er maar gemakshalve vanuit dat het materiaal wat je in 12-bit verstuurd, ook daadwerkelijk alle 12 bits gebruikt en niet gewoon een aantal bits een null waarde meegeeft. Denk bijvoorbeeld aan een oude zwart-wit film die je op je TV bekijkt. Het bronapparaat kan best 12 bit zijn, maar het bronmateriaal is dat gewoon nooit geweest. Dus bij de down-scaling gaat er gewoon niets verloren. Er is dan geen waarneembaar verschil.
Dat spreekt elkaar toch tegen?
Ik was ook eerst verward, maar volgens mij is het als volgt. Als je 12 bit kleurendiepte wilt kan je inderdaad maximaal 4k, 60 fps hebben. Maar voor optimaal beeld met 40Gbit/s gebruik je 10 bit kleurendiepte met 120 fps.
Omdat het een 10 bit paneel is kun je niet veel verschil zien tussen dat laatse en 4k, 12 bit 120 fps.
Denk dat je in de war bent met Auro 3D:

With a speaker layout that caters to many of the installed 5.1 systems out there, Auro-3D is a natural fit. The voice of God, top-layer speaker differentiates Auro-3D from Dolby Atmos and DTS:X and adds a heightened sense of realism to overhead effects.
Denk dat je in de war bent met Auro 3D:
Nee:
Freed from channels, individual sounds are precisely placed in the room and can move around you, including overhead and down low, immersing you in each story and song.
(bron: Dolby)
Hoe activeer je "Dolby Atmos" op je galaxy smartphone.
Veel Galaxy smartphones zijn voorzien van de Dolby Atmos-audiomodus, die een hoogwaardige 3D surround sound-ervaring biedt.
Een "hoogwaardige 3D surround sound-ervaring" is totaal subjectief en past niet bij wat een standaard moet zijn: een genormaliseerde specificatie wat voor een bepaalde kwaliteit moet staan.
Voice of God ook wel de VoG channel genoemd is een Auro 3D feature. Waar Dolby Atmos vooral inzet op plafond speakers om hoogte creëren dus vooral een verticale layout, (2 layers totaal) gebruikt Auro 3D 3 layers en is vooral horizontaal georiënteerd. (wat naar mijn mening overigens en natuurlijker geluidsbeeld oplevert)
- De basis 5.1/7.1 opstelling
- Hoogtespeakers boven de front/surround links en front/surround rechts (Atmos gebruikt hiervoor de plafondspeakers)
- De VoG-plafond speaker (in feite heb je een extra kanaal voor het meer ruimtelijke effect

Maar bon, het begint nu denk ik wel heel erg off-topic te worden. :D

[Reactie gewijzigd door Ricoche op 22 juli 2024 23:26]

Ja er zijn problemen mee, maar dit is er absoluut niet één. Er is simpelweg nul reden waarom je meer dan 40gbit/s wil gebruiken bij deze TV. Ja, je kan 12-bit kleurdata doorsturen, naar een TV die niet meer dan 10-bit kleur data gebruikt, simpelweg vanwege het paneel wat erin zit. Het is alsof het je lukt om 24-bit audio te sturen naar een receiver die een 16-bit DAC erin heeft zitten. Even los van het nut en noodzaak van 24-bit audio, maar het enige wat het oplevert is dat de laagste 8-bit worden weggegooid. In het geval van deze TV is het hem dus gelukt om 12-bit naar een TV te sturen ipv 10-bit, waarbij de TV de laagste 2 bits in de vuilnisbak gooit en weer 10-bit heeft.
Ik wacht om deze reden nog even met een nieuwe OLED of andere TV met HDMI 2.1.

Kijk al jaren naar mijn Panasonic Plasma en is echt nog prima.
Ik heb mijn Panasonic VT60 plasma jaaaaaren geleden vervangen door een C6 OLED. 100 klassen beter en ben een zeikerd met geluid. Snap niet dat mensen naar zulke achterhaalde techniek blijven kijken en zichzelf wijsmaken dat dit het beste is wat er is. Grijzige zwartwaardes vergeleken met OLED, verbruikt 2x zoveel stroom voor kleiner paneel, geen HDR of Dolby vision.

ga zo maar door.
Ik denk meer een kwestie van nog niet gezien hebben dat het beter kan? Dan weet je niet wat je mist zeg maar.
Dat het het beste in theorie is betekent niet dat dat ook in de praktijk zo is. OLED heeft nog steeds voordelen die relatief teveel kosten en nadelen die voor bepaalde gebruikers dealbreakers zijn.
Dan is het gewoon een simpele keuze, ik zal ook geen OLED nemen.
Je hebt een plasma gehad en je praat over grijzige zwartwaarden? Je lult dus maar want op plasma is zwart gewoon zwart vriend..
Maar waarom? Een gebruiker heeft de bandbreedte opgehoogd met precies 0,0 effect omdat het paneel toch niks kan doen met die extra informatie. Er wordt een gigantisch probleem van gemaakt, maar de TV deed het gewoon tot het volle potentieel van het paneel, alleen het getalletje is nu hoger zodat je daar over op kan scheppen?

Als je perse een 12 bit paneel wilt hebben, prima, maar dan is dat de reden. Niet dat de bandbreedte niet volledig wordt benut.
Ik zit te azen op een 77 inch CX, heb nu de 65 inch VT60 van pana.

speel nu days gone op ps5 (60fps) en dat de pana 1080 beeldlijnen intact houdt bij rondkijken vs 300 beeldlijnen op een 4k LG geeft toch wel te denken of het wel een verbetering is qua scherpte naar oled as je voornamelijk shooters speelt. Enige wat ik mis is HDR

Zie ook dit:
https://www.youtube.com/w...ogo&ab_channel=tinostarks
Waar jij het over hebt gaat over een hele oude oled, met ouder paneel en processors etc. Bovendien vergelijkt de beste man hier een scherm dat niet hoeft te upscalen met een oude oled die (geen enkel idee van zijn tv instellingen) moet upscalen naar 4k.
Het scherm van een oled zelf zegt niet alles. De hardware die het aanstuurt heeft veel invloed. En oled heeft de snelste response snelheid van welk type scherm dan ook. Dus juist het beste voor gaming.
sample and hold is per definitie blur helaas, ook op de nieuwste panels. Zo verwerken onze hersenen die techniek. BFI bestaat niet voor niks.
LG CX heeft BFI. 4 standen.
Ja, plasma heeft geen hdr en heeft lage helderheid, toch?
Goed nieuws. Ik ben benieuwd naar LG’s reactie, in welke vorm dan ook.
Hoezo goed nieuws? Er zijn geen 12-bit panelen, deze tv heeft dat ook niet dus 48Gbit/s is nutteloos als ik op de info uit het artikel afga.
Precies dit idd. Wat een gedoe nog steeds hierover, gaat negens over. Omarm juist de keuze die LG bewust gemaakt lijkt te hebben.
Alstublieft: "LG gaf als verklaring dat het 'hardwaremiddelen' voor de chipsets van 2020 anders had toegewezen, zodat ze geoptimaliseerd zijn voor de ai-functies van de televisies."
Dat is niet de verklaring die LG nú gaf, maar wat LG verklaarde ten tijde van de ophef. Niet selectief gaan quoten. ;)
Je hebt gelijk, maar in principe is dit de verklaring die nu nog steeds geldig is. Dus zal LG wel met een andere verklaring komen, ik betwijfel het.

Het is ook logisch, de bandbreedte is er, maar LG heeft er voor gekozen om hem niet volledig in te zetten zodat de chipsets de ai-functies "beter" kunnen ondersteunen.
Als je dan de switch vind om deze bandbreedte wel volledig in te zetten.....

Uit het artikel: "Hij zegt ook dat alles normaal lijkt te functioneren".
Tot dat je misschien de ai-functies wil gebruiken samen met 48gbits over de HDMI poort?
Je hebt gelijk, maar in principe is dit de verklaring die nu nog steeds geldig is. Dus zal LG wel met een andere verklaring komen, ik betwijfel het.
Wat niet wegneemt dat LG hierop niet kan of zal reageren.
Het is ook logisch, de bandbreedte is er, maar LG heeft er voor gekozen om hem niet volledig in te zetten zodat de chipsets de ai-functies "beter" kunnen ondersteunen.
Als je dan de switch vind om deze bandbreedte wel volledig in te zetten.....
Er zal allicht een reden zijn, maar aan de andere kant is dit toch ook best wel een storm in een glas water natuurlijk; de 48gbit/s is immers niet volledig nodig, doordat het paneel 10 bit is en geen 12 bit, waardoor 40gbit/sec nodig is en niet de volle 48gbit/sec. Het is dus niet zo schandalig als dat het Tweakers artikel laat overkomen.
en die zijn dikke bagger... na het kijken van wat ouder materiaal is dat het eerste dat ik heb uitgeschakeld en kijk het beeld was veel beter...

een geavanceerd keuze menu waar je dit afzet en dan 48Gb bandbreedte kan activeren zou voor de geavanceerde gebruiker welkom zijn... nu moet je prutsen via een tool, windows en wat weet ik nog allemaal...
en die zijn dikke bagger... na het kijken van wat ouder materiaal is dat het eerste dat ik heb uitgeschakeld en kijk het beeld was veel beter...

een geavanceerd keuze menu waar je dit afzet en dan 48Gb bandbreedte kan activeren zou voor de geavanceerde gebruiker welkom zijn... nu moet je prutsen via een tool, windows en wat weet ik nog allemaal...
Maar, het blijft een 10-bit paneel, dus wat is dan uiteindelijk het voordeel van het behalen van 48gbit tegenover de 40gbit? Tweaker gehalte buiten beschouwing gelaten uiteraard ;)
nog steeds fantastisch _/-\o_
Ik wacht wel op de CXII tot alle HDMI2.1 features goed werken en DTS geluid terug is, of op Microled, en zo blijf je wachten :P

Edit: DTS ipv Dolby

[Reactie gewijzigd door S0epkip op 22 juli 2024 23:26]

De normale dolby 5.1 is er toch nog gewoon steeds?
Ja hoor, hij/zij bedoelt waarschijnlijk DTS. DTS decoding en passthrough is eruit gehaald in de CX reeks.
Maar zon beetje elke nieuwe tv heeft het toch niet meer. Vind het wel vreemd eigenlijk.

Gebruikt de LG OLED55CX6LA wel de volle 48Gbit/s? Zo niet maakt het dan nog heel veel uit?

[Reactie gewijzigd door jaaoie17 op 22 juli 2024 23:26]

Gebruikt de LG OLED55CX6LA wel de volle 48Gbit/s? Zo niet maakt het dan nog heel veel uit?
Nee. Geen enkel scherm heeft een 12-bit paneel, dus er is ook nog geen enkel scherm dat daar voordeel uit kan halen.

[edit]
Voor de duidelijkheid, de betreffende TV kan mogelijk een signaal met deze snelheid ontvangen en verwerken. Het heeft echter geen toegevoegde waarde om dat te doen door het beperkte paneel.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 23:26]

Maar zon beetje elke nieuwe tv heeft het toch niet meer. Vind het wel vreemd eigenlijk.
Omdat televisies ieder jaar goedkoper moeten worden, het licentiegeld kost en overbodig is. Er kan tegenwoordig PCM over HDMI en dan is het veel logischer om een Bluray-speler die toch al de DTS-licentie heeft de decodering te laten doen dan de televisie. Vervelend als je hem via SP/DIF aansluit, maar met HDMI EARC is dat ondertussen legacy geworden.
DTS-HD of Dolby TrueHD door de bluray-speler laten vertalen naar LPCM zorgt voor verlies van meta-data (dialoog normalisatie, content type, enz.) en verlies van DTS:X en Dolby Atmos voor hoogtekanalen. TVs met EARC moeten daarom gewoon DTS-HD en Dolby TrueHD als bitstream doorgeven.
Ik denk dat als je DTS via de ingang voert het vast ook wel via EARC weer prima naar buiten komt: De licentie is nodig voor het decoderen van DTS in de televisie en bij doorvoer is geen sprake van decoderen. Ik kan me niet voorstellen dat als je niet wilt dat de Blurayspeler het in PCM zou omzetten dat je dan wel wilt dat de TV het in PCM gaat omzetten.
Ik denk dat als je DTS via de ingang voert het vast ook wel via EARC weer prima naar buiten komt: De licentie is nodig voor het decoderen van DTS in de televisie en bij doorvoer is geen sprake van decoderen.
Dat is niet het geval bij de LG CX televisies. Passthrough via EARC van DTS of DTS-HD werkt niet. Of dat aan de licentie ligt weet ik niet, je zou inderdaad zeggen dat het niet uitmaakt als je de bitstream niet decodeert.
Naar mijn weten werkt DTS pass through gewoon hoor. Alleen decoding voor afspelen op de tv is eruit gehaald.
Dus jij denkt dat ik met mijn logitech 5500 er nog steeds dts op kan krijgen. Heb zelf deze tv op het oog. De LG OLED55CX6LA. Wil dan gewoon van de ingebouwde mediaspeler gebruik maken.

[Reactie gewijzigd door jaaoie17 op 22 juli 2024 23:26]

Ik zou niet weten waarom niet. Pass through heet niet voor niets zo, de tv hoeft daar niets mee te doen.
De normale dolby digital 5.1....
inmiddels zijn er al dolby true hd en dolby atmos jarenlang uit. Dolby 5.1 is achterhaald en matige kwaliteit
ook een van de redenen dat ik weinig streams kijk met films. Wil gewoon normaal atmos voor mijn atmos setup thuis.
Als ik mag vragen... waarom vind je dat zo belangrijk? Je kijkt toch meestal TV met een STB van je provider en games speel je via een aangesloten PC of console, die dit wel ondersteunen in de meeste gevallen. Als je zo een TV hebt, heb je meestal een externe versterker waarop alles aangesloten zit toch?
Wat dacht je van eARC.

nu met de nieuwe consoles heb je hdmi 2.1 nodig. De LG OLED CX heeft 4 poorten. De nieuwe receivers maar 1. Dus moet je 1 console minimaal op de tv zelf aansluiten en via eARC dan dolby atmos doorsturen en DTS:X

En ja 2.1 is voor consoles belangrijk ivm 4k/120hz gaming
Oke, duidelijk. Heb al een tijdje de developments in recente receivers niet meer gechecked, ik dacht dat HDMI 2.1 receivers al verder gevorderd waren op dat vlak.

Zoals iemand hierboven al aangaf lijkt HDMI 2.1 echt wel de nieuwe USB 3.1 te worden.
Ik heb vanaf plasma gewacht op een betaalbare oled en dat is de 65gx geworden. De eerste weken met verbazing naar de beeldkwaliteit gekeken met geregeld een “wooow” die door de kamer klonk. Ik weet niet wat de stap naar microled gaat worden, maar dit moet bijna wel marginaal zijn. Kan me niet voorstellen dat er nog veel te verbeteren valt.

Met dolby geluid bedoel je vast het ontbreken van dts? Vraag me af of dit goed gaat komen in de toekomst aangezien meerdere fabrikanten dit weglaten op het moment.

Ik zeg: niet wachten, maar genieten!
Mijn ouders hebben toevallig laatst dezelfde (65GX6LA) tv gehaald. Wat een prachtige beeld kwaliteit is dat.
.oisyn Moderator Devschuur® @Fred_Perry18 december 2020 10:39
Ik heb zelf de 55GLXA en ik moet zeggen dat het gebrek aan DTS me in een testopstelling al beet. Veel films die ik op mijn NAS heb staan zijn louter met DTS geëncodeerd. Die hebben dus gewoon geen geluid als ik ze direct op de TV afspeel.

Maar goed, ik wil nog een goede soundbar kopen, ik hoop dat dat het probleem fixt, anders moet ik gaan transcoden. Aan de andere kant kijk ik nog amper lokaal :Y)
Er valt nog genoeg te verbeteren hoor. Twee zaken vooral:
1) hogere maximale helderheid voor betere HDR effecten (OLED zit echt wel aan z'n max op dit vlak)
2) nauwkeuriger weergaven van 'near black' beelden. Ook hierin is OLED niet sterk. Met zeer nauwkeurig kalibreren kun je eind komen (LG bied die mogelijkheid ook door hun ingebouwde 20-point grayscale weergave) maar af-fabriek gaat eigenlijk bijna iedere OLED hier niet goed mee om.
Tegen de tijd dat er hier een nieuwe videokaart komt is de CX al oud :+
Dit klinkt mij toch als het Opel embleem van mijn auto halen, er een Tesla embleem op terug plaatsen en zeggen 'kijk, ik heb een electrische auto want er staat Tesla op'

[Reactie gewijzigd door Nico Klus op 22 juli 2024 23:26]

Als er verder geen impact is, waarom heeft LG dit dan niet meteen zelf gedaan? Het heeft veel 'negatieve' artikelen opgeleverd. Gezien de C9 serie wel 48 Gbit/s had en de CX serie niet, ook al hebben ze beide geen 12 Bit paneel.
Iedereen stelt hier altijd maar dat het een non issue is aangezien het paneel toch maar 10 bits is, maar is dat wel zo? Je maakt toch ook foto's in 16 bits RAW om nadien weer te geven op en 8 of 10 bits paneel. Dit wordt gedaan om zoveel mogelijk ruimte te geven voor nabewerking. En als er nu één ding is waar er elke generatie tv's op verbeterd wordt, is het toch de processor die instaat voor de beeldverwerking die zo enorm belangrijk is bij HDR weergave. Het lijkt me dan toch ook niet meer dan normaal dat met alle beeldverwerking die er nog door je tv wordt uitgevoerd je een beter resultaat zal krijgen met een 12 bits input, ook al is je paneel maar 10 bits. Ik vraag me zelfs af of er wel degelijk een zichtbaar voordeel te behalen valt bij een 12 bits paneel.
Precies, het gaat niet om de 10 bits weergave van het paneel maar om de verwerking van 12 bits signalen. Als je TV geen 12 bits signalen kan verwerken heb je dus ook niets aan je 10 bits paneel.
De verwerking van alle mogelijke HDMI 2.1 signalen blijft dus van belang.
LG heeft dit bij de 2019 ook zo gedaan. Als het toen niet nodig of nuttig geweest zou zijn had men de bandbreedte ook wel eerder kunnen “knijpen”.

Op dit item kan niet meer gereageerd worden.