LG's oled-tv's van 2020 hebben geen hdmi 2.1 met volledige bandbreedte

De 4k-oled-tv's en lcd-tv's met hdmi 2.1-aansluitingen die LG dit jaar uitbrengt, halen niet de maximale bandbreedte van 48Gbit/s. De gevolgen lijken beperkt, doordat deze bandbreedte nodig is voor een 12bit-kleurdiepte en de tv's dat toch niet kunnen verwerken.

LG heeft in een verklaring aan Forbes laten weten dat de volledige bandbreedte alleen ondersteund wordt in twee hdmi 2.1-aansluitingen op de 8k-televisies die dit jaar nog moeten uitkomen: de 8k-televisies in de ZX-reeks en de Nano 99, 97 95. De overige hdmi 2.1-aansluitingen op deze televisies en alle hdmi 2.1-aansluitingen op de 4k-tv's van dit jaar ondersteunen een lagere bandbreedte. LG zegt niet hoe hoog die is en biedt zijn excuses aan dit niet eerder te hebben gecommuniceerd.

De fabrikant laat weten dat dit betekent dat de televisies van 2020 met hdmi 2.1-aansluitingen wel gewoon in staat zijn om 4k-beelden met 120fps weer te geven, maar daarbij is sprake van een 10bit-kleurdiepte met 4:4:4-chroma subsampling. De LG-televisies van vorig jaar, zoals de C9-oled-tv's, hebben wel hdmi 2.1-aansluitingen die 48Gbit/s halen. Die kunnen daardoor 4k-beelden met 120fps weergeven met een theoretische kleurdiepte van 12bit met 4:4:4-chroma subsampling.

Als verklaring zegt LG dat het hiertoe heeft besloten op grond van de marktsituatie. Volgens het bedrijf is er nog geen 'echte content' beschikbaar die 48Gbit/s nodig heeft. LG zegt dat het 'hardwaremiddelen' voor de chipsets van 2020 anders heeft toegewezen, zodat ze geoptimaliseerd zijn voor de ai-functies. Kortom, de fabrikant haalt als het ware een deel van de verwerkingscapaciteit van de processor weg bij de hdmi 2.1-aansluitingen en stelt die beschikbaar voor de verschillende ai-functies van de tv's.

De CX, WX-, GX-oled-tv's van dit jaar bijvoorbeeld zullen dus wel over hdmi 2.1-aansluitingen beschikken, maar halen hooguit 40Gbit/s. In de praktijk zal dit weinig tot geen zichtbare beperkingen met zich meebrengen, omdat geen van de LG-, Sony- of Samsung-tv's met hdmi 2.1 overweg kunnen met een 12bit-kleurdiepte. Het zijn allemaal 10bit-systemen.

John Archer, de auteur van het Forbes-artikel, zegt overigens dat het erop lijkt dat bijna geen enkele huidige televisie met hdmi 2.1 de 48Gbit/s-bandbreedte haalt en dat ze dus geen van alle verdergaan dan 40Gbit/s. Dit geldt dus waarschijnlijk ook voor bijvoorbeeld de Samsung-tv's die van hdmi 2.1-aansluitingen zijn voorzien. Volgens Archer heeft alleen de Sony XH90-4k-lcd-tv ondersteuning voor hdmi 2.1 met maximaal 48Gbit/s. Eric Beeckmans van Homecinema Magazine bevestigt dat en stelt dat de Sony ZH8 tot 40Gbit/s gaat.

Door Joris Jansen

Redacteur

06-05-2020 • 10:57

134

Submitter: MatthiasL

Reacties (134)

Sorteer op:

Weergave:

De fabrikant laat weten dat dit betekent dat de televisies van 2020 met hdmi 2.1-aansluitingen wel gewoon in staat zijn om 4k-beelden met 120fps weer te geven, maar daarbij is sprake van een 10bit-kleurdiepte met 4:4:4-chroma subsampling
Dit is het belangrijkste.

4:4:4 betekent effectief dat er geen kleur compressie is, in tegenstelling tot 4:2:2 en 4:2:0, en 10bit is de huidig gebruikte kleurdiepte voor HDR beelden. Enkel Dolby Vision gebruikt al 12bit kleuren. Dat dit mogelijk is op 4K@120hz betekent gelijk dat de bandbreedte van de HDMI 2.1 poorten voldoende is om de maximale spec van het paneel te voeden. 12bit was mooi geweest voor betere colormapping maar wordt niet native ondersteund door het paneel.

De panelen zijn native 10bit, 120Hz met 4K resolutie ;)

TLDR: 48Gb/s was leuk maar voegt in de praktijk niks toe voor de 4K modellen.
LG tells me now, though, that while all the HDMIs on its premium 2019 TVs were indeed full 48Gbps examples
Grappig dat de 2019 modellen dan wel de volledige bandbreedte hebben :?

[Reactie gewijzigd door Caayn op 22 juli 2024 19:31]

Om een beeld te geven van hoeveel bandbreedte je nodig hebt voor 4K op 120fps met 10-bit kleurdiepte en volledige (4:4:4) kleurinformatie:
  • 10 bits/kleur
  • 3 kleuren/pixel
  • 3840*2160 pixels/frame
  • 120 frames/seconde
Vermenigvuldigen we dit met elkaar (10 * 3 * 3840*2160 * 120) komen we uit op 29859840000 bits/seconde, oftewel 29,86 Gb/s aan benodigde bandbreedte. Uiteraard komt daar nog 16b/18b codering overheen, plus wat overhead en audio-kanalen, maar je blijft ver onder de 48 Gb/s aan rauwe bandbreedte van HDMI 2.1. Wel heb je dus een stuk meer nodig dan de 18 Gb/s van HDMI 2.0.

Wat ik vermoed is dat ze de kloksnelheden iets lager hebben gezet om zo de eisen aan de controllers en kabels iets te verlichten. Ook kan het stroomverbruik daardoor iets lager uitvallen. Ik weet alleen niet of HDMI 2.1 het automatisch onderhandelen van kloksnelheden ondersteund.

DisplayPort heeft hier bijvoorbeeld wel rekening mee gehouden, door met versie 2.0 niet 1 maar 3 nieuwe snelheden te introduceren:
  • UHBR 10 (10.0 Gbit/s per lane)
  • UHBR 13.5 (13.5 Gbit/s per lane)
  • UHBR 20 (20.0 Gbit/s per lane)
DisplayPort ondersteund 4 lanes over de standaard, mini en USB-C connector dus vermenigvuldig de getallen hierboven maal 4 voor de rauwe bandbreedte.

Een voordeel van deze methode is dat monitoren enkel de hoogste standaard hoeven te ondersteunen die zijn nodig hebben. Een monitor die dus aan UHBR 13.5 genoeg heeft, hoeft niet de volledige UHBR 20 controllers te implementeren, die duurder zijn en meer stroom verbruiken. Videokaarten zullen waarschijnlijk wel allemaal UHBR 20 ondersteunen, om zo met alle monitoren om maximale resolutie, frame rate en color sampling te kunnen werken. Maar het bespaart dus geld aan de monitor-zijde.
Ter info, Dolby TrueHD heeft een bitrate van 18 Mbit/s
Dank voor de aanvulling. Ik zou je graan een +2 geven maar dat mag ik helaas niet :)
Dat doen wij dan wel voor je ;)
En dan nog, alsof een doorsnee consument het verschil zal zien tussen 10bit of 12bit kleuren.. Nee dus.. Dat is allemaal gewoon marketing BS.
voornamelijk omdat het scherm sowieso al geen 12bit kleuren kan weergeven ;)
Klopt, maar mag je dan nog adverteren dat je 2.1 hdmi poorten hebt?
yeps.. omdat de hdmi 2.1 standaard ook al toestaat het zo te noemen als je alleen onderdelen ondersteunt.. Daarom moet volgens de standaard ook precies specificeren wat je ondersteund.
Je mag het al HDMI 2.1 noemen als je alleen maar 4K100 haalt ipv 4K120 en dan hebben het nog niet over dat daar ook nog verschil kan zitten in compressed of uncompressed.

Daarnaast staat in de standaard "bandwidth capability is increased up to 48Gbps." wat het weer mogelijk maakt om daar ook onder te zitten.

De HDMI 2.1 standaard is zo'n zooitje dat zelfs toestellen met HDMI 2.0 mogen aangeven dat ze HDMI 2.1 ondersteunen op het moment dat ze alleen VRR, ALLM of eArc implementeren.
Eerlijk: ik verwacht dat de gemiddelde consument het verschil tussen 8 en 10 bit al nauwelijks zal zien. Tenzij je stilstaande beelden side-by-side gaat zetten.

Voor video-editen e.d. is de extra ruimte van 10/12 bit handig. Maar in je eindresultaat?
Verwijderd @Caayn6 mei 2020 11:13
Grappig dat de 2019 modellen dan wel de volledige bandbreedte hebben :?
Misschien ook wel omdat het de eerste modellen waren. In de hoop dat die uitgebreid worden bekeken en dan bij de volgende modellen wel wordt geloofd dat het hetzelfde is? Al kan ik me niet voorstellen dat ze dit echt denken, maar een grappige theorie.
Hoogstwaarschijnlijk inderdaad omdat het de eerste modellen waren.
In product ontwikkeling stopt men de nieuwe coole features eerst in de topmodellen, met specifieke en dure hardware.
Later moet dat naar beneden in het gamma, maar moet er ook een kostenbesparing gebeuren. En daar sneuvelt dan wel eens iets. Dat deden we zo toch steeds bij Philips en andere bedrijven. Zal hier ook wel zo zijn.
Voordeel is dat je in het begin betere hardware hebt, maar waarschijnlijk minder lang ondersteuning. (hoewel dat meestal niet veel voorstelt bij een TV)
Nee, toen hadden ze gewoonweg minder AI zoals het artikel ook aangeeft
"LG zegt dat het 'hardwaremiddelen' voor de chipsets van 2020 anders heeft toegewezen, zodat ze geoptimaliseerd zijn voor de ai-functies"
Verwijderd @Caayn6 mei 2020 11:20
Dit nieuwsbericht is dan ook een beetje een storm in een glas water. In tegenstelling tot andere fabrikanten voegt LG tenminste wel HDMI 2.1 poorten toe, en ik denk dat dit alleen maar toegejuicht moet worden. In de praktijk zal deze beperking echt 0 effect hebben, omdat het paneel toch niet 12bit is.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 19:31]

Ze lopen alleen tegen het probleem aan bij de 8K tv's, maar die zullen wel een full spec hdmi 2.1 poort krijgen.
De HDMI 2.1 standaard is gewoon een groot zooitje geworden omdat je het al hdmi 2.1 mag noemen als je maar één onderdeel van de specificaties ondersteunt. Krijg je straks als consument dat je er in moet duiken en de gewone consument denkt een hdmi 2.1 tv te kopen en dan thuis er achter komt dat er vanalles niet op zit.
Dit is wel een beetje het probleem met het ophypen van standaarden als marketingterm. Je hebt dus nu met HDMI 2.1 (in ieder geval bij LG) geen idee wat je nu echt koopt. Is het HDMI 2.1, of is het HDMI 2.1 maar dan niet echt?
Uiteindelijk is een standaard toch bedoeld zodat iedere aansluiting hetzelfde doet, waarom zou je als fabrikant dan zulke dingen doen. Ik snap dat het uiteindelijk niet zo veel invloed heeft, dus heel erg is het ook niet. Maar eigenlijk zijn standaarden voor LG dus niet zo veel waard, alleen het labeltje.
Ja en nee. Ja je zou verwachten dat als iets aan een standaard voldoet dat dit betekend dat alle specs overeen komen. Maar aan de andere kant, de tv heeft bepaalde specificaties, het is niet alsof deze niet waar worden gemaakt met de lagere doorvoer van de HDMI aansluiting. De weergave van het beeld is exact zoals de fabrikant claimt, dus wil je dan die hogere doorvoer zonder dat je het gebruikt? Of wil je de zelfde beeldkwaliteit, maar meer processorkracht voor andere doeleinden? Het is een beetje een verwaarloosbaar detail als je het mij vraagt. Pas als de 2020 modellen minder presteren dan de 2019 modellen dan is er pas iets voor te zeggen.
Ja ik snap dus ook wel dat het voor de TV niet uitmaakt, aangezien de volledige specificatie niks toe zou voegen. Maar toch voelt het een beetje gek om een specificatie in te voeren, maar dat je dan zelf mag kiezen of je hem helemaal gebruikt of niet. Maak dan geen standaard en ga gewoon over op het benoemen van de technische details, want technisch gezien maakt de standaard dus niet meer uit, is het puur een marketing stickertje. Want 2.1 is beter dan 2.0, dat weet iedere consument.

Dus inderdaad, aan de TV doet het niks af. Maar ik vind de insteek van een standaard gebruiken, maar toch niet, gewoon een beetje raar.
Doen ze allemaal. Kijk maar eens goed naar de 2020 4K TVs, heel veel sterretjes waarbij de HDMI 2.1 claim wordt afgezwakt en een aantal features zijn weggelaten. Dat komt omdat ze met HDMI 2.1 niet meer alle features verplicht hebben gemaakt.
Dat is altijd al zo geweest met zowel HDMI als DisplayPort. Groot deel van de specs zijn altijd optioneel geweest.

Dat zag je vooral heel sterk toen DVI langzaam aan minder voor kwam op monitoren en werd vervangen door DisplayPort en HDMI. Veel beeldschermen ondersteunden toen geen resoluties hoger dan 1920x1200 over HDMI, terwijl veel van die schermen wel HDMI 1.3 hadden.

Officieel was er geen single link en dual link HDMI zoals je met DVI had, maar toch zag je destijds (dan praat je voornamelijk over periode 2008-2012) wel iets vergelijkbaars terug in de implementatie van HDMI op beeldschermen.

Je ziet hetzelfde overigens met de standaarden voor TV zelf. De standaard voor UHD TV is Rec. 2020. Die standaard specificeert naast resoluties ook kleurruimte, kleurdiepte, vernieuwingsfrequenties en nog veel meer. Toch waren alle UHD TVs van de eerste generatie eigenlijk niets meer dan (F)HD TVs (Rec. 709) met een twee keer zo resolutie in de hoogte en breedte: kleurbereik was nog gewoon Rec. 709 (gelijk aan sRGB qua kleurbereik), frequentie 60 Hz, standaard dynamisch bereik en contrast in orde van 1000:1 tot 5000:1, 8 bit kleurdiepte.

Nu pas beginnen UHD TVs ook echt een beetje UHD TVs te worden. Het grootste verschil tussen HD TV en UHD TV vanuit de standaard was niet meer pixels, maar betere pixels: groter kleurbereik, hoger contrast, hogere kleurdiepte, hogere frequentie.
Ik vind dat idd ook wel kwalijk.
Ik dacht dat LG dus wel een echte 2.1 oplossing had maar dat is het dus niet. In dit geval is het niet erg want 40GBits is genoeg voor 10Bit. Maar toch.
Dan is Sony toch de eerste met de HX90.

Volgend jaar zullen wel veel meer tv's krijgen die echt HDMI 2.1 hebben. En wellicht ook wat meer receivers. Denon heeft er bv nog helemaal geen. dat is nog allemaal 2.0b maar wel met eARC.

[Reactie gewijzigd door Astennu op 22 juli 2024 19:31]

Het is eigenlijk erger, want ze HADDEN het wel, namelijk bij de televisies van vorig jaar (x9-serie). De nieuwe tv ondersteunt dus een lagere standaard.

Maar waarom mag men dit HDMI 2.1 noemen? Het fijne met standaarden is dat je weet wat je krijgt. Nu heb je HDMI 2,075.
Nee, de HDMI poort ondersteund een hogere standaard. Het scherm geeft het nog steeds in 10bit weer. Dat gaat in de toekomst ook niet veranderen.

Maar het feit dat standaarden geen standaard blijkt te zijn is op zijn minst kwalijk te noemen. Dan kunnen ze gewoon beter alle specs noemen ipv HDMI 2.1 want dat begint een holle frase te worden (net als USB btw).
Wat maakt het uit? de HDMI 2.1 kan volledig gebruikt worden op deze TV wat deze TV werkelijk aan kan, dat HDMI 2.1 meer ondersteund dan deze TV aan kan maakt niet uit en is zeker niets nieuws.
Dit is net zoiets als TV,s niet uitrusten met gigabit ethernet maar 100mbit ethernet, we willen 2 cent besparen op het product en vinden het daardoor niet noodzakelijk erop te zetten, het is gewoon weer een vreemde besparingsactie, en zo hebben ze weer een "nieuwe" functionaliteit bij de volgende TV releasen, voor een high-end tv verwacht je overgens wel dat dit op orde is en geen concessies gedaan worden.

Als je al een bak geld uitgeeft kan die paar euro er ook wel bij.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 19:31]

Je weet ook dat snelle WiFi wel ondersteund wordt.
De 1Gbit aansluiting is dus in feite overbodig maar een vreemde bezuiniging is het wel.
De kosten voor een 1Gbit poort zijn immers te verwaarlozen.
Vaste apparaten hoeven niet op Wi-Fi van mij, kabel is altijd beter dan Wi-Fi (behalve als de fabrikant het "brak implementeert" zoals in dit geval).

Alleen mobile devices waaronder smartphone, tablet, laptop zitten op Wi-Fi, de vaste apparaten waaronder TV hebben 0 voordeel behalve onnodige bandbreedte weg snoepen van Wi-Fi.

Dit huis heeft gewoon netwerk outlets naast een apparaat, dus 0 noodzaak om op WiFi te zetten, dan ga ik liever voor stabiliteit van de kabel.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 19:31]

Meestal is een vast netwerk stabieler dan WiFi. Echter bij LG Tv’s niet.
Daarom werkt daar WiFi veel beter en het is stabiel ook.
Een beveiligingscamera zou ik nooit op WiFi gebruiken. Daarmee is er wel onstabiliteit maar die heb je ook 24/7 nodig, je wilt niet hebben dat op een cruciaal moment het beeld uitvalt.
Indien het beeld uitvalt is er iets goed mis met tv hardware of elders in het netwerk, ondanks 100mbit ethernet zou dat nooit mogen gebeuren.

Kom je boven de 100 mbit dus met een lokale stream vanuit NAS gaat het beeld gewoon stotteren.
Met online content gebeurd dat niet want geen enkele content leverancier levert je een stream boven 100 mbit, er zal altijd compressie toegepast worden.

Nu geef ik waarschijnlijk ook het antwoord waarom LG geen gigabit ethernet heeft geplaatst.
Sneller WiFi is veelal omdat er dan ook 2x2 Mimo / mu-mimo wordt aangeboden en daardoor stabieler WiFi krijgt.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 19:31]

Ik wil geen snelle wifi om dingen op hoge bitrate te streamen. Die kabel is een stuk stabieler.
Klopt! Is dit dan nog steeds met de OLEDs uit 2020? Mijn LG OLED B8 heeft inderdaad een 100mbit verbinding.En stoort ook enorm op het netwerk bij aan/uitzetten. Dat laatste komt hopelijk niet door het gemis van een gbit verbinding, maar waardoor wel is mij nog steeds onduidelijk. Alle PC's disconnecten als de TV aangaat.
Je koopt toch een TV voor langere tijd? Als er nu geen 48gbit content is, maar over 2 jaar wel, heb je mooi wel de TV al in huis. Het is niet de bedoeling elke 2 jaar een andere TV te kopen..'
Beetje raar ook dat de 2019 wel heeft en de 2020 niet.. dan moet je er gewoon betere processor in doen, die en het juiste AI kan en full hdmi 2.1 heeft.. tv's kosten genoeg

[Reactie gewijzigd door SuperVeloce op 22 juli 2024 19:31]

Je koopt toch een TV voor langere tijd? Als er nu geen 48gbit content is, maar over 2 jaar wel, heb je mooi wel de TV al in huis.
Hehe, waarom denk je dat we van videoband naar DVD naar Blu Ray naar streaming gingen? Elke stap vereist nieuwe hardware ==> kassa.
Wat zou kunnen is dat LG de èchte HDMI 2.1 implementatie in de 2019 modellen deed om te zien hoeveel mensen daar gebruik van maken. Met telemetrie kunnen ze dat in de gaten houden. Aan de hand daarvan dachten ze 'ja doei, is de moeite niet en als marketingsmoes roepen we iets over AI. Oh de concurrentie doet dit ook, mooi.'
En in ~2026 komt die content er wel en dus hallo nieuwe TV!
Leuk verhaal, maar ik twijfel er aan of het klopt.
Van een CRT naar HDready tv was logisch.
Van een HDready naar FullHD is ook nog te begrijpen.
Van een FullHD naar 4K is enkel te verantwoorden als de diagonaal groter wordt.
8K verantwoorden gaat moeilijk worden
10 bit kleuren is al nauwelijks te zien (de meeste beeldschermen zijn daar gewoon niet goed genoeg voor), 12 bit overstijgt waarschijnlijk wat het menselijk oog kan.

Marketing is voornamelijk het doen ontstaan van vraag.
Het gaat er dus niet om dat je iets nodig hebt, maar men laat je denken dat je het nodig hebt.
Veel mensen zijn daar zeer vatbaar voor.
De 10 en 12 bit zijn niet zo zeer voor het kleurbereik, maar voor het dynamisch bereik (contrast).

Voor de niet extreem grote wide gamut kleurruimtes zoals Adobe RGB, NTSC 1953 en DCI-P3 kom je op een SDR scherm nog wel weg met 8 bit kleurdiepte per kanaal al kan je dan met vloeiende kleurovergangen in met name heldere luchten al wel duidelijk banding zien.

Nu schermen echter steeds dichter in de buurt komen van de Rec. 2020 kleurruimte hebben ze voor kleur ook al wel 10 bit nodig.

De hoofdreden voor 10 bit en 12 bit kleurdiepte per kanaal is echter het gigantische dynamisch bereik van HDR TVs. Met SDR TVs was het dynamisch bereik in de meeste gevallen gelimiteerd door het statische contrast van het LCD paneel, wat op zo'n 1000:1 tot 1500:1 zat voor IPS en vergelijkbare technologieën en tot zo'n 5000:1 voor VA technologieën. OLED bracht natuurlijk direct al een flinke uitbreiding aan de onderkant van het bereik met nagenoeg perfecte zwartwaardes, maar het ontbrak in het begin nog aan dynamisch bereik aan de heldere kant om het HDR te noemen.

Je moet je bedenken dat qua helderheid 12 bit kleurdiepte natuurlijk niets voorstelt. Eerst hadden we 220 niveaus (8 bit studio swing signalen gaan van 16-235 i.p.v. 0-255) voor een contrast van 1000:1, zelfs met 12 bit heb je 'maar' 3505 niveaus (256-3760) voor een contrast van 500k:1 tot >1M:1.

Er is daarom op zich zelfs nog wel wat te zeggen voor 16 bits kleurdiepte per kanaal. Slimmer zou echter zijn om floating point encoding te gebruiken zoals ACES RGB doet (die heeft overigens allebei: 16 bit en floating point). Met floating point encoding gebruik je één bit voor +/- teken van power factor, een aantal bits voor de power factor en de rest voor de decimaal om een analoge waarde (helderheid/kleur) op te slaan:

waarde = decimaal · 10+/-power factor

Belangrijk voordeel van deze manier is dat elke stop dynamisch bereik dezelfde hoeveelheid niveaus heeft om dit in op te delen. Met integer encoding is dat absoluut niet het geval als je geen gebruik maakt van gamma encoding, maar zelfs met gamma encoding wordt het nooit helemaal gelijk verdeeld. Als je floating point encoding gebruikt heb je dus ook geen gamma encoding meer nodig.


Overigens zie ik ook heel veel de discussie voorbij komen onder dit artikel over dat 12 bit input signaal nutteloos zou zijn als het paneel maar 10 bit aan kan. Dat is niet helemaal waar. Er is zeker wel meerwaarde en dat heeft met de volgende zaken te maken:
  • Gamut mapping
  • Kalibratie
Er zijn drie kleurruimtes die op het moment interessant zijn voor TVs:
  • Rec. 709 (komt qua kleurbereik overeen met sRGB)
  • Rec. 2020 (komt nog nauwelijks voor, maar zal steeds meer content voor komen)
  • DCI-P3
In veel gevallen komt het native kleurbereik van de TV met geen van die drie precies overeen, maar zelfs als de TV als aanname gebruikt dat het overeenkomt met bijvoorbeeld DCI-P3 moeten ze nog steeds de kleuren mappen voor bronnen met die andere twee kleurruimtes. Anders zou een Rec. 709 film (FHD, standaard Blu-ray) er niet uit zien door alle sterk oververzadigde kleuren.

Daarnaast verlies je nog het nodig met kalibratie, zeker naarmate het paneel verder versleten is. Meeste beeldschermtechnologieën worden geven een geliger beeld naarmate ze ouder worden, wat flinke beperkingen geeft in het resterende bereik aan bruikbare kleurdiepte van het rode en groene kanaal, omdat die moeten worden teruggeschroefd ten opzichte van het blauwe kanaal.

Dit is overigens de normaalste zaak van de wereld, zeker met pro beeldschermen, maar ook met TVs. Heel lang was het LG Display LM240WU5-SLA1 het enige native 10 bit paneel (gebruikt in LG W2420R, Quato IntelliProof 240 excellence LED en HP LP2480zx). Toch waren er ook toen al zat schermen van bijvoorbeeld Eizo en NEC die 10 bit kleuren als inputsignaal ondersteunden en interne verwerking hadden van 16 bit (LUT) terwijl het paneel maar 8 bit ondersteunde (soms wel met FRC, waarmee je extra kleurdiepte faked met combinatie van temporal en spatial dithering).

Het hele idee is om het paneel de zwakste schakel in de keten te maken, of eigenlijk andersom: alle andere schakels sterker te maken. Het paneel is het duurste component en daar gaat de technologische vooruitgang het traagst in. Het kost vrijwel niets extra's om ervoor te zorgen dat alle componenten voor het paneel niet of nauwelijks kwaliteitsverlies te geven ten opzichte van de prestaties van het paneel.

[Reactie gewijzigd door Kid Jansen op 22 juli 2024 19:31]

Interessante uitleg, maar mijn reactie ging over hoe de vooruitgang in de markt wordt gezet.
Zeer veel mensen kopen nog dvd's.
Er blijkt dus een groep mensen te zijn, die niet inziet wat het nut is of geen interesse heeft. Vervolgens is er een groep die achter de marketing aan loopt en dan is er nog een zeer klein groepje dat er echt mee bezig is.
Er is bijna niemand die nu van HDMI 2.1 gebruikt maakt. Er zijn geen kabels voor, er zijn geen AV receivers met HDMI 2.1, er zijn geen settop boxen met 2.1, geen videokaarten, bijna niks. Dus dat wist LG ook wel. Ik denk alleen wel dat fabrikanten verbaasd zijn hoe langzaam de omslag gaat. Die komt waarschijnlijk pas echt op gang met de nieuwe Xbox en PS5.
En die consoles gaan ook geen 12bit ondersteunen voor games, aangezien dat veel te veel resources gaat kosten. Wellicht dat ze 12bit HDR+ of Dolby Vision "video's" kunnen afspelen(op alsnog een 10-bit paneel), maar daarvoor is 120fps niet relevant, en het gaat prima op 60fps en zeker 24fps.

Kortom: dit is een echte non-issue voor de komende 10 jaar.

[Reactie gewijzigd door YoMarK op 22 juli 2024 19:31]

Er zijn weldegelijk kabels voor. Ik steek hier netjes met een 48Gbps certified 15m HMDI2.1 fiber kabel naar men 4k HDR Native projector.
Merk? Ik ben op zoek :-)
Bivani, onder andere te koop bij Amazon.
Er zijn ook Nederlandse kabels van RUConnected beschikbaar.
Zend maar een mail naar hun contact.

Super communicatie en kabel voelt kwalitatief en al.
40-tal euro's voor een 2m kabel.
We gingen van videoband naar dvd naar Bluray omdat de techniek voortschrijdt. Uiteraard hoort daar nieuwe hardware bij. Maar als jij fabrikanten te slim af wilt zijn kun je het bij de videoband houden natuurlijk.

Je hypothese over telemetrie klopt niet, omdat de 2019 modellen die theoretische bandbreedte niet kunnen gebruiken (geen 12 bit panelen). Daarnaast zou de nieuwe content in 2026 dus ook niet anders worden weergegeven als er wel 48 gbit ondersteuning was.
Je koopt toch een TV voor langere tijd? Als er nu geen 48gbit content is, maar over 2 jaar wel, heb je mooi wel de TV al in huis. Het is niet de bedoeling elke 2 jaar een andere TV te kopen..'
Zo kun je beter niet denken. Ik heb genoeg electronica gekocht dat ik heb geleerd dat je daarbij niet moet speculeren op de toekomst. De kans dat je verkeerd gokt is veel groter dan de kans dat je goed gokt.
Koop wat je nu nodig hebt of zeker gaat gebruiken.
Speculeer niet op wat er in de toekomst mogelijk gaat zijn. Er is een flinke kans dat de toekomst anders wordt, en de meerprijs van op de toekomst gerichte featues is meestal fors. Voor het prijsverschil kun je beter een keer een nieuw apparaat kopen als blijkt dat je echt iets mist.

Zelfs voor features die er zeker gaan komen is de termijn waarop dat gebeurd erg moeilijk te voorspellen. 4k is geen voorspelling meer, maar vandaag de dag zullen weinig mensen het missen als het er niet is. De meeste TV-zenders en websites ondersteunen geen 4K of doen het op zo'n lage bitrate dat je er nauwelijks iets aan hebt. Je nu al zorgen maken over 8K content heeft geen enkele zin*.

Andere vooruistrevende features, zoals HDMI2.1, hebben er last van dat de standaarden nog niet uit zijn ontwikkeld of niet in praktijk te testen zijn. Zeker als je op de rand zit van wat technisch mogelijk is. Het komt nogal eens voor dat in de eerste versies van een standaard (of de implementatie daarvan) nog bugs zitten. Het is niet altijd mogelijk om daar nog iets aan te doen. We hebben het al verschillende keren gezien bij bv HDMI en WIFI dat de early adapoters niet helemaal compatible blijken met latere versies van de standaard (of de implementatie in praktijk).


* Misschien ligt het anders als je in Hollywood werkt. Misschien dat je dan nu al 8k nodig hebt. Dat verandert niks aan mijn verhaal. Koop wat je nu nodig hebt.
Natuurlijk koop je nu wat je nodig hebt maar kijk je ook wat de TV te bieden heeft.
Als daar dus HDMI 2.1 genoemd wordt mag je ook verwachten dat je dit krijgt en niet iets wat erop lijkt.
Een TV koop je voor meerdere jaren zeker als je een premium OLED als hier bedoeld, kiest.
Maar je moet kijken wat de technologische bottleneck op je apparaat is. Dat is niet de HDMI poort, maar het panel. Het panel kan maximaal 4K aan in 4:4:4 in 10 bit. Nu komt iemand zeggen dat de bandbreedte niet toereikend zou zijn zijn om 8K 4:4:4 in 12 bit te draaien. Dat heeft dan toch nul impact voor je technologie bottleneck?
De tv ondersteunt geen features die deze bandbreedte vereisen. Je gaat er dus ook in de toekomst geen probleem van ondervinden. Pas als er tv's komen die 12 bit kleur op 4K/120fps met 4:4:4 subsampling kunnen verwerken heb je de volledige bandbreedte nodig.
Ja, ik heb dus de CX gekocht - toen me nog verteld wat dat de 2019 en 2020 hetzelfde waren en de laatste alleen maar verbeteringen bracht, en krijg nu opeens dit op mijn dak.

Zit sterk te twijfelen wat te doen,want je koopt hem inderdaad voor de toekomst - zeker met deze prijzen. Maar goed, weet niet goed genoeg of ik het verschil tussen 10-bit en 12-bit ga merken, en wat bijv. de Xbox Series X ondersteund.
Het paneel heeft geen ondersteuning voor 12 bit dus in die zin mis je niks ;)

Enige wat potentieel mogelijk was is dat de TV gevoed zou worden met 12bit kleurdiepte en dit zelf mapped naar 10bit.
Had de C9 dit wel dan? Of waar gaat deze discussie uberhaupt nog over dan?

Alleen de hypothetische situatie dat je invoerapparaat slechts 12-bit aan kan en niet iets anders verzend?

/Edit: Ik was de inzender hiervan maar dat stond niet in het artikel wat ik had gelezen, ben dus ook verbaasd dat er nu extra informatie bij getoverd is - en had daar dus ook overheen gelezen, dank!

[Reactie gewijzigd door MatthiasL op 22 juli 2024 19:31]

De C9 heeft dat ook niet. Er zijn voor zo ver ik weet nog geen 12bit OLED panelen in omloop, in ieder geval niet voor de consumenten markt.
OLED zou je imho makkelijker 12bit kunnen aansturen dan een LCD. Het is vooral de achterliggende elektronica. Ben na bijna 1 jaar nog steeds onder de indruk van de prachtige OLED weergave op mij C9 65”. De stap van 8 naar 10 bit is al behoorlijk. Vraag mij af 12 bit veel meer kan opleveren.
Kan best. Maar de panelen die nu in omloop zijn gaan nooit meer 12 bit worden. Dus dat is een puur theoretische discussie. Feit is dat je met een 2020 4K OLED paneel nooit 48Gbits gaat halen, laat staan die 40GBits

We moeten niet uit het oog verliezen wat HDMI 2.1 vooral is: issues voor gaming adresseren en 8K. Het is niet voor niets dat zo weinig 2020 modellen een echte HDMI 2.1 poort hebben. De meesten hebben gewoon 2.0 met sommige optionele 2.1 extras zoals eARC.
C9 ondersteund 12bit kleur signaal, alleen zal dit maar 10bit worden terug geschroefd. De CX ondersteund dit niet.
Dat kan toch niet? Indien het signaal dus de maximale bandbreedte overschrijdt dan valt er niets meer te mappen. De bron moet dan al 'downsizen'.

Maar future-proof tech is altijd al een probleem geweest.
Ik bedoelde dat als de TV wel 48Gb/s HDMI 2.1 ondersteuning had ;) Dan zou je hem prima kunnen voeden met 12bit kleurdiepte bij 4K@120Hz zonder chroma subsampling maar dan zou de TV het alsnog intern mappen naar een 10bit beeld vanwege het paneel.

Excuus als dat onduidelijk was.
Als je panel 10 bit per component is en je krijgt 12 bit binnen kan je misschien met temporele dithering nog net iets meer aan contrast winnen?
Dat klopt. Je ziet een soortgelijk iets bij TVs met een 8bit paneel die wel een 10bit signaal accepteren en ook echt kunnen verwerken. Die gebruiken de extra informatie voor een betere weergave.
Meer rekenkracht in de processor. En de nodige firmware om dat mappen goed te kunnen doen. En je hebt dan natuurlijk te maken met afnemende meeropbrengsten. Van 6-bit naar 8 was enorm, van 8 naar 10 ook erg mooi, maar van 10 naar 10 via 12 bit zal redelijk meevallen.
Als er nu geen 48gbit content is, maar over 2 jaar wel, heb je mooi wel de TV al in huis.
Waar denk je over 2 jaar 48Gb per seconde aan data vandaan te kunnen halen?
Waar denk je over 2 jaar 48Gb per seconde aan data vandaan te kunnen halen?
Uit gedecomprimeerde media streams en uit live beeld van bijvoorbeeld een PC (gaming), net als nu voor 40 Gbps.
Alsof jij dat verschil zult zien tussen 12bit of 10bit, naast dat de TV toch geen 12bit kan tonen en daarmee dus die 48Gbps helemaal niet nodig heeft.
Het verschil tussen 10 en 12 bit zou je misschien wel kunnen zien als de schermen het kunnen maar zo ver is het nog niet. Je hebt dan veel minder color banding. Als is dat met 10Bit best al goed het kan nog wel wat beter.
Maar juist die color banding zal men echt niet meer zien, het is niet zoals vroeger waarbij de resolutie zelf dan ook nog een beperkende factor is.
Naast natuurlijk dat een hoop mensen al die digitale troep aan hebben staan die het beeld juist onnatuurlijker maken. Als ik bij een vriend ben dan irriteer ik me nog steeds mateloos aan dat digital natural motion waardoor een film er uit ziet als een soapopera..
Ik heb ook al die zaken uit staan of getweaked voor niet 4K HDR content. of als ik SD dingen kijk.
Ik erger me ook aan soapopera.

Maar goed ik zie af en toe nog wel wat banding.Maar als de bron goed is (4K UHD disk heb je daar eigenlijk geen last van) Al hebben de goede TV's volgens mij wel een 12-14 bit processing ook al is het paneel zelf maar 10 bit waardoor je minder banding zou moeten zien.

Het ligt er ook aan hoe helder je scherm kan. Dolby Vision ondersteund niet voor niets 12Bit. Ik heb er nog wat meer info over gevonden uit een paper van Dolby zelf:
WHAT BIT DEPTH DO WE NEED?After establishing that the Dolby Vision should be able to represent brightness from 0 to 10,000 nits, scientists at Dolby looked for an efficient way to deliver this high-dynamic-range video. In current 100-nit Standard Dynamic Range (SDR) systems, video is coded with 8-bits-per-component precision, using a gamma curve. Using the same gamma approach would require 14 bits when the range is increased by a factor of 100.

Fortunately, the human visual system is much less sensitive to changes in highlights than in dark areas. Therefore, Dolby developed a new electro-optical transfer function (EOTF) that can code the entire 10,000-nit range with 12 bits instead of 14, without introducing any artifacts. This new perceptual quantizer (PQ) has been standardized as SMPTE ST-2084 and is used in various HDR-related standards and applications.Some generic HDR approaches use the PQ EOTF with 10 bits instead of 12. Why is it important to use 12 bits instead of 10? The human visual system has different sensitivities at different levels of brightness, and it is particularly sensitive to small changes over large areas of nearly uniform brightness. The following graph shows how noticeable 10- and 12-bit quantization is, depending on luminance. 10-bit quantization is always above the visual threshold, meaning that the average user can see noticeable differences with each change of luminance value. In natural scenes, noise in the scene can often mask this difference, but areas such as blue sky will often show banding or contouring if the quantization steps are too coarse.
https://www.dolby.com/us/...by-vision-white-paper.pdf

Net als met andere zaken zoals kleur echtheid en soapopera is niet iedereen er even gevoellig voor. Ik vind het bv ook heel storend als mensen hun TV op de standaard dynamic stand hebben staan. De kleuren zijn dan heel erg opgeblazen totaal niet realistisch.

Ik kijk ook eigenlijk nooit meer film bij andere mensen tenzij ik weet dat ze hun TV goed hebben afgesteld anders erger ik me alleen maar. Of ik moet de film al gezien hebben dat het meer voor het kletsen is maar niet om serieus te kijken en te genieten.

[Reactie gewijzigd door Astennu op 22 juli 2024 19:31]

Mja, dit is dolby die 'wetenschappelijk' aantoont dat dolby zo goed is.
Krijg er een ernstig "Wij van WC-Eend..." gevoel bij.
Het verschil tussen 10 en 12 bit zou je misschien wel kunnen zien als de schermen het kunnen maar zo ver is het nog niet.
Een beetje dithering erover en je ziet het verschil echt niet meer. Zeker niet op 4k.
Jij misschien niet. Mensen met hele goede ogen waarschijnlijk wel. Daar zit nu eenmaal van persoon tot persoon verschil in. Sommige mensen zien het verschil tussen 60Hz en 60FPS en 144Hz en 144FPS ook niet. Andere kunnen boven de 240 nog verschil zien. Niemand is hetzelfde.
Jij misschien niet. Mensen met hele goede ogen waarschijnlijk wel.
Lijkt me stug dat jij het verschil tussen 10 bits met dithering en 12 btis nog kan waarnemen op 4k. En hoe dan ook heb je dan geen banding meer want dat dither je weg.
Sowiso zijn geen van die 10 bit panelen werkelijk 10 bit maar wordt er temporale dithering toegepast.

Verder heeft dithering niks te maken met refreshrate. Je argument dat sommige mensen claimen het verschil tussen hoge framerates te kunnen zien is hier niet op van toepassing.


Sowiso zou je bij goed materiaal amper colorbanding moeten zien. Als dat wel het geval is dan is of het materiaal ruk, of de decodering door je apparaat ruk. Ook computerbeelden (games) kunnen ruk zijn (simplistische decimatie van het dynamisch bereik) en dan zie je ook ernstige banding. Maar dan ben je dus ook aan het overcompenseren voor iets dat eigenlijk al in beginsel niet goed gegenereerd is.
Verder heeft dithering niks te maken met refreshrate. Je argument dat sommige mensen claimen het verschil tussen hoge framerates te kunnen zien is hier niet op van toepassing.
Dat was alleen om aan te geven dat er verschil zit in de ogen van verschillende mensen.
De een kan scherper zien
de ander meer kleure
weer een ander meer beelden per seconden (sommige mensen zien led lampen knipperen andere weer niet)
De ander ziet slecht in het licht maar beter in het donker
Weer een ander heeft het andersom

En dat is wat ik bedoel wat je zelf ervaart is niet altijd hoe andere het zullen ervaren als het gaat om het zien van beeld. Dat is het enige wat ik probeer te zeggen. Als 12Bit echt overkill zou zijn en niet nuttig zou zijn waarom zou Dolby er dan voor gaan? Dan hadden ze net zo goed voor 14 Bit kunnen gaan ipv die 12 Bit oplossing. Ze geven zelf aan dat dat niet perse nodig zal zijn.

De verschillen zullen inderdaad heel klein zijn. Maar dat betekend niet dat ze er niet zijn en dat het in geen geval meerwaarde kan bieden. Dat is meer wat ik probeer aan te geven.

[Reactie gewijzigd door Astennu op 22 juli 2024 19:31]

Dat was alleen om aan te geven dat er verschil zit in de ogen van verschillende mensen.
Ik hoor anders niemand zeuren dat hun 8-bits 4:2:2 materiaal gedithered wordt. En bij 8 bits is het vele malen meer zichtbaar dan bij 10 bits.
De een kan scherper zien
de ander meer kleure
weer een ander meer beelden per seconden (sommige mensen zien led lampen knipperen andere weer niet)
En dat heeft allemaal niks te maken met dithering.
Als 12Bit echt overkill zou zijn en niet nuttig zou zijn waarom zou Dolby er dan voor gaan?
LOL, serieus? Jij snap niet waarom bedrijven willen innoveren zelfs als het geen nut meer heeft?
Nog nooit op een pak waspoeder zien staan dat het 'nu nog beter wast'? Dat doen ze al minstens 40 jaar. Als ik de fabrikanten moet geloven dan is wasmiddel nu zo goed dat ik het alleen naast mijn kleren hoef te leggen en dan wordt het vanzelf al schoon. _/-\o_

Alle gekheid op een stokje, bedrijven (zeker tech bedrijven) verzinnen aan de lopende band innovaties waarmee ze hun waar kunnen aanprijzen. Dat staat compleet los van het nut van de innovatie. Het gaat erom dat het lijkt alsoh ze meer/beter/groter zijn dan de concurentie want consumenten zijn gemiddeld dom en weten toch niet waar het over gaat en wat het voor hun betekent. Ze zien alleen de cijfertjes en de afkortingenparade en denken dan beter af te zijn dan de buren. Consumenten zijn zo dom dat ze zich breedbeeld-tv's laten aansmeren en vervolgens 10 jaar lang naar uitgerekte koppen zitten te kijken omdat er amper breedbeeld materiaal beschikbaar is (situatie eind jaren 90). Dus die fabrikanten blijven pushen op meer/beter/groter zelfs als het amper of geen toegevoegde waarde heeft. En mensen blijven erin trappen. 8k tv's, HD audio, 12 bits video, allemaal zeer bedenkelijke technologieen.
Volgens mij lees je mijn post niet goed want je snapt mijn algemene punt gewoon niet na 2x uitleggen (of ik kan niet goed uitleggen :P dat kan ook)

12Bit video en 8K zou ik graag eerst een keer in het echt willen zien voordat ik er over ga oordelen of het nuttig is of niet. En als ik het verschil niet zou zien betekend het niet dat niemand er iets aan heeft.
We hebben dat beide nog niet in het echt kunnen ervaren (8K zou opzich al wel kunnen) dus hoe kan je er dan over oordelen?

En ik snap ook wel dat bedrijven hun producten aan willen prijzen. Maar ik vind dit persoonlijk net wat anders. Jij kijk daar duidelijk anders tegen aan en dat mag we hoeven niet dezelfde mening te hebben. Dat zou ook erg saai worden als iedereen op een lijn zou zitten :)
Ja, maar voor gecomprimeerde media streams hoef je het niet te doen. Die bevatten die informatie gewoonweg niet.
PC gaming is wel een ding, maar games zelf hebben ook niet zo heel veel informatie. Zo zullen textures niet 12 bits zijn. Het zit um meer in het bereik waarin ze worden gerenderd. Maar zelfs dan, fatsoenelijke games die genoeg grafisch geweld laten zien om een 12 bits scherm tot zn recht te laten komen ga je de komende jaren niet in 4k@120Hz zien.

12bits @ 120Hz @ 4k is dus mijns inziens de komende jaren compleet niet relevant.
Maakt het er niet duidelijker op voor de consument als een fabrikant prijkt met een HDMI standaard, terwijl je apparaat niet volledig die HDMI standaard kan benutten. Ik dacht juist dat die HDMI standaarden in het leven waren geroepen zodat je weet wat je kan verwachten als een apparaat versie x.x ondersteunt.

Krijgen we straks "HDMI 2.1 ready" en "Full HDMI 2.1" tv's? :P

[Reactie gewijzigd door Hulleman op 22 juli 2024 19:31]

Je haalt met de HDMI aansluiting op deze TV wel alles wat het paneel mogelijk aankan, dus als dit artikel niet was uitgekomen was het niemand opgevallen. Eigenlijk maakt het dus niet zo veel uit.

Mocht het paneel wat erin zit wel 12-bit ondersteunen (wat in de hdmi 2.1 spec zit) en de HDMI niet was het een ander verhaal.
Daar heb je gelijk in, maar het blijft vreemd dat een HDMI standaard in uitgeklede vorm wordt aangeboden. Daarvoor hebben we geen standaarden met elkaar afgesproken toch?
Maar dat is al jaren zo, al vanaf de 1e versie. Deze TV kan dus wel dingen aan die HDMI 2.1 zitten, maar niet voorgaande versies, maar wat het niet aan kan is dus die 12bit variant omdat de hardware geen 12bit aan kan.
Oké, ik was in de veronderstelling dat dit bij voorgaande HDMI versies niet speelde.
Kleine nuance: De LG-televisies ondersteunen gewoon 12-bit kleur via HDMI. Het ligt in de rede dat ze het intern omlaag schalen, omdat het paneel een dergelijke precisie niet heeft, maar ze accepteren het signaal verder zonder morren. In een verre toekomst kan het een voordeel zijn dat een TV ook een 12-bit signaal op volle resolutie gewoon zonder morren accepteert, omdat er tegen die tijd apparatuur is die dergelijke signalen uitstuurt, het is immers een geldig HDMI 2.1-signaal.
Dan begin ik mij af te vragen of LG überhaupt wel iets heeft veranderd bij het toevoegen van HDMI 2.1. Mijn C7 die officieel 2.0 is, heeft geen enkele moeite met het 12-bit 4K RGB-signaal dat van mijn Vu+ Ultimo 4K komt, en dat klopt, want de HDMI-ingang van de C7 kan inderdaad signalen verwerken die buiten de officiële bandbreedte van HDMI 2.0 liggen.

Als de volledige bandbreedte van HDMI 2.1 op de nieuwe modellen niet gehaald wordt, is dan niet gewoon dezelfde hardware, wellicht aangevuld met wat 2.1-functies die d.m.v. firmware geïmplementeerd kunnen worden, maar grotendeels een stikkerplakactie?
Naja, laten we eens beginnen bij het feit dat die panelen 10bit zijn. Je kan er wel een 12bit signaal in gooien maar dat lijkt me niet heel nuttig. Hoe je het ook wend of keert, het paneel gaat ze niet weergeven. Zelfs de CX panelen zijn nog 10bit...

Verder zeg je nu dat 2.1 toevoegen geen nut heeft omdat jouw specifieke model buiten de 2.0 spec loopt en eht dus ook aan kan. Maar je geeft dan toch zelf al aan dat LG iets rechtgetrokken heeft waar ze buiten de specs opereerde? Daarbij is 2.0 -> 2.1 nou niet echt alleen maar het toevoegen van extra bandbreedte. Onder andere VRR is een aardige toevoeging die wat mij betreft een upgrade van 2.0 naar 2.1 logisch maakt.

[Reactie gewijzigd door Thekilldevilhil op 22 juli 2024 19:31]

Nou, ik heb liever dat een apparaat meer kan dan de specs, dan minder dan de specs. Op dat moment weet je namelijk niet meer waar HDMI 2.1 voor staat. Ik ben het met je eens dat het praktisch effect nabij nul is, maar toch: Dat een HD-ready-televisie full-HD-signalen kan weergeven is een nuttige functie, ook al haalt 'ie het detail er niet uit, full-HD-signalen komen veel voor. Op dezelfde manier is het voorstelbaar dat je in de (verre) toekomst signalen wilt kunnen aanvoeren die de volledige bandbreedte van HDMI 2.1 benutten.
Ik denk dat dat meer een kwestie van firmware is dan dat daar andere HDMI-hardware voor nodig is.
Het had LG gesierd als ze hier van te voren open en eerlijk over waren, verder is het eigenlijk een beetje een storm in een glas water want de HDMI bandbreedte is genoeg voor wat het paneel kan weergeven.
Het is misleiding en verwarrend, niet echt slim van LG om het zo op te lossen.
Ze weten immers wel dat de community niet achterlijk is en er vroeger of later toch wel achterkomt als er iets ontbreekt.
Ik ben het met je eens dat het misleiding is, want ze hadden hier gewoon open over moet communiceren. Ik snap alleen niet wat er verwarrend aan is, want de HDMI aansluiting heeft genoeg bandbreedte om het maximale uit het scherm te halen.

Verder vind ik het ook wel raar van de HDMI organisatie dat ze het toelaten om HDMI 2.1 gecertificeerd te zijn als de aansluiting niet de gehele bandbreedte kan gebruiken.
Hoe je het ook wend of keert, LG heeft gewoon een bezuiniging op kosten van de consument uitgevoerd. De modellen uit 2019 ondersteunden 48 Gbit. Daar heeft LG wat van afgesnoept om AI-functionaliteit toe te voegen. Zonder daar eerst iets van te zeggen. Daardoor is een nieuwe processor, die hoogstwaarschijnlijk duurder zal zijn, niet nodig.
Die AI zit bovendien niemand op de wachten. Er zit nu in de 2019 modellen al voldoende AI.
De 2020 modellen beschikken of een wat snellere processor waardoor extra AI juist geen probleem had hoeven te zijn. LG verzint dus slappe excuses.
Er zat ook niemand te wachten op de opvolger van de 486. Er zijn zat mensen die een OLED komen en tevreden zijn met wat het AI gedeelte doet. Dat zijn overigens vaak ook mensen die niet op Tweakers zitten.
Ik heb zelf een C9 en weet hoe deze werkt.
Daar gaat het niet om.
Zoals bekend is er een grote groep enthousiaste Tweakers die ook een OLED bezitten al dan niet van LG.
De voordelen zijn bekend.
Deze hele toestand met HDMI 2.1 maakt dit niet meteen een slechte TV.
Altijd nog vele malen beter dan andere oled fabrikanten die nog geen of halve HDMI 2.1 oplossingen hebben.
LG zegt dat het 'hardwaremiddelen' voor de chipsets van 2020 anders heeft toegewezen, zodat ze geoptimaliseerd zijn voor de ai-functies.
Dat zet je die baggerzooi weer uit, en geef je terug wat een 2.1 standard hoort te zijn.. 48Gbit.

Toegegeven, volgens mij is er nog geen enkele variant die nu 12bit gebruikt (HDR in ieder geval niet, DV misschien? maar we zullen ongetwijfeld nog UHDR en SHDR krijgen, ultra en super :P), en het blijft gewoon een 4:4:4, maar dit zijn geen budget televisies van een paar honderd euro, als je dan specifiek een model koopt voor de 2.1 (in de toekomst), mag je toch verwachten dat deze ook gewoon fullspec is?
Het is niet gezegd dat het een instelling is. Het kan ook zoiets zijn dat ze de kloksnelheid van het HDMI-deel van de chip lager hebben geklokt zodat het KI-gedeelte hoger geklokt kan worden en de chip netto hetzelfde TDP houdt.
Spannend nieuws hoor...

"De connectie kan iets niet aan wat de tv toch al niet kon verwerken"
Oftewel, je mist er niets aan!
Zou wel fijn zijn als het gewoon wordt aangegeven. Wie zegt dat ze in de toekomst niet hetzelfde flikken wanneer je wel een 12 bit paneel hebt? Of nog erger dat je straks tv's hebt met 2.1 die eigenlijk geknepen worden tot max 30 Gbps. Het moet gewoon duidelijk zijn voor consumenten wat zij kopen, leuk dat je afwijkt van de standaard maar zeg dat gewoon. Een voorbeeld zou zijn HDMI 2.1 at 40Gbps, voor iedereen duidelijk tot wat de tv aan kan en men kan zelf de beslissing nemen als het afdoende is.

Op dit item kan niet meer gereageerd worden.