Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Joris Jansen

Nieuwsredacteur

Hdmi 2.1 op televisies

Versnipperde weg naar meer bandbreedte

Inleiding

De deurbel gaat en daar is 'ie dan: een zwoegende, zwetende bezorger die een enorme rechthoekige doos met een gloednieuwe 65"-oledtelevisie van LG heelhuids op de deurmat probeert te zetten. Snel uitpakken, installeren, eventuele kabels in de hdmi 2.1-aansluitingen steken en het genieten van de beeldkwaliteit kan beginnen. Of toch niet? De fabrikant maakte begin deze maand bekend dat geen van zijn 4k-televisies van 2020 over hdmi 2.1-aansluitingen beschikt die de volle bandbreedte aankunnen. Dat geldt zowel voor de oled- als de lcd-tv's. Heb je net moeten ervaren wat het is om een rib uit je lijf te halen en denk je klaar te zijn om eind dit jaar los te kunnen met een spiksplinternieuwe PlayStation 5- of Xbox Series X-console en de bijbehorende gameplay met 120 beelden per seconde, komt LG in feite terug op wat het eerder heeft gecommuniceerd.

In de praktijk heeft deze beperking van de bandbreedte geen enkel negatief effect, maar de kritiek, verbazing en verwarring waren er niet minder om. Dat kwam niet in de laatste plaats doordat hdmi 2.1 geenszins een vastomlijnde standaard is. Er is dus geen sprake van een soort zwart-wit-scenario waarbij producten wel of geen hdmi 2.1 hebben. Een 'beetje hdmi 2.1' kan namelijk ook, en dat is momenteel een stuk gangbaarder in de markt dan de volledige ondersteuning van de standaard met alles wat eronder valt. In dit artikel wordt ingezoomd op hoe het met de standaard staat, wat er allemaal onder valt, wat de impact van de maximale bandbreedte is, welke voordelen hdmi 2.1 heeft en welke tv's er al mee zijn uitgerust.

Wat definieert hdmi 2.1

Een van de belangrijkste redenen voor de ophef die ontstond toen LG aangaf dat de hdmi-aansluitingen van zijn 2020-tv's niet de volledige bandbreedte ondersteunen, is waarschijnlijk dat de in november 2017 uitgekomen officiële specificatie van de hdmi 2.1-standaard in eerste instantie vrij duidelijk leek te zijn. Het HDMI Forum, de organisatie achter de high-definition multimedia interface, noemt in het officiële persbericht over de specificatie van versie 2.1 niet alleen de ondersteuning van verversingssnelheden van 8k60 en 4k120, en resoluties tot 10k, maar ook dat de bandbreedtecapaciteit tot 48Gbit/s is verhoogd. Deze 48Gbit/s komt nog een paar keer terug in het bericht.

Op basis hiervan kan de gedachte blijven hangen dat alleen bij een bandbreedte tot 48Gbit/s sprake van hdmi 2.1 kan zijn. Die conclusie zou echter te kort door de bocht zijn. Zo heeft het HDMI Forum duidelijk gemaakt dat partijen bij hun producten de term 'hdmi 2.1' mogen gebruiken als deze hdmi-versie wordt geassocieerd met een feature of functie zoals gedefinieerd in de officiële hdmi-specificatie. Dit geeft al aan dat hdmi 2.1 min of meer is te beschouwen als een keuzemenu en niet als een vastomlijnde set standaardeisen. Dat maakt het bijna onvermijdelijk dat fabrikanten op bepaalde punten van elkaar zullen afwijken. Het zou dus een beetje onhandig zijn om hdmi 2.1 te definiëren aan de hand van de verschillende implementaties en beperkingen van televisies. Hdmi 2.1 wordt dan ook gedefinieerd door de interfacestandaard of de signaaltechnologie, te weten fixed rate link. Die technologie is bijvoorbeeld nodig om zonder compressie resoluties boven de 4k60 te bereiken. Hdmi 2.0 gebruikt transition minimised differential signaling, wat dus door frl is vervangen. De hdmi 2.1-specificatie ondersteunt echter nog altijd tmds, zodat het backwards compatible is.

Hdmi 2.1 kan ook de aanschaf van nieuwe kabels met zich meebrengen. Hdmi 2.0 gaat niet verder dan 18Gbit/s. De hiervoor geschikte high speed hdmi-kabels bereiken die bandbreedte dankzij drie aderparen die elk maximaal 6Gbit/s ondersteunen. Bij de voor hogere bandbreedtes geschikte ultra high speed-kabels is op het oog in ieder geval niets veranderd. Nog altijd gaat het om dezelfde hdmi-connector met 19 pinnen, de hdmi type a-connector. Intern is er echter wel wat veranderd. De voor hdmi 2.0 geschikte kabels hebben drie aderparen voor de data en een vierde aderpaar voor het kloksignaal van de bron. Dat vierde aderpaar wordt in ultra high speed-kabels ook ingezet voor de data. Daarnaast wordt per aderpaar de bandbreedte verhoogd van 6 naar 12Gbit/s, wat onder andere wordt bereikt door koper van een betere kwaliteit te gebruiken en de afscherming per aderpaar te verbeteren. Bij relatief korte ultra high speed-kabels is dat in ieder geval genoeg om de 48Gbit/s te halen.

De bandbreedte omlaag?

De oled-televisies die LG in 2019 op de markt bracht, beschikken over hdmi 2.1-aansluitingen waarbij de bandbreedte tot 48Gbit/s gaat. De fabrikant heeft niet aangegeven wat de maximaal ondersteunde bandbreedte is van de hdmi 2.1-aansluitingen bij de televisies die dit jaar worden uitgebracht, maar over het algemeen wordt uitgegaan van 40Gbit/s. Een blik op de onderstaande, door het HDMI Forum opgestelde tabel leert dat dit in de praktijk geen beperkingen of negatieve gevolgen met zich meebrengt.

Dat laatste komt doordat er momenteel nog geen consumententelevisie op de markt is met een paneel dat geschikt is voor 12bit-kleurdiepte. Alle televisies gaan maximaal tot 10bit. Daardoor is de onmogelijkheid van het weergeven van 4k-beelden met 120fps in combinatie met een kleurdiepte van 12bit met 4:4:4-chroma subsampling eigenlijk een non-issue. Eerder heeft het HDMI Forum ook al duidelijk gemaakt dat 48Gbit/s is bedoeld voor 12bit-systemen. De huidige televisies kunnen beelden met 12bit-kleurdiepte simpelweg niet verwerken. Verreweg de meeste tv's beschikken over 8bit-panelen, of 10bit-panelen als er hdr-ondersteuning is.

LG C9 hdmi poorten

Met 40Gbit/s is de weergave van 4k-beelden met 120fps en 10bit-kleurdiepte met 4:4:4-chroma subsampling gewoon mogelijk. Voor 4k-televisies is dat de maximaal haalbare kwaliteit die uit de panelen wordt gehaald, waarbij er dus geen sprake is van kleurcompressie. LG gaf aan dat het heeft besloten de bandbreedte tot 40Gbit/s te beperken omdat er volgens de fabrikant nog geen 'echte content' beschikbaar is die 48Gbit/s nodig heeft. Het bedrijf stelt dat het een deel van de verwerkingscapaciteit van de processor wegneemt bij de hdmi 2.1-aansluitingen en dit beschikbaar stelt voor de verschillende ai-functies van zijn tv's.

Voor 8k-televisies is die situatie net even anders. Bezitters van deze televisies krijgen wel te maken met enige kleurcompressie als het uiterste wordt gevergd met betrekking tot de resolutie en het aantal beelden per seconde. Los van het punt dat er nauwelijks of geen 8k-content met 60fps beschikbaar is om af te spelen via een met een hdmi-kabel aangesloten extern apparaat, vergt 8k60 met 4:4:4-chroma subsampling een bandbreedte van maar liefst 80Gbit/s. Dat gaat ruimschoots over de 48Gbit/s van hdmi 2.1 heen, dus is 8k60 zonder compressie sowieso niet aan de orde. Aangezien ook alle 8k-televisies over 10bit-panelen beschikken, is er voor 8k en 60fps eigenlijk niet meer dan 40Gbit/s nodig. Dat betekent weliswaar 4:2:0-chroma subsampling en dus kleurcompressie, maar dat is inherent aan de enorme hoeveelheid data die moet worden verwerkt.

Een keuzemenu

Een verhoogde bandbreedte is de basis, maar hdmi 2.1 brengt vooral ook een aantal andere interessante technologieën met zich mee die bij televisies met hdmi 2.0-aansluitingen ontbreken. Althans, zo zwart-wit is het niet helemaal. Hdmi 2.1 is in feite te beschouwen als een soort keuzemenu met verschillende technologieën die in principe ook op individuele basis, al dan niet via firmware-updates, zijn in te bouwen in televisies die niet verder dan hdmi 2.0 gaan. Dat zie je bijvoorbeeld bij de auto low latency mode. Deze modus is onder andere beschikbaar in de oled-tv's van Philips en Panasonic van vorig jaar en dit jaar, ook al beschikken die niet over hdmi 2.1-aansluitingen. De oled-tv's die Panasonic dit jaar uitbrengt hebben daarnaast ook enhanced audio return channel.

Hieronder volgt een overzicht van de 'gerechten' die allemaal op het hdmi 2.1-menu staan. Die gerechten zijn te beschouwen als optionele technologieën die binnen de hdmi 2.1-specificatie vallen, maar dus ook los daarvan zijn te implementeren. In de meeste gevallen zullen al deze technologieën ook grotendeels worden ondersteund in een televisie met hdmi 2.1, maar strikt genomen betekent hdmi 2.1 niet dat alle onderstaande features standaard aanwezig zijn. Hdmi 2.1-ondersteuning betekent in feite niet veel meer dan dat de televisie kan 'praten' met een ander apparaat dat hdmi 2.1 ondersteunt, en dat hij dus overweg kan met de features die onder de specificatie vallen. Kortom, in de meeste gevallen zal een televisie met hdmi 2.1 bijvoorbeeld allm ondersteunen, maar dat is geen harde zekerheid.

Enhanced Audio Return Channel

De audio return channel-functie geeft gebruikers de mogelijkheid om met een enkele hdmi-verbinding audio vanuit de televisie door te sturen naar een soundbar of receiver. Stel, een gebruiker heeft een soundbar met te weinig hdmi-aansluitingen. Dan is het mogelijk om alle externe apparaten op de televisie aan te sluiten, waarna een enkele kabel van de televisie naar de soundbar loopt om het geluid door te sturen. Enhanced audio return channel bouwt hierop voort door de bandbreedte voor audio aanzienlijk te verhogen, tot 37Mbit/s. Dat maakt dat ook lossless audioformaten kunnen worden doorgestuurd. Arc heeft de beperking dat het enkel lossy formaten kan doorsturen en dus niet verder gaat dan het doorsturen van Dolby Digital Plus 5.1. Daarbij kunnen fabrikanten ook nog kiezen of ze wel zo ver gaan, of de ondersteuning tot 2.0-audio beperken.

Ondersteuning van alle relevante audiocodecs is niet verplicht. Bij e-arc kan dat ook nog steeds een issue vormen, maar in ieder geval is de bandbreedte geen excuus meer. Er is ondersteuning voor maximaal 32 audiokanalen, en lossless audioformaten als Dolby TrueHD en DTS-HD Master Audio kunnen ook rechtstreeks naar een aangesloten receiver of soundbar worden doorgestuurd. Daardoor hoeft bijvoorbeeld een Dolby Atmos-signaal niet meer als lossy variant in het Dolby Digital Plus 5.1-signaal te worden verpakt. Verder is Lip Sync Correction een verplicht onderdeel van e-arc, en de afhankelijkheid van het lang niet altijd fatsoenlijk werkende HDMI CEC-protocol is deels losgelaten ten faveure van een apart datakanaal voor de pairing tussen apparaten.

Auto low latency mode en variable refresh rate

De eerder genoemde auto low latency mode is een modus waarbij de televisie automatisch een beeldmodus inschakelt met een lage latency. Dat is vooral handig als een gebruiker een gameconsole op zijn televisie heeft aangesloten. Zodra bijvoorbeeld een aangesloten Xbox One-console wordt ingeschakeld, gaat er een signaal naar de televisie zodat die weet dat hij een gamemodus moet inschakelen waarbij de latency lager is dan normaal.

De ondersteuning van variable refresh rate (vrr) zal gamers ook aanspreken. Met deze technologie, die is te vergelijken met AMD's FreeSync, wordt de verversingssnelheid van het televisiescherm afgestemd op de verversingssnelheid van de bron. Er is dan dus geen sprake meer van een vaste verversingssnelheid. Vrr moet zo een meer vloeiende game-ervaring zonder tearing of judder opleveren. Uiteraard moet de console dan wel vrr ondersteunen. Dat is bij de aankomende Xbox Series X en PlayStation 5 het geval. In hoeverre vrr compatibel is met FreeSync en Gsync zal sterk afhangen van de fabrikant van de televisie.

Quick media switching en quick frame transport

Quick media switching betekent dat een televisie op basis van de videobron zijn resolutie of verversingssnelheid kan aanpassen, zonder vertraging of blackout van het scherm. Hierbij kan worden gedacht aan het wisselen tussen het kijken van video's met 24 en 60fps, waar het televisiescherm zich op moet aanpassen. Dat moet met quick media switching een vloeiende overgang worden, zonder een zwart scherm en de daarmee gepaard gaande korte vertraging. Zoals de naam al suggereert moet quick frame transport de tijd verkorten die zit tussen het 'transport' in de gpu en het tonen van het frame op het scherm. Dit moet voor een lagere latency zorgen, en minder lag veroorzaken bij het spelen van games.

Waarom nog zo weinig hdmi 2.1?

Met de aanwezigheid van hdmi 2.1-aansluitingen in LG's high-end televisies uit 2019 en 2020 zou je verwachten dat andere fabrikanten snel volgen. Al was het maar om te voorkomen dat consumenten het idee krijgen dat tv's die nu nog zonder hdmi 2.1 op de markt komen, verouderd zijn. De meeste andere fabrikanten lijken echter niet veel haast te hebben. Op bepaalde modellen na, zoals de XH90-4kl-lcd-tv en ZH8-8k-lcd-tv van Sony, en een aantal high-end modellen van Samsung, is hdmi 2.1 nog een zeldzaam verschijnsel in televisieland.

Is hdmi 2.1 wel noodzakelijk?

Enerzijds zal dit te maken hebben met de opvatting van fabrikanten dat er eigenlijk nog geen echte noodzaak is voor hdmi 2.1. Dat is een opvatting die deels mank gaat, wetende dat een gemiddelde televisie, zeker een relatief dure oled-tv, niet al na een paar jaar bij het grof vuil terecht zal komen. Het zijn investeringen die hopelijk jarenlang meegaan. Gelet op wat er in de toekomst allemaal nog komt, kan het allesbehalve kwaad om alvast voorbereid te zijn door hdmi 2.1-aansluitingen te hebben.

Toch hebben fabrikanten als Panasonic en Philips ook een punt. De individuele features zijn los te implementeren, daar is hdmi 2.1 niet voor nodig. Dat heeft Panasonic bijvoorbeeld deels gedaan bij zijn oled-tv's van dit jaar. Die zijn zowel van e-arc als allm voorzien, terwijl ze nog gewoon met hdmi 2.0b-aansluitingen werken.

Daarnaast hoor je vanuit fabrikanten nog weleens het argument dat er eigenlijk nog geen content is waarvoor hdmi 2.1 een noodzaak is. Daar komt vanaf eind dit jaar langzaam verandering in, als de PlayStation 5 en Xbox Series X verschijnen en er games uitkomen die 4k en 120fps ondersteunen. Maar hoe veel games dat zullen zijn en of de 120fps-modus ook altijd gepaard gaat met een 4k-resolutie valt nog te bezien. Bovendien ondersteunen high-end televisies met hdmi 2.0 wel het weergeven van 120fps als de content intern op de tv wordt afgespeeld. En tv's met hdmi 2.0 kunnen vaak wel 120fps via hdmi ondersteunen bij lagere resoluties dan 4k. De bandbreedte van minimaal 40Gbit/s en dus hdmi 2.1 is enkel nodig als 4k-content met 120fps via hdmi wordt afgespeeld. Momenteel is dat een wens die alleen bij sommige pc-gamers zal leven.

Scène uit Gemini Man

Op het vlak van films is er ook nog geen enkele noodzaak: 8k-films zijn voorlopig niet aan de orde bij uhd-blu-rays, en verreweg de meeste films blijven steken op de door Hollywood gewenste 24 beelden per seconde. Gemini Man was in sommige bioscoopzalen weliswaar in 120fps te bewonderen, wat het 3d-effect zeer ten goede kwam, maar de uhd-blu-ray-versie is enkel beschikbaar in maximaal 60fps, zodat ook voor deze film de bandbreedte van hdmi 2.0 afdoende is.

Technische vereisten

Los van de vraag of hdmi 2.1 eigenlijk wel echt nodig is, is het huidige gebrek aan de televisies met hdmi 2.1-aansluitingen ook deels te verklaren met het oog op de technische vereisten. De hdmi 2.1-specificatie is weliswaar al sinds november 2017 uit, maar zonder de benodigde chipsets die het ondersteunen heb je daar als fabrikant nog weinig aan.

In oktober 2018 meldde het bedrijf Socionext dat het de eerste hdmi 2.1-beeldprocessor had ontwikkeld en dat de eerste exemplaren vanaf maart 2019 konden worden geleverd. Of Socionext daadwerkelijk 's werelds eerste videochips heeft ontwikkeld die hdmi 2.1 kunnen verwerken, is de vraag, maar het bedrijf was in ieder geval een van de eerste. Dat de leveringen pas op zijn vroegst in maart 2019 konden worden uitgevoerd, betekent dat televisies, soundbars, receivers en andere consumentenproducten er pas ruimschoots na maart 2019 mee konden worden uitgerust - om later in dat jaar of waarschijnlijk pas in 2020 op de markt te komen.

LG was er in ieder geval wel heel vroeg bij. In september 2018 werd bekend dat de Zuid-Koreaanse fabrikant de hdmi 2.1-beeldprocessors van Synopsys had uitgekozen voor zijn producten. Deze samenwerking met Synopsys maakte dat LG in staat was om zijn oled-tv's van vorig jaar uit te rusten met hdmi 2.1-aansluitingen.

Overzicht hdmi 2.1-televisies en slot

Voorlopig zijn er om verschillende redenen nog niet zo heel veel televisies met een hdmi 2.1-aansluiting. De aantrekkingskracht van het vooruitzicht om straks games op de PlayStation 5 of Xbox Series X te spelen in 4k met 120fps kan daar verandering in gaan brengen, ook al zal bij de aankomende nieuwe consolegeneratie de stap van 30 naar 60fps verreweg het grootste verschil maken als het gaat om het aantal frames. Daardoor hoeven bezitters van televisies met hdmi 2.0 en dus een bandbreedte van maximaal 18Gb/s nog weinig te missen, zeker als fabrikanten onderdelen van de hdmi 2.1-specificatie, zoals e-arc of allm, los beschikbaar maken.

Beschikbare of nog uit te komen televisies die minstens over één hdmi 2.1-aansluiting beschikken
LG

2019: C9, B9, E9, W9 (geen vrr), Z9, Nanocell SM9900-, SM9500- en SM9000-reeks

2020: CX, BX, WX, RX (geen vrr), GX, ZX, Nano 99, 97, 95, 91, 90, 86, UN85

Van de 2020-modellen ondersteunen de RX, WX, Nano 99, 97, 95 en UN85 geen vrr.

Samsung

2019: Q950R, Q900R, Q90R, Q85R (bij deze modellen moet een update voor e-arc nog komen)

2020: Q950TS, Q900TS, Q800T, Q95T, Q90T, Q80T, Q70T

Sony

2019: ZG9 (geen vrr, allm of qms)

2020: XH90, ZH8 (geen vrr, allm of qms)

Tegelijkertijd zijn de voordelen van hdmi 2.1 evident, en daarbij maakt het geen verschil of de bandbreedte de volle 48Gbit/s bedraagt of op 40Gbit/s uitkomt. Waarschijnlijk halen de meeste tv's uit 2020 met hdmi 2.1 hooguit 40Gbit/s, waarop in ieder geval de Sony XH90 een uitzondering is. De noodzaak van minimaal 48Gbit/s komt eigenlijk pas om de hoek kijken als er consumententelevisies verschijnen met 12bit-panelen, en die hoeven we voorlopig niet te verwachten. Bij televisies met 10bit-kleurdiepte en een bandbreedte van maximaal 40Gbit/s is er bij 4k en 120fps of 8k en 60fps geen sprake van extra kleurcompressie, zodat de 'ontbrekende' 8Gbit/s geen gevolgen heeft.

Display Stream Compression

Het belang van de maximale bandbreedte kan nog verder worden genuanceerd door op display stream compression te wijzen. Deze technologie zat nog niet in hdmi 2.0 maar is wel onderdeel van hdmi 2.1. Het is een compressiealgoritme voor videobeelden waarbij sprake is van een 3:1-compressieverhouding. Dsc is bedoeld om de hoeveelheid te verzenden data te beperken en daarmee in te spelen op de eventuele beperkingen van de beschikbare bandbreedte. Het moet leiden tot een ervaring die visueel lossless is en dus niet tot een zichtbaar verminderde kwaliteit leidt, al is het wiskundig beschouwd uiteraard niet lossless. Bij beelden met 4k en 120fps en 4:4:4-chroma subsampling is normaal gesproken 40Gbit/s voor 10bit of 48Gbit/s voor 12bit aan bandbreedte nodig, maar als dsc wordt toegepast, daalt dat in beide gevallen naar 18Gbit/s, zoals te zien is in onderstaande tabel.

Dirt 5 krijgt een 120fps-modus op de Xbox Series X

Dat betekent dus een flink lagere benodigde bandbreedte, zonder dat het op het oog tot nadelen zal leiden. Vincent Teoh van de website HdtvTest heeft bijvoorbeeld op basis van de extended display identification data van de Samsung Q80T vastgesteld dat deze hdmi 2.1-televisie een fixed rate link of bandbreedte van 40Gbit/s haalt en dsc ondersteunt tot een bandbreedte van 24Gbit/s. Zoals af te lezen uit onderstaande tabel is die 24Gbit/s ruimschoots voldoende om 4k, 120fps, 4:4:4-chroma subsampling zelfs met een kleurdiepte van 12bit mogelijk te maken, ook al is de Q80 een 4k-tv met een lcd-paneel dat hooguit 10bit kan verwerken. Teoh heeft ook de edid van de C9 bekeken, maar daar wordt - afgezien van de fixed rate link van 48Gbit/s - niets vermeld over dsc. Volgens hem wordt dsc niet ingeschakeld door de chipset en kunnen firmware-updates voor de bron en het scherm noodzakelijk zijn om deze compressietechnologie mogelijk te maken. Dat maakt dat de praktische rol van dsc nog enigszins onduidelijk is. Het laat echter zien dat in de praktijk zelfs 40Gbit/s veel hoger kan zijn dan nodig is voor de data, en dat de zorgen over het niet halen van 48Gbit/s overbodig zijn.

Slot

Het was een stuk duidelijker en beter geweest als hdmi 2.1 bij elke implementatie precies hetzelfde betekende, zonder verschillen in de bandbreedte of de vraag welke onderdelen wel en niet worden ondersteund. Hdmi 2.0 betekent weliswaar geen 4k en 120fps door de maximale bandbreedte van 18Gbit/s, maar bijvoorbeeld e-arc en allm kunnen gewoon aanwezig zijn. En hdmi 2.1 betekent weliswaar 40 of 48 Gbit/s en dus 4k120 met 4:4:4-chroma subsampling, maar bijvoorbeeld bij de Samsung Q90R en Q85R is dat bij uitzondering beperkt tot 4k120 met 4:2:0-chroma subsampling. Zelfs e-arc, allm, en vrr zijn bij hdmi 2.1 niet automatisch een zekerheid. Zo moet Sony deze functies bij zijn XH90-tv nog beschikbaar maken via een software-update.

Voor consumenten wordt het niet bepaald overzichtelijker, zeker omdat fabrikanten zelf lang niet altijd duidelijk zijn. LG had die duidelijkheid waarschijnlijk al veel eerder kunnen geven, en dan was de recente initiële verbazing, verwarring of verontwaardiging over de 40Gbit/s wellicht nooit aan de orde geweest. Je kunt in ieder geval stellen dat de kwestie van 40 of 48Gbit/s een non-discussie is. Verder is ook duidelijk dat LG met onder meer de ZX-, GX,- CX-, en BX-oled-tv's de enige fabrikant is die televisies uitbrengt met alle onderdelen die je van de hdmi 2.1-standaard mag verwachten, en maar liefst vier beschikbare hdmi 2.1-poorten bij deze toestellen levert. Andere fabrikanten gaan veelal niet verder dan een - of soms twee - hdmi 2.1-poorten. Vermoedelijk zal het nog wel tot 2021 of zelfs 2022 duren voordat de hdmi 2.1-implementatie in ieder geval bij de high-end-tv's wat meer mainstream en minder versnipperd is.

Reacties (140)

Wijzig sortering
Fabrikanten zouden op z'n minst op de vingers getikt moeten worden als ze officiele HDMI-2.1 logo's voeren terwijl het aparaat niet de volledige 2.1 specs ondersteund. Je gaat helaas weer een wildgroei aan officieel lijkende logo's krijgen, elke fabrikant met zijn eigen variant en de consument wordt daar niet wijzer van.
Tja, we kunnen beter met de vinger wijzen naar het HDMI forum, aangezien die bepalen wanneer een fabrikant een stickertje mag gebruiken.


En die hebben dus besloten dat je al een sticker erop mag plaatsen als je één van de punten van HDMI 2.1 ondersteunt.

Totaal nutteloos zo'n sticker, maar wat verwacht je dan als de leden van het HDMI forum voor een groot deel TV-fabrikanten zijn die gewoon nieuwe TV's en apparatuur moeten slijten. Dan ga je het jezelf niet te moeilijk maken om een shiny nieuw stickertje te mogen plakken op de modellen van volgend jaar.

Alsof de Albert Heijn een sticker bedenkt met "laagste prijsgarantie" en dan zelf in de voorwaarden bepaalt "in vergelijking met Eko supermarkten, niet met anderen".
Je zou bijna zelf een consortium starten en daar een lijst aanmaken van producten die een minimale review score halen (al is het maar op zaken zoals kleur bereik en verversingssnelheid, wat je objectief kunt meten) en zich wel aan alle specs houdt die ze claimen.

En proberen in ieder geval onder mensen die het "iets interesseert" de keuze makkelijker te maken.
Het HDMI forum verdient geld van de fabrikanten, niet van de consumenten. Follow the money.
Schandalig dit in der daad.

Zeer kwalijke zaak van het HDMI forum... zijn bijna nét zo slecht als het USB consortium! :(

HDMI sticker/cijfertje betekent dus letterlijk gewoon NIKS meer want je moet alsnog naar de specs kijken of de (gewenste/benodigde) functionaliteit door dat specifieke apparaat wel geleverd wordt.

Laat het idee van zo'n specificatie 'sticker' nou JUIST zijn zodat consumenten dát niet meer hoeven te doen...

You had one job..
Sorry, Waar haal je uw verhaal vandaan? Je mag niet zomaar HDMI 2.1 stickertje op uw tv verpakking plaatsen als daar geen reden voor is. De reden kan zijn: 8K 120hz over hdmi 2.1.

Die standaarden zijn er vooral om ervoor te zorgen dat alle HDMI devices zo goed mogelijk samenwerken. Of uw tv die 10bit nu goed kan weergeven of niet heeft niets de HDMI Standaard zelf te maken maar alles met het paneeltype net zoals die 120hz. Het is perfect mogelijk dat de TV 120hz kan ontvangen over HDMI maar slechts 100hz kan laten zien door een beeldschermbeperking.

Net zoals de audiokwaliteit, hdmi gaat zich niet moeien als daar pruts speakers inzitten. HDMI gaat van interface tot interface. Niet wat daardoor en daarna gebeurd. Dat is de verantwoordelijkheid van de fabrikant. Als je een zwart-wit tv wil uitbrengen voor röntgen foto’s te tonen in 8k 60hz kan dat perfect en kan je hdmi 2.1 vermelden.

Ook bestaat HDMI uit absurd veel standaarden voor heel veel use cases. Een Receiver of DVD speler gaat andere features benutten dan een monitor zonder speakers. Elke fabrikant doet met hdmi wat hij denkt te doen of moet doen om de beste of goedkoopste te zijn in zijn klasse. Wat dat ook mag betekenen. Lijkt me logisch want elke situatie is anders.
Het zou helpen als je eerst het artikel leest.

Je mag iets HDMI 2.1 noemen als je slechts voldoet aan één van de vele features. Bij de ene fabrikant zie je dus dat ze bijvoorbeeld 4/5 features ondersteunen, en een andere fabrikant ondersteunt slechts 1/5 features.

Totaal ondoorzichtig en nodeloos complex voor consumenten.
Ja dat beaam ik toch? 2.1 is ook erg divers. Ik begrijp niet wat de fout van het HDMI forum is. Wat kunnen ze doen, elke fabrikant elke mogelijkheid van hdmi2.1 verplicht ondersteunen? Prijzige keuze! Alleen al omdat de standaard vaal voorloopt op de praktijk. Sommige features zijn complexer dan andere en vergen krachtigere socs of bios upgrades.

Ofwel 20 labels uitbrengen, afhankelijk van de specs?

Als consument kan je niet anders dan u goed laten informeren want de nuances per use case zijn enorm! 4:4:4 chroma voor video bestaat bijvoorbeeld niet, enkel bij next gen game consoles. En het is maar de vraag of je wil bijbetalen voor 4:4:4 want de meerwaarde bij games is sowieso erg beperkt en de vraag is of uw paneel dat wel effectief kan weergeven en omzetten in een zichtbaar voordeel.

Het is sowieso heel erg moeilijk op alles te communiceren met 1 label. Zo niet helemaal onmogelijk.

EDat is ook niet de taak van het hdmi forum. Hun taak is het ontwikkelen van de standaard zodat je in de mogelijkheid bent om te communiceren met andere apparaten.

[Reactie gewijzigd door Coolstart op 22 mei 2020 15:26]

volgens mij weet jij niet wat een standaard betekent of wel?
Wat jij beschrijft gebeurde juist in het begin, wildgroei aan standaarden en weinig dingen die met elkaar kunnen samenwerken. Je zou bijvoorbeeld een hdmi 2.1 kabel kunnen kopen die niet de volle bandbreedte kan verwerken en dan kan jouw mooie tv niet genieten van de volle kwaliteit omdat de kabelfabrikant alleen voldoet aan de eis van e-arc, maar niet aan de eis van 48 gbit....

Een standaard is bedoeld om snel zonder gedoe te kunnen herkennen apparaat a met apparaat b te kunnen verbinden zonder je druk te maken of het mogelijk is. Anders is het alsnog een wildgroei en is er geen enkele nut voor die standaarden behalve de dozen nog drukker maken dan nodig is.
Je hebt de kabel en de interface. De kabel moet sowieso aan de 48gbit voldoen.

Wat de kabel betreft heet hdmi 2.1: “Ultra high speed hdmi” dat is wat er op de verpakking moet staan. Die kabel moet dan voldoen aan de 48Gbit standaard.

Alles wat er na komt: bijvoorbeeld die e-arc is aan de producent om te beslissen dat het e-arc zal implementeren omdat de interface daarvoor moet aangepast worden.

Wat wel zeker is dat elke high speed hdmi kabel e-arc (en alle andere snufjes) zal ondersteunen. Daar zit de handigheid als consument.

De HDMI standaard is knap omdat de zoveel mogelijk is. Aan de fabrikant te bepalen waar op inzetten en geld investeren. Je kan toch niet elke fabrikant verplichten om een 120hz paneel in te bouwen als ze voor andere redenen 2.1 nodig hebben?

Je gaat op een verpakking nooit zien staan “hdmi 2.1 tv”, dat mag niet. In de specs mag dat staan, en in die zelfs specs lijst staat ook of uw beeldscherm 4k, 8k, 60hz of 120hz is. Dat is dan weer bepalend voor de hdmi interface.

Er is geen windgroei aan standaarden, wel veel mogelijkheden en elke 2.1 kabel ondersteund alle mogelijkheden.

Bij usb-c is dat bijvoorbeeld niet zo. Dat is een connector met mogelijkheden. Daar is het bijv de thunderbolt standaard 3 die bepaald wat de kabel kan. Maar dat wil niet zeggen dat uw scherm per definitie 8k kan afspelen, ook al is dat een TB3 scherm. Dat is ook zo bij HDMI.

Consumenten moeten dus altijd kijken naar de mogelijkheden van het apparaat zelf. Zowel van de verzender als ontvanger. En dat is logisch.

[Reactie gewijzigd door Coolstart op 22 mei 2020 23:14]

Wat kunnen ze doen, elke fabrikant elke mogelijkheid van hdmi2.1 verplicht ondersteunen?
De dingen verschillende namen geven, als ze verschillend zijn.
Ofwel 20 labels uitbrengen, afhankelijk van de specs?
Ja.

Of je maakt de standaard simpeler, dat er maar een paar basis-opties in zitten en laat het dan aan de fabrikanten over om de rest lekker zelf te marketen.

Maar het is weer eens totale verwarring voor de consument. Kan je net zo goed geen stickers voeren. (Als het hun doel niet is om de markt te informeren, waarom dan wel stickers uitbrengen!? Waarom uberhaupt 'compliance testing' als het alleen maar om ontwikkelen van standaarden gaat?)

[Reactie gewijzigd door Keypunchie op 22 mei 2020 16:16]

Fabrikanten zullen het echter wel prima vinden aangezien dit een natte marketing droom is voor ze.
Is hier geen globale organisatie voor die partijen hiervoor voor de rechter kan slepen?
Een soort ACM of iets dergelijks?
In het begin duurde het ook even voordat er een verschil duidelijk was tussen Full-HD en HD-ready.

Misschien ook maar Full-HDmi2.1 en HDmi2.1-ready gebruiken

Een uitgelezen kans voor monster om 15 verschillende hdmi kabels uit te brengen t/m 80 euro omdat die duurste wel ondersteuning heeft voor de volledige hdmi2.1 specs
Daar ben ik het niet mee eens in dit geval. Fabrikanten moeten gewoon de volledige spec ondersteunen met uitzondering van verwerken van resoluties die groter zijn dan het paneel aan kan. Nu krijg je net zo een wildgroei van halve ondersteuning als bij de alternate modes van usb. Optionele delen van de specs zijn onduidelijk voor de consument en maken producten en ervaringen incompatable zonder duidelijke reden
Mee eens dat er duidelijkheid moet zijn.

Helaas zijn er bedrijven met marketing afdelingen die het graag zo maximaal mogelijk oprekken.
Geinig dat je daarover begint, want FHD of FullHD is geen officiele standaard, maar een marketingtool om onderscheid te maken tussen de eerste HDReady 720p TV's en destijds nieuwe 1080p HDReady TV's. Een truc om de verkoop van de nieuwe TV's te stimuleren**.

De fear of missing out wat je nu terugziet bij hdmi 2.1(en bij 8k en eigenlijk ook 4k*). Er was destijds niet of nauwelijks 1080p content, je PS2 kon het niet weergeven, de TV stations gaven nog analoog beeld door en de opkomende 1080p PS3 en XBox beloofde je 1080p, maar konden dat niet waarmaken. Zoals de PS5 en de XBox series X nooit 4k games met 12 bit kleuren op 120fps af zullen kunnen spelen; ja misschien pong of pacman ;) Die consoles zijn een veel gehoord argument waarom men volledige hdmi 2.1 zou willen hebben, dus dat hun 2020 tv futureproof zou moeten zijn, wat in de praktijk niet zo zal zijn; daar ben ik van overtuigd.Tegen de tijd dat een PS6 wel 4K 12 bit 120fps games kan afspelen, hebben die mensen alweer een nieuwe TV; zo werkt dat in de praktijk.

Hoe dan ook, je opmerking over zou best weleens spot-on kunnen zijn als marketingmannetjes dergelijke stickers op hun TV's gaan plakken. Zilveren kabels gesmeed door elfjes bij volle maan worden sowieso allang verkocht.

*Ik heb b.v. nog geen behoefte aan een andere tv dan mijn highend Panasonic plasma tv, de laatste ooit gemaakt, want ik gebruik nauwelijks content hoger dan 1080p. Ik kan dus mijn geld in mijn zak houden en aangezien het nog wel even duurt voordat bv de omroepen en sportzenders in 4K gaan uitzenden, sla ik wellicht LCD en OLED TV's geheel over. Mijn oude TV geeft na ruim 6 jaar nog zulk goed beeld, dat ik deze gewoon houd totdat 4K mainstream wordt. Zodra voetbal, F1 en ander snelle sporten uitgezonden in 4K wordt het (voor mij)een ander verhaal.

**4K en 8K is net zo'n marketing ding, 4K is eigenlijk 2K(2160p) en 8K is eigenlijk 4K(4320p). En zelfs tweakers gaan hierin mee.

[Reactie gewijzigd door ABD op 22 mei 2020 11:21]

Zo duidelijk is (2K)2160p ook niet, want wat bedoel je met 2160p?
4096 × 2160 (DCI 4K/cinema 4k)?
Of 3996 × 2160 (flatcrop 4k
of 3840 × 2160 (4k UHD)?

4k echt 8k zie ik gewoon als een triviale naam wat natuurlijk ook handig is in marketing. Ik ga niet telkens 2160p of 3840x2160p opnoemen als ik het over 16:9 tv's monitoren heb, ik zeg gewoon 4k (99% van de tijd correct). Je zegt ook niet diwaterstofmonoxide of H2O als je water bedoelt. Wanneer het relevant kan je nog zeggen kraanwater, demi water, zwaar water, hemelwater, evt label opnoemen met alle opgeloste stoffen :P, I digress.

Dat terzijde, wat zo mooi gaat zijn aan HDMI 2.1 naast ondersteuning van hogere frames waarbij je terecht opmerkt dat ps5 en xbox niet gaan kunnen draaien, is VRR een handige feature. Vooral wanneer je target 60fps is, en dips verwacht naar de 40 fps bijvoorbeeld, met VRR gaat het stuk smoother ervaren worden. En uiteraard alles bovende 60 is al mooi meegenomen als is het 70fps. 120hz is de max is zal mogelijk zijn bij simpele games of met games met HFR mode dus een modus met grafische concessies. Ook is/zal het eindelijk mogelijk zijn om met een PC fatsoenlijk te gaan gamen op een TV met HDMI 2.1.

Ik ben iemand die geen lineaire tv kijkt. Ik kijk alles op demand, dus ik heb al redelijk wat content in "4k". En binnenkort met de ps5 vind ik het hebben van 2.1 met ondersteuning van VRR een must.

[Reactie gewijzigd door KoningSlakkie op 22 mei 2020 12:16]

1080p = 2k want ~2M pixels (1920*1080).
Zo is 2160p dus wel degelijk 4k: er zijn ~4M pixels...

Redelijk duidelijk vond ik. Behalve dat fullHD nooit 2K is genoemd.

[Reactie gewijzigd door S0epkip op 22 mei 2020 16:47]

1080p = 1920x1080 = 2073600 pixels
2k = 2048 x 1080 = 2211840 pixels
4k = 3840 x 2160 = 8294400 pixels
En daarom is 4K precies het dubbele van 2K......
1080i/p is niet het aantal pixels, maar het zijn het aantal horizontale rijen of beeldlijnen. Met PAL SD was dat 576 beeldlijnen, de eerste HD ready TV's hadden er 720 of 768, daarna kwam dus 1080 wat door de marketingmachine FullHD werd genoemd en wat de volksmond overnam.

De resolutie werd dus decennia lang beschreven door het aantal beeldlijnen en dat is ook waarom @Koning Slakkie's post betreffende AR nergens op slaat. Want SD TV's hadden een AR van 4:3 en de eerste HD ready TV's hadden net als de "4K" TV's en monitoren ook allerlei verschillende resoluties zoals 1024x768 en 1366x768. Hetzelfde gebeurt tegenwoordig met telefoons. Daar heeft nooit een haan naar gekraaid maar nu zou 2160p opeens onduidelijk zijn? Het vereiste van een HD TV is dat de HD TV minimaal 720 rijen aan beeldpunten heeft. Waarom is het nodig dat opeens de kolommen de aanduiding aangeven? Dat maakt het juist verwarrender. Als men zo nodig een nieuwe standaard wil invoeren, zou men 1080p 2M kunnen noemen, en 2160p 8M; dan is het tenminste logisch en marketingtechnisch nog veel meer waard, want 8M is groter dan 4K, dus "beter"! Maar ik hou er verder over op, ik zal altijd wars blijven van marketingtrucs.

Dat gezegd hebbende, naar het volgende punt. Natuurlijk is VRR prettig, maar de (Vesa standaard)adaptive sync, bestaat al een tijdje(ik meen sindsDP1.2a) en moet hardwarematig ingebouwd worden. Het nog steeds aan de fabrikant welke versie(de vesa standaard, amd's freeync of nvidia's gsync) hij implementeert; kan uiteraard ook allemaal in een beeldscherm. Dit maakt de HDMI 2.1 jungle alleen maar verwarrender.

[Reactie gewijzigd door ABD op 22 mei 2020 17:34]

Full HD is weldegelijk een officiële standaard, namelijk 1920x1080.
Wellicht dat je bedoelt dat het geen officiële naam is voor de standaard. De officiële term is HDTV, waarvan het in dit geval de 1080p variant betreft, de volledige resolutie die HDTV te bieden heeft. Of je "Full HD" wel of niet als (officiële) naam van de standaard vindt, vind ik discutabel, maar het is weldegelijk een standaard.

De officiele naam van de 3840×2160 standaard is trouwens, je raadt het al, '4K UHD' (waar 4K ook gebruikt kan worden voor 4096, maar dan zonder UHD). Zo is 8K UHD de term voor 7680×4320.
Je vergelijkt het verkeerd om. Je zegt dat de term 4K eigenlijk niet klopt, omdat je hem vergelijkt met de niet officiële term "2K" van Full HD.

Dat alles gezegd te hebben, tuurlijk worden termen als dit als marketingtermen gebruikt, of het nu wel of niet officiële standaarden betreft. Je noemt het een "truc" om de verkoop van nieuwe TV's te stimuleren. En ja, dat is zo. Echter staat dat argument los van of de termen wel of niet 'officieel' zijn.

En fijn dat je blij bent met je high-end Panasonic TV. Plasma is inderdaad een supergoede techniek voor beeldkwaliteit. Je hoeft natuurlijk niet te upgraden als je daar om welke reden dan ook nog niet aan toe bent. Maar resolutie is niet de enige reden om eventueel voor een nieuwe TV te kiezen, de kwaliteit van Plasma staat al een tijdje niet meer bovenaan.
Dan liever dat ze aangeven welke onderdelen van de HDMI 2.1 specificatie ze ondersteunen, en daar duidelijk in zijn.
De fabrikanten geven aan wat ze ondersteunen, maar niet wat ze niet ondersteunen. Dus je moet je toch vrij diep in de materie verdiepen om een goede keuze te kunnen maken.
Dat bedoelde ik er mee, dat de fabrikant dat doet.
Ze mogen het logo voeren als ze ook maar een van de features ondersteunen. Ze zijn verplicht aan te geven welke features dat zijn. Voor een consument is het dus voornamelijk zelf goed kijken.
USB-c heeft ook allerlei optionele features (power delivery, displayport alt-mode). Heel vroeger had je dat ook met parallele poorten (ECP, EPP anyone). Dus het verbaast me dat dit niet eerder gebeurt.
En bij USB heeft vooral de tech savy community aangegeven dat het grote puinzooi is. Zelfs in jouw geval is het bijvoorbeeld heel erg onduidelijk.

USB-c is namelijk een connector. Heeft niks met het protocol wat er overheen gaat te maken. De ellende met wat er mogelijk is begonnen met het hernoemen van USB3 als protocol naar USB 3.1 gen 1 (5gbit/s) en 3.1 gen 2 (10gbit/s).

Een USB-c connector mag namelijk ook gebruikt worden met USB2.0 (480mbit/s). Dat is helemaal belabberd.


Dat gezegd hebbende is het dus gewoon drama voor consumenten. Hoe moet je nu weten wat er ondersteund wordt? USB 3.0 was blauw, USB2.0 was zwart/grijs of wit. Met extra power nog wel eens geel of rood. Zo’n kleurtje is gewoon heel handig. Maar nu is het nog veeeeeel erger.

Waar voorheen iedere kabel in principe compliant was voor alles (USB3 kabel ondersteunde in principe alles van de spec) heb je nu een enorme wildgroei aan kabeltjes en wat ze aankunnen.

Zo is de meegeleverde kabel van 2M bij een macbook pro als een van de weinige (stuk of drie wereldwijd) geschikt voor 100W PD, maar ondersteund weer geen TB3. Ben je mooi klaar mee en moet je maar net weten.

Zo ook hier. Wat wordt ondersteund door welke kabel? Geen idee. Moet je maar net op de verpakking kunnen lezen en weten wat er dan allemaal mogelijk is binnen de volledige spec. Dat kan je van consumenten toch niet verwachten?
De meeste consumenten zullen er ook niet naar kijken: opladen doe je met het ding bij je laptop. Een externe monitor aansluiten? Kan dat dan... In de praktijk is het voornamelijk USB2 apparatuur die gebruikt wordt (toetsenborden, muizen, webcams, externe HDD). Ik heb in ieder geval in mijn kringen nooit iemand hierover horen klagen. Dus verwarrend is het wel, maar het leid niet tot grote problemen is mijn indruk.
opladen doe je met het ding bij je laptop
Ja, maar wat als het kabeltje stuk is? Waar haal je dan een nieuwe?

En welke is dan de juiste? Bij Apple is het simpel die hebben 1 kabel om het voor elkaar te krijgen en dat is tevens ook de langste die 100W ondersteund, maar bij Lenovo dan weer niet. X1 wordt ook gewoon via USB-C PD opgeladen, maar ja niet met iedere kabel even snel.
Zoals ik al schreef: "dus verwarrend is het wel, maar het leid niet tot grote problemen is mijn indruk.". Ik vermoed dat als een Apple gebruiker zijn laadkabel kapot is hij/zij naar de eerste applestore rent en niet via Aliexpress of de action iets haalt. Die Lenovo X1 koopt Mien van 3 hoog niet, dat is speciaal spul en dan weet je wel iets meer van USB en standaarden.
Zo’n x1 is juist een apparaat wat je eerder zou kopen als consument dan een €3000 kostende macbook pro.

Dat ding wordt nu niet meer gemaakt maar wordt bij coolblue bijvoorbeeld gewoon verkocht. De X1 carbon is zelfs een “coolblue’s keuze” apparaat.
Ik had deze mening ook toen een week geleden (ongeveer?) een artikel over LG tv's hier online kwam, maar wat mensen daar in de reacties hebben gezegd vond ik wel een goed argument. Natuurlijk is gewoon het beste om het logo te hebben, maar stel dat je niet voldoet aan de 12-bit eis van HDMI 2.1, dat is natuurlijk alleen van belang als je TV dat ook echt weer kan geven. Want als het dat toch niet kan, dan is er geen enkel verschil tussen 'volledig' 2.1 en de uitgeklede versie.

Waar het natuurlijk fout gaat is als een TV qua specificities wel voldoet, maar de poort niet goed genoeg is om de TV aan te sturen, dan vind ik het inderdaad gewoon fout.
Eens, maar dit is dan ook gelijk ook van toepassing op het HDMI forum. Begrijp ook niet dat je als fabrikant (in dit geval LG) de 2019 modellen voorziet van 48Gbit/s ondersteuning en nieuwste modellen 40Gbit/s. Overigens maakt Samsung hier ook een puinhoop van door maar slechts 1 poort te voorzien van HDMI 2.1 en daarbij ook niet (direct) alle HDMI 2.1 features te ondersteunen. De investering voor deze chips lijken mij (op high-end tv's nota bene) nou niet de hoogste kostenpost.

Vind het wel interessant dat HDMI 2.1 met compressie 10K/120p aankan in 4:2:0 met 12bits, maar laten we eerlijk zijn: voordat we 10K content in 120fps hebben dan zal HDMI 3 of zelfs versie 4 er zijn, wellicht dan zonder DCS. Ben nieuwsgierig welke toepassingen dit nu daadwerkelijk gebruiken, want hier is over nagedacht...

Zie voor de toekomst ook liever een investering in 12-bit panelen dan 10K schermen. MicroLED (betaalbare tv's) is ook zeer welkom. :)
Fantastisch geschreven artikel! Daarom haal ik pas volgend jaar een oledje
Volgens mij heb je het artikel dan toch nét even te snel gelezen, de conclusie is namelijk dat er geen enkele reden is deze TV's niet te kopen, omdat de bandbreedte toch toereikend is, en alleen maar een issue wordt met 12-bit TV's die nog niet op de markt zijn.

Een scherm wat je nu koopt met 8/10-bit kleurdiepte zal niet ooit opeens 12-bit gaan worden, dus de HDMI versie die er nu op zit is toereikend, en zal nooit overschreden (kunnen) worden, hoeveel firmware updates ze er ook tegenaan gooien met extra features...

Ook voor het geld hoef je het niet te laten, want je hebt al een 55" OLED 120Hz VRR (Freesync) Dolby Vision HDR10 HLG HDMI2.1 scherm voor € 1098,- (de pricewatch: LG OLED55B9PLA Zwart) (Die dan overigens ook nog eens de volle 48Gbit ondersteund)

Voor een completere lijst met al deze bovenstaande functionaliteiten: https://tweakers.net/tele...xZc3Gu9NeVas1fL6VsWl7s-wc
VRR is niet precies hetzelfde als Freesync, ik heb zelf de LG C9 als monitor met een 5700XT en dit werkt simpelweg niet. Nu kan dat 2 dingen betekenen, of ik moet wachten op een HDMI 2.1 GPU (wat mij gek lijkt, want Nvidia heeft G-Sync ook voor elkaar). Of VRR werkt simpelweg net iets anders dan Freesync/moet nog worden geïmplementeerd.

In ieder geval, het werkt niet, dus zal dat wel meenemen in je aankoop. :)
De lg c9 ondersteunt HDMI 2.1 VRR en G-sync, maar niet amd’s freesync.
Dus HDMI 2.1 VRR =/= Freesync =/= G-sync.

Dat LG nu Nvidia g-sync support komt overigens doordat Nvidia g-sync compatible heeft gemaakt met HDMI vrr. Hierdoor was het voor LG redelijk makkelijk dit op te lossen.

De Xbox one x heeft overigens ook een amd kaart, maar deze stuurt daadwerkelijk HDMI VRR uit. Hij heeft in ieder geval geen moeite het te activeren als ik hem rechtstreeks op de C9 prik.
En de LG C9 ondersteunt alleen gsync op de nieuwste generatie Nvidia kaarten. Mijn gtx1080Ti, ondanks dat hij nog prima mee kan komen, wordt helaas dus niet ondersteund.
Staat in dat overzichtje van dit bericht niet dat geen van de LG’s vrr ondersteunt?
VRR (Variable Refresh Rate) is een verzamelnaam, Freesync/G-Sync/Adaptive-Sync zijn impementaties, dat weet ik.

Wel interessant (en uiterst vervelend voor jou) om te horen is dat het (iig bij jou) niet werkt, heb je daar ook een topic van lopen op GoT? lijkt me interessant leesvoer.
Als jij alles goed ingesteld heb staan zou het namelijk wél gewoon moeten werken, alleen natuurlijk geen 4K-120Hz VRR, want daar heb je uiteraard wél een HDMI2.1 GPU voor nodig, omdat een HDMI2.0(b) GPU simpelweg geen 4K-120Hz (VRR) over HDMI ondersteund. (alleen over DP in geval van de 5700XT vziw)
edit:
Overigens, óók een G-Sync HDMI2.0(b) GPU doet géén 4K-120Hz VRR over HDMI

[Reactie gewijzigd door zion op 22 mei 2020 08:37]

Het is inderdaad niet hetzelfde. Je moet dus zoeken naar die feature, omdat ie niet automatisch bij HDMI 2.1 zit. Omgekeerd zou het dus ook zo kunnen zijn dat een PS5 alleen VRR ondersteund en dus niks doet met een freesync monitor.
Voor de nieuwste NVIDIA kaarten (16xx / 20xx) is er wel G-Sync (1440p 120hz). Ik heb dit helaas nog niet kunnen ervaren met mijn 1070 =/
Vrr is niet Freesync. Het is simpelweg andere technologie. Wil je variabele refresh rates op je B9, dan moet je een Turing kaart kopen.
Waarom zou je wachten? Lg modellen van vorig jaar pakken de hele specs mee en die van dit jaar hebben geen last van de beperking in bandbreedte.
Ik denk niet dat lg volgend jaar ineens wel weer de volle specs gaat ondersteunen als het niet nodig is.
Mijn LG OLED van vorig jaar heeft (de volledige) HDMI 2.1 ondersteuning in tegenstelling tot de 2020 modellen, instant buy van de PS5 kan gedaan worden :)
Zolang jouw LG paneel, net als dit jaar, maar 10 bit is, zal het verschil tussen dit jaar en vorig jaar in de praktijk verwaarloosbaar zijn.
Correct toch spreken de bronnen dat het mogelijk is met 12bit:

Homecinemamagazine:
De HDMI-aansluitingen van de CX gaan tot maximaal 40 Gbps, waar je op de C9 je de maximale HDMI 2.1 bandbreedte kreeg (48 Gbps). Daardoor kan je op de CX maximaal 4K120 10 bit 4:4:4 signalen aanbieden, terwijl je op de C9 hetzelfde kan doen maar met 12 bit kleurdiepte in plaats van 10 bit.
https://www.homecinemamag...65cx6la-cx-serie-oled-tv/

Tweakers:
De LG-televisies van vorig jaar, zoals de C9-oled-tv's, hebben wel hdmi 2.1-aansluitingen die 48Gbit/s halen. Die kunnen daardoor 4k-beelden met 120fps weergeven met een theoretische kleurdiepte van 12bit met 4:4:4-chroma subsampling.
nieuws: LG's oled-tv's van 2020 hebben geen hdmi 2.1 met volledige bandbreedte

[Reactie gewijzigd door lubbertkramer op 22 mei 2020 11:24]

Ja dat is leuk maar je panneel kan nog steeds maar 10bit. Dus leuk dat de aansturing dan 12bit is. Maar daar heb je weinig voordeel van.
Daarom opende ik met "correct" :) Blijft wel raar dat ze voor de 2020 generatie een andere keuze/implementatie van 2.1 gedaan hebben terwijl het dus wel mogelijk was zoals in de 2019 modellen.
Ja inderdaad. Zal wel kosten besparing zijn.
Het gaat erom dat je straks met 120fps/4k vanaf je console Kan streamen ofdat nou 10bit of 12bits is doet we niet toe, zoals de oudere schermen wel een 120hz scherm hebben maar je deze niet Kan feeden met 120hz beelden alleen 60hz...
Die komt toch ook dit jaar nog uit?
Ja haal hem niet dit jaar, ik wacht altijd een halfjaartje na de release ivm bepaalde games
Dit lijkt wel hetzelfde als wat er bij USB is gebeurd. Het wordt er allemaal niet duidelijker van.
Tanenbaum: "Het leuke van standaarden is, dat je er zo veel hebt om uit te kiezen."

Misschien kan de boel vereenvoudigd worden door helemaal te stoppen met HDMI. We kunnen voor TV's ook USB gaan gebruiken. De laatste versie is ook goed voor 40Gbps.
USB is zonder aparte controller niet stabiel genoeg om een TV-signaal te dragen. Daar is dan weer Thunderbolt voor. Dat gaat over dezelfde USB 3.1 Type-C kabel. Met USB 4 zou dat allemaal opgelost moeten zijn, omdat Intel geen royalties meer wil gaan vragen voor het daaraan vrij gekoppelde Thunderbolt 3. Maar dat zijn de royalties, de implementatie is wel degelijk anders, dus is het nog maar de vraag of iedere USB 4-poort ook Thunderbolt 3 gaat ondersteunen. Daarnaast zou je voor de hoogste kwaliteit natuurlijk alweer Thunderbolt 4 nodig hebben (omdat alleen die standaard de bandbreedte van DisplayPort 2.0 aankan).

Het kan dus nog wel even duren totdat we én overal dezelfde poort voor gebruiken én die poort ook daadwerkelijk dezelfde ondersteuning biedt qua protocollen. Met de USB Type-C connector kun je nu afhankelijk van de ondersteuning de volgende protocollen ondersteunen, zonder dat je ergens kunt zien wat ondersteund wordt. Om je een ideetje te geven.
  • USB 3.0
  • USB 3.1 / USB 3.2 (meerdere kanaal-configuraties)
  • USB 4
  • USB 3.1 + Thunderbolt 3
  • USB 4 + Thunderbolt 3
  • USB 4 + Thunderbolt 4
En eigenlijk moet ik dit rijtje dan weer dupliceren om aan te geven dat het ook kan met stroomdoorvoer of zonder en ook daar zitten nog differentiaties in.

Met HDMI is het iets minder een rommeltje, maar omdat sommige TV's inmiddels wel HDMI 2.1 hebben, maar niet alles ondersteunen (of misschien andersom), begint dat ook een aardige janboel te worden.
Voor het aansluiten van televisies/monitoren is natuurlijk de DisplayPort alternate mode relevant en behalve de vraag of er displayport op een USB-poort zit is er dan ook weer de vraag welke DisplayPort-standaard. Zo wordt de USB-puinhoop steeds groter. En o ja, er kan ook HDMI over een USB-poort, maar lijkt tot nog toe niemand te implementeren.
Dat is dan ook logisch daar de displayport standaard ook passive HDMI conversie ondersteund. Heb je displayport alternate mode dan heb je dus ook HDMI. Los HDMI implementeren is dus zonde geld.
Dat klopt niet: Een echte Displayportconnector heeft (in de regel) inderdaad een HDMI alternate mode, maar Displayport op USB is uitsluitend Displayport, dat kun je niet met passieve middelen met een HDMI-poort verbinden.
Hm ik zie inderdaad dat daar op USB-c de HDMI alt-mode voor gebruikt wordt. Dan is echter je eerdere statement niet correct, want er zijn dus wel degelijk heeeeel veel passive HDMI converters. Die moeten dan dus allemaal HDMI alt-mode gebruiken.
Het enige passieve USB->HDMI wat ik kan vinden is MHL, maar dat is weer wat anders, namelijk daar heb je een speciale televisie voor nodig die MHL ondersteunt. Als je een passieve adapter vindt, graag een linkje. In theorie kunnen ze bestaan, maar zoals gezegd, niemand lijkt HDMI over USB te implementeren.
Sorry ik moet je toch echt corrigeren:

https://www.amazon.nl/HDM...-telewerken/dp/B083YZCT41
Deze adapter heeft in de handleiding expliciet staan dat hij werkt via DP-alt mode:
Beknopte gebruikershandleiding:
- KAN NIET opladen.
- ALLEEN werken met DP Alt Mode-apparaten.
- Werk ALLEEN met video-compatibele USB-C-apparaten voor video-uitvoer.
- Vragen over product en compatibiliteit: hallo @ uniaccessories.io
zelfde met deze van ugreen https://www.amazon.nl/UGR...ondersteunt/dp/B07925J6GY
De USB C-naar-HDMI-kabel werkt alleen met computers, mobiele telefoons en tablets die de "DisplayPort Alternate Mode" ondersteunen.
Het gaat dus wel degelijk om DP alternate mode en dus is de losse HDMI implementatie zinloos.
Zoals ik het zie is het een actieve adapter die een Displayport-signaal op de poort kan omzetten in een HDMI-signaal. Ik kan het niet bewijzen, maar de vorm van de HDMI-connector suggereert dat er electronica in zit en tevens is de prijs te hoog voor een passief verloopstukje.

Hier nog wat achtergrondinformatie:

http://cit.odessa.ua/media/pdf/USB-Alternate-Mode.pdf

... op bladzijde 19 kun je zien dat USB-C naar DP geheel zonder tussenliggende componenten kan terwijl er voor HDMI een "protocol converter" tussen moet zitten van DP naar HDMI.
De connector bij Uni is een female variant vandaar dat relatief groot is. De male versie is beduidend kleiner.

Neemt niet weg dat er nog steeds logica in kan zitten. Als ik op slide 22 kijk wordt er wel gesproken over een DP HDMI converter, maar er wordt niet bij gezegd of dit actief is. Echter de aanweizgheid van een USB PD controller in die converter duid op actief.

Interessante materie. Dit. Geeft ook nog maar eens aan hoe ingewikkeld dit hele systeem eigenlijk is.

Het geeft denk ik meer uitsluitsel als we kijken naar de maximale resolutie van hdmi alternate mode. Dat is namelijk 4k 30Fps. De genoemde adapters doen 4K 60fps. Daarmee is het dus logisch dat passive HDMI dus alternate mode dan ook een beetje nutteloos is.

Maar thanks. Weer wat geleerd. ;)
Je mist nog USB 2, wat ook over een USB-C connector kan, genoeg devices met een USB-C connector die USB 2 praten. USB 1 is wellicht ook nog mogelijk.
Er zijn zelfs apparaten die een USB-C connector hebben en helemaal geen data ondersteunen.
Precies! Ik vraag me af waarom we nog HDMI hebben op tv’s en geen usb(-c). Heeft HDMI nog specifieke voordelen die met usb niet te realiseren zijn?

Zelfs moderne tv’s missen vaak nog een usb-c aansluiting, terwijl dat toch wel praktisch kan zijn als je bijv. je laptop wil aansluiten.
Denk dat het ook te maken heeft met de verschillende USB-C versies en daarmee verschillende USB-C kabels. Sommige kunnen wel opladen, andere niet. Sommige ondersteunen wel Display, andere niet. Sommige zijn thunderbolt, andere niet.

Het maakt er niet duidelijker op :)
Bij usb is dit puur en alleen de data die over de kabel gaat. Bij hdmi zijn er aparte kabels\kanalen voor audio en stuursignalen. Als je die info ook over de datalink van usb moet gaan sturen kom je bandbreedte te kort.
Displayport Alt mode over USB-c begs to differ: 32Gbit over een USB-c kabel.
Thunderbolt 3 vind het ook niet zo’n probleem: 40Gbit/s full duplex. En dat is basically PCIe over een kabeltje. Kun je de GPU dus letterlijk in het scherm stoppen.
USB is superverwarrend, maar er is dus verschil tussen een USB-C-poort in alternate mode, waarin het feitelijk een Displayport-connector is met een andere stekker erop, en USB-C waar het USB-protocol over heen gaat, dus beeld tunnelen over het USB-protocol. Zoals ik de reactie van Z80 lees heeft hij het over het laatste, terwijl jij het over het eerste lijkt te hebben.

Alternate mode kan ook gedeeld worden: Bijvoorbeeld 3 USB-lanes voor Displayport en eentje waar USB overheen gaat. Maar als je dat doet, dan haal je geen 32 gigabps meer.

Z80 heeft gelijk dat dit bij een HDMI-poort netjes gescheiden is en elkaar niet in de weg zit.
USB3, SATA, PCIe, HDMI en DisplayPort gebruiken al exact dezelfde tranceivers. Elektrisch gezien zijn ze compatible, vandaar dat je HDMI of DP over een USB-C connector kunt doen, met wat slimme routering hoef je maar heel weinig aan te passen in de chipset.

Elektrisch is het allemaal high-speed differential signalling. Bij veel embedded chips kun je (runtime) kiezen welke functies worden toegewezen aan de pinnen die dat kunnen.

De "standaarden" bestaan uit het afspreken wat de opeenvolgende bits betekenen.
Inderdaad, dit was ook direct mijn gedachte. Dit lijkt wel het (slechte) verhaal van USB 3.0, USB 3.1, USB 3 gen 1 of 2 of 2x2 of 3.2.... En met USB-c wel/geen displayport-alt, wel/geen thunderbolt, wel/geen power delivery, enfin je snapt 'm wel...

Wat ik me nog afvroeg. Hoe past het wel/niet ondersteunen van HDCP 2.3 in dit plaatje?

[Reactie gewijzigd door dhrto op 22 mei 2020 09:35]

Hdcp 2.3 is mogelijk via firmware update en is niet specifiek aangewezen op hdmi 2.1...mijn receiver Denon X1600H DAB beschikt over hdmi 2.0B poorten en heeft al out of the box Hdcp 2.3
Ok, dat is goed om te weten. Voor zover ik heb kunnen achterhalen, zal HDCP 2.3 nodig zijn voor 8K. Nu vraag ik me dan af of de receivers die nu met 4K adverteren, ook 8K gaan ondersteunen (als passthrough). Het blijft allemaal een beetje ondoorzichtig.
Heb liever een Thunderbolt 3...
Wat eigenlijk erg vind is dat de aansluiting in de tv dan heel erg fragiel wordt. Net zoals die usb die je nu denkt zien. Mocht je een beetje lomp de stekker er in steken of per ongeluk verkeerd om (ook niet ondenkbaar - micro-usb heeb niet heel veel nodig daar voor, deze lijkt op mini-usb is nog redelijk robuust) dan verbuigt of breekt dat dingetje. Waarom niet gewoon lekker stevig?
Pff Ik wil dit jaar misschien een nieuwe TV en PC kopen.
Maar het is nog wel even een puzzel dan.
Het zou mooi zijn als ik kan gebruik maken van een refresh rate en alle nieuwe standaarden.
Ik koop namelijk geen pc of TV voor 1 jaar.
Maar na 1 jaar is er wel weer veel verbeterd. In jouw geval koop je gewoon een topline voor de hoofdprijs en dan heb je even het genot van het nieuwste.
Pff Ik wil dit jaar misschien een nieuwe TV en PC kopen.
Maar het is nog wel even een puzzel dan.
Het zou mooi zijn als ik kan gebruik maken van een refresh rate en alle nieuwe standaarden.
Ik koop namelijk geen pc of TV voor 1 jaar.
Nou ja, eigelijk zegt het artikel ook dat als je geen extreme eisen/wensen hebt (4K120 bijvoorbeeld), zoals ik, je prima uit de voeten kan met het productaanbod van dit jaar. Komt volgend jaar het 12-bit paneel uit? Als het antwoord ja is, en ligt binnen je budget ( waarschijnlijk niet ), etc, dan gaat een TV die je dit jaar koopt toch echt wel mee, ook met die HDMI 2.0 poort.

Heb je echt wel die eisen, ja, _dan_ moet je wachten.

Maar ik? Nah. Ik wil een UHD filmpje kijken, een spelletje op de PS4/5 of switch doen, en dan hebben we 't wel gehad. Ik hoeft echt geen 4K120. Het verschil tussen 10-bit of 12-bit zie ik met mijn ogen waarschijnlijk toch niet. en 60Hz of 120Hz waarschijnlijk evenmin. (net zoals ik het verschil niet hoor tussen speakers van 300 euro en 3000 euro).

Ik denk dat je jezelf goed genoeg kent om te weten in welke categorie je thuis hoort :)
Mooi een c9 halen nu ze we nog zijn!
Hoe zit het met bekabelen vanaf een PC, videokaarten hebben nog geen HDMI 2.1 maar beschikken wel over DP1.4 welke qua bandbreedte voldoende kunnen leveren voor 4K120hz.

Realtek heeft met de RTD2173 ook al een chip voor o.a. kabels, deze zou zelfs tot 4K240hz moeten kunnen, maar die chip zie ik nergens in geïmplementeerd.

Heeft iemand hier haar/zijn LG C9 al met HDMI 2.1 verbonden aan haar/zijn PC?
De TV wereld doet niet aan DP..
Nee, ik weet ook wel dat TV's geen DP hebben.en ws nooit zullen krijgen, maar zoals ik aangaf zijn er oplossingen van DP naar HDMI en ik ben dus benieuwd of er mensen zijn die een dergelijke oplossing hebben toegepast waardoor ze nu hoger dan 4K60hz kunnen gebruiken.
Ik denk dat je daar volledig afhankelijk bent van de poort en specificities op je TV toch? In principe is het niet anders dan als je het met HDMI aansluit. Als de TV niet hoger dan 4K60 gaat, zal een andere kabel daar niks aan veranderen.
Ja en zijn al HDMI kabels die 48gbits aan kunnen, je zit alleen met her feit dat videokaarten dit nog niet kunnen en je voorlopig aan 1440p/120hz max zit tot gpu's met HDMI 2.1 Komen.

Kabels zoals deze:

https://www.amazon.de/gp/...=ppx_pop_mob_b_asin_image
Dank je! Deze naïeve pik heeft misschien iets te snel over het artikel heen gelezen, maar wist dus niet dat er nog geen videokaarten zijn met HDMI 2.1.

Ik ging er vanuit dat er inmiddels wel content zou zijn voor die aansluitingen, zeker bij videokaarten van €1000. Onterecht, blijkbaar!
Al dat gezeur met HDMI, wanneer gaan we eens een bestaande bewezen techniek gebruiken met zon beetje onbeperkte bandbreedte, glasvezel.

Ook de glasvezel kabel kunnen ze bewust beperken in bandbreedte. Maar dan heb je wel een dun klein kabeltje wat makkelijk weg te werken is.
Wat wel grappig is, is dat één van de oudste technieken die nog steeds te vinden is op receivers, Toslink, al sinds 1983 bestaat en nog steeds geweldig werkt. Glasvezel leek toen de toekomst, maar uiteindelijk is het toch weer ingehaald door koper.

Overigens heb ik geen idee hoe duur lasers zijn die 48Gbit kunnen doen, Toslink doet iets van 125Mbit. Wellicht dat dat de reden is dat er geen goede glasvezelstandaard is: de kosten.
40 Gbit/s multimode SPF+ kost al snel vele tientjes. Niet schokkend voor in een netwerk maar ik denk te duur om je tv ff van 4 a 5 van die dingen te voorzien.
Bij een netwerk moet iedere aansluiting gelijktijdig actief kunnen zijn. In een TV hoeft niet meer dan één SPF+ geintegreerd te worden want op een TV is nooit meer dan één SPF+ input gelijktijdig actief. Mogelijk een switch ervoor bij meerdere inputs. De kosten voor zoiets in een TV kunnen dus beperkt blijven.
HDMI cec, tv sturing vanuit willekeurig apparaat. Zijn wel een paar redenen te bedenken waarom tv wel op alle inputs moet luisteren. Weliswaar niet op volle speed maar dan nog.
Punt is dat het product onnodig duur wordt.
Intern gaat alles sowieso via koper. Ga je tussen apparaten over op glas, heb je dus een extra (bi-directionele) optische omzetting nodig. En dat alles voor kabels van pakweg 2 meter.
Een optical switch inbouwen zodat je een paar SFP’s kunt besparen lijkt me de verkeerde aanpak. Ik denk dat je aan een optical switch het veelvoud kwijt bent 😂
.... normaal gesproken 40Gbit/s voor 10bit of 8Gbit/s voor 12bit aan bandbreedte nodig, ...
Moet dat niet 48 zijn?

[Reactie gewijzigd door GeforceAA op 22 mei 2020 07:33]

Eerder 80, is eerder in artikel al voorgekomen
Nee dat was voor de combinatie 8K, 60Hz, 4:4:4 en 12-bit paneel nodig als ik het goed gelezen heb.
Ik wordt zo moe van dit soort standaarden omdat het zo niet duidelijk is voor consumenten. USB 2.0 en USB 3.0 is al vaak lastig te begrijpen voor consumenten door alle marketing termen er omheen en niet standaard vormgeving. USB-c snapt al helemaal niemand behalve de echt doorgewinterde techies wat van.

Ik kan daar zo ongelofelijk chagerijnig van worden, zo niet klantgericht allemaal. als de HDMI 2.1 standaard te vooruitstrevend was maak dan gewoon een tussenstandaard en zet de HDMI2.1 standaard in de vriezer voor over een jaartje of 2.

Dit hele "fabrikanten kiezen wat ze willen, zolang ze 1 van de specificaties handhaven mogen ze het label dragen" is echt idioot. als ik een airbag op een fiets monteer heb ik ook nog geen auto. ja met beide kan ik rondrijden en de airbag zal prima functioneren, maar als ik dat een auto noem ga ik ook vierkant uitgelachen worden.

[Reactie gewijzigd door t link op 22 mei 2020 09:52]

Echt verschrikkelijk he |:( Soms is vooruitgang goed maar persoonlijk vind ik USB-C en HDMI 2.1 achteruitgang. Eigenlijk niet eens qua mogelijkheden maar de manier waarop het in de markt gebracht is met de daarbij benodigde verwarring. Hoe kan een leek die enkel films wilt kijken en af en toe een game speelt nou weten wat voor tv hij moet halen?

Dat je met usb-c enkel kan opladen of enkel beeld kan versturen duurde bij mij ook even :P maar voor de gemiddelde consument is dit allemaal echt niet te doen.

Ik zeg al een hele tijd in me omgeving dat de technologie onnodig vooruitloopt vergeleken met de content die beschikbaar is. 8K gaat hem echt niet worden in Hollywood, games op 120fps en 4K moet ik echt nog maar zien en HDR wordt nu pas een beetje volwassen in alles maar dat is het nog lang niet want niet iedereen heeft HDR in huis. Éen grote bak met ellende hebben ze gecreëerd met USB-C en HDMI 2.1.

Ik kies al een paar jaar voor Panasonic en in dit artikel wordt ook duidelijk waarom. Vooral qua tv's vind ik ze enorm sterk maar de blu-ray speler DB9004 is echt een parel. Heb je die al gezien? Ze moeten eigenlijk de doorontwikkeling stil leggen en wachten tot iedereen 2.1 heeft en vooral dat het benut wordt. Er zijn een aantal dingen waarvan ik denk dat het de toekomst is maar wat ook gemaximaliseerd en standaard kan worden als het gaat om tv's waardoor het voor iedereen makkelijk en toegankelijk wordt. Ook zodat de fabrikant het makkelijk en overzichtelijk kan maken:

- 4K als standaard proberen te maken en niet naar 8K gaan (onnodig).
- HDR standaard maken voor content.
- Hogere framerates met gamen mogelijk maken.
- 24p met films houden en daar gekalibreerde opties voor maken met 1 druk op de knop zoals de filmmaker het bedoeld heeft :D

Als men deze punten standaard maakt dan wordt alles overzichtelijker plus dat het genoeg is. De technologie wordt alleen maar op dit moment doorontwikkeld, eigenlijk omdat het kan en that's it. Geef mij maar bijvoorbeeld een compleet ''domme'' display ipv al die smart features erop want ik heb aan 1 HDMI genoeg die naar me Denon gaat :*)
Wat ik mis in het artikel is het feit dat de standaard wel aangeeft dat de fabrikant verplicht is aan te geven welke opties van HDMI 2.1 ondersteunt worden (daar zijn vaste termen voor). Ik hoop dat Tweakers dit vervolgens mee gaat nemen in de vergelijking van de Pricewatch.

Jammer is ook dat het artikel niet in gaat op dat de hele keten in veel gevallen alles moet ondersteunen. Als het signaal door een versterker gaat moet deze de verschillende features wel snappen. Bijvoorbeeld de xbox one x doet zowel auto low latency (gamemode) als vrr. Mijn denon versterker x2500 laat wel het allm signaal door maar blokkeert vrr.
Ook van de huidige receivers op de markt moet je goed zoeken naar HDMI 2.1 ondersteuning. Alle 2020 modellen van denon in een voor mij normale prijsklasse krijgen die nog niet.
Misschien moeten we dit niet een standaard noemen maar een marketing label?

Het staat leuk en mensen denken dat ze iets nieuwers hebben dan 1.4 en 2.0 en alleen het betekent nauwelijks iets.

Een oud model tv met 2.0b van een fabrikant die een beetje z’n best doet kan meer 2.1 features hebben dan een tv van een fabrikant die één feature op een nieuw model implementeert om het label te mogen voeren.

Laat HDMI maar gewoon verdwijnen als er op deze manier op deze manier met een “standaard” omgegaan wordt.

[Reactie gewijzigd door Vizzie op 22 mei 2020 09:14]


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True