HDMI Forum kondigt in januari specificaties van nieuwe HDMI 2.2-standaard aan

Het HDMI Forum presenteert op 6 januari de specificaties voor de nieuwe HDMI 2.2-standaard. De aankondiging zal net voor de Consumer Electronics Show 2025 plaatsvinden. Die beurs vindt plaats van 7 tot en met 10 januari.

De non-profitorganisatie noemt vooralsnog geen concrete specificaties van HDMI 2.2, maar geeft al wel enkele indicaties. De nieuwe audio- en video-interfacestandaard moet onder meer een 'hogere bandbreedte' ondersteunen en krijgt een 'nieuwe HDMI-kabel'. De recentste HDMI-standaard is HDMI 2.1 met een maximale bandbreedte van 48Gbit/s. Ter vergelijking, DisplayPort 2.1 ondersteunt 80Gbit/s en passieve kabels die deze bandbreedte ondersteunen zijn doorgaans relatief kort. Verder belooft de organisatie ondersteuning van hogere resoluties en verversingssnelheden. HDMI 2.1 ondersteunt onder meer maximaal een 10k-resolutie en verversingssnelheden tot 120Hz in 4k en 60Hz in 8k.

Update, 17.15 uur: Enkele specificaties van HDMI 2.1 zijn aangescherpt.

Door Yannick Spinner

Redacteur

12-12-2024 • 16:54

91

Reacties (91)

Sorteer op:

Weergave:

Ik heb een dure versterker met HDMI 1.4 en ik was aan het gluren voor HDMI 2.1 compatible versterkers. Nu komt er weer een nieuwe versie uit? Laat maar. Ik hou mn oude versterker wel. Beter koppelen ze die HDMI poorten los van de versterker, misschien haal ik dan een nieuwe.

[Reactie gewijzigd door Gamebuster op 12 december 2024 17:43]

En hoe wil je geluid uit een HDMI-signaal halen als je dat loskoppelt van de versterker?

En hoe wil je met je versterker tussen diverse HDMI-bronnen kunnen schakelen als je versterker geen HDMI-signaal ondersteunt?

Dan krijg je alsnog een apparaat dat een bepaalde HDMI-standaard moet ondersteunen, het geluid af moet splitsen naar je versterker en het beeldsignaal doorsturen naar een tv.

Zolang jij geen HDMI 2.2 bandbreedte of features nodig hebt, kun je dus nog vele jaren door met een HDMI 2.1 (48 Gbit-variant).

Ik ben benieuwd of niet ieder HDMI-apparaat versie 2.2 gaat krijgen waarbij we een high speed (18 Gbit), ultra speed (48 Gbit) en nog een snellere variant (X> 48 Gbit) variant gaan krijgen en waarbij je dus eerst in de specs moet gaan lopen graven om te kijken welke snelheid het daadwerkelijk is.

Net zoals HDMI 2.0 niet meer bestaat, maar nu HDMI 2.1 heet, waarbij er soms nog TMDS achter gefrommeld is).
Oh? Ik dacht dat je qua geluid niet zo'n hoge HDMI standaard nodig hebt (zelfs niet voor Atmos).

Kun je de beeldbronnen niet aansluiten op je TV en een HDMI signaal met de audio (evt. zelfs zonder beeld) naar je versterker laten sturen?

(Dan moet inderdaad je TV het schakelen tussen diverse HDMK-bronnen doen.)

Mijn huidige versterker kan ook video schakelen. Nog met van die gele tulp stekkers. Nooit gebruikt, o.a. omdat ook dit meteen verouderd was. (SCART nam het over.) Maar ook nooit gemist.
Als je je tv wilt aansturen met 4K, dan zul je HDMI 2.0 moeten hebben en dus support voor 2.0 op je versterker als je die wilt gebruiken om te schakelen tussen de aangesloten HDMI-bronnen.

De geluidsdata zit in het signaal en werkt gewoon op HDMI 2.0-snelheid.
Een 1.4-versterker kan daar niets mee, dus zou de boel terugschakelen naar HDMI 1.4 en heb je dus geen 4K beeld meer.

Je kunt wel HDMI 2.0 naar je tv sturen en dan via ARC Audio Return Channel het geluid naar de 1.4 versterker sturen. Maar dat is dan van mindere kwaliteit mindere kanalen of uncompressed maar 2 kanaals.

Je kunt ook het audio kanaal splitsen door een splitter te gebruiken, dan kun je het audio signaal naar de versterker sturen en het videosignaal naar de tv.
Daarvoor heb je Earc? Die doet tot 37mbs ipv 1mbs (arc). Voldoende voor 5.1 pcm of dts-HD.

Earc is dus de oplossing wanneer je wel high end audio wilt, maar niet elke 5 jaar een nieuwe receiver wilt.
Earc werkt pas vanaf HDMI 2.1, niet vanaf 1.4 (of zelfs 2.0) waar de discussie over begon.

En HDMI 2.0 is er sinds 2013, dus wat langer dan 5 jaar. En HDMI 1.4 vanaf 2009, dus iedere 5 jaar je versterker vervangen…

En als je dan nu een eARC-ondersteunende versterker hebt, dan heb je dus 2.1. Dat is voldoende voor 10K op 120hz en met 10 bit/kanaal. Ik zie niet echt in waarom je zou moeten overstappen op 2.2, behalve echt extreme use cases (laat staan binnen 5 jaar).

[Reactie gewijzigd door White Feather op 13 december 2024 09:37]

Bedankt voor alle reacties, hier om deze post heen! Ik heb duidelijk nog inlezen te doen - nu blij niet met BF voor een '4K' (dus nog niet ver genoeg hierin?) receiver gegaan te zijn..

Als ik het goed begrijp is mijn logica 'waarom moet 't beeld via de receiver?' pas via eARC in de HDMI 2.1 spec door de fabrikanten omarmd? Dan zal ik erop letten een receiver te kopen die dat ondersteunt. (En moet ik maar 'ns kijken wat mijn TV doet..)

Ik zie sowieso weinig beeld langs die receiver (kunnen) komen: hier en daar een blue-ray; het grootste deel zal door de smart-TV zelf gestreamed worden. Lijkt me toch stug dat 't dan ook alléén werkt wanneer het volledige beeld met het audiosignaal mee past? (Afijn, ik ga elders verder puzzelen.)
Als je bron>receiver>tv doet, dan kan de receiver gewoon het geluid op de volledige kwaliteit uit de stream halen en het beeld doorsturen. (Er vanuit gaand at de hele reeks dezelfde HDMI-standaard hanteert, anders val je terug op de laagste.)

Pas als je geluid door wilt sturen naar soundbar of receiver/versterker heb je (e-)ARC nodig.

Zie ook: https://www.sony.nl/electronics/support/articles/00227116
Waarom willen jullie zo graag bron > receiver > tv doen?
Bron (is veelal ingebouwd in) > tv > receiver lijkt mij zo veel logischer.

Waarom zou je überhaupt iets ontwerpen dat ervoor zorgt dat je receiver signaal moet kunnen verwerken (volgens toekomstige specs) waar hij zelf niets mee doet?
Waarom willen jullie zo graag bron > receiver > tv doen?
Bron (is veelal ingebouwd in) > tv > receiver lijkt mij zo veel logischer.

Waarom zou je überhaupt iets ontwerpen dat ervoor zorgt dat je receiver signaal moet kunnen verwerken (volgens toekomstige specs) waar hij zelf niets mee doet?
Meerdere redenen:
  • Meer HDMI ingangen (met hogere brandbreedte). Veel tv's hebben maar 2 HDMI 2.1 aansluitingen.
  • Geluid zonder beeld (handig voor muziek)
  • Overlays (vind ik zelf persoonlijk minder handig)
  • Maar 1 kabel naar je TV = beter wegwerken van kabels.
Dat zal, maar het blijft onzinnig om een video-decoder in een versterker te proppen, dan is de leeftijd vrijwel direct vastgelegd i.c.m. TV door de ingangsstandaard (HDMI), wat producenten vast niet erg vinden.

Er is niks mis met een draadje extra naar de receiver, een settopbox of tv kan het audio signaal splitten omdat het dat toch al doet en als dat via een HDMI-kabel gaat, soit.

Maar dit gerommel met HDMI compatibiliteit komt de consument niet ten goede.
Dat zal, maar het blijft onzinnig om een video-decoder in een versterker te proppen, dan is de leeftijd vrijwel direct vastgelegd i.c.m. TV door de ingangsstandaard (HDMI), wat producenten vast niet erg vinden.

Er is niks mis met een draadje extra naar de receiver, een settopbox of tv kan het audio signaal splitten omdat het dat toch al doet en als dat via een HDMI-kabel gaat, soit.
Dat verschilt heel erg per gebruiker en per installatie. Ik heb momenteel een Bluray speler, PS4 pro, Nintendo Switch en een Nvidia Shield achter mijn TV hangen. Dan zou mijn TV nu vol zitten (en heeft maar 2 HDMI 2.0 aansluitingen). Dus dan is wat extra aansluitingen wel handig.
Ik heb wel specifiek een receiver gekocht met eARC om toekomstbestendig te zijn en geen dure HDMI 2.1 versterker nodig heb wanneer ik ooit 4k120 hz wil.
Maar dit gerommel met HDMI compatibiliteit komt de consument niet ten goede.
Eens. Ik snap eigenlijk ook niet waarom we HDMI nodig moeten hebben voor geluid. Ik wacht nog steeds op TOSLINK met Dolby Atmos. Hoe moeilijk kan het zijn ;) ?

Het verschilt natuurlijk
Earc werkt pas vanaf HDMI 2.1, niet vanaf 1.4 (of zelfs 2.0) waar de discussie over begon.
Dat is niet waar, eArc is in veel TV's, soundbars en receivers verwerkt die niet de volledige 2.1 spec konden (4k 120hz). Zoals mijn Marantz NR1710. Voor diverse apparaten kwam dit ook via een update: nieuws: Sony ZF9- en AF9-tv's ondersteunen earc voor doorgeven van lossless a... of https://www.whathifi.com/...-out-earc-and-mqa-updates (dat was al in 2018).
En HDMI 2.0 is er sinds 2013, dus wat langer dan 5 jaar. En HDMI 1.4 vanaf 2009, dus iedere 5 jaar je versterker vervangen…
Mijn reactie ging hierover. Als je nu een receiver koopt met eArc of (enkele jaren geleden), dan kun je tot de eeuwigheid alle formaten afspelen via eARC die jouw receiver aankan. Wat volgens mij behoorlijk toekomstbestendig is. Ook wanneer je een nieuwe TV koopt, die wel 8k@120 hz kan of een nieuwe video-standaard doet.

Reactie op je andere comment:
Een 1.4-versterker kan daar niets mee, dus zou de boel terugschakelen naar HDMI 1.4 en heb je dus geen 4K beeld meer.
1.4 kan zeker wel 4k, maar tot 30hz en geen HDR.

Sowieso kun je de meerwaarde van 4k@120hz en uncompressed audio betwisten. Bij films en muziek voegt uncompressed geluid wat toe, bij games eigenlijk niet. De bron is bij games meestal al compressed.
Earc geeft ook extea latency. Niet geschikt voor game consoles dus. En laat dat nou net de toestellen zijn die hogere hdmi bandbreedtes kunnen benutten.
Even een correctie HDMI 1.4 kan wel 4k (=UHD). Alleen maximaal op 30Hz.
Als je nagaat dat films op Blu-ray heel vaak 24 fps zijn, kun je daar nog best wat mee, zelfs op UHD. Redenen voor HDMI 2.x zijn vooral HDR en UHD op 60 Hz.
Oh? Ik dacht dat je qua geluid niet zo'n hoge HDMI standaard nodig hebt (zelfs niet voor Atmos).
Qua bandbreedte is geluid niet zo spannend, maar HDMI definieert ook de ondersteunde protocollen. Atmos over eARC is bijvoorbeeld pas vanaf HDMI 2.1 gespecificeerd dus het is voor oudere apparaten geen harde eis dat het werkt (al zal het dat soms misschien wel doen).
Kun je de beeldbronnen niet aansluiten op je TV en een HDMI signaal met de audio (evt. zelfs zonder beeld) naar je versterker laten sturen?
Er is niets wat je tegenhoudt, maar dingen als bv delay compensatie werken doorgaans alleen goed als de receiver middenin de keten zit. Ook hebben de meeste receivers wel iets van beelduitvoer (overlay, instellingen en soms media players) waardoor je toch ook al video van de receiver naar een TV wil sturen.
Mijn huidige versterker kan ook video schakelen. Nog met van die gele tulp stekkers. Nooit gebruikt, o.a. omdat ook dit meteen verouderd was. (SCART nam het over.) Maar ook nooit gemist.
Maar dan heb je een TV met meer inputs neem ik aan?
Want de meeste enthousiastelingen hebben minstens 1 extern media apparaat en 1 of meer spelmachines aangesloten ;)
Het zou mooi zijn dat de HDMI poorten een soort module worden die je kan vervangen, want het is een beetje zonde om een complete (goed werkende) versterker te vervangen alleen omdat de HDMI poorten niet meer up-to-date zijn.
Er zijn geen versterkers die 48gbps ondersteunen. Max 40gbps. Dat hdmi 2.2 nu komt hoeft daar niks aan te veranderen.
Het is in ieder geval niet de HDMI 2.1 18 Gbit-variant, wat gewoon de oude 2.0 is.
Bij NAD kun je losse upgrade modules kopen.
Lijkt erop, al ben ik niet overtuigd dat een huidige machine in de toekomst ook ondersteund zal worden. Hoe is dit historisch gegaan?
Ik kende het ook niet, maar ik lees dit op de gelinkte pagina:
Neem bijvoorbeeld iemand die in 2007-2008 een NAD T 775 kocht. Die was toen uitgerust met HDMI 1.2 en beperkte audiomogelijkheden. Spoel door naar vandaag en deze receiver kan worden getransformeerd met updates zoals HDMI 2.0, Dolby Atmos, DTS, BluOS hi-res streaming, Wifi, Bluetooth en zelfs Dirac - functies die onbekend of niet beschikbaar waren op het moment van aankoop.
Dat is momenteel heel spannend, want NAD is bezig van MDC (1) naar MDC2 over te stappen. Er lijken geen duidelijke beloftes meer te liggen voor nieuwe MDC (1) componenten. (Dus ook niet voor 8K video - is dat HDMI 2.1?)

Er zijn zeker goede upgrades mogelijk (geweest) binnen MDC. Maar je vervangt dermate grote componenten dat een kleine 500 euro vrij normaal lijkt. Moet je dus echt een dure versterker hebben om dat interessant te maken.
Moet je dus echt een dure versterker hebben om dat interessant te maken.
1400 EUR was de huidige, maar ik vind het prima om er ~2000 voor te betalen wetende dat ik in de toekomst ook "HDMI proof" ben. 500 voor een nieuwe "HDMI kaart" vind ik redelijk.

Liever zie ik echter een compleet gescheiden oplossing. Een HDMI switch / "pre-amp" / DAC en een dedicated amp. Echter, gescheiden oplossingen zijn vaak weer belachelijk duur. Ik hoef geen 1000+ euro pre-amp. Als een 300 euro versterker met ingebouwde HDMI switch / pre-amp / DAC zijn werk kan doen EN speakers kan aansturen, dan wil ik een 300 euro HDMI switch / pre-amp / DAC met een externe, losse versterker.

[Reactie gewijzigd door Gamebuster op 13 december 2024 09:13]

Prachtig, upgraden met een 4K video module van bijna 1000 euro. Dit is puur een speeltje voor de allerzwaarste high-end modellen maar dat is qua verkopen - en dus ook wat betreft duurzaamheid - een druppel op de gloeiende plaat.
Zat met hetzelfde probleem. Heb een prachtige Sony da5300es. Helaas maar Hdmi 1.3a (max 1080p). Toen alles overging naar 4k heb ik het maar opgelost door een HDMI matrix te gebruiken. In combinatie met een Logitec Harmony om alles te bedienen werkt het eigenlijk prima zo.
Ik heb een dure versterker met HDMI 1.4 en ik was aan het gluren voor HDMI 2.1 compatible versterkers.
Waarom?
Eens hoor. Vroeger was dat veel spannender met versterkers dan tegenwoordig. Wij hebben een Denon X3800H voor de woonkamer met meer speakers en nog een X1700H voor elders in huis. Die 'kleine' is ook echt al knap goed qua beeld en geluid. Ik zie dat de opvolger daarvan al voor 450 euro in de winkels ligt. Probeer die er eerst eens dubbelblind uit te pikken zou ik zeggen aan mensen die al heel lang op een wat oudere maar hogere segment versterker zitten, zeker als je financiële keuzes moet maken.
uitvoering: Denon AVR-X1800H DAB

[Reactie gewijzigd door OruBLMsFrl op 12 december 2024 23:23]

Dan gewoon een externe DAC zoeken?
Het hangt er ook maar net vanaf wat je prioriteiten zijn. Mijn versterker is een jaren 80 Philips waar zowel mijn platenspeler als mijn tv via een DAC aanhangt (optische kabel). Ik vind het allemaal wel best zo... Voor de tv staat de versterker 9 van de 10 keer zelfs gewoon uit en geniet ik van het geluid van lelijke tv speakers, of van een koptelefoon.
Zelfde probleem hier, elke keer nieuwe standaarden dus laat maar.

Ik heb ook een 1.4 hdmi receiver, en daarbij een bijkomend probleem, ik heb passive subwoofers. Mijn receiver heeft dus ook een subwoofer amp ipv actieve subs.

Eigenlijk ben ik nog heel content met mijn receiver, af en toe zit ik met een schuin oog te kijken naar een nieuwere receiver. Dan zie ik receivers welke toewijsbare outputs hebben, maar helaas, geen enkele output is als een sub amp met bijbehorende lowpass filter toe te wijzen. Een nieuwe receiver met een extra amp voor mijn huidige subs heb ik geen zin in.

Zelf heb ik het een beetje opgegeven, en bij mij hangt alles met hdmi aan de tv, van daar ga ik met toslink naar de receiver. Alijd 5.1 geluid, dts en dolby verder kom ik niet. Ik vermaak mij er prima mee, en misschien mis ik heel veel maar wat niet weet wat niet deert.

[Reactie gewijzigd door Chrisje1983 op 13 december 2024 01:43]

Dat passieve sub probleem van jou is waarschijnlijk op te lossen met een receiver die een "zone 2" ondersteunt. Je doet dan een kabeltje van de sub output naar de (door jou gekozen) zone 2 input en hangt je sub(s) dan aan speaker uitgang(en) van zone 2.
Is even tweaken om de levels goed te krijgen, maar hee daarvoor zitten we hier.
Dat is niet eens zo'n gek idee, klinkt als een oplossing en de line sub output heeft natuurlijk al een lowpass.
Ik heb ooit is een Onkyo versterker gekregen van mijn oom die in theorie modulair was. Alleen moet je dan ook mazzel hebben dat de fabrikant daar onderdelen voor blijft uitbrengen.
welke onkyo is modulair?
Vrij zeker dat het dit model was: TX NR5000E. Echt een unit en totaal overkill wat ik er mee deed, maar als iemand het aan je geeft..
In mijn uitvoering: Marantz NR1606 Zwart is het dan hdmi 2.0 en niet verder. Wel kan die gebruik maken van het Audio Return Channel (ARC) van de tv: Het hdmi signaal zou dan van de bron rechtstreeks naar de TV gaan en die heeft een speciale HDMI aansluiting voor naar de versterker zodat die daar alleen het geluid signaal op krijgt.

Helaas is mijn tv (uitvoering: Philips Cineos 42PFL9603D Zwart) zo oud dat die weer net geen ARC mogelijkheid heeft. Toegegeven, daar is de hdmi-versie niet eens gespecificeerd en gezien de leeftijd max 1.4 of zo. Dus heb ik het ook niet nodig.
Ik heb een NAD streaming DAC, waarin een HDMI-module kan worden geplaatst.
Wilde er eentje gaan bestellen, maar ik wacht maar even. Als de nieuwe HDMI v2.2 is aangekondigd zullen die modules een upgrade gaan krijgen, danwel goedkoper gaan worden :)
Wel vooral HT gerelateerd en minder muziek:
Mijn vorige AV pre-amplifier van 2011 met HDMI 1.4 was ook in de iets hogere prijsklasse, maar toen ik heel mijn ketting een kleine 2 jaar geleden naar 8K-capable HDMI 2.1 heb gebracht, heb ik gewoon een simpele Denon x3800h voor 980€ gekocht (mijn 20 jaar oude eindversterkers don't care). Dat ding werkt perfect, is loaded met features, doet net hetzelfde als pre-pro's die vierdubbel zo duur zijn en met 90% van de geluidskwaliteit. Met de Dirac upgrade zelfs fenomenaal goed geluid.
Dus mijn motto: ofwel koop je spul waarvan je hopelijk het HDMI board kan upgraden, ofwel lagere en goedkopere klasse en om xx jaar volledig vervangen en alle nieuwe snufjes hebben.
"HDMI 2.1 ondersteunt onder meer een 10k-resolutie in maximaal 120Hz en 8k in 60Hz."

Zou iemand mij kunnen uitleggen waarom 8K maar tot 60Hz kan en 10K tot 120Hz? Ik neem aan dat het laatste meer bandbreedte verbruikt?
Ik verwacht een typefout. HDMI 2.1b kan 4K 120Hz aan en 8K 60Hz. Een volgende upgrade zou ik dan minimaal 8K 120Hz en 10K 60Hz verwachten.
Hdmi 2.1b bestaat niet. Versie 2.0 had wel een a en b variant. Maar met je eens dat de info over hdmi 2.2 niet lijkt te kloppen. 4K120hz kan ook met hdmi 2.1, dus hdmi 2.2 zal wel 8K120hz en 10K60hz gaan ondersteunen. 8k en 10k zijn overigens volledige overbodige resoluties. Je moet wel zo’n enorm scherm hebben en er zo dicht op zitten wil je 8K kunnen onderscheiden van 4K

[Reactie gewijzigd door Hulleman op 12 december 2024 22:15]

Dit is een fout in de post denk ik, volgens de HDMIF website is het 8K tot 60Hz, en 4k tot 120Hz, maar het support TOT 10k.
refresh rates including 8K60 and 4K120, and resolutions up to 10K. Dynamic HDR formats are also supported, and bandwidth capability is increased up to 48Gbps.

[Reactie gewijzigd door Stetsed op 12 december 2024 17:02]

Ik zie dit online meer terugkomen. Het zijn respectievelijk, zonder DSC dus echte max en met DSC. Zonder DSC is 10k panorama 30Hz mogelijk.
Dus in theorie is het correct ook nog maar wel heel verwarrend zonder de context
HDMI 2.1 ondersteund 8k uncompressed (normaal signaal) en 10k met Display Stream Compression (DSC) van VESA. Dit staat voor wat ik kan zien los van een 4:4:4 / 4:2:2 / 4:2:0 signaal.
Dit klopte niet, het artikel is aangescherpt! Thanks :D
Het gekke is:
Wanneer ik de specs van mijn versterker opzoek (Yamaha Rx-A1060) geeft het aan dat het HDMI 2.2 heeft.
Begrijp ik nu goed dat dit nog moet uitkomen?
Dat is HDCP2.2, geen HDMI. Jij hebt op die receiver HDMI2.0a, dus ook geen 2.1 trouwens.
Waarom is de volgende stap in de resolutie 10K?
Ik zou dan eerder 12K of 16K verwachten
2.1 heeft te weinig bandbreedte voor 12K of 16K.. maar die 10K zegt niks over welke resoluties toekomstige TVs ondersteunen.

[Reactie gewijzigd door Olaf van der Spek op 12 december 2024 19:52]

Kwestie van bandbreedte.
“10K” of “12K” is in feite ook nietszeggend. Net zoals “4K” eigenlijk, zolang de hoeveelheid bits per pixel en de volledige resolutie en framerate niet genoemd worden.

Om het over eventuele compressie nog maar niet te hebben. Wat dat betreft is het vanuit het perspectief van de kabelboer dus handiger een garantie te hebben op een bepaalde bandbreedte want de hoeveelheid resoluties icm bovengenoemde factoren is een haast eindeloze matrix aan het worden.
12k heb ik zo de berekening niet bij de hand maar 10k panorama is al 30Hz max. Dus zeg dat het nog een sta omhoog is want exponentieel schalen, kom je onder de 10Hz uit wat voor 99% van de mensen niet nuttig of simpelweg onwenselijk is.
HDMI 2.1 ondersteunt onder meer een 10k-resolutie in maximaal 120Hz en 8k in 60Hz

Hoe kan dat? Hogere resoly x hogere verversingssnelheid = meer bandbreedte

Heb het niet opgezocht, maar gevoelsmatig zou het 4k 120 hz kunnen zijn

[Reactie gewijzigd door Ghandi op 12 december 2024 17:01]

Ik hoop op een audio mode zonder handshake!
Jottem, nog meer spul dat niet open-source geïmplementeerd kan worden. AMD moest bijvoorbeeld HDMI 2.1 ondersteuning verwijderen uit hun FOSS drivers.
Breng gewoon HDMI 3.0 met 1000 Hertz op 16K uit en zeg dan dat dat de standaard is t/m 2040.
Dan zijn we voorlopig van om de haverklap dat nieuwe HDMI-versie-gezeur af :)
Het irritante aan HDMI 2.1 blijft dat zo'n beetje alles optioneel is, waardoor een HDMI 2.1 label vrij nutteloos is. Zou daar nog verbetering in komen met HDMI 2.2?
Idd, wat zou het toch fijn zijn als alles wat de titel HDMI 2.2 draagt gewoon de volledige featureset en bandbreedte ondersteund. Doet het dat niet? Niet adverteren als 2.2, punt uit.

De laatste Displayport versie is ook al een zooitje geworden met meerdere bandbreedtes welke het label mogen krijgen en over de naamgeving van USB begin ik maar helemaal niet.

Merk het in mijn eigen omgeving ook wel dat het in plaats van simpeler met minder verschillende kabels juist complexer wordt, vroeger kon ik vaak zeggen 'Koop een X-kabel' en dat werkt. Tegenwoordig moet ik door de specsheets van zowel het 'zendende' als 'ontvangende' heen waar het vaak wat lastig verwoord is en ze een specifiek product aanraden waarmee het werkt.
Voor usb is dat inderdaad een drama. Helemaal als je laptops hebt die weer op bepaalde docks moeten kunnen worden aangesloten met daarop weer schermen die HDMI of Displaypoort hebben.
Alles moet bij usb in de chain ondersteund worden.

Gelukkig hebben we nog Thunderbolt, deze doet ondanks dezelfde aansluiting in elk geval geen consessies aan hun standaard.

Voor HDMI heb ik persoonlijk nog wel de hoop dat het goed zou kunnen komen. Al is dat uiteraard nog even afwachten.
Maar ook Thunderbolt ligt nu in een beetje verwarring met USB 4.0

Ik heb een laptop gekocht van Lenovo waar USB 4.0 in zat. Het stond nergens echt aangegeven dat het Thunderbolt was.
Na héél veel zoekwerk en wat hulp van de klantenservice, ontdekte ik dat het Thunderbolt was. Nu zit ik inderdaad op kantoor met een dock, met een single cable, 4 schermen en charging --- heerlijk.
Maar, ondanks dat dit dus Thunderbolt was, stond het nergens aangegeven behalve "USB 4.0" (en de snelheid bijbehorende was ook een extra zoekopdracht)

Ook niet meer super simpel, dus. Vooral niet gezien de marketing dat USB 4.0 basically Thunderbolt is. Ik weet niet hoe je het moet noemen eigenlijk... Thunderbolt is USB 4.0, maar USB 4.0 is niet altijd Thunderbolt?
Thunderbolt 4.0 ondersteunt idd altijd wat USB4.0 minimaal moet ondersteunen, maar andersom niet. En volgens mij is het veel makkelijker om een USB4.0 kabel te verkopen waarbij er op kwaliteit is bespaart. Bij Thunderbolt 4 kom je daar volgens mij niet mee weg door de in de praktijk (meer) verplichte+opgevolgde certificering. Overigens kun je ook bij Thunderbolt 4 afwijkingen hebben die boven de specificaties van Thunderbolt 4 liggen. En aangezien je met een USB4.0 kabel dus makkelijker wegkomt zonder certificering, zijn er bijv. USB4.0 kabels met 240W Power Delivery die n iet Thunderbolt 4 zijn, terwijl Thunderbolt 4 meestal minimaal 100W is, althans voor laptop charging dacht ik, hoewel ik hier dan weer lees op Intel's eigen pagina dat het up to 100W is: https://www.intel.com/con...underbolt-4-vs-usb-c.html. Terwijl je hier bijv. een kabel hebt van een (volgens mij goed) merk die wel Thunderbolt gecertificeerd is maar ook 240W PD ondersteund: https://www.thunderboltte...wer-delivery-support-66ft
Op deze site https://www.thunderbolttechnology.net/products vind je dus als het goed is ook alle Thunderbolt gecertificeerde kabels. Zo heb je dus meer zekerheid dat je bepaalde kwaliteit en prestaties koopt.

USB-IF heeft ook zo'n pagina voor gecertificeerde USB kabels: https://www.usb.org/products
Maar o.b.v mijn korte ervaring zeg ik dat alleen al deze pagina minder fijn werkt om te zoeken.

Mogelijk is het dus geen echte Thunderbolt wat je hebt gekocht. Dat vereist volgens mij een Intel certificering. En volgens mij heb je sneller een rechtszaak van Intel als je een Thunderbolt 4 kabel verkoopt die niet is Thunderbolt 4 gecertificeerd. Die certificering kost geld. Het USB Implementers Forum certificeert ook USB 4.0 kabels, maar volgens mij gaat het USB IF minder snel of geen rechtszaken aanspannen als je kabels verkoopt als USB 4.0 die niet gecertificeerd zijn. De reden is dat Intel for profit is en USB IF non-profit is.

Simpelweg deze kosten van het certificering zorgen volgens mij voor het grootste verschil in prijs. Dat iets verkocht wordt met vermoedelijk, maar niet zeker, dezelfde specificaties of prestaties als een model met certificering zie je wel vaker. Zo kiezen sommige telefoonfabrikanten die erg op prijs concurreren ervoor om een telefoon zonder IP certificering te verkopen, terwijl ze wel een bepaalde water- en vuildichtheid bieden, waarbij ze soms zelfs onofficieel zeggen dat het prestaties op het niveau van een bepaalde IP certificering betreft. Die garantie heb je echter niet. Dat zal vast ook weer eventuele herstelkosten onder garantie besparen voor een fabrikant, als het dan toch op een of andere manier door waterschade stuk gaat. En het scheelt time to market, waardoor je weer meer kan verkopen. Hoe lang je op een certificering van Intel voor een Thunderbolt 4 kabel moet wachten, ik heb geen idee.

Jij hebt veel zoekwerk gedaan om uit te zoeken of jouw USB4.0 praktisch gelijk is aan Thunderbolt 4 en hebt uitgevonden dat dat zo is. Je kan redeneren dat je dat zonde van je tijd vind geweest. Je kan ook redeneren dat je op deze manier een betere deal hebt gekocht: een laptop waarbij niet is betaald voor certificeringen, maar waarvan de prestaties gelijk zijn. Certificeringen kosten geld en Intel is bedenker van Thunderbolt 4 en heeft het al eerder geïntroduceerd en moet de investering daarop terugverdienen. Als je zekerheid wil, moet je extra betalen. En als fabrikant kun je extra vragen voor die zekerheid. Sommige mensen kiezen daar weer voor. Ik zou zelf ook ervoor kiezen om geen laptop te kopen zonder dat ik zeker weer dat er een usb-c plug op zit met displayport ondersteuning van een bepaald niveau.

Daarnaast is USB 4.0 ook daadwerkelijk praktisch niet altijd hetzelfde als Thunderbolt 4. Thunderbolt 4 moet bijv. bijv. altijd 40GB/s zijn. USB 4.0 mag 20GB/s of 40GB/s zijn. Bijv. deze Sitecom pagina geeft een iets volledigere lijst met verschillen: https://www.sitecom.com/b...xploring-the-differences/
Differences Between USB 4.0 and Thunderbolt 4.0
  • Thunderbolt 4.0 cables are also USB 4.0 cables, but not all USB 4.0 cables are Thunderbolt 4.0 certified.
  • Thunderbolt 4.0 offers a maximum bandwidth of 40 GB/s, while USB 4.0 can offer either 40 GB/s or 20 GB/s depending on the cable.
  • Thunderbolt 4.0 supports connecting two 4K displays, while USB 4.0 supports connecting a single 4K display.
  • Thunderbolt 4.0 is more powerful and offers more consistent specifications across devices, while USB 4.0 devices may vary in terms of quality and capabilities.
  • Thunderbolt 4.0 is commonly found in Apple devices, whereas USB 4.0 is more widely available and used in various devices.
Deze lijst is niet compleet. Er staat ook in de 3e bullet iets heel algemeens over more powerful en more consistent specifications across devices. Als je meer informatie wil moet je forums zoals deze pagina lezen, kom je weer op meer uitzonderingen uit: https://www.reddit.com/r/...4_usbif_certified_cables/

Het is inderdaad een studie geworden om het goed te snappen. Maar goed, ik heb uiteindelijk liever dit: meer innovatie en ontwikkelingen, en toch nog dezelfde soort aansluitingen, zodat je minder verschillende aansluitingen hebt en meer backwards compatibility.

[Reactie gewijzigd door xtlauke op 12 december 2024 21:35]

Dit artikel zet het redelijk simpel uit: https://www.tomsguide.com...usb4-whats-the-difference

Zijn best nog wel wat verschillen tussen de twee.
USB is inderdaad een zooitje. Je ontkomt er niet aan. Ik was het zo beu dat ik maar een beetje heb geïnvesteerd in dat hele USB ecosysteem. Ik heb alle USB kabels en opladers bij het grof vuil gegooid. Daar heb ik voor in plaats een paar USB opladers gekocht van Anker/UGreen, met toendertijd de meest recente USB PD specificatie. Daarbij ook dozijn USB A-C en C-C kabels. De meeste daarvan voor opladen, die uiteraard het vermogen van de opladers aan kunnen. Het andere gedeelte waren gecertificeerde USB3.2 Gen 2 kabels voor 10gbps max. Nieuwe (ongespecificeerde) kabels meegeleverd met een product? Gelijk weg ermee. Nooit meer problemen met USB op deze manier. Geen spijt van gehad.
Misschien kort door de bocht maar als je een kabel adviseert die iig alles van 2.1 ondersteunt dan ben je toch klaar?
Dat ligt niet aan de standaard van HDMI, maar aan de gebruikers.

Stel dat elke kabel de volle HDMI 2.2 bandbreedte moet kunnen trekken. Dan zou dat overkill zijn heel veel devices want die draaien nog op HDMI 2.x (of zelfs 1.x). Die apparaten moeten af en toe ook een nieuwe/langere kabel. De consument dan een relatief dure nieuwste model HDMI kabel opdringen, daar wint niemand iets mee en zal het draagvlak voor HDMI doen verminderen ('want dat is altijd duur').
Het is te vaak zo dat een 'goedkoop merkloos meukkabeltje' (:P) voldoende is. HDMI was in die zin zijn tijd vooruit - de 1.0 variant was zo lang voldoende dat men dat als dé norm zag. Er werd niet met HDMI 1.0 geadverteerd. Maar ja, de HDMI Licensing Administrator gaat zich (terecht!) niet bemoeien met welke naam/versie hun kabels worden verkocht, of hoe er reclame voor wordt gemaakt. Dit is namelijk totaal niet te handhaven en werkt grijze merken (lees: meuk uit lage loon landen) alleen maar in de hand.

HDMI 1.0 kwam in mei 2004. 1.1 & 1.2 waren voor 99% van de mensen niet relevant, waardoor er 'pas' in juni 2006 (versie 1.3, met de introductie van Blu Ray) iets nieuws kwam voor de consument. Maar ook dat bleef beperkt tot één enkele kabel voor één TV, en daarmee was voor de consument de kous af.

Nu 20 jaar later zijn er veul meer producten die HDMI gebruiken maar lang niet de volle bandbreedte benutten. Het zelfde gehannes hebben we met USB - tig versies, verschillende kleuren, eigen naampjes (thunderbolt 3!).

Voorheen was 'een kabeltje' erbij voldoende. Tegenwoordig is het een volwaardig onderdeel van een TV/audio/home cinema set. Dat ligt niet aan club HDMI - het is zó succesvol dat er zo veel fabrikanten gebruik van maken dat er over de hele versie-range gebruik van wordt gemaakt. Gelukkig zijn de kabels backwards compatible. Het alternatief is dat er voor elke versie een andere vorm poort zou komen :o. Ik denk dat niemand daar gelukkiger van zou worden.
Nee, dat gaat niet gebeuren (hoogstwaarschijnlijk). Je ziet dat eigenlijk met veel standaarden, allemaal leuk, maar er is (praktisch) nul garantie wat kwaliteit betreft. Het is eigenlijk een label voor een communicatieprotocol.
USB: het is iets beter, maar als je het maximale wil (doorvoersnelheid en stroomvoorziening), dan is het uitzoeken welke kenmerken je nodig hebt.
HDR: Dolby Vision kan op papier het meeste bieden, maar het kan zomaar minder goed zijn dan HDR10(+ of HLG. Waarom: er zijn geen minimale eisen zover ik weet.
Dolby Atmos: zelfs telefoons ondersteunen het. Leuk, maar dan weet je al dat je op die telefoon geen geluid van boven gaat horen (of je moet de telefoon boven je hoofd houden :o ). Dus ja, zegt niks over daadwerkelijke kwaliteit/kenmerken, alleen over de potentie.
SD: beetje idem als bij USB. Die hebben het overigens helemaal verbruid wat betreft specificaties, met 133x, class10, U3,V90, etc. wat volgens mij allemaal neerkomt op datadoorvoer (MB/sec).

Kortom: het is een illusie om aan te nemen dat wat HDMI specificeert, of alles omtrent SD/USB en HDR gericht is op kwaliteit. Inhoudelijk beschrijft het het potentieel, maar garandeert het weinig. Daar heb je dan wel weer subkenmerken voor, zoals V90/U3, of 48GBps, maar die zijn vaak ook niet duidelijk.
Waarschijnlijk wordt het nog erger.

Nu heb je HDMI 2.1 met 2 varianten:
1) de daadwerkelijke full-speed HDMI 2.1 (48 Gbit/s)
2) de bekende HDMI 2.0 die nu niet meer bestaat en nu als HDMI 2.1 (18 Gbit/s) of HDMI 2.1 (TDMS) verborgen wordt voor de klant.


Blijft 2.1 ook 2.1 of hebben we dadelijk 3 versies?
De non-profitorganisatie noemt vooralsnog geen concrete specificaties van HDMI 2.2
Daar zijn ze intern ook nog niet over uit :X
Het USB-IF wil daar zelf ook vanaf en in hun guidelines noemen ze niet de versies, maar de datarate (of vermogen):
https://www.usb.org/logo-license

Ik begrijp dat het vooral de fabrikanten zijn die continue de versienummers blijven noemen. In de hoop dat mensen het lastiger kunnen vergelijken ofzo?
Maar USB IF is hier wel zelf mee begonnen, en heeft al die rare versies zelf naar buiten gebracht.
Dus lijkt me duidelijk wie de veroorzaker is.
Dat fabrikanten hier mooi gebruik van maken kan je ze eigenlijk nauwelijks kwalijk nemen imho. Had die organisatie maar nooit zulke rare en verwarrende standaard namen uit moeten brengen (en nog maar niet te beginnen over de meerdere "rebrands" van die namen).

USB is echt kapot geholpen, gelukkig heb ik het bijna nooit nodig (en die hogere snelheden interesseren mij zelf dan ook niet). Meeste dataoverdracht loopt lekker over TCP.

[Reactie gewijzigd door jozuf op 12 december 2024 19:42]

Op dit item kan niet meer gereageerd worden.