HDMI Forum brengt HDMI 2.2-specificatie uit die 16k bij 60Hz ondersteunt

Het HDMI Forum heeft de HDMI 2.2-specificatie uitgebracht. Dit betekent dat fabrikanten HDMI 2.2-producten kunnen uitbrengen. Deze versie krijgt een verhoogde bandbreedte van 96Gbit/s, twee keer zoveel als de huidige 2.1-versie.

Het Forum kondigde de 2.2-versie bij de CES begin dit jaar aan. Voor zover bekend is de definitieve specificatie niet veranderd. Nu het Forum de specificatie heeft gepubliceerd, kunnen hardwarefabrikanten producten uitbrengen die HDMI 2.2 ondersteunen. De specificatieorganisatie zei in januari te verwachten dat de eerste 2.2-kabels in het derde of vierde kwartaal zouden verschijnen en dat de eerste 2.2-apparaten eind dit jaar of begin volgend jaar uitkomen. Het Forum geeft bij het uitbrengen van de specificatie hier geen nieuwe informatie over.

HDMI 2.2 Latency Indicator Protocol
Een infographic over het
Latency Indication Protocol

De 2.2-specificatie kan dankzij de verhoogde bandbreedte bijvoorbeeld 4k-beelden met maximaal 480Hz sturen, of 16k bij 60Hz. Hierbij wordt compressie en chroma subsampling gebruikt. Zonder deze technieken ondersteunt 2.2 maximaal 8k bij 60Hz. Bij HDMI 2.1 is maximaal 4k met 120Hz mogelijk. De 2.2-versie krijgt ook een Latency Indication Protocol dat de audiosynchronisatie bij receivers of soundbars moet verbeteren.

De fysieke HDMI-poort is niet gewijzigd en fabrikanten hoeven ook niet alle 2.2-functies te ondersteunen om een poort een 'HDMI 2.2'-poort te kunnen noemen. Een 2.2-poort ondersteunt dus niet per se de 96Gbit/s-bandbreedte.

Dit geldt ook voor de Ultra96-naamgeving die hoort bij 2.2-producten. Ultra96 mag gebruikt worden als een product (een deel van) de 2.2-specificatie ondersteunt, tot 96Gbit/s. Een product dat 'slechts' 64Gbit/s of 80Gbit/s aankan, mag ook een Ultra96-product genoemd worden. Ultra96 geeft dus aan dat een product een minimale bandbreedte van 64Gbit/s ondersteunt. HDMI-producten met een bandbreedte van maximaal 48Gbit/s, ofwel de huidige HDMI 2.1-standaard, blijven de huidige Ultra High Speed HDMI-naamgeving gebruiken. Voor kabels geldt dit onderscheid niet; de Ultra96-HDMI-kabels ondersteunen tot 96Gbit/s en de volledige HDMI 2.2-standaard, meldt HDMI Forum.

Update, 10.52 uur - In het artikel stond eerder dat Ultra96-kabels vanaf 64Gbit/s ondersteunen. Dit klopt niet en is aangepast. Met dank aan Eagle Creek.

Ultra96-HDMI-2.2-kabel

Door Hayte Hugo

Redacteur

26-06-2025 • 09:28

137

Submitter: Balance

Reacties (137)

137
136
47
5
0
78
Wijzig sortering
Lekker verwarrend weer dat een kabels met een bandbreedte van slechts 64 GBits/s Ultra96 genoemd mogen worden, kunnen we straks weer gaan puzzelen welke kabels welke bandbreedte hebben.
Nee, niet de kabels. De kabels ondersteunen 96Gbps.
The new Ultra96 HDMI Cable supports up to 96Gbps and all HDMI 2.2 applications.
De producten (hierbij denk ik dan dus aan televisie, monitor) ondersteunen vanaf 64 Gbps.
64Gbps, 80Gbps or 96Gbps bandwidth in compliance with the HDMI 2.2 Specification
Ik snap wel je verwarring want Tweakers' @Hayte schrijft:
Ultra96 mag gebruikt worden als een kabel of product (een deel van) de 2.2-specificatie ondersteunt, tot 96Gbit/s.
Maar dát zie ik echt niet terugkomen in het persbericht.
Uit: https://www.hdmi.org/download/pressfileid/153

Zie ook mijn meer uitgebreide reactie in: svenk91 in 'HDMI Forum brengt HDMI 2.2-specificatie uit die 16k bij 60Hz ondersteunt'

@TrafalgarLaw @dasiro @SunnieNL

[Reactie gewijzigd door Eagle Creek op 26 juni 2025 10:52]

Goeie, thanks, dat had ik inderdaad verkeerd gelezen :) Artikel is aangepast!
En dan heb je straks een kabel die daarwerkelijk 96 GBits/s is, en dan heb je er niets aan omdat je HDMI 2.2 poort die feature niet ondersteunt

(maargoed.. dat hebben we ook al bij HDMI 2.1, die al zo mag heten zonder alle features te ondersteunen)
Ja en net als dat wifi 7 niet betekent dat er 6 GHz wordt ondersteund. Je zou denken dat er ook wel een wifi 7e had mogen bestaan om die reden maar helaas. Of USB 4 dat soms wel en soms niet oudere Thunderbolt apparaten ondersteunt. Het gaat lekker met al die zogenaamde standaarden. Ze maken er in algemeen beschaafd Rotterdams een teringzooi van.
Het is ook een symptoom van dat de standaarden teveel willen en niemand het eens kan worden, en daarbij vele professionele toepassingen overgaan op standaarden die al bestaan voor consumenten ipv een professionele aparte standaard dat incompatibel is.

Als elk apparaat op elke poort de.volledige HDMI standaard en bandbreedte zou ondersteunen dan kosten TV'S opeens dubbel zoveel, zelfde met USB, of WIFI 7(4x4 antennes in elke smartphone is lastig passen :+)

Vroeger waren standaarden trouwens ook niet echt geweldig, neem iets simpels als de 3.5mm audio plug. Lekker simpel niemand kan wat fout doen. Maar de standaard miste een mogelijkheid om een microfoon te verbinden en toen begon het verhaal met TRRS Headsets die alleen op apple producten werken en Android een andere volgorde van pins had. Of alle snellaad/OTG standaarden op microusb

Liever optionele functies in de standaard dan fabrikanten die om de standaard heen gaan werken omdat er functionaliteit mist in de standaard

[Reactie gewijzigd door vrilly op 26 juni 2025 11:03]

Wifi heeft zoveel opties dat je zeker niet alles kan verplichten. Maar iets basaals als een 6 GHz radio had er gewoon in moeten zitten natuurlijk. En als je het niet verplicht wilt maken dan vang je die net als met wifi 6 in een eigen uitbreiding van de standaard zodat je als consument tenminste weet wat je koopt als je een doos uit het rek trekt. Met wifi 6 en 6e was het tenminste duidelijk en nu hebben ze de bewuste keuze gemaakt om het onduidelijk te maken. De betrokkenen verdienen een spreekwoordelijke klap in het gezicht wat mij betreft.
Basaal? Het maakt je product een fors stuk duurder. Je kan alle toevoegingen online vinden op https://www.wi-fi.org/product-finder je vult daar een make / model in en krijgt direct een pdfje met wat je product allemaal wel en niet kan. Dat een fabrikant het vertikt om dat op een verpakking te zetten is niet de schuld van de standaardisering / iEEE. Hetzelfde is gebeurd met goedkope dual band routers waarbij er chipsets zonder DFS gebruikt werden en je praktisch 4x20mhz over had op 5ghz. Dat geeft praktisch minder kanalen dan 2.4Ghz (want niemand gebruikt 20mhz brede kanalen op 5ghz zowat).
De wifi radio is een wezenlijk onderdeel van een router/AP. Dat maakt het basaal. Dat heeft niks met kosten te maken en alles met functie. En met een wifi 6E apparaat weet ik zonder ook maar iets op te zoeken dat er een 6 GHz radio in zit. De introductie van wifi 7 heeft die duidelijkheid om zeep geholpen.

Het is net als ingrediënten op de verpakking van levensmiddelen mogelijk vervangen door QR codes. Het kan allemaal maar het maakt het er niet minder transparant op. Het zijn extra barrières waar voorheen een simpel labeltje of een simpel stukje tekst volstond.
Een gangbaar AP heeft tegenwoordig 2 radio's. Een voor 2,4 en een voor 5 ghz. Als je er een voor 6ghz wilt toevoegen zit je buiten de extra radio ook nog aan een extra antenne vast plus nog wat andere kleine hardware. Het maakt een significant verschil. De AP's op professioneel vlak die wij gebruiken zijn twee keer zo duur (er zit dan gelijk een multi-gig uplink en PoE++ ipv PoE+ stroomvoorziening bij).

Als je op een project 150 AP's installeert is dat gewoon een ton extra wat je betaalt. Nou is dat professioneel spul, maar op de consumentenmarkt idem dito. En 6Ghz is vrij nutteloos vanwege de beperking in transmit power en beperkte frequentieruimte. Ik snap het heel goed dat men daar niet voor wil betalen.
Volgens mij voer jij een andere discussie. Ik begrijp ook wel dat er extra kosten aan een 6 GHz radio zitten maar het gaat hier om duidelijkheid vanuit de standaard. Met wifi 7 zie je niet in 1 oogopslag meer wat je precies koopt. Het is bij mijn weten de eerste wifi-standaard waar een complete band optioneel is geworden.

Dat 6 GHz minder frequentieruimte heeft, is natuurlijk onzin. Het heeft juist veel meer beschikbare kanalen dan de 5 GHz. En als Europa een keer de hogere kamelen vrijgeeft dan komen er nog een boel extra kanalen bij.

Daarbij als je zoals je zegt professioneel te werk gaat met honderden AP's dan is bereik geen issue meer. Overigens geeft mijn Samsung S23 op dit moment wifi 6E aan. Buiten op balkon, door 2 muren heen, met maar 1 streepje minder dan binnen (indicatief maar ook de gemeten bandbreedte is buiten nog prima). Dus dat bereik valt in de praktijk wel mee. In grotere ruimtes zoals kantoren, magazijnen e.d. heb je daar juist veel minder last van en als je die AP's strategisch plaatst dan is 6 GHz geen enkele belemmering. Het kan juist een pluspunt zijn omdat je de cellen als het ware kleiner kunt maken met 6 GHz. Dan kun je meer AP's ophangen en dus meer apparaten bedienen. Elke situatie is anders maar met 6 GHz is helemaal niets mis. Maar dat staat dus helemaal los van waar het over gaat onder dit artikel.
Wifi 5 is ook enkel op 5ghz beschikbaar, het is niet de eerste keer dat een complete band optioneel is. Sterker nog, 802.11a is ook enkel en alleen op 5ghz beschikbaar. 802.11n is ook nog heel veel gebruikt op 2.4ghz only maar is zeker wel dual band beschikbaar. En dan heb ik het nog niet eens over overige functies zoals DFS, wpa3 (zeker nog optioneel), .1x en wat andere onderliggende technieken.

6Ghz is momenteel nog weinig beschikbaar bij de massa en de kosten voor een accesspoint zijn enorm. Enerzijds vanwege het ontbreken van low-end modellen in de 6ghz en anderzijds omdat ze nu twee keer zo duur zijn voor mid-end modellen. Als je magazijnhardware niet op 6ghz werkt en niet op korte termijn vervangen gaat worden is het vrij zinloos om triple radio AP's aan te schaffen. De goedkoopste heeft een list price van 1600 euro. Dezelfde zonder 6GHz is 850 euro en het instapmodel 400 euro. De verschillen tussen de varianten van 400 en 850 euro zijn niet enorm, het instapmodel biedt echt veel bang for buck. Je snapt dan hopelijk wel dat het niet verplicht maken van een frequentieband maar wél de benefits van 4k-QAM en andere trucjes van wifi 7 dan een welkome optie is hopelijk.
Technisch gezien heb je met wifi 5 een punt maar elke wifi 5 router/AP is dual band met 11n support op de 2,4 GHz. Dus wederom, als het je vooral om beschikbare kanalen te doen is dan zat je destijds wel goed. Dat is pas hit-and-miss sinds de intrede van wifi 7 AP's.

De kosten en nut van triple band ga ik niet meer op in want dat is aan ieder om dat zelf te beoordelen.
Heel leuk en aardig, maar als de helft of meer dan de helft van de standaard optioneel wordt heb je al snel een oerwoud.

HDMI: niets optioneel behalve netwerk over de kabel, minimum van 80Gbit of anders 96Gbit, veel duidelijker. Usb 4: alles moet behalve PD. Dat zou het meteen een stuk minder verwarrend maken. Zelfde voor het niet hernoemen van oudere usb standaarden. Voor wifi 7 had het makkelijker geweest als 5 en 6Ghz verplicht waren en 2,4Ghz optioneel.
Wifi 6 werkt ook op 2.4Ghz, het is niet verplicht om dual-band te werken. Vroeger was het overigens doodnormaal om single radio accesspoints te hebben, kon je zelf kiezen of je 5ghz of 2.4ghz wilde gebruiken.
Uh ja dat begrijp ik hehe maar waar het mij om gaat is dat je liever gewoon weet wat je koopt als consument. Als je vanwege een drukke ether graag de 6 GHz band wilt benutten dan zit je met een wifi 6E router/AP automatisch goed terwijl je met een wifi 7 AP de specificaties in moet duiken. En als doodnormale consument weet je dat niet en dan mis je een compleet nagenoeg leeg spectrum. Nu heeft dat ook voordelen want zo blijft de 6 GHz band lekker leeg. ;)
Als je weet dat er een drukke ether is zit je op het niveau dat je weet waar je moet kijken ;) Ik ben blij dat ik AP's zonder nutteloze 6ghz radio kan kopen, scheelt een klap geld.
Nutteloos voor jou. Dankzij 6 GHz heb ik al een paar jaar hoge bandbreedte in huis. Ik heb er toen speciaal een wifi 6e meshset voor besteld bij Amazon US omdat ze hier nog niet te krijgen waren. En wifi 6E kaartjes van Intel zijn spotgoedkoop en zorgen voor fantastisch bereik op een paar laptops. Ik zou niet anders meer willen.

Uiteraard is het uitgangspunt dat je dit weet. We zitten immers wel op tweakers. Overigens weten genoeg consumenten van '5G' wifi. Voldoende om te snappen dat het 'beter' is. Dus als je dan ziet dat je slecht bereik hebt en met een '6G' wifi opeens wel goeie snelheden haalt dan is dat ook prima. Daar heb je dan weinig technische kennis voor nodig. Alleen staat dat nu dus verre van duidelijk op de doos.
exact, ik hoopte dat die nieuwe benaming juist extra duidelijkheid gaf bovenop de 2.2 maar het is dus het tegenovergestelde
Ik vraag me werkelijk af wat het doel is van deze verwarrende manier van standaarden implementeren. Waarom zijn zoveel onderdelen van de HDMI 2.2 standaard optioneel? Is het argument dat het anders moeilijk is voor fabrikanten om te bereiken?

Dat zou betekenen dat het doel zou zijn om deze standaard zo snel/makkelijk mogelijk te bereiken. Is dat puur om het op de spec-list op te kunnen nemen zodat ze zich als 'beter' kunnen profileren?

Ik zou zelf denken - split de standaard op in 2.2 en 2.3. 2.2 ondersteunt de set features die als 'minimaal' worden gezien voor wat nu 2.2 is, en 2.3 is als je alle features ondersteunt die in wat nu 2.2 is zitten. Op die manier is het relatief helder voor consumenten.

Maar ja, dan ga ik er van uit dat het doel is om helder te zijn voor consumenten. Ik denk dat dat het grote probleem is - dat willen fabrikanten denk ik niet. Ze hebben daar geen baat bij.
HDMI Forum brengt HDMI 2.2-specificatie uit die 16k bij 60Hz ondersteunt
Even later:
De 2.2-specificatie kan dankzij de verhoogde bandbreedte bijvoorbeeld 4k-beelden met maximaal 480Hz sturen, of 16k bij 30Hz.
Welke is het nou?

De vergelijking daarna is ook onduidelijk. Verschillende resoluties en framerates door elkaar, niet duidelijk of dat met of zonder compressie/subsampeling is voor hdmi 2.1. Die hele paragraaf schept vooral meer onduidelijkheid bij mij.
Het staat in het artikel straffer weergegeven dat in de officiele press release. Wat hdmi.org noemt als "up to", stelt het artikel somehwat als ondergrens. Hoe ik het interpreteer:
HDMI FORUM RELEASES VERSION 2.2 OF THE HDMI SPECIFICATION
Higher 96Gbps bandwidth
96Gbps is onderdeel van de 2.2-specificatie. Niet de ondergrens, maar de bovengrens. Je kunt met 2.2 nu tot 96Gbps halen.
Higher resolutions and refresh rates are supported including up to 12K@120 and
16K@60. Additionally, more high-quality options are supported including uncompressed
full chroma formats such as 8K@60/4:4:4 and 4K@240/4:4:4 at 10-bit and 12-bit color
Bevestigt bovenstaand. Ondersteund worden nu up to 12K (etc.etc.)
“Ultra96” is a feature name that manufacturers are encouraged to use to indicate a
product supports a maximum of 64Gbps, 80Gbps or 96Gbps bandwidth in compliance
with the HDMI 2.2 Specification.
HDMI 2.2 ondersteunt dus maximaal 64Gbps, 80Gbps en 96Gbps. Allemaal zijn de HDMI 2.2. Allemaal netjes binnen spec. Minimaal altijd 64, uiterlijk maximaal 96.
the introduction of
the new Ultra96 feature name will help consumers and end-users ensure their product’s
maximum bandwidth is supported.”
  • Ultra96 helpt dus te identificeren dat als jouw apparaat 64Gbps ondersteunt, de kabel dat ook doet.
  • Ultra96 is géén garantie dat een product 96Gbps ondersteunt. Het is dus meer een marketingnaam die een bandbreedteklasse aanduidt..
  • Een product met het label Ultra96 kan 64Gbps, 80Gbps of 96Gbps ondersteunen.
  • De kabel zelf ondersteunt tot 96Gbps, maar dat betekent niet dat het aangesloten apparaat dat ook doet.
https://www.hdmi.org/download/pressfileid/153

Vergelijk het een beetje met een standaard Euro-benzinemotor. Een normale huis-tuin-en-keuken-auto ondersteunt 91, 93, 95, 98, 101. Minimaal het een, maximaal het ander. De auto (en electronica) zijn ervoor ontworpen en gespecificeerd om alles aan te kunnen (binnen de standaard), maar afhankelijk van welke peut jij in de tank giet zal het eindresultaat verschillen.

[Reactie gewijzigd door Eagle Creek op 26 juni 2025 10:40]

Dan vraag ik mij weer: hoeveel bier en wijn heeft dat marketing team gedronken om op die specificatie te komen.

Morgen breng ik een kabel op de markt met 120Gb, en dan mag ik het niet ultra96 noemen omdat die sneller kan???

Zo'n marketing zou de autoindustrie een keer moeten doen.
"Deze auto heeft elektisch rijden 2.2 met specificatie UltraRange1000km. Maar hij kan in echt maar 450km..." |:( |:( |:(
“Ultra96” is a feature name that manufacturers are encouraged to use to indicate a product supports a maximum of 64Gbps, 80Gbps or 96Gbps bandwidth in compliance with the HDMI 2.2….”

Als je een 120gbps kabel uit brengt, en deze bied support voor de maximum snelheid van 96gbps, 80gbps en 64gbps, (alle 3 dus) dan voldoende dus in elk geval aan deze voorwaarde.

Houd er rekening mee dat er soms kabels zijn die soms ook iets afdwingen waar een ander apparaat niet mee kan omgaan. Zo zijn er bijvoorbeeld Dispalypoort naar HDMI kabels waar de refreshrate vastgezet is, als het HDMI product deze op poortniveau niet ondersteund (los van of het scherm die aan kan) dan krijg je dus gewoon geen beeld.

Er zit dus best wel wat logica in de eis dat de kabel ondersteuning moet bieden voor de maximum snelheid van alle benoemde snelheden.
Dat je bandbreedte beperkt is door de zwakste schakel in de keten, lijkt me nogal logisch.

Wat niet logisch is, is het volgende:
“Ultra96” is a feature name that manufacturers are encouraged to use to indicate a product supports a maximum of 64Gbps, 80Gbps or 96Gbps bandwidth in compliance with the HDMI 2.2 Specification. Products that market or display the Ultra96 feature name require the Ultra96 HDMI® Cable to ensure a product’s maximum bandwidth is properly supported. The new Ultra96 HDMI Cable supports up to 96Gbps and all HDMI 2.2 applications
Waarom een "Ultra96" label ergens op kleven wanneer de maximum bandbreedte slechts 64 of 80 Gbps is? Is men dusdanig bang voor Nintendo lawsuits dat men geen Ultra64 label daarvoor uitbrengt? Waarom überhaupt een getalletje in je kwaliteitszegel zetten, wanneer deze niet representatief is voor de technische getallen die van toepassing zijn?

Om je benzine vergelijk er bij te pakken: Wat het HDMI forum hier specificeert, is dat iedere slang bij de pomp een 101 sticker mag dragen, zolang er maar geen diesel uitstroomt, het mondstuk op een benzinetank past en het tenminste ongelood 95 is. Of het dan e5, e10, Euro 98 of Euro 101 is, zie de technische specificatie op de achterzijde van de pomp, of vraag uw pompbediende.

Het probleem is dus niet de aanpak, differentiatie op bandbreedte (en dus de ondersteunde resoluties) is geen enkel probleem. Maar met het "up to" principe slaat als een tang op een varken en had net zo goed "HDMI 2.2" kunnen heten, aangezien het geen enkele meerwaarde biedt voor de koper, enkel voor de tussenhandelaar die knollen voor citroenen kan verkopen.

[Reactie gewijzigd door Cid Highwind op 26 juni 2025 13:00]

AuteurHayte Redacteur @svenk9126 juni 2025 10:54
Dat moest inderdaad 16k bij 60Hz zijn, dank voor het melden!
16K? Ik heb nog niet eens een 8K TV. Hoe groot moet zo'n scherm wel niet zijn voordat je er überhaupt voordeel aan hebt?
Ik had idd gehoopt dat de resolutie wat diminishing was. Je ziet dat er eigenlijk twee scholen "mensen" zijn ontstaan: "TV in meubel, dus niet te groot" en "muur is TV". Zit natuurlijk wat tussenin, en natuurlijk omdat schermen uit een 'motherglass' worden geknipt wat maar zo veel verdelingen toe laat zal er niet zó veel variatie zijn, maar netto genomen zie je dat de consumenten bovengrens vaak wel 75 is.

Zolang men edge-lit LCD's nog koopt, is niet iedereen bezig met kwaliteit (apparaat) of kwaliteit (beeld), en de enige manier om dan te differentieren is resolutie. Je ziet dat met die ladingen samsung 8k LCD's die met een marketing slogan als "QLED" werden verkocht, en er zaten welliswaar quantumdots in, maar uiteindelijk was het nog steeds een VA-LCD met een edge-lit backlight (van blauwe LED's).

De 16K marketing vind ik dan nogal "bull" eigenlijk, en eigenlijk ben ik, maar ik weet ook dat ik techy ben (ik zit immers op Tweakers, daar hoef je je niet naar jip en janneke te verlagen) blijer met het feit dat ze de snelheid er op zetten. Ultra96 moet dus 96Gbit garanderen. En met 96Gbit kun je meer dan alleen 16K:

- High refreshrate 4K (wat wél nut heeft op een 65-75" TV met normale zitafstand)
- Hoge kleurdiepten (zoals 10bit/kanaal met metadata over helderheid)
- Meer kanalen (apart ge-encode kleur-encoding kanalen, geel kanaal want dat is lastig, 12bit consumer), of een alfa channel voor hybride transparante OLED/LCD panelen voor transparantie los van kleur/licht
- Mogelijk zelfs voxel displays

Want met 48gbit is je "max" met 10bit encoding en een 4k beeld toch al snel "maar" 120 (soms 144)Hz.
Zou dit niet gebruikt kunnen worden voor het opzeten van video walls ??
Dan nog wordt het pas effectief nuttig als je heel dicht langs de wall loopt of zit. Nog sterker op grotere afstand ziet een lagere resolutie er veel scherper uit. Het menselijk brein is bijzonder.
Nog sterker op grotere afstand ziet een lagere resolutie er veel scherper uit.
Kan je dat onderbouwen? Ik ben geïnteresseerd.
Simpelste manier in een foto bewerkings programma een foto naar een lage resolutie omzetten en printen. Vervolgens op verschillende afstanden het resultaat bekijken. Vooral met z/w zie je het goed.
Ik verwacht eigenlijk dat hier niet altijd HDMI kabels voor worden gebruikt worden. Bij professionele installaties gaat de voorkeur vaak uit naar DisplayPort (o.a. vanwege daisy chaining), SDI en in sommige gevallen ook propriëtaire connectoren.

Het enige semi-consumenten product in deze categorie waar het wellicht in gebruikt kan worden die me te binnen schiet is Samsung's The Wall. Maar, dan zit je wel nog steeds met het feit dat er practisch geen bron materiaal is op deze resolutie voor consumenten en gezien de adoptie van 8k dat voorlopig ook nog niet het geval zal zijn.
Hangt er een beetje vanaf wat je wilt. Een 75 inch 8k scherm is perfect als je er minimaal 1 tot 2 meter vanaf zit.

Een 16k variant van 75 inch zet je dus 50cm tot 1 meter van je neus af 😉

[Reactie gewijzigd door ndjong op 26 juni 2025 09:51]

Hoeveel pixels een scherm heeft niks te maken met hoe ver af je moet gaan zitten. Hoeveel inch je scherm je hebt dan weer wel.
edit:

Ik zat fout en neem mijn opmerking terug het heeft er beide zeker wel mee te maken.

[Reactie gewijzigd door TheProst op 26 juni 2025 09:45]

Natuurlijk wel,


Je ziet toch veel scherper beeld op een 75 inch 16k dan een 75 inch 720p.

Dat bepaald hoever/ hoe dicht je er vanaf kunt zitten en alles nog scherp kunt zien!
Ook wel bekend als pixel density. Vanaf een bepaalde afstand (in combinatie met de grootte en resolutie van het scherm) kun je bijv. het verschil tussen 8K en 4K niet zien. Andersom kom je dus ook uit op extreme scenario's waar 16K inderdaad ''nodig'' is voor merkbaar betere ervaring. RTINGS heeft daar een handige tool voor met meer info.

[Reactie gewijzigd door IlIlIllII op 26 juni 2025 09:45]

Oke, nee dat klopt sorry. Het heeft inderdaad met beide te maken. Maar daar in tegen ga je niet het hele sscherm kunnen zien als je 0,5m of 1m van een 75" scherm afgaat zitten. Je gaat dan echt het gevoel krijgen of je naar een tennis wedstrijd kijkt.
Precies, dat was alleen als voorbeeld waarom een 75 inch 16k niet heel interessant is.

Je ziet pas pixels als je dichter dan 50 cm vanaf je 75 inch gaat zitten en dat doet (bijna) niemand.

Vanaf 1 meter zie je op een 8k variant ook geen pixels dus is er voor 99,99% van de mensen geen voordeel een 16k te nemen (in de woonkamer😉)

[Reactie gewijzigd door ndjong op 26 juni 2025 09:48]

Hooguit wat er minimaal nodig is om scherp te kunnen zien. Meer mag natuurlijk ook, dan kan je even wat dichterbij kijken ;)
Daar zou ik niet zo van uitgaan. Hij bedoelt de zit afstand wanneer je het verschil kan zien.

Dus een even groot scherm met hogere resolutie moet je wel degelijk dichte bij het scherm zitten om het verschil te kunnen zien.


uitleg:

TV Size To Distance Calculator (And The Science Behind It) - RTINGS.com

stukje met Angular Resolution
en waar is dat goed voor? En wat doet dat met de kwaliteit van je ogen?

Het lijkt me voor dit soort toepassingen nauwelijks zinvol en we nu toch wel enige vorm van saturatie hebben.
Klopt, dat is ook wat ik bedoel.
Volgens mij is het zaak dat je afwisselt qua afstand tussen je ogen en het scherm/muur/raam.
Niet voor niets dat veel mensen aan een bril moeten. Na jarenlange tijd kijken naar schermen gaan je ogen achteruit.
Ogen die achteruit gaan komt door leeftijd en aanleg ervoor hebben. Je wordt niet bijziend door vaak of lang dichtbij te focussen. Dit is al heel lang een moeder's fabeltje, "vierkante ogen krijgen", en is vziw nooit bewezen.

Je wordt ook niet verziend door vaak of lang verweg te focussen. Dat zegt toch ook wat.
Aha dus als je aanleg hebt, valt het je misschien eerder op dat je ogen achteruit gaan.
als je voor een 16k scherm zit op 50cm afstand tot het middelpunt van een 75 inch scherm, dan zit je op 108cm afstand tot de hoek van het scherm. Je zult dus nooit het hele scherm in 16k kunnen zien.
Klopt, dat is ook wat ik bedoel, er is voor een woonkamer geen voordeel bij een 16k scherm.
Native 4K content op Netflix valt ook tegen.
Is er bijna niet. Laat staan 8K. Dus 16K..... hahahahahaha

Native 4K video files zijn ook best groot.
8K zal wel hoofdpijn zijn om mee te werken voor video editors.
16K is next level hoofdpijn?

Echt onzin imho. Net zoals 3D tv's en curved tv's.
Precies hetzelfde werd gezegd over 4K en daarvoor FHD. In de praktijk zijn er situaties waarin het wel handig is, dan is het toch fijn dat er een spec is zodat apparatuur samen kan werken.
En dat laatste (samenwerken) is een uitdaging als je met je 64gbit kabel met ultra96 sticker bij een 16k bron...
Uiteindelijk wordt het gewoon de grootste gemene deler of in ieder geval zo ingeburgerd dat het in vrijwel alle gevallen direct goed werkt zoals 4K nu.
10 jaar terug was het nog rotzooien met kabels, instellingen en rare bugs als je een 4K monitor wilde aansluiten, nu is het gewoon plug&play.
Of het wordt gewoon als USB-c/3/4 waar display-alt mode ook niet altijd werkt. Wat is het nut van toestaan dat een 64Gbe kabel een ultra96 sticker mag dragen?
Dat is dus het hele ding dat kan niet. De kabels ondersteunen wel de max in deze spec. Alleen de producten zijn de bottleneck
Nee elke hogere standaard heeft hogere eisen aan de kabel om die bandbreedte door te geven.

Of meer parallel of hogere data transfer per kabel. 1st maak kabel dikker en stug. 2de maakt de eisen hoger. En dus lagere kabel lengte limiet
Een product dat 'slechts' 64Gbit/s of 80Gbit/s aankan, mag ook een Ultra96-product genoemd worden. Ultra96 geeft dus aan dat een product een minimale bandbreedte van 64Gbit/s
Dus een ultra96 product is 64, 80 of 96...
Is er bijna niet. Laat staan 8K. Dus 16K..... hahahahahaha
Jij denkt dat dit morgen al overal op zit ofso?

Geen idee waarom je streamingdiensten (alsof dat de enige bronnen zijn van beeld) in het heden erbij haalt als voorbeeld voor de bruikbaarheid van een standaard die met een beetje geluk over 7+ jaar eens daadwerkelijk gebruikt gaat worden in producten.

De specs moeten JUIST vooruit lopen, we zitten nu met HDMI 2.1 uit 2017 en dat zit ook nog lang niet overal op!

[Reactie gewijzigd door watercoolertje op 26 juni 2025 09:55]

Ho hu halt, 3D tv's zijn zeker geen onzin, dat jij het niets vind is een andere zaak.
De markt vindt het onzin, anders kon je ze nog overal tegenkomen.
Niet zo gek dat 4K op Netflix tegenvalt. De bitrate is een stuk lager dan een blu-ray van 1080p...

Zijn weinig streams in 4K die ik als referentie zou gebruiken. Dan eerder een 4K blu-ray :)
Sterker nog, wat streaming services betreft is het aan de ene kant knap te noemen, gezien hoe ver we gekomen zijn wat compressietechnieken betreft, maar aan de andere kant ook ironisch te noemen dat zelfs hun hoogste kwaliteit de originele HDMI 1.0 standaard uit 2002 bij lange na niet weet te benutten, laat staan ontstijgen.
Zo raar is dat niet, data versturen over een kort kabeltje is een stuk makkelijker dan de infrastructuur bouwen om datzelfde te doen over de halve wereld.
Raar is het zeker niet. Maar het is best opzienbarend dat zelfs versie 1.0 van HDMI dus een bandbreedte biedt die een orde van grootte hoger ligt dan dat wat bijna 25 jaar en verscheidene HDMI versies later nog altijd als norm geldt, voor een beeldschermresolutie waar men destijds slechts van kon dromen.
8K wordt al redelijk veel gebruikt door video editors. Je kunt werken naar een 4k resolutie. Als je inzoomt op 8k hou je genoeg pixels over voor een 4k uitsnede zonder dat alles waziger wordt.

En 3D tv geniet ik nog steeds van :)
Is wel een verschil tussen inderdaad video materiaal en het weergeven.

Je kunt je monitor van 27 inch wel 16k maken maar veel voordeel heb je daar niet aan.

16k schieten daarentegen kan nog steeds handig zijn want met een schamele 4x Zoom zit je al op 4k. Dat klinkt als veel maar afhankelijk van hoe de videos worden geschoten is dat niet eens zo gek. Meer vrijheid is vaak beter.

Maargoed zelfs op een 4k monitor kun je prima je videos masteren vanuit 16k.
Maar dat is hobby semi of full pro niche.

Gewone consument heeft er niet veel aan.

Enige nut heeft het voor marketing meer is beter. Vooral als naar steed kleinere maten komt.

Als he nu bank TV 4 meter is om er iets van kunnen merken hoe ontiegelijk grote tv hebben dan nodig. Last staan optimale grote
Netflix native 4k? Volgens mij comprimeert netflix alles nog steeds zwaar, is het niet in pixels/kleuren combineren dan wel in bitrate wat ongeveer hetzelfde resultaat geeft. Ze zitten in bijna al gevallen hooguit ongeveer op de kwaliteit van goede native 1080p...

(YouTube comprimeert overigens standaard ook, er zijn wel hoge kwaliteit videos (sommige specifieke 12k/16k videos) te vinden maar ook die zijn licht gecomprimeerd over het algemeen

[Reactie gewijzigd door andries98 op 26 juni 2025 13:49]

Hoe groot moet zo'n scherm wel niet zijn voordat je er überhaupt voordeel aan hebt?
Hangt er vanaf in welk formaat je het wilt, in een VR bril zal het vrij klein zijn, in een TV met een afstand van 4 meter moet ie aardig groot zijn.


Van mij mag mijn hele muur (5x2.5 meter) scherm zijn, dus kom maar door met hogere resoluties.
Same hier!

Gingen van 55" naar 75" in 2021 ofzo, en inmiddels is de 75" gewoon klein :P

Kan het helaas niet aan mezelf verantwoorden om hem te vervangen voor 85" of 90+".
Voorheen konden we nog wat schuiven; Slaapkamer TV > Zolder. Woonkamer TV > Slaapkamer en dan nieuwe in de Woonkamer.

Maar nu zijn alle kamers wel voorzien van een (grote) TV, en dan vind ik het weer zonde om zomaar een nieuwe te kopen.. :+

Wachten tot 1 stuk gaat dus.. haha
16K hoeft ook niet 1 scherm te zijn. Als jij 16x een 4K scherm hebt kom je er ook op. Niet dat je dit thuis zal hebben. Maar een scherm voor reclame wat bijvoorbeeld china heeft.

[Reactie gewijzigd door TheProst op 26 juni 2025 09:56]

16x een 4K scherm toch? 4x4.
Klopt dankjewel. 4x 8k en 16x 4k

[Reactie gewijzigd door TheProst op 26 juni 2025 09:55]

Ik denk dat je je niet moet blindstaren op de maximale resolutie. Iets als lossless 4K@240/4:4:4 op 10- of 12-bit kleurdiepte kan natuurlijk wél voordelen hebben ten opzichte van HDMI 2.1.
Nauwelijks. De meeste mensen hebben geen scherm dat in staat is die kwaliteit van video af te beelden, laat staan dat ze de kwaliteit ogen hebben die het kunnen zien.

Je moet ook niet iedere keer gaan zwijmelen als er ergens "lossless" staat.
16K is denk ik een theoretisch limiet, zeg maar net als dat de snelheidsmeter van je auto tot 220 gaat, terwijl je in Nederland niet eens 220 mag rijden.
Ik heb een Samsung 57" met effectief 2x 4K paneel op 240hz. Dit kan tot 160Gbps gebruiken, ik heb nu Displayport 2.1. Er is dus een duidelijke use case voor meer data bij hogere verversingssnelheden.
De Samsung G9 varianten van 57" zouden hier bijvoorbeeld wel baat bij hebben denk ik.
Die hebben een resolutie van 7680x2160 en kunnen een refreshrate aan tot 240hz. Alhoewel men opzich nog steeds displayport kan gebruiken is het wel mooi om HDMI ook als optie te hebben. Heel uitzonderlijke monitor natuurlijk, maar met dat de use-case al bestaande is vind ik wel gepast dat men vooruitgang blijft boeken op vlak van hdmi kabels.
Je zal eerst de standaard klaar moeten hebben voordat je een TV er mee kan uitrusten.
Dus logisch dat de standaard vooruit loopt op de TV.
Het is natuurlijk het maximum dat ondersteunt wordt, niet iets waar de gemiddelde consument direct veel aan heeft. Velen hebben nog niet eens een 4K TV in huis en als ze die wel hebben kijken ze lang niet altijd 4K content.
Ik verheug me al op de eerste 16K beeldschermen. Maar kunnen Windows, MacOS en Linux die resoluties wel aan? Ik dacht dat Windows stopt bij 400% scalen van fonts.
Ik verheug me al op de eerste 16K beeldschermen. Maar kunnen Windows, MacOS en Linux die resoluties wel aan? Ik dacht dat Windows stopt bij 400% scalen van fonts.
Dat passen ze toch zo aan, zijn simpelweg nummertjes die geprogrammeerd zijn (omdat meer dan 400% op dat moment nog weinig/geen zin heeft staat het er niet bij) :)
Echt? Ik wil zondermeer geloven dat er mensen zijn die het verschil ttussen 8k en 16k opvalt maar ik ben daar zelf toch niet scherp genoeg voor. Daarnaast geldt ook voor die mensen toch dat de diminishing returns van dit soort resolutie stappen toch wel erg groot worden.


20 jaar geleden was een stap in resolutie misschien nog iets om je echt op te verheugen maar van 8k naar 16k?
Ik zit al sinds 2014 met 4K schermen en heb nog geen 8K scherm gezien - afgezien van TV's en voor bewegend beeld op een TV vind ik 4K wel genoeg.

Maar voor computerbeeldschermen ben ik echt benieuwd of 8K/16K vergeleken met 4K nog een zichtbare verbetering oplevert. En ik hoop dat 8K of groter nu eindelijk betaalbaar wordt. 16K hoeft van mij niet meteen maar het zou me niet verbazen als we 8K overslaan nu HDMI 2.2 16K mogelijk maakt voordat 8K uberhaupt mainstream is.
Was wat verbaasd over je woordkeuze, ik kan me goed verstellen dat iemand zich op een nieuwe console of computer verheugt of op een nieuw spel maar een beeldschermformaat dat 2 ordes groter is dan alles wat er op de markt is met vrijwel nauwelijk toegevoegde waarde snap ik gewoon niet zo.

Zeker op de pc zie ik de stap voorbij 4K gewoon echt heel lang niet gebeuren. De kosten aan benodigde GPU rekenkracht schalen lineair op met de pixels en er zijn denk ik heel veel andere dingen waaraan je die rekenkracht kan besteden dan een niet waarneembare pixelverdichting.
GPU's hebben heel veel rekenkracht die nu niet eens gebruikt wordt. Het gaat me niet om gamen of video want dat is inderdaad grafisch zwaar. En dat is, wat mij betreft, ook bewegend beeld waarbij je de extra pixels toch niet ziet. Mij gaat het om beeldkwaliteit die de pixeldichtheid van een printer (of drukwerk) benadert voor desktop toepassingen. 4K komt in de buurt maar is er voor mijn gevoel nog niet helemaal. 8K is waarschijnlijk genoeg. 16K is dat zeker.
Nee hoor, op een 32 inch monitor met normale werkafstand xiet men het verschil echt niet. Zelfs 4k vs 8k is al amper zichtbaar. Dot soort resoluties zijn alleen interessant voor hele HELE grote schermen, minstens 120"+
Ik zie op mijn 55” tv/monitor wel duidelijk het verschil tussen 8k en 4k - niet zozeer met video, maar wel als computerscherm.
Ik vraag mij af wat het nut er nog van is? Wanneer je ogen de pixels niet meer kunnen onderscheiden, lijkt het mij niet zinvol om nog meer pixels in een scherm te duwen, tenzij het om een zéér groot scherm gaat.

Misschien is het dan nuttiger om de bandbreedte aan andere features te besteden die het beeld ten goede komen. Maar 16K? 8K is nog maar amper beschikbaar en we zien al geen pixels meer met 4K op menig scherm. Een monitor is relatief klein en heeft een hoge pixeldichtheid bij 4K/5K en bij televisies zitten we altijd ver genoeg om zeer scherp 4K beeld te zien.

Misschien dat iemand een goede case kan aanhalen waar ik zelf nog niet aan gedacht had.
Hangt er ook vanaf hoe ver je moet scalen. Met mijn 4K-scherm hoef ik niet te scalen op Linux (dus gewoon 100%). Wellicht dat 16K met 400% dan ook wel kan? Maar dat weet ik natuurlijk niet zeker.
Ultra96 mag gebruikt worden als een kabel of product (een deel van) de 2.2-specificatie ondersteunt, tot 96Gbit/s. Een product dat 'slechts' 64Gbit/s of 80Gbit/s aankan, mag ook een Ultra96-product genoemd worden. Ultra96 geeft dus aan dat een kabel een minimale bandbreedte van 64Gbit/s heeft.
Dit is al een warboel en deze specificatie maakt het weer niet beter. Als de kabel 64Gbit aan kan, noem hem dan Ultra64 maar geen Ultra96 om maar iets te noemen.
En laat "Ultra" ook maar gewoon vallen, dat betekent helemaal niets. Gewoon aangeven welke maximum bandbreedte er ondersteund wordt zou de dingen een pak simpeler maken. 96 Gbit/s, 80 Gbit/s, 64 Gbit/s, klaar. De hele USB standaard is een mooi voorbeeld hoe het niet moet, als tech-savvy persoon snap ik er zelfs niks meer van. Laten we dat met HDMI niet achterna gaan aub.
De fysieke HDMI-poort is niet gewijzigd en fabrikanten hoeven ook niet alle 2.2-functies te ondersteunen om een poort een 'HDMI 2.2'-poort te kunnen noemen. Een 2.2-poort ondersteunt dus niet per se de 96Gbit/s-bandbreedte.

Dit geldt ook voor de Ultra96-naamgeving die hoort bij 2.2-producten en -kabels. Ultra96 mag gebruikt worden als een kabel of product (een deel van) de 2.2-specificatie ondersteunt, tot 96Gbit/s. Een product dat 'slechts' 64Gbit/s of 80Gbit/s aankan, mag ook een Ultra96-product genoemd worden. Ultra96 geeft dus aan dat een kabel een minimale bandbreedte van 64Gbit/s heeft. Kabels met een bandbreedte van maximaal 48Gbit/s, ofwel de huidige 2.1-standaard, blijven de huidige Ultra High Speed HDMI Cable-naamgeving gebruiken.
Hebben ze gekeken naar de puinhoop bij het USB forum en alle varianten van USB4 die vervolgens niet echt USB4 zijn??

Het is toch vreemd dat een Ultra96 naamgeving gebruikt mag worden als je ook wegkomt met 64Gbit/s.
Tweakers lijkt het verkeerd overgenomen/geïnterpreteerd te hebben? Alle ultra96 kabels doen 96gbit, maar een monitor/gpu die ultra96 doet maar niet zoveel bandbreedte nodig heeft omdat andere zaken eerder een bottleneck zijn komen ook weg met 64gbit. Voor de consument zou het dan niks uit moeten maken, maximale capaciteit van je product wordt bereikt met een ultra96 gecertificeerde kabel.

Het is logisch, 64/80gbit haal je niet over een ultra high speed HDMI kabel, dus de producten hebben een ultra96 kabel nodig welke altijd 96gbit aankan

[Reactie gewijzigd door vrilly op 26 juni 2025 17:54]

Chroma subsampling en compressie. Lekker dan, terug naar fletse plaatjes en artifacts op die hogere resoluties.

Maar ook "uncompressed full chroma formats such as 8K@60/4:4:4 and 4K@240/4:4:4 at 10-bit and 12-bit color."
Als de resolutie en refresh hoog genoeg zijn gaat je signaal zo snel dat het langer duurt voor je scherm de kleur kan aanpassen dan dat enig gebrek aan kleurresolutie of compressie artifact op gaat vallen.

Ik zou me drukker maken over de bitrate van video op zulke resoluties, die compressie is vele malen zwaarder dan stream compression naar je beeldscherm en veroorzaak veel heftiger artifacts.
Daar heb je zeker twee goede punten. Bij chroma compressie (zeker 4:1:1) heb je het probleem dat een blokje pixels allemaal dezelfde waarden toegewezen krijgen - daar wordt dan luminantie weer bij opgeteld zodat de kleuren wel degelijk verschillen, maar je slaat wel degelijk de kleuren flink plat. Zoals je zegt is dat mogelijk geen probleem omdat je dan bijvoorbeeld 2x zoveel pixels en dubbele refresh hebt.

Dan compressie op compressie: da's nooit erg lekker maar mogelijk inderdaad onzichtbaar door 'gebrekkig' bronmateriaal. Ik ging in mijn gedachten echter uit van mijn NUC die onder de TV staat: ik wil graag dat de lettertjes zonder nare fringe getoond worden!
Ik ging in mijn gedachten echter uit van mijn NUC die onder de TV staat: ik wil graag dat de lettertjes zonder nare fringe getoond worden!
Zo lang je geen 8 of 16K TV aanschaft geen probleem toch? ;)
Chroma subsampling en compressie. Lekker dan, terug naar fletse plaatjes en artifacts op die hogere resoluties.

Maar ook "uncompressed full chroma formats such as 8K@60/4:4:4 and 4K@240/4:4:4 at 10-bit and 12-bit color."
Ik maak me daar geen zorgen over. Fundamenteel heb ik geen problemen met deze technieken als ze maar een beetje zinnig worden toegepast.

Ten eerste compressie. Ik ga er van uit dat we het over lossless compressie hebben, want zo doen HDMI 2.1 en DisplayPort dat nu ook al. Het is lossless compressie dus het heeft per definitie geen invloed op artifacts of kleuren (mits je hardware snel genoeg is, uiteraard).

Ten tweede chroma subsampling. Daar verlies je inderdaad wel wat kwaliteit maar je bespaart ook een heel veel ruimte die je misschien beter op een andere manier zou kunnen inzetten. Bijvoorbeeld door de andere kanalen op een hogere resolutie te draaien. Geen subsampling is beter áls je genoeg capaciteit hebt. Als je te weinig ruimte hebt dan en je moet bezuinigen dan is besparen op chroma een hele slimme keuze want menselijke ogen zijn er niet zo gevoelig voor.

Overigens, chroma subsampling is zo normaal dat vrijwel alles wat we kijken er gebruik van maakt. Zelfs antieke analoge kleurentelevisies deden al zo iets. Als je binnen bepaalde grenzen moet blijven, zoals hoe snel een kabel is, dan is chroma subsampling een goede manier om netto de hoogste mogelijke kwaliteit te krijgen. Als je de ruimte hebt om het hele signaal door te sturen is dat uiteraard nog beter, maar er is altijd een bovengrens, dus is het bij hoge resoluties of refreshrates eigenlijk altijd gunstig om chroma subsampling te gebruiken.

Het is zo normaal dat je bijna moeite moet doen om videomateriaal te vinden dat het niet gebruikt. Alle moderne videocamera's, codecs en videostreamers doen het zo'n beetje en vaak by default. De beperkte bitrate van de meeste online videostreamers is een veel grotere bottleneck dan chroma subsampling. Zoals eerder aangegeven, als er bottlenecks zijn dan is chroma-subsampling bijna altijd een gunstige keuze.
16k... waarom ook niet. Nu de source nog.
  • TV kun je al blij zijn als je 1080i krijgt.
  • Schijfjes hebben ook max 4k (verademing trouwens ten opzichte van streaming)
  • Streaming heeft iets wat ze 4k noemen, maar vanwege compressie nog steeds belabbert
  • Cameras van Panavision, Sony, Canon & friends hebben immers al 8k, maar ook daar heb ik nog geen nieuws van 16k gezien, laat staan dat in het eindproduct ook maar iets met die 8k gedaan wordt
  • Gemiddelde pc kun je al blij zijn als 4k enigszins fatsoenlijk loopt (tenminste als je iets meer doet dann alleen office)
Technologisch natuurlijk tof dat het kan, maar praktisch zijn tijd ver en ver vooruit. In doe er in ieder geval niets mee. :+
Artikel maakt het er niet echt duidelijker op. Missch een kolommetje met frequentie en resolutie, met en zonder compressie? Want titel zegt niet wat artikel zegt.

Ik neem aan dat de HDMI mensen dezelfde zijn als de USB mensen? Warboel alom.

Een HDMI 3.0 voor 64Gbit, 3.1 voor 80Gbit, 3.3 voor 96Gbit, 3.9 voor volledig ondersteuning alle specs.

Momenteel is het heel anti-consumer hoe ze bezig zijn. En wij slikken het maar.
Doet HDMI het nu met opzet?

HDMI 2.0 en 2.1 is een totale farce geworden toen ze met terugwerkende kracht hebben besloten dat HDMI2.1 helemaal optioneel is en ieder HDM2.0 product dus ook HDMI2.1 compatible is ook al heeft het de bijhorende features niet.

Nu al, nog voor de standaard in gebruik is genomen, met gekkigheid komen als een 96Gbit kabel die maar 60 kan voelt als vragen om verwarring en problemen

Zouden we weer standaarden kunnen maken die minimumeisen geven in plaats van theoretische maxima die waarschijnlijk niet eens gehaald worden?

Anders heb ik nog wel een hooguit 140 jaar oude auto staan die minder dan 400km/u kan rijden en meer dan 5 minuten nodig heeft om een lege accu naar 100% op te laden. Ik wil er minder dan 10 miljoen euro voor te hebben.


Overigens heb ik uiteraard geen probleem met apparatuur die langzamer gaat werken als dat nodig is om te functioneren, bv voor backwards compatibility of bij een zwak of verstoord signaal, dat is wat anders. Ik vind het wel een probleem dat zo'n kabel niet de snelheid haalt die geadverteerd wordt (en dat in de kleine lettertjes wat anders staat is geen excuus, in tegendeel). Hoe kun je daar nu ooit goed mee omgaan zonder iedere kabel afzonderlijk te testen? (Ik zou niet eens weten hoe, lijkt me een dure grap voor thuis).


En ik zal maar niet vragen waarom dit Ultra96 is en niet "gewoon" 96 want het antwoord is toch "vibes van de afdeling Marketing".
Helemaal eens, een puinzooi. Het is weer een nieuwe naam of standaard opperen om maar weer wat te lanceren.

Op dit item kan niet meer gereageerd worden.