Gerucht: volgende AMD-gpu's ondersteunen HDMI 2.2, maar maximaal op 80Gbit/s

AMD's volgende generatie gpu's gaat voor het eerst HDMI 2.2 ondersteunen. Dat claimt Kepler_L2, een betrouwbare AMD-leaker. De leaker zegt wel dat de maximale bandbreedte vermoedelijk 80Gbit/s bedraagt, in plaats van de 96Gbit/s die de HDMI-standaard toelaat.

Kepler_L2 schrijft op sociale media dat de volgende AMD Radeon-gpu's HDMI 2.2 ondersteunen in twee modi: 64Gbit/s en 80Gbit/s. Ondersteuning voor de maximumbandbreedte van 96Gbit/s lijkt dus te ontbreken in de aanstaande gpu's, die een architectuur met de codenaam gfx13 krijgen; de huidige RDNA 4-architectuur uit de RX 9000-serie staat intern ook wel bekend als gfx12.

De leaker geeft geen verklaring voor het ontbreken van 96Gbit/s-ondersteuning. Kepler maakt ook geen onderscheid tussen eventuele Radeon- en Radeon PRO-videokaarten. Die eerste zijn bedoeld voor consumenten, terwijl die laatste juist zijn bedoeld voor professionals en workstations. AMD beperkte de DisplayPort 2.1a-bandbreedte in zijn RX 7000- en RX 9000-consumenten-gpu's, terwijl de PRO-varianten wel de volledige standaard ondersteunden, merkt VideoCardz op.

Het HDMI Forum kondigde HDMI 2.2 in januari aan tijdens de CES. De standaard krijgt dus maximale bandbreedtes van 96Gbit/s, een verdubbeling ten opzichte van HDMI 2.1. Deze bandbreedte moet in theorie 4k-resoluties op 480Hz mogelijk maken, naast 8k60-beeld zonder compressie of chroma subsampling. De standaard wordt eind dit jaar verwacht. AMD's gpu's zullen wat langer op zich laten wachten, aangezien de Radeon RX 9000-serie pas enkele maanden op de markt is.

Door Daan van Monsjou

Nieuwsredacteur

19-06-2025 • 20:24

49

Reacties (49)

Sorteer op:

Weergave:

Weer een gemiste kans. Had hdmi 2.2 nu altijd die 96 gbps vereist dan wist je wat je kocht. Nu heb je dus jarenlang geen garantie dat je 8k60 uncompressed kan doen zonder diep in de specificaties te duiken.

Ik vraag me echt af hoe diep die fabrikanten in die hdmi groep zitten, dat is niet vuistdiep meer maar een hele armlengte. Alleen marketing afdelingen profiteren hiervan om slechtere specificaties aan nietsvermoedende consumenten aan te smeren. Noem alles lager dan gewoon hdmi 2.1, is weinig mis mee, maar dan is het gewoon geen hdmi kabel of apparaat 2.2...
Had hdmi 2.2 nu altijd die 96 gbps vereist dan wist je wat je kocht.
Die 80 Gbit is gewoon de maximale datarate van Displayport 2.1, een standaard die er nu al is en AMD op zijn professionele kaarten heeft zitten.
Als het aan jou ligt, dan heeft de volgende AMD, die al lang in ontwikkeling is (terwijl de 2.2 standaard er nog niet is), dus gewoon HDMI 2.1, want ja, 2.2 haalt het niet. Dus moet je het dan doen met 48 Gbit in plaats van de 80 Gbit van nu.

En alsof je 8k60 uncompressed opeens het walhalla is. Boehoe. Dan kun je ook een klein beetje Display Compression gebruiken, 20% extra (80 Gbit naar 96 Gbit). Daar zie je dus helemaal niets van. Display Compression gaat tot 2,5x en pas vanaf 2x ga je het zien. Dus je kunt tot 160 Gbit (native, 80 Gbit compressed) gaan voordat je het uberhaupt kunt onderscheiden.

Dus nogal overdreven.

Ik snap je punt met minima voor standaarden, maar aangezien de stappen erg groot zijn, duurt het dus jaren voordat er hogere snelheden komen, dat is dus niet nuttig.

Ze hadden moeten doen iets als:
HDMI 2.1 48 Gbit
HDMI 2.2 60 Gbit
HDMI 2.3 80 Gbit
HDMI 2.4 96 Gbit

De actie HDMI 2.0 wordt nu opeens HDMI 2.1 is natuurlijk wel totaal kansloos geweest.
Die 80 Gbit is gewoon de maximale datarate van Displayport 2.1, een standaard die er nu al is en AMD op zijn professionele kaarten heeft zitten.
Goed gezien, dit zou wel eens de reden kunnen zijn dat ze niet verder gaan! Aan de iGPU-kant en bij Intel videokaarten is er namelijk helemaal geen ondersteuning voor HDMI in de GPU zelf. Als de kaart een HDMI-poort heeft, is dat dan ook eigenlijk een DP-poort van de GPU, waar een externe DP-naar-HDMI chip aan vast geplakt is. Dit zorgt er ook direct voor dat je geen gezeik krijgt als je HDMI op Linux wil ondersteunen...
^^ Goed punt

Het zou me niet verbazen als AMD dezelfde richting op gaat als Intel vanwege de patstelling die er lijkt te zijn ontstaan bij het ondersteunen van HDMI 2.1 in de open-source drivers. Ze zullen bij AMD niet per se heel blij zijn met de huidige situatie en dit zou voorkomen dat ze straks met HDMI 2.2 met hetzelfde probleem zitten. Dit zou bijvoorbeeld ook relevant kunnen zijn voor apparaten als een volgende Steam Deck die baat zou kunnen hebben bij HDMI 2.1+ features, dus enige druk van Valve is ook niet uitgesloten.

Ik hou zelf nog steeds de stille hoop dat als HDMI 2.2 uitkomt, AMD alsnog groen licht krijgt om de HDMI 2.1 code die ze al klaar hebben liggen voor de linux drivers gewoon te integreren. HDMI 2.1 is dan niet meer de laatste versie van de standaard, en dat was tot nu toe de restrictie.
Volgens een Tweakers artikel van enige tijd geleden werkt China aan een GPMI interface welke nog véél sneller is dan HDMI 2.2 en ook 480watt power delivery kan bieden.

Gezien de enorme afzet markt in China kan die GPMI nog wel eens HDMI gaan vervangen.
Tja alleen daar heb ik dan weer weinig aan zo lang mijn TV geen GPMI interface heeft :-P
Ik denk persoonlijk niet dat dit de reden is, waarschijnlijk is dit gewoon het limiet van de display engine. En HDMI 2.2 is niet echt genoeg reden om daar iets aan te veranderen.
HDMI 2.2 is waarschijnlijk vrij eenvoudig te implementeren met minder bandbreedte.

Zou mooi zijn als ze dit doen natuurlijk.
Helemaal eens hoor, of zelfs een verplichting om overal de bandbreedte achter te vermelden even goede vrienden al. Dan staat er overal hdmi2.2-80, hdmi2.2-96 op de doos, verplicht. Maar dat laten ze dus helaas na. En dan kan er dus gewoon een hdmi2.2-14 product bestaan, want die heeft één hdmi 2.2 feature ergens in zitten. Hoeft niet walhalla te zijn, maar dat is toch redelijk de consumenten hel.
Duidelijkheid is nodig, maar de maximumspecificaties als minimum gaan opleggen zorgt ervoor dat er geen enkele ruimte is voor goedkopere producten, dewelke 99% van de bevolking langs geen kanten nodig zal hebben, maar dus wel voor zou moeten betalen.
Maximum als minimum is nou precies wat nodig is om nog steeds de shit show van de versie tegen te gaan.

Als wat onder het minimum zit is de vorige generatie.

Zo moeilijk is dat niet.

Die 99,9% personen waar jij op doelt kunnen nog steeds HDMI 2.1 gebruiken.

Het is niet zo dat HDMI 2.1 magisch niet meer werkt omdat 2.2 uit is.


Ik vind dat @OruBLMsFrl zeker een goed punt heeft.


Zelfde shit show zie je bij USB-C 3.0 / 3.1 / 3.2 en 3.2 met extra info. Wat de hel is er mis met gewoon door nummeren.

Het lijkt alsof elke groep gewoon te dom is om gewoon een standaard uit brengen en als je aanpassing doet gewoon doornummeren.

Dat zou het overzichtelijker maken.
ik denk dat je hier wel wat kan relativeren.

ik denk sata, sata2, sata3
(ookwel sata150, sata300, sata600 genoemd)

of moderder
M2 pcie3x4, 4x4, 5x4)

dat een schijf gebruikt maakt van sata3 wil zeker niet zeggen dat het 600mbit (de topspeed van sata600 behaald) maar ik zou een schijf wiens topsnelheid onder de 301mbit ligt.. geen sata600 product willen noemen)

idem dito met m.2 schijven.
natuurlijk verwacht je niet dat elke gen 5 m.2 de topsnelheid van 16000mb/s haalt.. maar je verwacht WEL dal elke gen 5 schijf boven de 8001mb/s zit.
immer bij lagere snelheden..

Ik zou niet inzien waarom deze logica niet zou gelden voor HDMI protocollen.
HDMI 2.1 gaat maar tot 48 Gbit/s
HDMI 2.2 gaat tot 96Gbit/s
=elke kaart die dus boven die 48 maar onder 96 Gbit/s zit.. is logischerwijs een HDMI 2.2 kaart.

tenzij jij vind dat een HDMI standaard een ondergrens is... geen bovengrens.
dus dat je minimaal 96Gbit moet kunnen draaien om 2.2 te mogen voeren..
maar met veel standaarden is de volgende grens dus gewoon "sneller dan het maximum van 1 standaard lager"

[Reactie gewijzigd door DutchGamer1982 op 19 juni 2025 23:37]

Hdmi 2.1 mag lijkt het toch stellig op hdmi 2.1 genoemd worden op FRL1 snelheid, dat is 9 gbps, terwijl hdmi 2.0 al 14gbps was. De ondergrens van hdmi 2.2 is hier niet genoemd, maar er zit dus inderdaad vaak veel en veel te veel rek in bij die gasten, helaas voor iemand die hdmi 2.2 wil kopen, en dan ook niet eens verplichten om op de elektronica voluit te moeten vermelden hdmi 2.1 frl6, of hdmi 2.1 48g. Neen, je zet enkel hdmi 2.1 op de doos en ook met 9 gbps nog.

en dan was er nog hdmi 2.1 tdms, wat hdmi 2.0 snelheid was met een van de vele hdmi 2.1 features erin, maar dus geen enkele kans op betere beeldkwaliteit...

Sorry, maar zo een instituut kan dat heel makkelijk afdwingen al zouden ze maar willen, maar ze willen gewoon versie op versie geen duidelijke bandbreedte en daarmee kwaliteit informatie naar de consument afspreken.

https://www.murideo.com/frl-data-rate-chart.html

[Reactie gewijzigd door OruBLMsFrl op 20 juni 2025 00:29]

Exactly.
Instituten maken zelf een troep er van omdat ze zelf niet de minimum grens trekken bij de specificaties die als max ingesteld zijn.
En als het toch anders moet. HDMI 2.1 met doorvoersnelheid 40GBps en daarnast 48GBps.
Alles wat niet hieraan voldoet krijgt geen certificaat en keurmerk.

Beste is gewoon de max spec als minimum en alleen dan krijg je een certificaat en keurmerk die je mag dragen op je producten.

Geen gezeik van ja het werkt niet. Waarom werkt het niet??
Verkoper: Ja u heeft niet de juiste kabel gekocht u moet een hogere specificatie nemen. Zodat u bv Dolby Atmos kan afspelen.
ik denk dat je hier wel wat kan relativeren.

ik denk sata, sata2, sata3
(ookwel sata150, sata300, sata600 genoemd)

of moderder
M2 pcie3x4, 4x4, 5x4)

dat een schijf gebruikt maakt van sata3 wil zeker niet zeggen dat het 600mbit (de topspeed van sata600 behaald) maar ik zou een schijf wiens topsnelheid onder de 301mbit ligt.. geen sata600 product willen noemen)

idem dito met m.2 schijven.
natuurlijk verwacht je niet dat elke gen 5 m.2 de topsnelheid van 16000mb/s haalt.. maar je verwacht WEL dal elke gen 5 schijf boven de 8001mb/s zit.
immer bij lagere snelheden..

Ik zou niet inzien waarom deze logica niet zou gelden voor HDMI protocollen.
HDMI 2.1 gaat maar tot 48 Gbit/s
HDMI 2.2 gaat tot 96Gbit/s
=elke kaart die dus boven die 48 maar onder 96 Gbit/s zit.. is logischerwijs een HDMI 2.2 kaart.

tenzij jij vind dat een HDMI standaard een ondergrens is... geen bovengrens.
dus dat je minimaal 96Gbit moet kunnen draaien om 2.2 te mogen voeren..
maar met veel standaarden is de volgende grens dus gewoon "sneller dan het maximum van 1 standaard lager"
dus dat je minimaal 96Gbit moet kunnen draaien om 2.2 te mogen voeren..
Dit is precies wat alle problemen kan oplossen bij elke groep/instituut.
Keiharde eisen stellen aan het certificaat en keurmerk anders mag je het niet dragen.

Hoe vaak ik wel niet HMDI kabels in het verleden heb gekocht en niet werkte.
O.a. HDMI 2.1 kabels i.c.m. PC / XBOX Series X en PS5.
Om moe van te worden.
dat gaat nog niet helpen.
en benadeeld mensen.

dan word 80gbit als hdmi 2.1 gekwalificeerd
ga jij een kabel kopen hdmi 2.1 voor je gpu die maar net 48gbit aankan
werkt het heule zooitje nog niet.
om van de communicatie met de monitor die je eraan wilt hangen nog maar te zwijgen..

ik denk zelf dat een standaard een bovengrens is (met de standaard 1 stap eronder de ondergrens)
maar dat er gewoon achter die standaard de snelheid moet komen.
dus hdmi 2.2 op de doos is boven 48 en onder 96 gbit

wil je het duidelijker.. dan zul je danwel een andere nummering moeten gebruiken.
bvb :
hdm 2.2v80 (voor 80gbs) hdm 2.2v96 (voor 96gbs)
danwel verplichting om de gbs ook te vermelden

dus dat er dan HDMI 2.2 80gbs op de doos staat.. niet alleen HDMI 2.2

[Reactie gewijzigd door DutchGamer1982 op 20 juni 2025 11:37]

Het probleem is dat er zoveel verschillende eigenschappen in standaarden zitten dat de standaard de grootste gemene deler is ipv kleinste gemeen veelvoud. Er is bvb 10K 100Hz HDR10 met DSC in hdmi 2.1b gedefinieerd, terwijl jouw monitor misschien geen 10K nodig heeft, terwijl een ander geen HDR10 nodig heeft en nog iemand anders geen 100Hz. Uiteindelijk is het altijd maar een verzameling van zichtbare specs met daarnaast nog een hele hoop andere onzichtbare specs zoals signal integrity, maximale voltages, toleranties en gebruikte materialen.
In een ideale situatie zouden fabrikanten al die dingen op de doos moeten vermelden, maar dan is er geen plaats meer voor een plaatje van het product dat er in zit en zou de font onleesbaar klein zijn en worden er dus compromissen gesloten om bepaalde dingen in verschillende gradaties te standaardiseren.
Als wat onder het minimum zit is de vorige generatie.
Het is een versienummer, geen bandbreedtespecificatie. De HDMI 2.1 standaard ondersteunt geen 80 gbit..
Met andere woorden, het is geen standaard.
Zelfde shit show zie je bij USB-C 3.0 / 3.1 / 3.2 en 3.2 met extra info. Wat de hel is er mis met gewoon door nummeren.
Helemaal niks, daarom is de officiële labeling ook heel eenvoudig. De verwarring komt nou juist doordat de tech-pers de interne technische benaming blijven gebruiken, die nooit bedoeld was voor eindgebruikers. Fabrikanten nemen dit vervolgens weer over omdat hun producten tóch al zo genoemd worden, en negeren de officiële benaming zoals bedacht door USB-IF...
Ik zit me af te vragen of ik ooit die officiële labeling ergens op een doos gezien heb. Terwijl ze inderdaad heel eenvoudig zijn.
Hoewel 80Gbit/s nog steeds een flinke verbetering is t.o.v. van HDMI 2.1 lijkt het mij dat er ook verbeteringen in HDMI 2.2 zitten die niet enkel te maken hebben met de hogere bandbreedte. En als producent wil je daar voor je producten wel gebruik van kunnen maken.

Ik snap de frustratie maar omdat het overgrote deel van de consumenten die verbeteringen niet nodig heeft en de nummering hen sowieso niets zegt kunnen fabrikanten wegkomen met doen wat hen het best uitkomt. En dat zal vast neer komen op of dat het meer omzet oplevert en/of dat het minder kost.
Nu heb je dus jarenlang geen garantie dat je 8k60 uncompressed kan doen zonder diep in de specificaties te duiken.
En waarom is dat ook alweer een probleem?
Omdat je een dwaze standaard uitbrengt die evengoed evenveel bandbreedte kan hebben als de vorige standaard? Dit is toch niet zo moeilijk om te verstaan?!
Dat is hoe nieuwe versies werken ze hoeven niet sneller te zijn maar mogelijk wel andere functionaliteiten te bieden. Maar terugkomend op @Olaf van der Spek, wat is het probleem? Welke 8k60 content zou je, binnenkort, willen afspelen?
Binnenkort? Deze GPUs komen op z'n vroegst in anderhalf jaar uit. Eind 2026. Maar ik denk ook dat we ons als gamers minder zorgen moeten maken om 8k60 maar eerder om 4k360 of 4k500. De ontwikkelingen in OLEDs gaan tegenwoordig erg rap en 4k240 heeft al ongeveer 70 Gbits nodig net als 1440p500. Ik zie dat nog niet zo snel afremmen (geen idee hoeveel rek er nog in de 1440p OLED zit, maar dat een 4k of 5k OLED ook 500Hz bereikt binnen afzienbare tijd lijkt me nu al een gegeven). Hoe dichter je bij de volledige benodigde bandbreedte komt hoe minder DSC je hoeft toe te passen en hoe beter het beeld blijft.
Daarbij films gebruiken 24fps. Mocht 8K TV’s beetje standaard zijn dan is het 8K/ 24fps.

Met de huidige (grotere titels) games, mag je blij zijn als je 4K/ 60fps kan halen met wat Raytracing (zonder gebruik van DLSS en dergelijke). Met mijn RTX 5080 game ik op 1440p op een 4K TV. Maar ik gebruik geen DLSS, omdat ik teveel artifacts ontdek (ben persoonlijk hier erg gevoelig voor).

Dus wellicht voor professionele toepassingen, maar daar hebben ze weer een eigen serie videokaarten voor.

Buiten dat is het altijd goed om door te ontwikkelen.

[Reactie gewijzigd door chizzle01 op 20 juni 2025 10:01]

Iedereen kijkt tegenwoordig via streaming en Netflix bitrate haalt dat toch nooit.
8K60 content is er al veel meer dan je denkt.

Niet voor gewone beeldschermen, maar wel voor VR.
Met een VR bril wil je minimaal 60fps en eigenlijk 90fps. Doordat je blikveld zo groot is, valt een lage fps heel erg op. En door dat grotere blikveld heb je ook een hogere resolutie nodig.

En dat zijn dan niet verschillen die alleen een zeer klein zeer veeleisend groepje gamers nodig vind. Dat is iets dat de gemiddelde persoon in VR duidelijk ziet. (Maar VR op zich is natuurlijk wel een kleine groep)
HDMI, USB, PCI Express, DDRx, het zijn allemaal industrie-standaarden. Gemaakt voor en door de industrie. Jou belang speelt alleen een rol als het je anders zou tegenhouden je portemonnee te trekken.
Voor zover ik begrijp is 49.65 Gbit/s genoeg voor 8k60 en 62.06 Gbit/s voor 8k60 met HDR. Of lees ik deze tabellen verkeerd?
Met die 62 gbps heb je hdr op 8k60, maar dat is al fors boven de hdmi 2.1 spec maximum, en je mag met dit nieuws vermoedelijk ook nog veel lagere snelheden wel hdmi 2.2 noemen als je maar ergens een nieuwe feature toepast. En dat laatste maakt het zo makkelijk en voor consumenten gevaarlijk.
Nee, want de HDMI 2.1 spec is max 48Gbit/s. 80Gbit/s is nog flink hoger, dus is simpelweg niet ondersteund door HDMI 2.1
Nu heb je dus jarenlang geen garantie dat je 8k60 uncompressed kan doen zonder diep in de specificaties te duiken.
Welke toepassing is er voor consumenten dat dat vereist als de 8k ondersteuning voor HDMI 2.1 er al vrijwel niet is?

[Reactie gewijzigd door JakkoFourEyes op 19 juni 2025 23:11]

Was juist een mooi moment geweest om minimaal vanuit het HDMI instituut te vereisen dat ze bandbreedtes duidelijk vermelden op de apparatuur en verpakking in ruil voor HDMI 2.2 te mogen voeren. Ik snap je punt, dan hadden ze HDMI 2.2 kunnen houden zoals hdmi 2.1 ook de aanpak was en net als hdmi 2.1 mocht je ook zo laag als 9 en 18 gbps zeker in hdmi 2.1 tdms.
Ik zou dan voorstellen inclusief de bende die van hdmi 2.1 gemaakt is:
hdmi 2.1 = hdmi 2.1 feature level zonder minimale bandbreedte, 9gbps frl of 10gbps tdms mag allemaal
hdmi 2.1 tdms = hdmi 2.1 feature level zonder frl, minimaal 10 gbps, of zelfs maar 5 gbps?
hdmi 2.1 frl = hdmi 2.1 feature level met minimaal frl signaal support, maar frl1 is maar 9gbps
hdmi 2.2 = hdmi 2.2 feature level met vermoedelijk minimaal ook maar die 9gbps frl1 of 18gbps tdms?
ik zou denken, wat de consument eigenlijk nodig heeft om veilig in te kunnen kopen:
hdmi 3.1 = hdmi 2.1 feature level met gegarandeerd 48 gbps bandbreedte
hdmi 3.2 = hdmi 2.2 feature level met gegarandeerd 48 gbps bandbreedte
hdmi 4.2 = hdmi 2.2 feature level met gegarandeerd 96 gbps

Dat je major version de minimale bandbreedte garandeert en de minor version het feature level. Dat hadden ze natuurlijk ook al eerder kunnen doen met major versions voor 5 gbps, 10 gbps, 18 gbps, maar dat lijkt inmiddels wel een gepasseerd station.
Dan houd je nog altijd de uitdaging met welke features verplicht zitten in hdmi 3 en 4 major versions. En welke alsnog optioneel blijven. Maar ook daar kun je dan al wat stappen in zetten, waarbij hdmi 2.2 volgens mij al op de doos en het product mag staan als je maar minimaal één willekeurige hdmi 2.2 feature support. Als HDMI 3 dan bijvoorbeeld minimaal E-ARC, auto low latency en variable refresh moet supporten, en HDMI 4 nog weer een stap verder gaat met verplichte Latency Indication Protocol (LIP), dan kun je echt ergens van op aan als consument.
En genoeg consumenten die hebben al genoeg als 'het werkt', liefst voor zo min mogelijk geld. Maar je wilt toch ook juist met een standaard die consumenten bedienen welke op zoek zijn naar een bepaalde kwaliteitstandaard.

[Reactie gewijzigd door OruBLMsFrl op 20 juni 2025 09:49]

Ik denk niet het gemis van ongecomprimeerde 8k60 zo'n grote groep consumenten gaat treffen...

En ik neem aan dat het minste wat je doet, voordat je iets koopt, is de specs doorlopen. Dus geen onzekerheid. Ook bij HDMI 2.1 moest je checken wat iedere fabrikant wel, niet en in welke mate ondersteunt.
96 gigabit per seconde, Ik weet dat je het niet direct kan vergelijken met netwerk verbindingen, maar wat een hoop data zeg.

Hoe lang voordat we tegen een muur komen met koper draad en de afstanden die mogelijk zijn?
Er komen ook kabels beschikbaar van glasvezel met hdmi stekker. Maximaal 100 meter.
https://www.smartavlink.c...rst-released-at-ces-2025/
Wat de maximale lengte zal zijn van een koperkabel is een goeie vraag.
Er zit nog wel wat marge in.
Onthoud dat een CAT8 40gbps kan in beide richtingen; HDMI is hoofdzakelijk 1 richting.

USB4 = 120gbps (dit is door PAM-3 -> Pulse Amplitude Modulation met 3 niveaus)
USB4 v2 heeft een "bandwith boost" functie die een symmetrische 80gbps toe laat (dus 160gbps)

Er wordt nu zelfs onderzoek gedaan naar Terabit DSL; dat is 1000gbps over een afstand van 100 meter. Dat is over 1 koperpaar...
Waarom is die standaard niet dichtgetikt: dit zijn de eisen, zonder ben je geen 2.2. Zou voor zo veel "standaarden" een hoop onduidelijkheid schelen voor consumenten.

Antwoord: marketing
Logisch, waarom zou je iets ondersteunen als daar helemaal nog geen markt voor is, in een product dat al in ontwikkeling was toen die standaard nog niet bestond. Dat tegen de tijd dat er een markt voor is, al lang gedateerd, en opgevolgd is door 3 nieuwere generaties kaarten. Weetje wat laten we ons hier over opwinden, gewoon omdat het kan.
Nu heb ik er absoluut nul verstand van, in mijn vrije tijd werk ik in de zorg, maar het lijkt me vooral een probleem voor diegene die zich hoe dan ook met die specificaties bezighouden en dus deze informatie ook zullen lezen. Ik heb een mooie game-PC staan, waar displaypoortkabels inzitten, waarvan mijn driversoftware zegt dat het allemaal netjes werkt en mooie beelden laat zien op twee grote 25 inch schermen. Happy me.

Het is wel waar dat het voor de gewone consument niet makkelijker op wordt: moet ik nu echt die gigantisch dure kabel kopen (nee, dat hoeft niet voor wat je ermee wil) en wat schiet ik er mee op (weinig, tenzij je op een gigantisch scherm heel gedetailleerde beelden aan een afgrijselijk hoge FPS wil laten zien?). Wat mij betreft een tikje een first world problem.
Gezien hoe het HDMI Forum actief Linux boycot hou ik het lekker bij DisplayPort waar mogelijk.
Kleine nuance, se boycotten Linux niet maar laten het alleen niet toe een open-source implementatie van de ondersteuning te maken. En laat dat nou net nodig zijn om Mesa ondersteuning te krijgen, de enige driver die echt gebruikt wordt op Linux.
Bijzondere keuze... Al is AMD natuurlijk wel een raar geval, consument RDNA4 ondersteunt ook geen volle DP2.1 snelheid maar het pro spul wel.
De standaard is nog niet af en ondertussen moet er wel een kaart ontwikkeld worden.
AMD gebruikt dus gewoon de 80 Gbit die de profi-kaarten nu ook al aankunnen via Displayport.
Dat is wat ik ook dacht.
HDMI gebruikt nu ook al een tijdje 4 differentiële paren voor data net zoals DP (tot HDMI 2.0 was dit 3 voor data & 1 voor clock)
en vanaf versie 2.2 zit HDMI ook 128b/132b encoding. (DP sinds 2.0)

dus op low level niveau is 80 Gbit HDMI 2.2 praktisch identiek aan DP 2.1 (voor het video gedeelte)
HDMI 2.2 Zat kwa low level specs nog nooit zo dicht bij DP

dus intern zijn er vermoedelijk heel wat logic bloks herbruikbaar. oa zaken zoals transceivers.
Veel termen in de digitale wereld zijn geen (goede) maat van kwaliteit. HDMI, USB, HDR (Dolby Vision, HLG, HDR10+, HDR10), Dolby Atmos, Ultra HD.

De termen beschrijven vooral een communicatiestandaard. En dat is het wel ongeveer. Ik ken geen standaard die goede en harde eisen stelt aan de kwaliteit. De gouden standaard is tegenwoordig een goedkope gele coating.
Voor zover ik kan vinden heb je voor 4K 120Hz ongeveer 48 Gbit/s nodig. Waarvoor HDMI 2.1 volstaat. Je zou al een heel groot scherm moeten hebben om een verschil te zien.

Op dit item kan niet meer gereageerd worden.