Door Joris Jansen

Redacteur

De ellende genaamd HDMI 2.1

Een niet-optimale implementatie

03-12-2020 • 06:00

244

Multipage-opmaak

Inleiding

Ga ik voor dat toestel met een beelddiagonaal van 49", 55" of toch maar meteen 65", omdat ik er anders misschien spijt van krijg? Kies ik voor een QLED-televisie van Samsung, een lcd-tv zonder quantumdots maar met full array local dimming, of een oledtelevisie? Moet ik daarbij nog letten op het besturingssysteem, zoals Panasonics MyHomeScreen, LG's webOS, Samsungs Tizen, Android TV van Sony en Philips, of is het minder geavanceerde Saphi van Philips ook genoeg? Afhankelijk van de wensen en het budget kunnen onder meer dit soort vragen een rol spelen bij de aankoop van een nieuwe televisie. Tegenwoordig is, zeker voor wie een wat duurdere televisie overweegt, een andere vraag ook relevant: moet ik televisies die geen HDMI 2.1 ondersteunen alvast afkruisen?

Hdmi

Dat zou de selectie wel een stuk gemakkelijker maken, want ook al is de standaard er al een paar jaar, het aantal televisies die het ondersteunen, is nog niet al te groot. Hoe dan ook, het argument dat je met HDMI 2.1 alvast voorbereid bent op de toekomst, zal menig koper er nu toe kunnen overhalen om toch maar die LG Nano 95, Sony XH90 of Samsung Q800T aan te schaffen. Dan ben je in ieder geval verzekerd van alle voordelen van HDMI 2.1, toch?

Zo eenvoudig is het helaas niet. Zelfs al zouden bij de televisie alle seinen op groen staan wat de ondersteuning van HDMI 2.1 betreft, dan moet dat ook gelden voor de apparaten die nogal eens in combinatie met televisies worden gebruikt. Ook daarbij is de situatie nog niet florissant. In dit artikel staan we stil bij een aantal actuele issues die aan de orde zijn bij producten of productgroepen en hun beperkingen op het vlak van HDMI 2.1.

Sony XH90-televisie: knieval bij 120fps

Niet scherp bij 120fps

Met de PlayStation 5 in aantocht kunnen we niet achterblijven, zal bij Sony ongetwijfeld een gedachte en misschien wel dé motivatie zijn geweest voor het uitbrengen van de XH90. Deze 4k-lcd-televisie kwam in de zomer uit en werd al meteen gepresenteerd als een 'Ready for PlayStation 5'-televisie. Klaar voor de nieuwste console van Sony in de zin dat de televisie twee HDMI 2.1-aansluitingen heeft en dus de bandbreedte heeft om beelden met 4k-resolutie en 120fps te kunnen verwerken. De capaciteit om ook daadwerkelijk 4k120 aan te kunnen, moest echter nog wel worden toegevoegd via een update. Die volgde halverwege oktober, ruim voor de release van de PlayStation 5: eind goed al goed, zou je denken.

Sony KD-65XH9096Of toch niet? Niet lang na de update kwamen er klachten over de scherpte bij de weergave van 4k-beelden met 120Hz. Er wordt geklaagd over vervaging, waarbij het ontbreekt aan scherpte of er simpelweg een lagere resolutie wordt gehanteerd. Dit probleem bleek niet te verdwijnen bij 120Hz in combinatie met een lagere resolutie dan 1080p, ook al is er dan beduidend minder bandbreedte nodig. Vooral bij statische elementen, zoals tekst en symbolen, is het probleem zichtbaar.

Adam Fairclough, expert op het gebied van hdr, speculeerde dat een deel van de beeldverwerking van de XH90 niet overweg kan met de benodigde bandbreedte voor 120Hz, waardoor het wordt beperkt tot een bandbreedte die binnen het bereik van HDMI 2.0 komt en wat de processors aankunnen, waarna dat naar het beeldscherm wordt gestuurd. Daarbij denkt hij dat er sprake is van downsampling naar 1080p voordat de data bij de beeldprocessors komt.

Minder beeldlijnen

Tweakers heeft woensdag een review van de Sony XH90 gepubliceerd. Daarbij is gekeken naar wat er precies gebeurt bij de weergave van 4k120. De conclusie is dat de verticale resolutie wordt gehalveerd; de horizontale resolutie blijft wel behouden. De televisie voegt de data van twee achtereenvolgende beeldlijnen samen, waardoor in feite de verticale resolutie wordt gehalveerd. Feitelijk komt de resolutie van de XH90 bij een 120fps-weergave daarmee uit op 3840x1080 pixels. Bij de term 4k gaat het over de 3840 horizontale pixels en dus de horizontale resolutie; die blijft in stand, dus kan de televisie strikt genomen misschien wel met 4k120 worden aangeduid, maar kopers zullen zich wellicht enigszins bekocht of misleid voelen. Overigens bleek het ook niet mogelijk om 4k-beelden met 60fps, zonder chroma subsampling weer te geven, al zal lang niet iedereen dat ook daadwerkelijk opmerken en vermoedelijk is dat wel op te lossen met een firmware-update. Het oplossen van het probleem met de gehalveerde verticale resolutie lijkt een stuk lastiger, omdat er hardwarematig wellicht onvoldoende bandbreedte beschikbaar is bij de beeldverwerking.

Sony XH90

Processors

Vooralsnog is het speculeren waardoor dit probleem precies wordt veroorzaakt. Heeft de MediaTek MT5895-soc in de XH90 wel de capaciteit om 4k120 correct en volledig weer te geven? Op papier in ieder geval wel; MediaTek geeft aan dat er ondersteuning is voor HDMI 2.1A met een maximale bandbreedte van 48Gbit/s, wat genoeg is voor een 120fps-weergave van 4k-beelden. Televisiereviewer Vincent Teoh stelde eerder dat alle videoverwerkingstaken volledig door deze MediaTek-soc worden afgehandeld en dat dat niet gebeurt in samenwerking met de volgens de specificaties eveneens aanwezige X1-videoprocessor. Dat kan ook een rol spelen.

Het kan echter ook zijn dat deze X1-processor toch een belangrijke rol speelt bij de verwerking van de beelden en dus ook voor de fatsoenlijke weergave van 4k120-beelden. Feit is dat de XH90 niet de nieuwere X1 Ultimate-chip aan boord heeft, maar nog de reguliere X1. Dat hoeft nog niet meteen de verklaring te zijn, al was het maar omdat de aanwezigheid van de X1 Ultimate niet automatisch 4k120-ondersteuning met zich meebrengt, zoals onder meer blijkt uit het feit dat deze chip in Sony's A8-oled-tv van 2020 zit. Dat is een HDMI 2.0-televisie en dus is 4k60 de limiet via een HDMI-aansluiting.

Reacties van Sony

Sony heeft nog geen nadere duidelijkheid gegeven, maar het bedrijf heeft even geleden al wel gereageerd op de eerste observaties. Daaruit blijkt dat de weergave geen bug is, maar het resultaat van gemaakte keuzes. De fabrikant zegt dat 4k120 betekent dat er heel veel data moet worden verwerkt, wat soms leidt tot een 'beperking van de bandbreedte'. "In dit geval geven we prioriteit aan de vloeiendheid van 4k120, omdat we geloven dat klanten deze vloeiende weergave verwachten." Sony zegt ook dat het verschil in clarity minder zichtbaar is bij bewegende beelden. Daarom heeft de fabrikant de signaalverwerking en de beeldkwaliteit zo aangepast dat de nettoresultaten geen probleem vormen bij het genieten van 4k120, in welke omstandigheid ook. Sony zegt hiermee dat het verschil in clarity geen obstakel moet vormen voor wie de XH90 gebruikt in combinatie met een PlayStation 5 en op een normale kijkafstand van de televisie zit.

Sony XH90 120hz blurSony XH90 120hz blur

Onlangs heeft Sony opnieuw kort gereageerd, in de vorm van een nieuwe verklaring op zijn eigen website. Daar zegt de fabrikant dat de wazige tekstweergave op de televisie bij het ontvangen van een 4k120-signaal komt door een softwareprobleem bij de beeldverwerking. Dat doet zich voor als de tv in de Game- of Graphics-modus staat. "Dit wordt aangepakt in een toekomstige software-update", aldus het bedrijf.

Kleine verbeteringen

Het bedrijf lijkt in ieder geval woord te willen houden. Inmiddels is namelijk update v6.0414 verschenen voor de XH90. Volgens de website Glitched leidt deze nieuwe firmware tot een verbetering van de 4k120-weergave. De website stelt dat de vervaging 'significant is verminderd' en dat het probleem op een afstand van twee meter van de televisie niet meer zichtbaar zou zijn. De afbeeldingen die Glitched heeft geplaatst om de observaties te staven, laten inderdaad een verbetering zien, maar het zit wat de scherpte betreft nog niet op het niveau van 60Hz.

Inmiddels heeft Rtings ook een test gedaan met de nieuwe firmware. Deze website is wat minder enthousiast en stelt dat de vervaging er nog steeds is en het alleen iets is verbeterd is bij de weergave van tekst, maar dat het nog steeds niet scherp is. Wat Sony met deze laatste update precies heeft veranderd, is niet meteen duidelijk. Tweakers heeft deze update nog niet kunnen testen, maar aan de hand van deze eerste observaties zou het kunnen dat Sony niet de beeldlijnen heeft verdubbeld of vermeerderd, maar dat er bilineaire interpolatie is toegepast.

In een video van Digital Trends geeft een redacteur aan dat Sony heeft aangegeven dat het tegen 31 december nog met een nieuwe update komt die dit probleem geheel zou moeten verhelpen. Wellicht dat bezitters van deze televisie dus nog deze maand weer een verbetering tegemoet kunnen zien, al moet blijken in hoeverre het probleem ook daadwerkelijk wordt verholpen.

Nieuwe receivers, toch geen 4k120?

Aansluiten van receiver

De komst van de next-gen consoles van Microsoft en Sony is ongetwijfeld voor sommige spelers aanleiding om te upgraden naar een HDMI 2.1-televisie om te kunnen genieten van games met 4k en 120fps. Maar ja, wat te doen als je daarbij een leuke 5.1-homecinemaset hebt, inclusief receiver. Receivers van vorig jaar en daarvoor sturen maximaal 4k60-beelden door, omdat ze nog de HDMI 2.0-standaard ondersteunen. Idealiter sluit je de PS5 of Xbox Series X op de receiver aan, waarna het beeldsignaal via de receiver naar de tv wordt doorgegeven. De doorgifte van 4k120-beelden met een receiver van 2019 of ouder, is echter niet mogelijk.

Een 'oplossing' daarvoor is om de console direct op de televisie aan te sluiten en het geluidssignaal via e-arc terug te sturen naar de receiver. Deze omweg heeft echter beperkingen, zoals het feit dat Samsung- en LG-tv's uit 2020 geen DTS ondersteunen. Daarnaast kan de extra rekenkracht die nodig is voor het doorgeven van Dolby Atmos-geluid, extra latency met zich meebrengen, wat gamers niet zullen appreciëren. Bovendien is gebleken dat e-arc niet altijd vlekkeloos werkt, getuige het PCM-audioprobleem bij een aantal 2019-tv's van LG, dat meer dan een jaar standhield. Het is dus handiger om de console rechtstreeks op een nieuwe HDMI 2.1-receiver aan te sluiten.

Yamaha RX-V6A
Yamaha RX-V6A

HDMI 2.1-receivers?

Allerlei fabrikanten hebben inmiddels al dergelijke receivers uitgebracht, zoals receivers met de merknamen Marantz, Denon en Yamaha. Maar wat blijkt? Het Duitse c't Magazine constateerde eerder dat er problemen zijn met de doorgifte van 4k120-signalen naar de aangesloten televisie. Sound United, de maker van Denon- en Marantz-receivers, heeft de problemen erkend en spreekt over een mismatch tussen de HDMI-chipsets van de verschillende apparaten. Ook Yamaha heeft bevestigd dat het probleem zich voordoet bij zijn receivers.

Bij Yamaha gaat het om de RX-V4A en de RX-V6A; bij Denon betreft het de AVR-X2700H, AVC-X3700H, AVC-X4700H en AVC-X6700H en voor Marantz gaat het om de SR5015, SR6015, SR7015 en SR8015. Waarschijnlijk zal het probleem zich ook voordoen bij nog niet uitgebrachte HDMI 2.1-receivers van Onkyo/Pioneer en Sony.

Nuvoton

Wat is er aan de hand? De boosdoener lijkt de maker van de in de receiver geïntegreerde HDMI-chips. Die zijn afkomstig van Nuvoton Technology. De chipsets van deze fabrikant zouden zijn ingebouwd in nogal wat receivers die HDMI 2.1 ondersteunen. C't Magazine constateerde onder meer een probleem bij de Xbox Series X in combinatie met een LG CX- of C9-oledtelevisie en een AVR-X2700H van Denon. De 4k120-beelden van Dirt 5 werden niet goed doorgegeven en er was enkel een zwart scherm te zien.

Compressie bij HDMI 2.1-signaal van Xbox als boosdoener

C't Magazine had de PlayStation 5 niet gebruikt tijdens het testen. Er is een gebruiker die meldt dat hij probleemloos Call of Duty: Black Ops Cold War in 4k en 120fps speelt op zijn PS5 in combinatie met de Marantz SR 8015-receiver. Inmiddels is ook duidelijk geworden dat dit probleem eigenlijk alleen speelt in combinatie met de Series X-console en niet met de PlayStation 5 of Nvidia's RTX-30-videokaarten. Alleen bij het aansluiten van de Xbox Series X op een van de bewuste HDMI 2.1-receivers leidt een 4k- en 120Hz-instelling tot een no signal-bericht op de televisie, waarbij simpelweg geen beeld wordt weergegeven.

Dat heeft waarschijnlijk te maken met de combinatie van de Nuvoton-chips en de wijze waarop de Xbox-console het HDMI-signaal verwerkt en uitstuurt. De eerdergenoemde Vincent Teoh heeft de proef op de som genomen en stelde vast dat als hij in zijn Denon X2700H-receiver het signal format veranderde van 8K Enhanced naar Enhanced, dat 4k120 dan wel mogelijk was, zij het met de nodige beperkingen. Het verschil daarbij is dat 8K Enhanced gebruikmaakt van fixed rate link, de signaaltechnologie van de HDMI 2.1-standaard, terwijl er bij de Enhanced-instelling gebruik wordt gemaakt van transition minimised differential signaling, de signaaltechnologie van HDMI 2.0. Het lijkt er dus op dat het probleem kennelijk in de toepassing van de fixed rate link-signaalmethode zit. Dat is vreemd, want bij frl moet de bandbreedte bij de Xbox Series X op maximaal 40Gbit/s zitten, wat genoeg is om een 4k- en 120Hz-signaal door de receiver naar de televisie door te sturen.

Xbox Series X slide
Tijdens Hot Chips 2020, gehouden in augustus, presenteerde Microsoft nadere technische informatie over de Xbox Series X, waaronder de ondersteuning van HDMI 2.1 en dat daarbij compressie in de vorm van DSC wordt toegepast.

Teoh komt met een mogelijke verklaring door te kijken naar wat zijn gebruikte Denon X2700H-receiver weergeeft in de set-up waarbij zijn Xbox Series X via de Denon-receiver op een LG CX-oled-tv is aangesloten. Bij de PS5 en de Nvidia RTX 30-videokaart staat in het Denon-informatiescherm '4K120A' weergegeven bij zowel de input als de output. Bij de Xbox is 4k60 het maximum dat wordt weergegeven, omdat het dus niet lukte om op de normale manier een 4k120-signaal door te sturen. Teoh wijst erop dat de A bij 4K120A betekent dat er geen compressie wordt toegepast, wat wordt bevestigd door de uiteenzetting van HDMI Forum over de namen van de features van HDMI 2.1.

Teoh speculeert dat dit een cruciaal element is. De beeldprocessor in de Series X ondersteunt HDMI 2.1 waarbij gebruik van dsc wordt gemaakt, ofwel display stream compression. Dsc is de compressie waar de A bij 4K120A voor staat. Teoh stelt dat het voor de hand ligt dat de Nuvoton-chips in de receivers van Denon, Marantz en Yamaha alleen in staat zijn om HDMI 2.1-signalen zonder compressie te verwerken en door te sturen, en dus geen HDMI 2.1-signalen kunnen doorsturen die als gecomprimeerd staan aangegeven. Aangezien de Xbox Series X bij de HDMI 2.1-signalen dsc toepast en de PS5 en de RTX 30-videokaarten dat niet doen, speelt het probleem alleen bij de console van Microsoft.

Fatsoenlijke work-arounds of oplossingen zijn er momenteel niet. Wellicht moeten de desbetreffende receivers hardwarematig aangepast worden om de problemen op te lossen. Sound United en Yamaha hebben al aangegeven de problemen te gaan verhelpen, maar hoe dit gaat gebeuren en op welke termijn, is momenteel onduidelijk.

Samsung Q80T
Samsung Q80T

Compressie

Ervan uitgaande dat dit de verklaring is voor het probleem, is het wel goed om op te merken dat dsc op zichzelf geen slechte technologie is, integendeel. Dsc is een compressiealgoritme van de HDMI 2.1-standaard en is ook onderdeel van DisplayPort 1.4. Bij dsc is sprake van een 3:1-compressieverhouding. Het is bedoeld om de hoeveelheid te verzenden data te beperken en daarmee in te spelen op de eventuele beperkingen van de beschikbare bandbreedte. Het moet leiden tot een ervaring die visueel lossless is, terwijl er veel minder bandbreedte nodig is, zoals uit deze tabel blijkt. Met alle discussies over bandbreedte en de noodzaak van HDMI 2.1 lijkt dsc bijna te mooi om waar te zijn: Dankzij dsc is 4k120 bij 12bit en zelfs zonder chroma subsampling mogelijk bij een bandbreedte van 18Gbit/s. Kortom, het blijft dan net binnen het maximum van de HDMI 2.0-standaard. Dsc is niet aan de orde bij HDMI 2.0, maar het geeft wel een beeld van in hoeverre de bandbreedte wordt beperkt als deze compressie wordt toegepast.

De toepassing van dit compressiealgoritme lijkt echter nog niet heel wijdverbreid. Een voorbeeld waar het in ieder geval wel aanwezig is, is de Samsung Q80T, een HDMI 2.1-televisie die een bandbreedte van maximaal 40Gbit/s ondersteunt en maximaal 24Gbit/s als dsc wordt toegepast. Dsc zal waarschijnlijk pas echt belangrijk worden als 8k ooit een serieuze factor van betekenis wordt. Want 8k60 zonder chroma subsampling vergt al 80Gbit/s en dan is het zonder dsc nooit mogelijk om het signaal via HDMI 2.1 weer te kunnen geven.

48, 40, 32 of 18Gbit/s bij de next-genconsoles?

48 of 40Gbit/s

De HDMI 2.1-specificatie gaat uit van 48Gbit/s als maximale bandbreedte. Maar inmiddels is wel duidelijk geworden dat dat geenszins betekent dat exact die bandbreedte ook steeds wordt aangehouden. Eerder was er al enige ophef of verbazing over het feit dat LG's 4k-oled-tv's en lcd-tv's met HDMI 2.1-aansluitingen uit 2020 deze bandbreedte niet halen. Deze televisies halen maximaal 40Gbit/s. LG gaf als verklaring dat er nog weinig content beschikbaar is die 48Gbit/s vergt en dat het een deel van de verwerkingscapaciteit van de processor heeft weggehaald bij de HDMI 2.1-aansluitingen. In de praktijk zal dit momenteel nauwelijks of geen nadelige gevolgen hebben, omdat 40Gbit/s genoeg is voor 4k-beelden met 120fps, bij een 10bit-kleurdiepte en zonder chroma subsampling. Dat ligt anders bij 12bit, maar huidige televisies zijn daar nog niet op berekend.

Review PlayStation 5

PlayStation 5 en 32Gbit/s

Inmiddels zijn er de nodige HDMI 2.1-televisies van andere merken die ook niet verder gaan dan 40Gbit/s en de Xbox Series X heeft zich aangesloten bij dat rijtje. Bij de PlayStation 5 is de situatie iets minder duidelijk en ook iets minder positief. Deze next-genconsole van Sony heeft een chipset die gewoon 40 of 48Gbit/s mogelijk zou moeten kunnen maken. Inmiddels is echter gebleken dat via HDMI 2.1 de bandbreedte bij de PS5 niet verder gaat dan 32Gbit/s. In plaats van vier lanes met 10 of 12Gbit/s en dus een totaal van 40 of 48Gbit/s, is er bij de PS5 momenteel sprake van vier lanes met 8Gbit/s.

De verlaging van 48 naar 40Gbit/s is zonder gevolgen, maar dat ligt anders bij de beperking van 40 naar 32Gbit/s. Bij 32Gbit/s is namelijk alleen 4k120 mogelijk met 4:2:2 chroma subsampling. Kortom, een verlaging van de kleurresolutie. De toepassing van 4:2:2 chroma subsampling betekent dat de kleuren er iets fletser uit kunnen zien in vergelijking met 4:4:4. Ook kunnen er bij 4:2:2 beeldartefacten zichtbaar zijn. Het idee hierbij is dat er kleurresolutie wordt opgeofferd en er dus kleurinformatie verloren gaat, maar dat dat bij de meeste natuurlijke beelden niet opvalt, omdat de resolutie van het helderheidssignaal behouden blijft. Niet iedereen zal dit dan ook opmerken of überhaupt het verschil zien. Er zijn signalen dat Sony dit issue in de toekomst gaat oplossen middels een firmware-update. Dat ligt ook wel voor de hand, omdat de chipset de hogere bandbreedte van minimaal 40Gbit/s zou moeten ondersteunen. Het is onduidelijk waarom dat momenteel niet gehaald wordt.

Review Xbox Series X

Xbox Series X en de 60Hz-instelling

De Xbox Series X haalt weliswaar 40Gbit/s en heeft dus niet deze beperking, maar de nieuwe console van Microsoft gedraagt zich ook ietwat merkwaardig als hij handmatig op 60hz wordt ingesteld. Op dat moment schakelt de console over op de HDMI 2.0-specificatie en dus een maximum van 18Gbit/s. Dat betekent dat 4k, 60Hz, 4:4:4 en een 10bit-kleurdiepte niet mogelijk zijn, want daar is 20Gbit/s voor nodig. Dat lost de console op door terug te vallen op 4k, 60Hz, 4:2:2 en 10bit. Kortom, ook hier een (lichte) verlaging van de kleurresolutie. In het geval van een HDMI 2.1-televisie en dus de wens om in 4k en 120Hz te spelen, is dit issue te vermijden door de instelling in de Xbox gewoon op 120Hz te laten staan, en vervolgens alleen in de game te kiezen voor 60Hz. Dan blijft de console gewoon gebruikmaken van fixed rate link, ofwel de HDMI 2.1-standaard, en zal er geen chroma subsampling worden toegepast.

Nu rijst wellicht de vraag waarom een gamer met een HDMI 2.1-televisie niet gewoon met de hoogst mogelijke framerate wil spelen. In principe luidt het adagium ten aanzien van de framerate in games altijd als volgt: meer is beter. Echter, een game renderen met 120 beelden per seconde kan een behoorlijke aanslag vormen op de rekenkracht, waardoor ontwikkelaars bij 4k120 genoodzaakt zijn bijvoorbeeld details terug te schroeven (zoals in Dirt 5) of raytracing helemaal achterwege te laten. Dat laatste is het geval bij Call of Duty: Black Ops Cold War, terwijl in de shooter raytracing in de vorm van realistischere schaduwen wel beschikbaar is bij 4k en 60Hz. Kortom, het is soms heel begrijpelijk om te kiezen voor 4k en 60Hz, terwijl 4k en 120Hz ook mogelijk is.

Probleem met variable refresh rate bij oledpanelen

Verversingssnelheid aanpassen

De grote troefkaart van HDMI 2.1 is de flink hogere bandbreedte van 40 of 48Gbit/s, zodat 4k-resolutie met 120Hz is te combineren. Er is nog een andere HDMI 2.1-feature die niet zonder gevolgen is tijdens het spelen van games: variable refresh rate. Met deze functionaliteit, die overigens vergelijkbaar is met G-Sync en FreeSync, kan het scherm zijn verversingsfrequentie (Hz) dynamisch aanpassen aan de output (fps) van de gpu. Dat voorkomt bijvoorbeeld half gerenderde frames en dekt framedrops als het ware af, waardoor er geen gestotter of screen tearing meer aanwezig moet zijn. In de praktijk betekent het dat een game vloeiender oogt en speelt.

Doorgaans is vrr beperkt tot een bereik van 40 of 48 tot 120Hz. Groot genoeg, zou je denken. Ook op de next-gen consoles zullen er echter games zijn die gelimiteerd zijn op 30fps, zoals Watch Dogs: Legion. Waarschijnlijk zal de rekenkracht van de Xbox Series X en de PS5 toereikend zijn. In theorie kunnen er soms framerates onder de 30 voorkomen als alle grafische toeters en bellen zijn ingeschakeld bij een grafisch intensieve scène. Dit valt dan buiten het vrr-bereik, maar ook dan is er een oplossing: low framerate compensation. Dit werkt niet alleen met FreeSync, maar ook via HDMI 2.1's vrr. Deze functie verdubbelt de framerate als die onder een bepaald minimum komt, zodat hij weer binnen het vrr-bereik komt.

LG C9
LG C9

Beperking bij oledpanelen

Vrr maakt zonder meer een positief verschil, maar helaas werkt deze functionaliteit ook niet geheel optimaal. De Oled Association is onlangs kort ingegaan op de constatering dat er sprake is van een gammaverschuiving bij de toepassing van vrr op de LG-oled-tv's uit 2019 en 2020. Dit probleem zal niet beperkt zijn tot LG-oled-tv's, maar tot op heden is er geen andere fabrikant die HDMI 2.1 ondersteunt met zijn oled-tv's. Het issue is dat donkere delen in games er grijzer en fletser uitzien dan wanneer vrr zou zijn uitgeschakeld. Details in schaduwen kunnen minder zichtbaar zijn en er zijn ook berichten over flikkeringen in donkere delen van gamebeelden.

Dit blijkt te maken te hebben met de oledpanelen voor televisies, die allemaal van LG Display afkomstig zijn. De gammacurven voor deze panelen zijn vastgezet voor 120Hz door middel van een vaste tijd voor het aanbrengen van spanning. Vrr wordt juist gebruikt voor minder dan 120Hz. Bij framerates die daar onder komen, is de gammacurve inconsistent met de framerate, waardoor donkergrijze delen van een beeld kunnen gaan flikkeren. De Oled Association denkt dat LG Display dit zal oplossen door verschillende gammacurven aan te brengen die geoptimaliseerd zijn voor lagere framerates. Voorlopig zal dit probleem dus niet weg te nemen zijn. Vermoedelijk zal het pas bij de opvolgers van de huidige 2020-oled-tv's van LG toegepast kunnen worden, doordat het te maken heeft met de optimalisatie van het paneel en niet met de overige hard- of software van de televisie.

Slot: het keuzemenu genaamd HDMI 2.1

Keuzemenu

Wat in zijn algemeenheid opvalt, is dat HDMI 2.1-ondersteuning niet automatisch een garantie is dat alle features die deel uitmaken van de specificatie, ook daadwerkelijk aanwezig zijn. Het is alsof je een pizza Hawaii bestelt en vervolgens moet constateren dat de kaas ontbreekt. Het lijkt nog wel op een pizza Hawaii en het gerecht wordt ook als zodanig gepresenteerd, want de ananas is er wel, maar toch ontbreekt er wat.

Ontbrekende ingrediënten zijn helaas geen uitzondering bij de HDMI 2.1-implementatie op televisies. De organisatie achter de standaard, HDMI Forum, heeft eerder al duidelijk gemaakt dat partijen bij hun producten de term 'HDMI 2.1' mogen gebruiken als deze HDMI-versie wordt geassocieerd met een functie zoals gedefinieerd in de officiële HDMI-specificatie. Dit geeft al aan dat HDMI 2.1 min of meer is te beschouwen als een keuzemenu en niet als een vastomlijnde set standaardeisen die altijd stuk voor stuk aanwezig moeten zijn.

e-arc
De werking van e-arc

Dit betekent in de praktijk dat een HDMI 2.1-televisie niet automatisch alle functies van de standaard ondersteunt. Het gaat dan dus om vrr, allm, 4k120, e-arc en quick media switching. Het feit dat deze features los te implementeren zijn, heeft ertoe geleid dat je met name een feature als allm al aantreft bij nogal wat relatief nieuwe HDMI 2.0-televisies. Dan zou je zeggen dat allm standaard op alle HDMI 2.1-televisies is te vinden, maar ook dat is niet altijd zo.

Sony's XH90 kampt niet alleen met het eerdergenoemde 120Hz-probleem, maar moet ook nog de update krijgen voor het toevoegen van allm en vrr. En zo zijn er ook HDMI 2.1-televisies die nog geen e-arc ondersteunen of juist geen vrr. Dit soort omissies zijn overigens niet beperkt tot televisies; in tegenstelling tot de Xbox Series X ondersteunt de PlayStation 5 nog geen vrr en allm. Het is inmiddels duidelijk geworden dat dat op termijn alsnog wordt toegevoegd, zoals Sony in een eerdere update van een faq over de PS5 heeft laten weten, al is niet bekend wanneer dat gebeurt. De PS5 kan overigens wel gewoon 4k120-beelden weergeven.

Goed opletten

De eerder in dit artikel besproken voorbeelden vormen waarschijnlijk geen uitputtend overzicht van alle actuele problemen bij het gamen met de HDMI 2.1-implementatie, maar zijn een aantal in het oog springende, actuele kwesties. Ze maken één ding overduidelijk; als consument moet je erg goed opletten. De implementatie van de HDMI 2.1-standaard, die een paar jaar oud is, verloopt nog niet bepaald vlekkeloos. Daarbij heeft de vrijheid die HDMI Forum aan fabrikanten heeft gelaten om de standaard te implementeren, geleid tot een nogal onoverzichtelijk geheel. Koop je een HDMI 2.1-product? Dan betekent dat niet dat alle onder de HDMI 2.1-standaard vallende functies echt allemaal aanwezig zijn en fatsoenlijk zullen werken. In plaats van het keuzemenu had HDMI Forum misschien beter een eten-wat-de pot-schaftgerecht kunnen voorschotelen, zonder de vrijheid om andere dingen te bestellen en er een eigen invulling aan te geven.

Beschikbare of nog uit te komen televisies met minstens één HDMI 2.1-aansluiting
LG

2019: C9, B9, E9, W9 (geen vrr), Z9, Nanocell SM9900-, SM9500- en SM9000-reeks

2020: CX, BX, WX, RX (geen vrr), GX, ZX, Nano 99, 97, 95, 91, 90, 86, UN85

Van de 2020-modellen ondersteunen de RX, WX, Nano 99, 97, 95 en UN85 geen vrr.

Samsung

2019: Q950R, Q900R, Q90R, Q85R (bij deze modellen moet een update voor e-arc nog komen)

2020: Q950TS, Q900TS, Q800T, Q95T, Q90T, Q80T, Q70T

Sony

2019: ZG9 (geen vrr, allm of qms)

2020: XH90, ZH8 (geen vrr, allm of qms)

Lees meer

Hdmi 2.1-specificatie is uitgekomen
Hdmi 2.1-specificatie is uitgekomen Nieuws van 28 november 2017

Reacties (244)

244
236
178
14
1
8
Wijzig sortering
Het versienummer in de titel van het artikel kan wel achterwege blijven, dit is niets nieuws met versie 2.1 van HDMI, dit speelt al sinds het begin van HDMI. Hetzelfde geldt overigens ook voor DisplayPort. Groot deel van de specs zijn altijd optioneel geweest.

Dat zag je vooral heel sterk toen DVI langzaam aan minder voor kwam op monitoren en werd vervangen door DisplayPort en HDMI. Veel beeldschermen ondersteunden toen geen resoluties hoger dan 1920x1200 over HDMI, terwijl veel van die schermen wel HDMI 1.3 hadden.

Officieel was er geen single link en dual link HDMI zoals je met DVI had, maar toch zag je destijds (dan praat je voornamelijk over periode 2008-2012) wel iets vergelijkbaars terug in de implementatie van HDMI op beeldschermen.

Verschil met toen is dat je tot de introductie van de Dell UltraSharp U2711 eigenlijk alleen maar 30" 2560x1600 schermen had die niet met een single link verbinding aangesloten konden worden. Voor de rest was alles 1920x1200, 1920x1080, 2048x1152, of nog lager. Ook 10 bit panelen waren toen nog heel erg zeldzaam en zag je alleen in de flagship colorgraphic schermen. Daardoor merkte toen nog vrijwel niemand die beperkingen, want vrijwel iedereen zat achter relatief low-end full HD TN schermpjes.

Je ziet hetzelfde overigens met de standaarden voor TV zelf. De standaard voor UHD TV is Rec. 2020. Die standaard specificeert naast resoluties ook kleurruimte, kleurdiepte, vernieuwingsfrequenties en nog veel meer. Toch waren alle UHD TVs van de eerste generatie eigenlijk niets meer dan (F)HD TVs (Rec. 709) met een twee keer zo hoge resolutie in de hoogte en breedte. Het kleurbereik was nog gewoon Rec. 709 (gelijk aan sRGB qua kleurbereik), frequentie 60 Hz, standaard dynamisch bereik en contrast in orde van 1000:1 tot 5000:1, 8 bit kleurdiepte. Allemaal niet in lijn met de UHD TV standaard. Toch mochten deze TVs wel als UHD TVs verkocht worden, terwijl ze maar één belangrijke specificatie ondersteunde en alle andere key eigenschappen niet voldeden aan de minimum eisen van de standaard.

Nu pas beginnen UHD TVs ook echt een beetje UHD TVs te worden. Het grootste verschil tussen HD TV en UHD TV vanuit de standaard was niet meer pixels, maar betere pixels: groter kleurbereik, hoger contrast, hogere kleurdiepte, hogere frequentie.

Dat zie je terug in de sterke opkomst van steeds groter kleurbereik, eerst met DCI-P3 en nu steeds vaker met ook nog groter bereik dan dat wat als percentage van Rec. 2020 dekking wordt uitgedrukt. Vooral op de colorgraphic beeldschermen speelt dit, maar bij TVs zie je het ook meer en meer. Ander voorbeeld is HDR, waar 10 bit aansturing ook echt een minimum vereiste voor is om banding te voorkomen.

Qua frequentie zie je het met TVs wat recenter, omdat die wat meer vasthouden aan de standaarden en daardoor alleen met veelvouden van 50 en 60 Hz werken, maar op de monitormarkt zie je al jaren steeds hogere frequenties.

Met al deze ontwikkelingen worden beperkingen - in de implementatie, niet zo zeer de standaard zelf - van interconnects steeds duidelijker, omdat je er veel meer onderdelen van gebruikt. Het is niet meer zo dat iedereen een FHD sRGB/Rec. 709 8bit scherm/TV heeft wat door elke implementatie van elke standaard (VGA, DVI, DP, HDMI) wel wordt ondersteund.
Je ziet hetzelfde overigens met de standaarden voor TV zelf. De standaard voor UHD TV is Rec. 2020....
Dat is inderdaad een goede analogie, want ook als je een 'ultra hd tv' koopt weet je inderdaad feitelijk niet wat je koopt. Verschil is wmb wel dat televisiefabrikanten vooralsnog ook niet claimen aan de Rec 2020 eisen te voldoen, terwijl je met de koop van een TV met HDMI 2.1 aansluitingen verwacht een apparaat te kopen dat alle HDMI 2.1 features ondersteunt, terwijl dat niet het geval hoeft te zijn.

Dat het HDMI Forum de extra features als VRR, ALLM en QFT niet verplicht heeft gesteld is wat mij betreft dan ook de allergrootste misser in dit geheel. Fabrikanten kunnen nu naar wensen features weglaten of toevoegen en voor de gemiddelde consument is totaal niet duidelijk wat een tv wel of niet ondersteunt.
Het wachten is op TV's die "Full HDMI 2.1" gaan ondersteunen...
En av receivers. En kabels. En lengte van de kabels. En hubs/connectoren. Daar ligt voor mij altijd het issue, de hele keten moet dezelfde standaard kletsen. Zelf ben ik de mist in gegaan bij 2.0a met hdr, zal me niet meer zo gauw overkomen!
Het aardige is juist dat het voor kabels veel duidelijker is: Je hebt nu 'Ultra High Speed HDMI' als kabelspec en voor kabels die daaraan voldoen wordt gegarandeerd dat ze in staat zijn 48Gbps signalen te transporteren én ethernet via HDMI ondersteunen.

https://www.hdmi.org/spec21sub/ultrahighspeedcable
Maar wat een hekel heb ik aan die 'ultra' voor dit soort upgrades van snelheden. Over een aantal jaar is er weer een snellere standaard en hoe ga je die nomen dan? 'Giga High speed HDMI'? Beter zet je gewoon in de titel welke snelheid de kabel aankan, wat minder sexy misschien maar wel toekomstbestendig.
Na 'Ultra' komt 'Hyper', duh. ;)
Dan ga je toch al snel richting 'Warp'
FF off topic;
En daarna Trans Warp.. Vergeet overigens het "mycelium network" niet ;)

Maar ben het er wel mee eens dat de super / hyper enz geen zin hebben. Gewoon versie vermelden en thats it.
Per versie aangeven wat kan en ophouden met al die opties. Zet die opties eventueel in HDMI2.1.1 HDMI2.1.2 of zoiets.
En daarna Trans Warp.. Vergeet overigens het "mycelium network" niet
Je vergeet Slip stream ;)
https://memory-alpha.fand.../Quantum_slipstream_drive
En natuurlijk: ludicrous speed :)
OMG Space Balls <3 Totally forgot
Heb dat filmpje van Ludicrous Speed gister gelijk even teruggezocht.

https://www.youtube.com/watch?v=ygE01sOhzz0

Voor de "spaceBalls" onder ons <3
Laatst de hele film nog maar weer eens gekeken, nu met de kids. Blijft een favoriet
Ik gok dat het hierna "Real HD" gaat worden oid, en daarna kan de cirkel weer overnieuw beginnen. "Full Real HD" etc.... :+
Of ultra 2.0.. laat die marketing afdelingen maar schuiven
als techneut zou een versie nummer ophoging al voldoen.

bv van 2.4 naar 2.5 of van 2.4 naar 3.0 biij grote veranderingen.
En laat ze dergelijke specs eens op de kabel zelf zetten, zeker als op het oog dezelfde connector gebruikt wordt.
HDMI - Series X? HDMI 360? HDMI One? Microsoft stoeit al langer met dit probleem ;)

[Reactie gewijzigd door King of Snake op 22 juli 2024 14:35]

Zijn er al, de 2019 oled tv's :)
...van LG. Die van Sony, Panasonic en Philips dan weer niet.
Lijkt mij inderdaad een bewuste marketing strategie. Hoe krijgen ze nieuwe tv's anders verkocht als de meeste al over zijn op een flatscreen. Nieuwe features 1 voor 1 blijven introduceren.. :Y) , dus beter kijken waar je minimaal mee wegkomt om het label hdmi 2.1 te mogen dragen, daarna langzaam uitbreiden. Zouden fabrikanten onderling dergelijke dingen met elkaar afspreken of zit ik dan teveel in de complot theorie hoek ;)
Verschil is wmb wel dat televisiefabrikanten vooralsnog ook niet claimen aan de Rec 2020 eisen te voldoen...
Ja en nee, ze zeggen inderdaad niet Rec. 2002 ready/compliant of iets in die richting, maar ze noemen het wel UHD. Feit is dat UHD meer is dan alleen een resolutie, het is een standaard voor het geheel.

Daar is het overigens wel duidelijker dat het optioneel is, want Rec. staat voor Recommendation.
Dit fenomeen is in meer gebieden terug te zien en we zijn hier gelukkig ook kritisch(er) op geworden.
De vraag is of onze kritische houding (altijd) terecht is.
In het geval van wat in het artikel verteld wordt over de XH90, blijkt dat de interne beeldverwerking niet uit het scherm haalt wat je verwacht bij UHD/4K: de verticale beeldlijnen worden gehalveerd en zorgt voor merkbare onscherpte. Omdat dit niet (duidelijk) vermeld wordt door de fabrikant, kan er gezegd worden dat er sprake van misleiding: de verwachtingen sluiten niet aan bij de realiteit.

Bij iets totaal anders, maar hetzelfde fenomeen: de 8K opnamemogelijkheid van de Canon R5. Deze werd fel bekritiseerd, door problemen met het opwarmen (en duur van afkoelen), waardoor de functie een stuk minder bruikbaar is (met wat je zou verwachten). Dit is overigens significant verbeterd na een update, maar wel iets om rekening mee te houden: bij het te lang filmen op 8K kan het zijn dat filmen op 4K(60fps) niet mogelijk is, omdat het toestel (nog) te warm is.
Hier is de kritiek minder terecht: Canon loopt tegen fysieke beperkingen aan. Dan heb je de optie om een functie in zijn geheel weg te laten, of de functie, zij het deels "kreupel", wel toe te voegen. Als techfanaat en tweaker geef ik de voorkeur aan het laatste. Zoals geen enkele auto gemaakt is om continu remmend bergaf te rijden (oververhitten van de remmen, bij afdalingen is het verstandig veel op de motor af te remmen), zo zal de Canon R5 zijn beperkingen hebben bij het filmen met 8K. Maar het toestel kán het wel.

Wat nu ook vooral steekt is dat een standaard steeds minder zegt. Kijkend naar de USB en SD specificaties, is het een wirwar aan specificaties die erg kunnen variëren van product tot product en ook niet altijd duidelijk iets zeggen over kwaliteit. Een ook bij HDR is het lastig, maar ook bij resolutie, want er bestaat dus iets als "echt" en "nep" 4K ...

Waar standaarden dienen bij te dragen in een gedefinieerde kwaliteit, is dit steeds minder het geval.
4K: kan geüpscaled zijn, trucjes met halvering van beeldlijnen zijn toegestaan, maar ook chroma subsampling (4:2:2 bijvoorbeeld) beïnvloeden de scherpte in negatieve zin.
HDR: verschillende technieken en ook niet duidelijk in welke mate de volledige capaciteit gebruikt wordt, zo gaat de specificatie van Dolby Vision tot 10.000 nits, maar dit zullen we (voorlopig nog) niet gaan zien: de opnameapparatuur is nog (praktisch) niet zo ver dit op te kunnen nemen, plus de weergaveapparatuur ook niet. Dus wat zegt die standaard?
Dolby Atmos: positie-gebaseerd geluid, dus ook boven je (god-stem). Maar ook telefoons "ondersteunen" het. [sarcasme] Ik gok dat er een periscoop-speaker in zit die boven je hoofd komt. [/sarcasme]

En zo zijn er nog wel meer voorbeelden. Denk aan de acceleratietijden van auto's: sommige auto's kunnen hun maximale performance niet elke keer geven. Ik geloof dat Tesla bij één of meerdere modellen tijd nodig heeft om op te warmen/af te koelen en de omgevingsvariabelen (zoals temperatuur) moeten ook goed zijn.

Ik weet het niet meer qua specificaties. De industrie weet het zo te managen, dat de basis van de standaard al reden zijn tot discussie, omdat binnen de standaard helemaal niet duidelijk is of er wel sprake is van kwaliteitsverbetering met die standaard, en eventueel in welke mate.
Daarnaast krijg je grappen zoals wat Sony met de XH90 doet, door een beeldverwerker te gebruiken die niet de verwachten kwaliteit haalt, maar door een trucje wel binnen de regels van de specificaties blijft en zo dus afdoet aan de intentie van de standaard. Dat zie ik als misleiding, zeker als daar niet open over gecommuniceerd wordt en wat mij betreft een zeer valide reden om een product te laten liggen, of zelfs te boycotten. We moeten niet toestaan dat misleiding de norm wordt, zoals bij smartphone-cpu's die alle registers open gooien bij benchmark apps, maar bij andere apps niet.
Hier is de kritiek minder terecht: Canon loopt tegen fysieke beperkingen aan. Dan heb je de optie om een functie in zijn geheel weg te laten, of de functie, zij het deels "kreupel", wel toe te voegen. Als techfanaat en tweaker geef ik de voorkeur aan het laatste.
Eens, maar gaat natuurlijk ook wel om de aard van het product. De Canon R5 is primair een fotocamera. Dan vind ik dit voorbeeld minder kwalijk en zoals je zelf al zegt als techfanaat zelfs mooi dat je het dan in ieder geval deels kan gebruiken. Met een fotocamera maak je over het algemeen minder lange videos dan met videocamera's, ook omdat je volgens mij nog steeds de limiet van max 29:59 opnameduur hebt per clip op fotocamera's.

Op een videocamera zouden ze hier minder makkelijk mee wegkomen denk ik en dan zouden ze een stuk voorzichter moeten zijn met zeggen dat opnemen in 8K mogelijk is. Dan moeten de beperkingen wel heel duidelijk vermeld worden naar mijn mening.
...zo gaat de specificatie van Dolby Vision tot 10.000 nits, maar dit zullen we (voorlopig nog) niet gaan zien: de opnameapparatuur is nog (praktisch) niet zo ver dit op te kunnen nemen, plus de weergaveapparatuur ook niet. Dus wat zegt die standaard?
Dit is eigenlijk een beetje hetzelfde voorbeeld als wat je eerder aanhaalde met de Canon R5. Het is natuurlijk wel fijn als een standaard enige tijd mee gaat. Daarnaast wordt de eerste hand aan een standaard soms al wel 20 jaar voor eerste implementaties ervan gelegd. Dat maakt het natuurlijk ook wel lastig voorspellen wat er tegen die tijd mogelijk is. Sommige dingen zullen meevallen, andere tegen.

Maar kan geen kwaad als er zelfs voor de flagshipproducten nog genoeg ruimte voor ontwikkeling is binnen een standaard. Dat vermindert de vraag naar een nieuwe standaard, wat weer backwards compatibility issues met zich mee kan brengen.
Het voorbeeld was om te laten zien dat het best vaak voorkomt dat verwachtingen van kopers/consumenten niet aansluiten op wat er wordt geproduceerd. In het geval van de Canon R5 is de kritiek best fel, maar niet helemaal terecht. Ook zie je de laatste 1~2 jaren hoe fel mensen kunnen reageren op bepaalde features, zoals de positie van de vingerafdrukscanner of het toepassen van een notch bij een smartphone. Ook het al dan niet implementeren van een 3,5mm aansluiting is nog steeds een punt van discussie. Ook daar mogen kanttekeningen bij: het is gewoon niet ok om het weg te laten, mits er geen verloopstekker USB-3,5mm (met behoud van laadmogelijkheid) o.i.d. gebruikt wordt.

Ik denk dat we als consument zeker kritisch mogen/moeten zijn. Trucjes zoals met de beeldverwerkingseenheid van de XH90 zijn gewoon ongewenst, ondermijnen het vertrouwen in de UHD standaard en een sterk afkeurende reactie is op zijn plaats. Ik denk dat we gebaat zijn aan strak(ker) gedefinieerde standaarden. Dan weet je als consument ook (beter) waar je aan toe bent.
En we zouden ook gebaat zijn als we als consument heel scherp zijn op misleiding (zoals bij bijvoorbeeld QLED - OLED), maar wel de situatie in de volledige context zien (zoals bij de R5 niet lijkt te gebeuren).
Hier is de kritiek minder terecht: Canon loopt tegen fysieke beperkingen aan. Dan heb je de optie om een functie in zijn geheel weg te laten, of de functie, zij het deels "kreupel", wel toe te voegen. Als techfanaat en tweaker geef ik de voorkeur aan het laatste. Zoals geen enkele auto gemaakt is om continu remmend bergaf te rijden (oververhitten van de remmen, bij afdalingen is het verstandig veel op de motor af te remmen), zo zal de Canon R5 zijn beperkingen hebben bij het filmen met 8K. Maar het toestel kán het wel.
Nou moet gezegd worden dat de eerste firmware die termal timeouts gewoon op de klok te hebben geïmplementeerd, en nu na de update daadwerkelijk temperatuur gemeten wordt. Dat was natuurlijk ook gewoon een slechte implementatie, dus de kritiek was wel degelijk terecht. Je kon de camera gewoon koel houden en dan ging hij initieel alsnog uit. Terwijl na de update kun je met extra koeling (of als het extra koud is) bijna permanent filmen.

Daarbij is het termal design van de camera gewoon niet zo deftig als het misschien had moeten zijn.

[Reactie gewijzigd door EraYaN op 22 juli 2024 14:35]

Qua frequentie zie je het met TVs wat recenter, omdat die wat meer vasthouden aan de standaarden en daardoor alleen met veelvouden van 50 en 60 Hz werken, maar op de monitormarkt zie je al jaren steeds hogere frequenties.
TV's ondersteunen, in tegenstelling tot veel gewone monitoren, ook 23,976 en 24 hz. Dat is essentieel voor filmmateriaal op schermen die niet op 120 hz draaien en goede interpolatie hebben, en voor schermen die niet direct met 120 hz aangestuurd kunnen worden.

Nu zijn er steeds meer TV's die intern 120 hz ondersteunen, en 23,976 hz makkelijk kunnen interpoleren omdat het dicht bij 24 hz zit, waar 120 hz een veelvoud van is.

De beste oplossing is natuurlijk de frequentie van het uitgestuurde signaal gelijk maken aan de frequentie van het videomateriaal. Als dat exact gelijk is is, geen probleem. Dat kan dan ook in de meeste situaties. Al heb je afwijkende refresh rates (zoals bij spellen), dan kom je uit bij FreeSync/G-Sync, HDMI 2.1 VRR, ...

[Reactie gewijzigd door The Zep Man op 22 juli 2024 14:35]

True, misschien heb ik het een beetje onduidelijk verwoord, want doelde hier specifiek op de hogere refresh rates. Op beeldschermen zie je daar van alles: 100, 120, 144, 155, 160, 165, 170, 175, 180, 200, 240, 270, 280 en 360 Hz. Bij TVs zie je eigenlijk alleen maar 100 en 120 Hz.

Maar inderdaad naast 50 en 60 Hz ondersteunen TVs vaak ook 24 en 30 Hz en dan meestal ook de x/1,001 varianten.

[Reactie gewijzigd door Kid Jansen op 22 juli 2024 14:35]

Kan ik dan concluderen dat het interessanter is om een groot beeldscherm kopen dat al deze frequenties ondersteund en een losse tv decoder (met aparte audio output) die alles op maximale resolutie /framerate er uit gooit richting tv ?
Niet helemaal. TV's bevatten behoorlijk wat beeldverbeteraars t.o.v. monitoren. Het omzetten van een interlaced of telecine signaal kan je TV nog altijd het beste. Veel STB's (waaronder die van Ziggo) doen een goede poging, maar halen het niet bij de geïntegreerde deinterlacer van (bijvoorbeeld) Sony.
"Nu pas beginnen UHD TVs ook echt een beetje UHD TVs te worden. Het grootste verschil tussen HD TV en UHD TV vanuit de standaard was niet meer pixels, maar betere pixels: groter kleurbereik, hoger contrast, hogere kleurdiepte, hogere frequentie." Ik hoor nu mezelf praten. In mijn zoektocht naar een nieuwe TV (ongeveer een jaar geleden) heb ik menig verkoper al geprobeerd duidelijk te maken dat het aangeprezen toestel geen volwaardige UHD TV betreft, omdat onder meer Rec. 2020 ("HDR") niet werd ondersteund. Zonder uitzondering kreeg je dan een alsof-water-in-brand-staat blik toegespeeld. Hoe kun je dan überhaupt verwachten dat de simpele consument in staat is om een compromisloze homecinema samen te stellen?
Misschien in de inleiding even beginnen met korte uitleg wát HDMI 2.1 is en zou moeten doen?

Het is iets dat met de laatste tijd veel opvalt bij artikelen hier: als er al ergens al was het maar een summiere uitleg volgt van het hoofdbegrip of onderwerp, dan meestal pas tegen de laatste alinea's, maar vaak ook gewoon niet.

Als journalistiek om verduidelijking gaat, om uitleg, openbaarmaking, zowel qua onderwerp als tekstueel, dan verwacht ik die klaarheid ook in een afgerond artikel. Vroegâh, op school, is me geleerd dat wanneer ik een stuk schrijf ik met een inleiding begin waar ik de lezer duidelijk maak waar mijn stuk over gaat en waar ik aangeef waar ik het over ga hebben.

Ja, ik snap het, dit is Tweakers, waar alleen maar mensen komen die alles al weten, die geen uitleg meer nodig hebben, geen verduidelijkende inleiding. Zoals wel vaker vergeten we dan voor het gemak even dat we ooit als nOOb zijn begonnen en erg blij waren als iemand een mooi, helder verhaal schreef. Kijk naar Hardware.info, bijvoorbeeld: zelfs hun 'geeky' artikelen die dieper op inhoud ingaan, zijn helder en er wordt korte maar duidelijke uitleg gegeven van soms behoorlijk technische onderwerpen. Op Tweakers.... niet of nauwelijks.

Wat ik dus graag zou zien hier, zowel in gewone als 'Premium' artikelen, is meer helderheid. Geef even een beetje uitleg vóór het artikel van start gaat. De drie eerste Premium-artikelen hadden in mijn optiek allemaal last van het ontbreken van een duidelijke inleiding. Het las alsof ik ergens midden in een gesprek terecht kwam.
Geef even een beetje uitleg vóór het artikel van start gaat. De drie eerste Premium-artikelen hadden in mijn optiek allemaal last van het ontbreken van een duidelijke inleiding. Het las alsof ik ergens midden in een gesprek terecht kwam.
Dat is ook een van de redenen dat ik ze niet eens meer lees. Ik weet dat HDMI 2.1 een nieuwere versie van 2.0 is die meer data kan versturen maar wat er nieuw is geen flauw idee.
Ik heb geen eens een idee wat het verschil is tussen HDMI standaards. Ik zie een HDMI plug en een stekker die er in kan; einde kennis.

En de reden dat ik op dit artikel heb geklikt was eigenlijk omdat ik daar meer over wou weten.
Standaard definitieve beschrijving vooraf is inderdaad al voldoende aan het begin van een heel technisch verhaal, ik ben het helemaal met je eens hierover.
Fair enough.
Mijn eerste reactie tijdens het lezen was: maar....dit is Tweakers. ?

Maar je hebt gelijk.

Het is ook maar dat ik persoonlijk al maandenlang een deep-dive heb gedaan in al deze stof omdat ik mn hele setup heb vernieuwd, waardoor ik volg wat er nu verteld wordt.
Als ik aan het begin van dat avontuur stond had een heldere korte inleiding/uitleg inderdaad veel meer toegevoegd.
Het huidige Tweakers is al lang niet meer het Tweakers van vroeger. Toen kwamen hier uitsluitend doorgewinterde "techkies" voor verdieping. Het huidige publiek kun je (deels) vergelijken met de NUjij reaguurder die boos wordt omdat de "internetkabel" niet in de waterkoker past. Daar is niets mis mee natuurlijk, maar ik kan me voorstellen dat de meer technisch onderlegde forum bezoekers af en toe hun neus ophalen voor de onnozele reacties onder dit soort artikelen.
Ik ben het helemaal met je eens. Bij een artikel als dit zou ik een heldere probleembeschrijving verwachten in de inleiding.
Een goed verstaander heeft maar een half woord nodig, toch? De probleembeschrijving volgt later in het artikel. In een detective wordt toch ook niet gelijk in de inleiding vermeldt wie de moordenaar is en wat de motieven waren? Als je het hele artikel zorgvuldig doorleest, valt alles op zijn plek.
Normaal zou je niet zoveel gezeur bij een artikel als deze zien. Het is immers gratis, als het je niet bevalt scroll je verder. Naar nu er premium staat willen mensen weten wat er premium aan is en hebben ze terecht een hogere verwachting, je gaat er immers voor betalen.
Dan lees je een "achtergrond" artikel, met een opsomming van dingen wat je waarschijnlijk allemaal al weet als dit je intressegebied is. Maar wat is de achtergrond ervan? Waarom wordt het ene wel geïmplementeerd en de andere niet? Is het een hardware tekortkoming? Zijn het vinkjes in de firmware? Is het bewuste keuze van de fabrikanten om er later mee te komen? Of doen ze het express voor een bredere productassortiment? Moeten ze er extra licenties voor betalen? Als het een betaalde achtergrondartikel is verwacht ik wel op zijn minst dat de fabrikanten geïnterviewd zijn waarin ze hun keuzes onderbouwen en we niet alleen weten dát er een probleem is, maar wáarom dat probleem er is. Dus de achtergrond ervan. Dat is journalistiek werk waarvoor je geld kan vragen en info dat elders niet te vinden is, de rest is Google werk.

[Reactie gewijzigd door HakanX op 22 juli 2024 14:35]

Sjeetje, wat een chaos eigenlijk. Je moet toch bijna gestudeerd hebben om te achterhalen of je (toekomstige) setup wel de volledige mogelijkheden benut van al je apparaten.

Console, TV, Receiver. allemaal via een "standaard" maar alles kan net even anders werken, ik word er bloednerveus van.
Dat van Sony vind ik wel echt een pjinlijke misser, melden dat je PS5 ready bent en dan vervolgens niet de hoogst haalbare kwaliteit kunnen weergeven op je TV. Dat neigt naar volksverlakkerij om eerlijk te zijn. Ik vraag me af of er wat mannen en vrouwen bij Sony rondom de vergadertafel zitten en zeggen tegen elkaar "och dat merken ze toch niet"


Vroeger toen je gewoon nog alles via SCART aan kon sluiten, toen werkte alles gewoon nog.
Vroeger toen je gewoon nog alles via SCART aan kon sluiten, toen werkte alles gewoon nog.
Deze reactie illustreert eigenlijk dat het helemaal geen nieuw 'probleem' is. Want vroeger was de consument ook helemaal niet op de hoogte van de details, wat jij bij deze bewijst.

SCART slaat immers gewoon op de aansluiting. Maar over SCART kon je zowel Composite, S-Video als RGB sturen. En ook toen hadden TVs meerdere SCART aansluitingen waarvan bvb maar 1 er RGB ondersteunde. Je had dan ook nog eens kabels die niet alle pinnen doorverbonden en dus bvb niet bruikbaar waren voor RGB.

Dus ook 25 jaar geleden was het een klein zootje en had de doorsnee consument totaal de verschillen niet door en sloot zijn apparaten mogelijk op een manier aan waardoor hij niet eens het beste uit zijn apparaten haalde. En ik kan je verzekeren dat het verschil tussen SCART-RGB en SCART-Composite vele malen duidelijker is, ook voor een ongeoefend oog, dan waar we nu over vallen met HDMI 2.1.

[Reactie gewijzigd door Twixie op 22 juli 2024 14:35]

Visie van LG, uit het artikel:
[...]dat er nog weinig content beschikbaar is die 48Gbit/s vergt en dat het een deel van de verwerkingscapaciteit van de processor heeft weggehaald bij de HDMI 2.1-aansluitingen.
Ik denk, en dat is een aanname van mijn kant, dat men dit bewust doet om de TV minder lang "houdbaar" te maken.

"Oh je wil 48Gb/s? Dan moet je ons nieuwe, verbeterde 2021-model hebben!"
10 bit paneel en niet 12 bit. Dus 48gbit zal je nooit nodig hebben.
12bit signaal versturen naar een 10bit display heeft wel zijn voordelen.
Hoe werkt dat dan? Soort down sampling? Heb je hier wat meer info voor?
Zoiets ja. Dat zag je 'vroeger' vooral op de colorgraphic monitoren, bedoeld voor foto- en videobewerking:

10 bit workflow op PC
10 bit aansturing over interconnect
14 of 16 bit interne verwerking beeldscherm
8 bit + FRC paneel

Native was het paneel dan dus maar 8 bit, maar alle stappen daarvoor werden in hogere bitrates verwerkt. Dit was vooral van toepassing op schermen met hardwarematige kalibratie.

Hopelijk wordt het hier iets duidelijker van Kid Jansen in 'nieuws: Asus introduceert twee ProArt-monitoren met miniledpan...

Op TVs zag je hetzelfde ook wel, maar minder. Blu-ray ondersteunde ook al hogere bitdieptes van 10 en 12 bit, werd daar deep color genoemd, maar de TVs hadden toen vaak alleen 10 bit interne verwerking, geen 10 bit paneel. Dat was vrijwel altijd 8 bit, soms 8 bit + FRC.
Extra "headroom" in de vorm van hogere bitrate kan zeker zinvol zijn bij de interne processing van een weergever. Kan zorgen voor minder banding bijvoorbeeld.
Dingen als witbalans en cms word nog toegepast op het signaal voor het weergegeven word.
Dat is erg Apple-achtig van ze. Features bewust achterhouden zodat je volgend jaar wél die feature kan introduceren en dus als sellingpoint kan opgooien.
Apple is er gruwelijk rijk mee geworden, dus blijkbaar is het een succesvolle (deel) strategie.
Bedoel je RGB-Scart? Of Composite? Of had je al S-Video-Scart?

Bij mij wiebelden de contacten trouwens altijd, goed werkte het ook niet.

uiteraard is dat geen goed excuus om het tientallen jaren later weer te verknallen

[Reactie gewijzigd door _Pussycat_ op 22 juli 2024 14:35]

Niet te vergeten dat de veelal goedkopere scart kabels niet alle pinnen heeft of dat deze verbonden zijn, dus ook daar zat mogelijk een compatibiliteit probleem voor bepaalde doeleinden.

Toegegeven, de meeste van die pinnen waren als ik me goed herinner simpelweg niet nodig maar toch.

[Reactie gewijzigd door Amorac op 22 juli 2024 14:35]

Je kan ook gewoon alles via HDMI aansluiten. Dan werkt alles ook gewoon. Als je het echt niet weet kan je altijd nog een topic op het forum hier aanmaken.
Zoo.. Zullen we t niet hebben over de implementatie van s-video en tulp - outputs van videokaarten en de tv's/monitor die het ondersteunen.

Heb in t verleden zat issues gehad met beeld en ben juist blij dat er (in de onderlaag qua resoluties) het nu gewoon 'plug'n'play' is.

Dat in de bovenlaag van de resolutie de tv's zo stuntelen is eigenlijk ook niet zo gek als je zo'n rare standaard 'mag' gebruiken.
Nou dan moet ik je toch uit de droom helpen, ook bij SCART waren er verschillen. Je had namelijk scart kabels en aansluitingen op apparaten die volledig bedraad waren en RGB doorgaven wat de beste kwaliteit gaf maar je had er ook die alleen CVBS doorgaven waarbij het beeld stukken minder van kwaliteit was.
Vroeger toen je gewoon nog alles via SCART aan kon sluiten, toen werkte alles gewoon nog.
De Scart connector was een regelrecht drama en ben blij dat we daar helemaal van af zijn. Leek wel door een dronken technicus te zijn ontworpen. Ook daar waren verschillende standaarden die je aan de buitenkant niet zag. En dan die connector die ze altijd op een dergelijke idiote wijze op het apparaat plaatsten dat je de stekker er nauwelijks goed in kreeg. De haakse hoek was ook altijd net de verkeerde kant op. En dan vaak weigerende Scart verbindingen omdat één pinnetje naar binnen was gedrukt e.d.
Hun BLOEDEIGEN tv nog wel! Kijk dat de standaard niet zo standaard lijkt te zijn is 1 ding. En dat verschillende fabrikanten van hardware net even andere standaarden hanteren en dus wat minder compatibel zijn met hardware van andere fabrikanten kan ik ook nog inkomen. Maar dat je eigen tv de de eigen console blijkbaar niet goed ondersteund is echt wel misser hoor.

Ik vraag mij geregeld af of de mensen die over de uiteindelijke beslissing gaan niet geregeld tegen elkaar zeggen "och dat merkt toch niemand". Of "anders moeten we hier nog een keer over vergaderen".
Ik ben er niet positief over geworden met alles gelezen te hebben.

- consoles die nog niet 100% HDMI 2.1 ready zijn.
- Oled tv's waarbij de fabrikanten wegens content aanbod de hardware verlagen ondanks dat ze met 48gb pronken?

Wou een LG55CX3LA aanschaffen (€1.399), maar zit nu dus te twijfelen.
Ik ben er niet positief over geworden met alles gelezen te hebben.

- consoles die nog niet 100% HDMI 2.1 ready zijn.
- Oled tv's waarbij de fabrikanten wegens content aanbod de hardware verlagen ondanks dat ze met 48gb pronken?

Wou een LG55CX3LA aanschaffen (€1.399), maar zit nu dus te twijfelen.
Ik zelf heb de LG OLED55B9SLA gekocht, en ik heb volledige 4k 120Hz support met alles op zijn hoogst qua beeldkwaliteit met mijn GeForce GTX 1650 en Club 3D DisplayPort 1.4 to 4K120HZ HDR Active Adapter, de echte verschil wat ik kan zien tussen die van mij en jou is dat die van mij G-Sync Compatible is en die van jou ook FreeSync Premium ondersteund.

4K HDR 120hz met 10bit:
Foto1
Foto2

4K HDR 100 met 10bit:
Foto1
Foto2

De TV

Maar ja ben er mee eens dat de fabrikanten gelogen hebben een grote aantal van hun, ze hadden bij aankoop al volledige HDMI 2.1 moeten kunnen doen, wat een aardig hoeveelheid niet konden en nog steeds niet kunnen.

De probleem met geen HDMI 2.1 op je versterker hebben, heb ik op gelost met me Mini Media/Console PC waar me GeForce GTX 1650 in zit met de Club 3D DisplayPort 1.4 to 4K120HZ HDR Active Adapter rechtstreeks aan te sluiten op mijn LG OLED55B9SLA TV, en met een HDMI 2.0 van me GeForce GTX 1650 naar me versterker te gaan, allen zal dat denk ik niet gaan met de nieuwe consoles.

Ik gebruik nog de Onkyo TX-NR609 die HDMI 1.4 heeft, en ik wou die niet ook nog is gaan vervangen voor een HDMI 2.1 versterker, wat ook weer minimum €600+ gaat kosten, en is op deze manier ook helemaal niet nodig, en werkt heel goed, en merk geen echte verschil, ja als ik Dolby Atmos wil dan moet ik hem wel vervangen.

edit foutjes

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 14:35]

Ik was hier een tijdlang in geïnteresseerd, maar heb veel berichten gelezen over het feit dat FreeSync niet zou werken met bovenstaande adapter. Tenminste niet initiëel.

Heb je hier eventueel meer informatie over?

In mijn situatie zou dit wel flink kosten kunnen sparen. Voor de prijs van een console + AVR valt een PC ook wel aardig op te knappen, zodra de gewenste hardware daadwerkelijk te koop is.
Ik was hier een tijdlang in geïnteresseerd, maar heb veel berichten gelezen over het feit dat FreeSync niet zou werken met bovenstaande adapter. Tenminste niet initiëel.

Heb je hier eventueel meer informatie over?

In mijn situatie zou dit wel flink kosten kunnen sparen. Voor de prijs van een console + AVR valt een PC ook wel aardig op te knappen, zodra de gewenste hardware daadwerkelijk te koop is.
Je bedoelt de Club 3D DisplayPort 1.4 to 4K120HZ HDR Active Adapter, die bedoel je?

Zo ja, FreeSync en G-SYNC woord niet ondersteund door de Club 3D DisplayPort 1.4 to 4K120HZ HDR Active Adapter, voor de rest wel alles, zo als

• Support HDCP 1.4
• Support DSC v1.2a and backward compatible with the former version
• Support Max. resolution/refresh rates up to 4k@120Hz en 8k@60Hz, staat op hun website in hun PDF, en andere hebben dat getest.
• Support Dynamic HDR
• Sound Support 5.1-7.1

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 14:35]

Hartelijk dank! Dat is namelijk best een belangrijke factor voor gamers, wat waarschijnlijk ook een belangrijk deel van de potentiële doelgroep vormt. Ik hou het desondanks in de gaten stel dat hier ooit nog een update voor komt.

(Kan je helaas geen +2 bieden)
Graag gedaan, dat is waar eigenlijk Tweakers voor bedoelt was, om elkaar te helpen, en ja geef niet, het puntensysteem werkt al heel vreemd op Tweakers.
Bedankt voor de informatie. Jij hebt het allemaal rondom de tv extra zitten bouwen , aansluiten van extra apparaten. Ik ben niet zo iemand. Bij ons komt de oled gewoon in de woonkamer. Voor hedendaagse gebruik is het prima. Want de pc, console zitten bij ons in de werkkamer/ man kamer. Maar wil zeker de tv na een moment in de werkkamer hebben wegens de PS5. Is het dan verstandig om nu de tv te halen? We zijn tenslotte in december. Nu was er deze actie de CX55 voor 1399,- wat ik dacht is een goed deal met de HDMI 2.1 enz. Maar achteraf dus vies tegengevallen?

Wel of niet halen volgens jou?
Bedankt voor de informatie. Jij hebt het allemaal rondom de tv extra zitten bouwen , aansluiten van extra apparaten. Ik ben niet zo iemand. Bij ons komt de oled gewoon in de woonkamer. Voor hedendaagse gebruik is het prima. Want de pc, console zitten bij ons in de werkkamer/ man kamer. Maar wil zeker de tv na een moment in de werkkamer hebben wegens de PS5. Is het dan verstandig om nu de tv te halen? We zijn tenslotte in december. Nu was er deze actie de CX55 voor 1399,- wat ik dacht is een goed deal met de HDMI 2.1 enz. Maar achteraf dus vies tegengevallen?

Wel of niet halen volgens jou?
Ja dat ligt aan meerdere dingen, heb je hem nu nodig, is je andere TV maar 1080P en je wil graag 4K hebben vanwege je PS5, is de beeld kwaltijd slecht aan het woorden omdat het een oude TV is, heb je veel content die 4k is?

Als je een computer of console had die je op je 4k OLED TV wil aansluiten zou ik zeggen ga er voor, maar als je dat niet doe, en je hebt zo goed als geen 4k content wat je er op draai, zou ik nog wachten als ik je was.
Het beeldpaneel van de LG OLED kan niet meer dan 40gbit/s aan bandbreedte weergeven, daarom hebben ze daarvoor gekozen. Dat verschil ga je dus nooit zien ;) VRR is dus wel nog een probleem
4K HDR 120hz 4:4:4 heeft toch echt meer dan 40 Gbps nodig. Namelijk 40,1 Gbps. Heel vreemd dat de CX modellen maar tot 40 Gbps gaan. De 2019 modellen hebben wel gewoon 48 Gbps hdmi aansluitingen. Ik heb juist hierom een E9 aangeschaft 2 maanden geleden.
https://youtu.be/EtaMLPo3b8o

HDTVTest geeft in het bovenstaande filmpje aan dat 40gbit/s voldoende is voor 4K 120Hz 4:4:4 10 bit content
de 2019 zijn nu goedkoper, is het dan beter als je echt nu wilt die te halen of wachten tot 2021?
Mijn advies is om nog een jaar te wachten. Ergens in 2021 of begin 2022 komen er "echte" 4K met "echte" HDMI 2.1 ondersteuning uit.

Ik zit zelf ook nog te wachten, ze worden ook goedkoper in de toekomst naarmate de technologie volwassenen is geworden.
Wat bedoel je met echte 4K?
Was satirisch bedoeld. Ik bedoel TV met processors die 4K zonder compressie of allerlei trucjes kunnen verwerken. Zie artikel met enkele fabrikanten die allerlei trucjes gebruiken.

En met echte HDMI 2.1 bedoel ik HDMI 2.1 met de volledige 48 Ghps bandbreedte.
Ik dacht al. Zit je nou mijn lg c9 af te zeiken? :*)
Interessant artikel!
Waarom houden TV's en receivers vast aan HDMI terwijl DisplayPort en de variant over Usb-c vele malen beter is?
Waarbij Displayport ook nog het voordeel van een lockende stekker heeft.
Aangezien de maximale kabel lengte bij HDMI 2.1 ("ultra" kabels die 8K proof zijn) ook terug gaat naar 3 of 5 meter, vraag ik me af of we HDMI en DP eigenlijk ook niet gewoon kunnen vervangen door USB-C.

Je ziet nu laptops met USB-C en geen monitor outputs meer (HDMI of DP) en ook monitoren met USB-C (voordeel is dat je geen adapter nodig hebt).

Issue is alleen dat HDMI 48 Gbps doet. USB 4 is max 40 Gbps. USB 3.2 nog 20 Gbps.

[Reactie gewijzigd door loekf2 op 22 juli 2024 14:35]

USB-C is een connectorstandaard en zegt niets over het achterliggende protocol. Sterker nog, een USB-C poort kan achterliggend gewoon USB 2.0 zijn en is dat ook vaak op low-end smartphones en heel af en toe op een low-end laptop.

Dat je soms wel een scherm op USB-C kan aansluiten is omdat er over USB-C ook Displayport of HDMI kan gaan. Je kan allerlei alternate modes implementeren via een USB-C aansluiting maar het is als consument erg moeilijk geworden om nog te snappen wat je apparaat nu wel of niet via USB-C kan doen.

Dan de vraag HDMI versus Displayport. Displayport is een royalty vrije standaard terwijl voor HDMI betaald moet worden door de fabrikant. Het is dan inderdaad gek dat TV's wel HDMI poorten hebben maar geen Displayport aansluitingen. Volgens mij komt dat simpelweg doordat HDMI de de facto standaard geworden is voor A/V materiaal. Niemand is geïnteresseerd in een Displayport aansluiting op een TV als blu ray spelers en consoles HDMI hebben. Ik vermoed dat het één en ander ook wel te maken heeft met het feit dat HDMI opgericht is door een aantal technologiebedrijven waaronder een aantal die in de audio/video markt zitten/zaten. Ook is de licentiekost niet gigantisch groot dus is er weinig drive om weg te gaan van HDMI ten voordele van Displayport.
Dat je soms wel een scherm op USB-C kan aansluiten is omdat er over USB-C ook Displayport of HDMI kan gaan.
En DisplayLink over USB, en Thunderbolt...

Inderdaad. Maakt het er niet makkelijker op.
Misschien zijn daarvoor HDMI -> DisplayPort adapters een oplossing zodat de transitie naar DisplayPort versneld plaats kan vinden waarbij "oude" devices die alleen HDMI hebben toch op een TV met DisplayPort aangesloten kunnen worden. Ik denk dat bij royaltyvrije standaarden implementaties veel sneller gerealiseerd kunnen worden.

[Reactie gewijzigd door Tranquility op 22 juli 2024 14:35]

Bijna alle USB-C "laadkabeltjes" die je krijgt zijn eigenlijk USB 2.0. Behalve die van Apple: die gebruiken helemaal geen data verbinding in de kabel (klaarblijkelijk, uit 2e hand). Logisch ook wel want voor USB 3.0 heb je extra draadjes nodig (en voor de hogere snelheden moet er ook nog eens beter getest worden).

Dus zelfs als het wel USB-3 is moet je nog oppassen wat je gebruikt.
Dat vroeg ik mij inderdaad ook af? Op mijn pc is alles display port naar HDMI en draait ook probleemloos op tv. Zijn deze problemen dan niet opgelost? Hoewel ik bij het bestellen van de kabels wel te horen kreeg dat het uitproberen is of het werkt want ook hier zijn zowel kabel als monitor of tv erg kritisch.

De kaartenmakers hebben er blijkbaar geen problemen mee. Die vreten alles
Het zou heerlijk zijn als de grote fabrikanten bij de topmodellen minstens 1 USB-C met displayport aansluiting op de TV's zetten, dacht ik ook een paar maanden geleden.
Maar ondertussen heb ik diverse apparaten met USB-C en het is bij elk apparaat volstrekt onduidelijk wat die USB-C aansluiting doet, is dit alleen USB, displayport of ook Thunderbolt? Geen idee.

Het zelfde geld voor kabels, de ene USB-C kabel is de andere niet. Dit geldt overigens ook voor HDMI kabels. Ik heb ondertussen een hele bak met HDMI kabels maar echt geen idee wat de bandbreedte van die kabels is. Zou zomaar een HDMI 1.2 kabel tussen kunnen liggen die helemaal geen nut meer heeft. Ik vind dat er ook wel wat meer duidelijk mag komen in wat welke kabel kan. De kleurcodering op USB-3 vond ik namelijk een hele prettige, dan wist je in ieder geval welke poort en kabel de snelste was.

We zitten ook te zoeken naar een oplossing om om HDMI heen te werken, maar feitelijk is het probleem dat de innovatie op de HDMI connecter ver te zoeken is.
We lopen nu al jaren elke keer achter de feiten aan, er komen telkens fantastische schermen uit en de HDMI standaard kan het elke keer maar net of net niet bijbenen.

Wat maakt dat de techniek in Displayport zoveel voor loopt op HDMI qua bandbreedte.

[Reactie gewijzigd door yorroy op 22 juli 2024 14:35]

Mag jij eens uitleggen(niet zozeer technisch, maar voor de consument) wat er beter is aan USB-C(wat dus helemaal niets zegt over wat er overheen kan en/of gaat) en DP(waar zaken als VRR/Adaptive sync ook optioneel zijn, en wat dacht je van dingen als resolutie en kleurdiepte).

Het is jammer dan HDMI ook een zooitje is, maar voor TV's(en A/V in het algemeen) is het alsnog de meest gestandaardiseerde oplossing.
HDMI en DP zijn onderling ook niet uitwisselbaar door diverse redenen, als je die verschillen kent is het duidelijk waarom er varianten zijn, zo geldt dat eigenlijk voor alle hardware waar op het eerste oog bijna 2 identieke oplossingen/mogeijkheden zijn.
Dan zullen die toch eerst CEC en ARC moeten gaan ondersteunen. (Wat vooral een kwestie is van 'doen')
Ik denk omdat er geen audio over display poort gaat?
Er kan wel zeker audio overheen.
Ook hiervoor is meer bandbreedte dan bij Hdmi.
O, dat wist ik helemaal niet. Stom van me.
Ik wist het ook niet, maar het blijkt dat veel fabrikanten van bijvoorbeeld laptops er simpelweg voor kiezen om geen audio-uitgang te implementeren via display port
Hmm ik wist het ook niet. Afgaande op het stukje "display" in display port ging ik uit van enkel video-ondersteuning.
Hmm ik wist het ook niet. Afgaande op het stukje "display" in display port ging ik uit van enkel video-ondersteuning.
Nee, sterker nog, de standaard staat je toe 1 van die 2 te implementeren, zonder enige eis om de ander ook te implementeren. Je zou dus zelfs een DP audio only kabel kunnen hebben.

Heel raar, en waarom je het zou willen... maar dat is de standaard.
Wat ik mij dan afvraag is: stel je hebt een tv gekocht waarvan zij zeggen hdmi 2.1/ps5 ready te zijn. Heb je nu dan iets om. De koop te ontbinden? Je bent namelijk afgegaan op de informatie van de verkoper die dus niet juist blijkt te zijn (je hebt dus voor iets betaald en dat gedeelte niet gekregen)

Ik zou mij namelijk erg bekocht voelen als ik 1200-2000€ heb uitgegeven voor een tv met het idee 4/8k-120fps te kunnen gamen. Wat nu dus niet blijkt te kunnen (niet zoals je het verwacht had)

[Reactie gewijzigd door Jboy1991 op 22 juli 2024 14:35]

Dat zal tegenvallen denk ik. Op het totaalplaatje is het maar een klein gebrek dus hele bedrag terug is misschien niet proportioneel. En ik denk als je gaat kijken bij de specificaties in de kleine lettertjes en de asteriskjes er wel wat voorbehouden staan. En als je garantie vraagt of het werkt in de winkel zullen ze die waarschijnlijk niet geven.

Het punt is altijd een beetje dat je een overeenkomst sluit mbt het product zoals het daar staat. Fabrikanten zullen altijd specificaties claimen en juridisch mag daar een marge inzitten. Zie ook actieradius, batterijduur etc.....
Maar is het dan niet aan de verkoper om deze informatie duidelijk door te geven aan de consument? Je kan van een consument niet verwachten dat hij/zij dit allemaal begrijpt/snapt terwijl er bijv in dikke letters op de doos staat HDMI 2.1 (evt PS5 READY) etc

Zijn dit dan geen valse claims?
Het is erg grijs gebied - immers WERKT HET OOK. De tv werkt, heeft HDMI aansluiting, je kan die PS5 aansluiten en gewoon gamen. Dus PS5 ready? Check!

Daarbij is er een ruime meerderheid, die zal niet eens doorhebben dat er niet op 4/8k - 120 fps wordt gespeeld. Je moet namelijk een uitzonderlijk grote tv hebben (of uitzonderlijk dicht op het scherm zitten) om dat echt te kunnen zien. Op mijn 60"1080p tv moet ik echt op 1m staan ofzo wil ik losse pixels kunnen herkennen, als ik er goed op focus... geloof me, als je zo dicht erop zit is serieus onprettig spelen, want je ziet dan nog zo weinig van het spel. Dergelijk formaat zit je zo op 2-3m afstand om het totaal goed te zien, en daarmee zie je de pixels (en dus 1080p vs 4k) niet meer.

Heel misschien als je 2 tv's van voldoende formaat in je woonkamer side-by-side hebt staan, en op slechts 1 vd 2 werkt 4k, is er een kans dat je het opmerkt. Mits ze verder identiek zijn, want anders kan het ook liggen aan de instellingen kwa kleur/helderheid/postprocessing...
Voor de rest van de gamers, zul je het aansluiten en gaan spelen zonder ooit beter te weten.

Sterker nog, als je die tv al maanden/jaar in huis hebt dan zal er ongetwijfeld al 4k content zijn afgespeeld (tv, films/series, streaming..) zonder te merken dat het niet werkt. Waarom zou je het nu dan ineens wel merken.

[Reactie gewijzigd door Xanaroth op 22 juli 2024 14:35]

Dergelijk formaat zit je zo op 2-3m afstand om het totaal goed te zien, en daarmee zie je de pixels (en dus 1080p vs 4k) niet meer.
Ook al zie je geen individuele pixels, het beeld op 4k is toch echt veel scherper dan 1080p, zeker op een 60"
Ik beargumenteer ook niet 'scherpte' of hoe je zoiets ook denkt te kwantificeren.. ik beargumenteer 'zul je het verschil kunnen merken, als dat toch de enige tv in de kamer waardoor je geen referentie hebt en je niet beter weet'.
Het is erg grijs gebied - immers WERKT HET OOK. De tv werkt, heeft HDMI aansluiting, je kan die PS5 aansluiten en gewoon gamen. Dus PS5 ready? Check!
Dit vind ik wel heel makkelijk gezegd. Op mijn 12 jaar oude hd ready tv werkt de ps5 ook. En op andere tv's zonder ps5 ready erop zal het ook werken. Dat zou dus inhouden dat het echt alleen (valse) reclame is. Dat zou voor mij hetzelfde zijn als je een nieuwe auto koopt met de tekst "de motor kan 160 km/h" alleen dat er dan iets is als de auto is te zwaar om 160 km/h te halen, de koeling is niet goed genoeg, de banden zijn te klein maar er passen ook geen grotere op, of andere mogelijke problemen. Leuk dat de motor het dus aan kan maar het is niet wat je van de gehele auto verwacht.
De vraag is natuurlijk ook in hoeverre je kunt verwachten van een verkoper dat hij zulke specifieke informatie weet. Ik ben bang van niet.
Je noemt letterlijk de enige meerwaarde van een verkoper in een fysieke winkel ten opzichte van een online dozenschuiver. Bij online winkelen heb ik zulke verwachtingen niet, de marges zijn dun omdat ik als klant zelf mijn verantwoordelijkheid neem onderzoek te doen. Bij een verkoper in de winkel verwacht ik dat voor- en nadelen van een bepaald model worden genoemd.

Kan een TV-verkoper dit niet dan verstaat hij/zij z'n vak niet. Dan kan ik toch net zo goed via de Pricewatch mijn criteria ingeven en het goedkoopste model uit de gefilterde view halen. Het effect is hetzelfde.
Dan denk ik dat je verwachtingen te hoog gegrepen zijn. Als het gaat om een specifieke tv winkel, dan zou je dat kunnen verwachten. Maar een Expert of en EP om maar eens winkels te noemen zullen dit soort dingen echt niet zomaar weten. Ik zou trouwens niet weten welke winkel dit soort informatie wel zou weten. Dit is zulke specifieke informatie die ook afhangt van de apparatuur thuis.
De verkoper (de winkeleigenaar, niet de scholier die er toevallig werkt) zou in mijn ogen toch moeten weten wat problemen met zo'n apparaat kunnen zijn. Je kan er niet vanuit gaan dat ze dit zelf gaan testen maar ik ben wel van mening dat ze dit moeten weten. Dit zouden ze bijvoorbeeld van het internet kunnen plukken (maar dan moet je dus even wachten met de verkoop van de nieuwste apparaten) of je regelt een groep van andere winkeleigenaren die dit soort dingen verkoopt om samen naar dit soort mankementen te kijken.

Als je als verkoper iets verkoopt met het label "dit ondersteunt x" terwijl het "x" niet ondersteunt ben je valse reclame aan het maken en heb je als consument iets om de koop op te ontbinden. In het geval van de TV's kun je zeggen "Partial HDMI 2.1 support" en dan geef je als verkoper eerlijk aan dat het niet volledig ondersteunt is.
Straks krijgen we labels als:
"HD Ready" "PS5 ready" en "Full PS5" :+

[Reactie gewijzigd door kid1988 op 22 juli 2024 14:35]

Komt er wel op neer.
Ze zouden een type tv moeten maken met type ID PS5
Deze zou alle features van de playstion ondersteunen.
Komt er een update uit; dan op beide apparaten.
Zo makkelijk zou het moeten zijn.
Nu lijkt het er op dat de "gaming" afdeling onafhankelijk werkt ten op zich van de televisies.
Nu lijkt het er op dat de "gaming" afdeling onafhankelijk werkt ten op zich van de televisies.
Dat doen ze waarschijnlijk ook. Zitten misschien niet eens in dezelfde stad.

Heel on-Japans eigelijk. Want Japanners staan er best goed om bekend dat over alles tot in de puntjes is nagedacht. Zelfs dingen die je pas ziet als je het product openmaakt voor reparatie.
Tsja. Je mag waar aanprijzen. De verkoper heeft de taak voor te lichten wat die claims betekenen maar als koper heb je ook een vergewisplicht. Juridisch mag je er niet zonder meer vanuit gaan dat alles klopt wat ze zeggen. Andere factoren spelen daar wel een rol. De prijs bijvoorbeeld. Dat lijkt krom maar als jij je huis of auto verkoopt geldt hetzelfde. Regulatie is het toverwoord. En laten we daar nu meestal weer niet zo van houden....
Dat zal tegenvallen denk ik. Op het totaalplaatje is het maar een klein gebrek dus hele bedrag terug is misschien niet proportioneel.
Je hebt volgens het consumentenrecht recht op een deugdelijk product. Als de TV aangeprezen wordt met 4K120, en dit wordt niet gehaald, dan heb je wel een poot om op te staan.

Echter, met HDMI 2.1 wordt het lastig omdat het geen goede standaard lijkt te zijn. Het is een cherry-pick fest voor de fabrikanten.

In bepaalde gevallen zou de fabrikant zich kunnen verschuilen als ‘ja, maar hij haalt wel 4K120, maar alleen met chroma-subsampling’. Dan zouden ze er in theorie mee weg kunnen komen. Maar ik denk dat de rechter is zo’n geval toch eerder de kant van de consument kiest, omdat in Europa we heel erg geneigd zijn die groep te beschermen tegen fratsen van fabrikanten.
Ik moet je helaas teleurstellen. Dit soort claims zijn doorgaans zo algemeen opgesteld dat als je op je recht gaat staan de fabrikant met allemaal extra voorwaarden zal komen waaronder de claim pas geldt.

En de stelling dat de consument beschermd wordt herken ik niet. Alle grote industrieën hebben zeer machtige lobby apparaten waar de politiek tot op heden heel gevoelig voor is.

Regelgeving in de consument te beschermen komt zeer moeizaam en sporadisch tot stand en is vaak ook omslachtig en weinig eenduidig geformuleerd.

Er is doorgaans veel bewegingsvrijheid in interpretatie....

Edit. Er is ook nog zoiets als gewoonterecht. De rechter zal kijken naar de gangbare praktijk en als niemand de claim zal waarmaken kan hij dat ook niet handhaven. Da's niet subsidiair...

[Reactie gewijzigd door gaskabouter op 22 juli 2024 14:35]

je hoeft op zich mij niet aan te vallen omdat ik probeer uit te leggen hoe de regelgeving in elkaar zit hoor
was niet mijn bedoeling om jouw aan te vallen :)
Ik denk dat dit onder non-conformiteit valt. Maar aan die term hebben de webshops een broertje dood. Helemaal 'buiten de garantie'.
Bedoel je buiten de ‘garantie’ van 2 weken of buiten de normale garantie. Je zou er toch sneller achter moeten komen of een feature waarvoor je de tv hebt gekocht niet aanwezig is.

En dan hebben we nog het ‘lastig’ terugbrengen van apparaten (binnen 2 weken) omdat er al een userconfiguratie op staat (wo Mediamarkt)
Niet als de "belofte" voor de toekomst is natuurlijk. Als je half jaar geleden de tv alleen voor de ps5 heb gekocht kan je dit alleen pas testen als de ps5 echt uit is.
Daarom nogmaals:
Koop tech op features die op dat moment werken, niet op wat de fabrikant beloofd. Het is al zó vaak fout gegaan in het verleden met beloftes die niet uitkwamen..
Kan je niet gewoon een factory reset doen in dat geval?
Buiten beide.

Garantie is iets wat de verkoper biedt (soms via een fabrikant, maar daar heb je op zich niets mee te maken). Maar in de basis is er gewoon consumentenrecht. Garantie dekt dat voor een groot deel af. En sommige webshops gaan ook zeker verder dan wat het consumentenrecht eist (er wordt zowaar meer dan het minimale geboden!). Buiten garantie je recht krijgen is echter een verhaal apart (en is mij n=1 niet gelukt).

Als ik een nieuwe TV koop met een feature die ik in de toekomst wil gaan gebruiken, dan vertrouw ik op de specificaties. Je kunt niet altijd alles maar tegelijk kopen. Als de TV dan niet goed werkt met een ander apparaat omdat het een bepaalde standaard niet goed implementeert, dan kan ik daar dus pas later achter komen.
Daar zit ik idd met mijn Denon x3700H receiver, XboX Series X en Samsung 75Q90T. Los dat Samsung zijn e-arc implementatie niet in orde heeft op hdmi port 4 is dit gewoon ruk.Wanneer er pas over een half jaar een fix zou zijn is dat om te huilen en mag ik hopen dat Denon me een nieuw model geeft en mijne lekker gebruikt om te refurbishen

Wat ik me dan afvraag kan MS dan niet tijdelijk het beeld uncompressed gaan versturen zoals de PS5 zodat het wel werkt? Met HDMI 2.1 is er bandbreedte genoeg.

Wat ik nog kwalijker vindt is dat je kennelijk met wat HDMI 2.1 onderdelen mag zeggen dat je HDMI 2.1 certified bent. Alsof ik aan een schoenendoos 4 wielen zet en dan zeg dit is een auto, succes!

De industrie heeft hier 1 grote puinhoop van gemaakt van juist weer iets nieuws na HDR en dit gaat nog wel even duren voordat die troep opgeruimt is

[Reactie gewijzigd door quorumz op 22 juli 2024 14:35]

Wat ik mij af vroeg, als je de Xbox op 4k60 zet bij die AVR, heb je dan ook VRR? Dus als je games hebt waarbij de frames onder de 60fps vallen, werkt de VRR ondersteuning dan wel? Of werkt VRR alleen bij 4k120?
vrr en allm werken gewoon op 60hz maar dan zou hij hdmi 2.0 specs gebruiken en dus max 18gbs ZONDER hdr

(de xbox one x kon al vvr en allm by the way)
Weet ik, maar wat ik niet zeker wist is of met 4k60 ook vrr actief kan zijn.
Ik heb nu nog een x2500. Deze doet geen VRR, ook niet op 4k60.
Stond op het punt te upgraden toen het nieuws kwam en daarna gekozen voor een syncbox van hue voor soort van ambilight, waardoor ik sowieso niet naar 4k120 kan op dit moment. Dus twijfel nu of ik alsnog zal gaan upgraden naar een x3700, mocht deze wel VRR ondersteunen op 4k60.
ik heb ook de sync box met een godvermogen aan philips hue verlichting wat mee kleurt. Dat werkt dus nu niet omdat ik van ellende de xbox series x direct aan mijn tv gekoppeld heb.

De sync box hang aan de 2e monitor uit om zo alles te syncen

Vraag me wel af op het via de versterker zou willen werken als xbox series x op 4k 120 staat maar eigenlijk geen games op 120hz speel.... (want dan zou je zeggen dat het niet getriggerd wordt)
Helaas werkt dat laatste niet, de Xbox Series X zet de gui ook op 120Hz. Heb het hier zelf getest op mijn Denon X2700. Zodra je de setting op 120Hz zet valt het beeld weg.

Overigens heb je wel HDR op 4K60 instelling, net als ALLM en VRR.
Zo heb ik hem nu staan en via de Denon lopen, dat werkt afgezien van 120Hz prima, ik zie ook geen verschil in beeldkwaliteit als ik hem rechtstreeks op mijn LG 65CX aansluit, behalve dat ik dan wel 120Hz kan weergeven.

Wel merk ik een kleine audiodelay als ik de Xbox op de tv rechtstreeks aansluit en eARC gebruik om het geluid terug te sturen.
Dolby Digital in de Xbox instellen ipv Dolby Atmos verkleind dat iets.
Met HDMI 2.1 is er bandbreedte genoeg.
Dit is het hele punt: de implementatie. Jouw X3700H (en die van mij) zegt HDMI 2.1 te hebben, maar de max bitrate is 40GB/s, terwijl dat 48 zou "moeten" zijn, moeten in quotes want daar ligt het hekelpunt; de implementatie, ik zie HDMI2.1 dan ook niet als een standaard maar als een guideline, en dat blijkt funest.
maar dit is minder erg, dit heeft met chroma sampling en 12 bit panelen te maken die er toch niet zijn (12 bit x 4 lanes = 48gbs) een 10bit paneel is het max wat je kan krijgen. hier kan ik nog wel mee leven :) de xbox series x doet ook maar max 40gbs he (en de ps5 zelfs max 32gbps)
Ik heb mijn setup zelfs op stereo moeten zetten voor de Series X. Dolby blijft problemen geven.
Laat maar dan :/
Ik heb een CX gekocht, speciaal voor de PS5. Volgens mij is er niets aan de hand als Sony de bandbreedte opschroeft naar 40Gbits/s. Ik wist al dat m'n paneel 'maar' 40Gbits/s zou kunnen tonen voordat ik de aanschaf deed, maar voel me nu toch een beetje bedrogen door het 32Gbits/s limiet van de PS5.

Zolang Sony het maar fixt, en het niet gaat flikken om een PS5 Pro uit te brengen over 3 jaar die voorwaardelijk is voor 40-48Gbits/s.
Dat laatste kan goed kloppen hoor.

Doen ze toch al een tijdje of heb ik het verkeerd?
Ze hebben de PS5 neergezet als 'full HDMI 2.1' compatible. Zo zou ook VRR ondersteund worden, maar dat is ook niet het geval. Als ze dus features achterhouden voor een PRO versie dan zou dat pure misleiding zijn.
VRR komt in een firmware update (unlocked), kans ook dat ze de chip dan op 40Gbits/s laten draaien. Maar wees eens eerlijk, wat mis je nu eigenlijk? Buiten VRR, ga je dan echt een groot verschil zien tussen 32 en 40Gb op dit moment?
Mooi artikel dat de heersende problematiek rondom HDMI 2.1 goed samenvat. Paar kleine opmerkingen daarbij:

- Nu door zowel LG als Nvidia een aantal kinderziektes zijn opgelost, kan ik melden dat de combinatie 2019 Oled en RTX 3000 uitstekend werkt. Alle combinaties van resolutie, refresh rate en kleurdiepte functioneren naar behoren. Bovendien, en dat mag ook worden vermeld: de grafische pracht is echt onvoorstelbaar. 4k, 120 Hz, HDR én VRR, je weet niet wat je ziet. Het gamma-curve issue is door alle betrokken partijen erkend, maar ik heb het zelf nog nooit opgemerkt in alle games die ik speel. Ik zou durven stellen dat het probleem voor 'gewone' gebruikers niet opvalt.

- Punt wat ik nog mis in het artikel is kabels. Waar je bij HDMI 2.0 over het algemeen prima uit de voeten kunt met een kabel uit een grabbelbak, kun je dat met HDMI 2.1 vergeten. Zelfs kabels die verkocht worden als ultra high speed kunnen door de mand vallen, met als gevolg dat het signaal volledig wegvalt. De ultra high speed gecertificeerde kabel van Club3d is bewezen betrouwbaar, het schijnt dat de kabels van Belkin ook goed zijn (maar daar heb ik zelf geen ervaring mee).

[Reactie gewijzigd door Seb83 op 22 juli 2024 14:35]

Het gaat ook vooral mis met HDMI kabels langer dan 2-3meter.
Zo heb ik zelf de Roline 4K120/8K60 HDMI kabel van 5 meter (2 zelfs) welke beiden geen 4K120 van mijn Xbox naar mijn LG CX konden sturen. Gelukkig krijg ik het geld van deze kabels terug van de webshop.
Inmiddels heb ik de Zeskit Ultra High Speed HDMI kabels van 5 meter (tip van Vincent Teoh) en deze doen het uitstekend.
Ik had dezelfde kabel gekocht om mijn 3080 aan een lg c9 te knopen, werkt idd niet.
Deze kabel vervangen voor deze:
https://www.allekabels.nl...499377/8k-hdmi-kabel.html
Werkt helemaal nu helemaal top over 5 meter.
Heb zelf een 2.0 kabel van Belkin (Premium high speed staat er op).
Blijkt dat ie ook prima 2.1 kan doorgeven (4K/120Hz 10BIT geeft m'n TV aan met Xbox Series X).

Op dit item kan niet meer gereageerd worden.