Nieuwe hdmi 2.0-specificatie maakt hogere framerates voor 4k-video mogelijk

HDMI Forum heeft de hdmi 2.0-specificatie uit de doeken gedaan op de IFA-beurs in Berlijn. De 2.0-specificatie biedt een maximale doorvoersnelheid van 18Gbit/s. Deze bandbreedte maakt het mogelijk om 4k-beelden met aanzienlijk hogere framerates te transporteren.

HDMI-logoMet de nieuwe specificatie moeten enkele hindernissen voor het weergeven van 4k-video via hdmi worden weggehaald. Zo biedt hdmi 2.0 aanmerkelijk meer bandbreedte dan de hdmi 1.x-standaarden. Volgens HDMI Forum is er met de 18Gbit/s voor de 2.0-standaard voldoende bandbreedte om op uhdtv's 4k-beelden te tonen met framerates tot maximaal 60fps bij 24bit-kleurdiepte. Daarnaast kunnen er gelijktijdig twee videostreams worden verstuurd naar meerdere kijkers op hetzelfde scherm. Bovendien is de specificatie voor de wide angle 21:9-beeldverhouding, die met name in de filmwereld veel wordt toegepast, vastgelegd.

Hdmi 2.0 biedt verder de ruimte voor maximaal 32 audiokanalen met samplerates tot 1536kHz. Ook beschrijft de standaard een automatische lip-sync-functie, multistream audio naar maximaal vier personen en er zijn enkele toevoegingen aan het cec-protocol. Voor de nieuwe standaard zijn geen nieuwe kabels of connectors nodig; de huidige 'categorie 2'-kabel voldoen volgens HDMI Forum.

De hdmi 2.0-specificatie komt als geroepen voor met name televisiefabrikanten die uhdtv's op de markt willen brengen. De huidige hdmi 1.4-specificatie behaalt maximaal 4096x2160 pixels met 24fps of 3840x2160 beeldpunten bij 30fps. Naar verwachting zullen op de IFA-beurs diverse televisies en andere av-apparatuur worden aangekondigd die voorzien zijn van hdmi 2.0-aansluitingen.

Door Dimitri Reijerman

Redacteur

04-09-2013 • 13:54

64

Submitter: jip_86

Reacties (64)

64
64
49
8
0
1
Wijzig sortering
Het is jammer dat de HMDI-standaard (en in het verlengde daarvan de EBU) geen eisen stelt aan hoeveel audio lag acceptabel/toegestaan is. Het feit dat er uberhaupt een protocol nodig is om lip-sync te regelen is een teken dat er in de implementatie van beeld- en geluidsapparatuur iets mis is.

Ik zou liever zien dat de HDMI-standaard de lip-sync verwijderd en gaat voorschrijven dat apparatuur nooit meer dan 1ms input lag heeft. In de tijd van CRT-schermen was dit immers ook zo. Toen hadden we helemaal geen lip-sync nodig. Interactieve toepassingen (desktop gebruik op TV, games op TV) zouden hier zeer van profiteren.

Het probleem is dat TV fabrikanten de lat niet erg hoog leggen om input lag te verlagen. Nog steeds zien we dat meer dan 5ms voor 99% van de fabrikanten nog steeds acceptabel is. Wat veel mensen zich niet realiseren is dat spellen met opzet makkelijker gemaakt worden omdat frame-accuraat reageren (zoals bij arcade games met CRT-scherm) niet mogelijk op huiskamerschermen.

[Reactie gewijzigd door ari3 op 23 juli 2024 07:59]

Het feit dat er uberhaupt een protocol nodig is om lip-sync te regelen is een teken dat er in de implementatie van beeld- en geluidsapparatuur iets mis is.
Nope.

Voorbeeld: DVD/BD afspelen via een homecinema systeem.

Video: DVD/BD player -> Receiver -> TV
Audio: DVD/BD player -> Receiver -> Luidsprekers

Zonder extra maatregelen loopt beeld door de imageprocessing in de TV één of meer frames achter op het geluid. Die vertraging varieert niet alleen per merk/type, ook de instellingen op de TV zijn van invloed.

De receiver moet het geluid dus vertragen zodat het gehaal weer lipsync is.
Om dat automatisch te kunnen doen moet de receiver dus weten welke vertraging de TV op een gegegeven moment introduceert, maw zonder communicatie(protocol) tussen TV en receiver is dat onmogelijk.
Nog steeds zien we dat meer dan 5ms voor 99% van de fabrikanten nog steeds acceptabel is.
Probleem is dat de gebruikte imageprocessing algoritmes meerdere frames nodig hebben, maw je zit al snel boven de 20ms

[Reactie gewijzigd door Carbon op 23 juli 2024 07:59]

Precies wat ik bedoel dus: kennelijk is het normaal geworden dat processing in de TV zo langzaam is dat er een protocol nodig is om het beeld en geluid synchroon te laten lopen. Men heeft voor deze houtje-touwtje oplossing gekozen in plaats van de processing te versnellen.

Toen we nog CRT-schermen hadden was de input lag ongeveer 0 en had ook niemand last van sync problemen bij het gebruik van home cinema sets.
Als je CRT aan Motion Interpolation deed bouwde deze wel degelijk vertraging op. Onvermijdelijk, dit heeft niets te maken met houtje-touwtje oplossingen. Meer met de keus om toch vertragende "beeldverbeteringen" in te bouwen.

Mijn laatste CRT deed het sowieso. Met Philips PixelPlus of hoe het ook heette trad er ook wel degelijk vertraging op.
Mijn laatste CRT deed het sowieso. Met Philips PixelPlus of hoe het ook heette trad er ook wel degelijk vertraging op.
Klopt lipsync problemen (met receivers) zag je ook bij CRT TV's waarbij de analoge elektronica was vervangen door digitale oplossingen.

[Reactie gewijzigd door Carbon op 23 juli 2024 07:59]

Je vergeet dat Motion Interpolation alleen werkt als je lag opbouwd. De audio gaat bij mij door de versterker.

De TV is ondertussen bezig om beeldjes te verzinnen tussen het vorige shot en het volgende. Het volgende shot is echter pas beschikbaar als deze geleverd wordt.

Kortom 42ms verlies nog voordat mijn TV de beeldjes heeft kunnen verzinnen. Dit is onvermijdelijk omdat je voor motion interpolation de voor en na situatie nodig hebt.

Dit is maar een voorbeeld, 1ms is niet haalbaar mits je dit soort bewerkingen gewoon weglaat.
Anoniem: 120539 @ari34 september 2013 14:54
Het out-of-sync raken hoeft niet alleen te gebeuren binnen één apparaat, maar kan ook veroorzaakt worden door het gebruik van een beeldscherm i.c.m. een losse audio-installatie.
(En potentieel nog erger in een Multi-room opstelling.)
Ik zou liever zien dat de HDMI-standaard de lip-sync verwijderd en gaat voorschrijven dat apparatuur nooit meer dan 1ms input lag heeft.
Ik vraag me af of 1ms input lag wel gehaald kan worden met HDMI... Dat het met CRT schermen (ik neem aan dat je dus een analoge verbinding bedoelt, zoals VGA of analoge TV) kan is nogal logisch. Het signaal is (vrijwel) direct gerelateerd aan wat er aan licht moet komen uit het fosfor in de pixel die net door de electronenstraal in de beeldbuis wordt aangeslagen. De H- en V clock worden netjes met het signaal meegestuurt (met VGA)... alles wat de videokaart uitspuugt wordt meteen weergegeven. De enige vertraging wordt gevormd door de lichtsnelheid.
Bij HDMI zitten er een aantal proces stappen tussen voordat het digitale signaal wat van de connector binnen komt op de matrix van het LCD scherm verschijnt. Foutcorrectie, DRM controle, resolutie schaling, post-processing zoals interpolatie, normalisatie... Voor een aantal van die zaken moet minstens een heel frame binnen zijn voor het afgebeeld kan worden. Bij 60 fps zit je dan al aan 16ms lag. Bij 30 fps aan het dubbele. Dan reken ik dus nog geen vertraging van al deze processtappen... alleen maar de voorwaarde dat je een heel frame binnen moet hebben voordat je het kan weergeven.
Leuk om te lezen over de nieuwe specificaties.
Huidige HDMI ondersteund 8 audiokanalen.
Voor de gewone consument klinkt dat als ruim voldoende.

Ik probeer mij voor te stellen wie er op het moment 32 audio-kanalen gebruiken.
Is het dan bijv eenvoudig om een Engelstalige film op te zetten en dat kinderen in een andere (voor hen bekende) taal via een koptelefoon ontvangen? Volgens mij is er gedacht: het is technisch mogelijk dus we doen het, in plaats van hier gaan de mensen straks flink gebruik van maken.
Ach, het is waarschijnlijk gewoon zo dat ze de standaard nu hebben aangepast dat ieder kanaal 0-31 genummerd kan worden terwijl doet vroeger misschien 0-15 was. Zodra je dus 17 kanalen nodig hebt is het al handig, je hoeft niet direct alle 32 te gebruiken.

Wat betreft die "samplerates tot 1536kHz" Dat soort samplerates zijn natuurlijk zelfs voor niet-consumenten gebruik absurd hoog en een factor veertig hoger dan menselijk waarneembaar. Waarschijnlijk is dit getal dus een optelsom van de bandbreedte als je alle 32 kanalen volledig zou gebruiken. Zie ook deze HydrogenAudio uitleg.

[Reactie gewijzigd door Maurits van Baerle op 23 juli 2024 07:59]

Ik denk dat je in dit geval ook richting dolby atmos kan gaan denken. Hier nog meer info van dolby zelf.

Voor de home theater fanaten is het natuurlijk leuk als die optie er ook gaat komen in consumenten apparatuur. Zoals je zegt, meer een gevalletje het kan, dus we doen het, dan dat er daadwerkelijk consumenten toepassingen voor zijn op dit moment. Maar wat toekomst proof zijn kan nooit kwaad.
Ik probeer mij voor te stellen wie er op het moment 32 audio-kanalen gebruiken.
Zou je denken, 7.1, 9.1 en zelfs 11.1 surround receivers zijn geen bijzonderheid meer.

Echter HDMI 1.x is beperkt(*) tot 7.1 PCM (8 kanalen), met HDMI 2.x kun je dus ook 9.1 en 11.1 als PCM oversturen.

(*) Die beperking is meestal te omzeilen door de multichannel audio (DTS-HD / Dolby-TrueHD) als bitstream over te sturen naar een decoder (meestal een receiver) welke er vervolgens PCM/Analoog van maakt

[Reactie gewijzigd door Carbon op 23 juli 2024 07:59]

Dat zou enkel mogelijk zijn als daar bij de oorspronkelijke geluidsmix al rekening mee is gehouden.

In theorie is wat jij noemt een mogelijke toepassing, maar daar wordt nog niet echt rekening mee gehouden. Men wil die extra kanalen gebruiken om het dynamisch bereik van de soundtrack wat meer open te gooien, tot 96dB-120dB. En tegelijkertijd niet-gecompresseerde PCM van zowel stereo, 5.1 als 11.1 (= 3D-geluid) in één signaal te integreren. En daarvoor heeft met alvast 18 kanalen nodig.

Voor zover ik weet, wordt daar op dit moment nog niet echt veel gebruik van gemaakt, omdat er daarvoor toch nog veel technische aanpassingen nodig zijn. Elysium is één van de weinige producties die op dit moment al native iets met die 18 kanalen doen. Voor zowat alle bestaande content is die extra bandbreedte nog nergens voor nodig. Ik kan me dus ook niet echt inbeelden dat hier al veel mensen op zitten te wachten, maar je weet maar nooit binnen een jaar of 7-8.
Hmm, misschien toch nog even wachten met een nieuwe AV-receiver voor mijn dedicated HT-room te kopen. De huidige generatie heeft wel 4K-passthrough, maar dit is misschien nog beter.
Voor de nieuwe standaard zijn geen nieuwe kabels of connectors nodig; de huidige 'categorie 2'-kabel voldoen volgens HDMI Forum.
Maar wat is het nu ? Werkt de 2.0 standaard ook op een HDMI 1.4 connector en kabel ? Ik vind het niet duidelijk.

Update: Van op hdmi.org:
Does HDMI 2.0 require new connectors?
No, HDMI 2.0 uses the existing connectors.
Does HDMI 2.0 require new cables?
No, HDMI 2.0 features will work with existing HDMI cables. Higher bandwidth features, such as 4K@50/60 (2160p) video formats, will require existing High Speed HDMI cables (Category 2 cables).
Can my existing HDMI 1.x devices be upgraded with HDMI 2.0 features?
Currently, there are no provisions for doing such an upgrade. Because of the new enhanced feature set, any such conversion would require hardware and/or firmware upgrades. If there are such conversions, it would come from the manufacturer. Please check wth them directly.
Hieruit maak ik op dat er fysiek niet echt beperkingen zijn qua connectoren en kabels (behalve 4K@60fps -> cat2 hdmi), maar dat je dus wel afhankelijk bent van de fabrikant om die HDMI 2.0-features te ondersteunen in hun firmware.
M.a.w., inderdaad best nog wachten met het aanschaffen nieuwe apparatuur.

[Reactie gewijzigd door pleinolijf op 23 juli 2024 07:59]

Inderdaad de kabels blijven hetzelfde. Het is net als met USB, of Ethernet.

De stekkers blijven hetzelfde, maar de transceivers & logica in de endpoints moeten de hogere snelheden ondersteunen, en die kan je moeilijk retrofitten. Je zult dus nieuwe apparatuur moeten aanschaffen om van 4K beelden te kunnen profiteren.

Erg gek is dat natuurlijk niet, want je mediaplayer zal 4K-signalen ook moeten kunnen afspelen en je TV moet die hoeveelheid kunnen weergeven voordat je er iets aan hebt. Als die allemaal HDMI2.0 ondersteunen, kan je dus jezelfde HDMI1.4-kabeltje hergebruiken.
Prima dat de standaard er is, geen reden om direct nieuwe apparatuur te kopen puur voor de nieuwe standaard. Wel apart dat er wel al TVs zijn met 4K, die hadden eigenlijk direct HDMI 2.0 moeten hebben.
Wat ik vreemder vind is dat de 4k tv's die er nu al zijn geen displayport aansluiting hebben.
Die ondersteunt namelijk al 3840 × 2160 × 30 bpp @ 60 Hz en is ook minder onderhevig aan licentiekosten dan hdmi.
Waarschijnlijk omdat er (vrijwel) geen mediaspelers, consoles, recievers, bd-spelers etc zijn die over displayport beschikken. Je hebt niks aan een poort als je er niks aan kan hangen.
Al die dingen sturen dan ook nog geen 4k uit en kan je dus via een 'oude' hdmi aansluiting laten lopen (ik zeg niet dat de tv's deze niet meer mogen hebben, vind het alleen vreemd dat ze niet ook een dp aansluitng hebben waar dan 4k @60hz over kan), of met een hdmi-dp convertor.

Ik zou meer nut zien in de huidige 4k tv's als je er al wel je (ht)pc kon op aansluiten @60hz.

En als de huidige 4k tv's dp hadden zou de komende generatie 4k-mediaplayers, 4k-consoles, 4k-receivers, etc dit ook wel krijgen.
Als geen enkel device de overstap maakt zal de rest ook niet kunnen volgen.
Als geen enkel device de overstap maakt zal de rest ook niet kunnen volgen.
Inderdaad, maar er is ook geen reden om over te stappen. HDMI 2.0 levert de benodigde bandbreedte, en is backwards compatible. Zou men overstappen op DP dan moeten er meerdere connectoren op oa consoles ed komen, dat heeft invloed op de prijs/winst en levert de fabrikant (en de consument) niks extra op.
Voor zover ik weet kan DP->HDMI passief met de juiste apparatuur, maar max voor Full-HD.

Hmm inmiddels niet meer. Hopelijk geen noodzaak voor actieve converters meer dan, daar zit je toch ook niet op te wachten. Hebt wel DP++ nodig dan (v2 zelfs):

Dual-mode DisplayPort (also known as DisplayPort++[25]) can directly output single-link HDMI and DVI signals using a simple passive adapter that adjusts from the different connector and the lower voltages used by DisplayPort.[26][27] When a dual-mode chipset detects that a DVI or HDMI passive adapter is attached, it switches to DVI/HDMI mode which uses the 4-lane main DisplayPort link and the AUX channel link to transmit 3 TMDS signals, a clock signal and Display Data Channel data/clock. Dual-mode ports are marked with the DP++ logo; most current DisplayPort graphics cards and monitors offer this mode.
In January 2013, a new VESA specification was released called DisplayPort Dual-Mode Standard version 1.1, which brings dual-mode capabilities on par with HDMI 1.4, allowing a TDMS clock rate of up to 300 MHz, 1080p deep color, 4K resolution, and stereoscopic 3D formats. Passive adapters and ports which support the new data rate will be marked 'Type 2', and will be backwards compatible with existing 'Type 1' ports.[28]
Bron: http://en.wikipedia.org/w..._with_HDMI.2C_DVI_and_VGA

[Reactie gewijzigd door freaky op 23 juli 2024 07:59]

Panasonic heeft net een 65 inch 4k met dpisplayport 2.0 en hdmi 2.0 geintroduceert.
Misschien geen reden om nieuwe apparatuur aan te schaffen, maar wel een reden om een aankoop uit te stellen.

Op AV-apparatuur wordt bizar hard afgeschreven (immers worden elk jaar nieuwe modellen op de markt gebracht en er wordt zwaar onder de adviesprijs verkocht).

Voor diegenen die op het punt staan die een aankoop te gaan doen, willen nu wellicht besluiten deze aankoop 2 jaar uit te stellen. Dan is de eerste generatie met HDMI 2.0 voor een habbekrats (nieuw) te koop.
Over twee jaar heb je dan waarschijnlijk het zelfde probleem als nu...
Er is dan misschien weer wat nieuws wat iedereen wil hebben.
Dan kun je weer twee jaar wachten.
Of over 2 jaar zijn ze weer bezig met iets nutteloos als 3D tv of (in mijn ogen) smart tv te pushen. Het is maar net wat je zelf belangrijk vindt, of je het de moeite waard vindt er op te wachten of er meer voor te betalen.
Prima dat de standaard er is, geen reden om direct nieuwe apparatuur te kopen puur voor de nieuwe standaard. Wel apart dat er wel al TVs zijn met 4K, die hadden eigenlijk direct HDMI 2.0 moeten hebben.
HDMI 1.4 is op zich ook goed genoeg voor 4K an sich, alleen maar op maximaal 30 fps. (1080p 3D op 60fps is dezelfde hoeveelheid data en die spec is daarvoor gemaakt.)
Mja, na ruim mijn halve leven nauwelijks verandert te zijn heeft de TV industrie nu blijkbaar ook de upgrade geilheid van de IT industrie overgenomen. Van ruim 2 decennia SD (die ik heb meegemaakt) naar, HD, Full-HD en 4k (blijf het een niet echt logische naam vinden - maar goed ze praten wel vaker alleen over de horizontale resolutie) in ongeveer een decennia.

Alleen vind ik het niet zo nuttig om m'n TV iedere 3 jaar te vervangen. Het is dat ik game, virtuele machines draai en nog wat andere dingen doe die veel van m'n PC vragen, anders zou ik die ook niet zo vaak vervangen (nou ja, doorschuiven ;)).
60 fps contend is toch niet een eerste prio vvan film makers dus erg interesant is dit niet.
ik durf te wedden dat over 6 jaar ze nog steeds films aanleveren in 24fps.
Dit heeft waarschijnlijk te maken met 3D beeld. Hier heb je 2x 30 FPS nodig.
Ik weet niet of je een idee hebt wat zo'n film dan qua plaats zou innemen... Het gaat hier toch om makkelijk 40GB per film, en dan heb ik het nog niet over 3D. (ok, volgens RED zou het kunnen op 15GB per 2u-film, maar dan zullen ze er toch echt al veel compressie op moeten toepassen).

Opnames in hoge framerates is inderdaad absoluut geen prioriteit bij filmmakers, en het de meeste courante camera's voor pro-filmopnames kunnen dat ook niet aan. Waar men bij de filmtechnieken naartoe wil gaan, is trouwens geen 60 fps maar 72 fps. Films afspelen in een 4k-resolutie is ook nog altijd redelijk absurd. Sowieso zijn er in het hele jaar nog maar een stuk of 6 grote films uitgebracht die zelfs maar opgenomen zijn met de voordelen van 4k. En die houden het dan - voor zover ik weet - nog bij 12 bit per pixel, en geen pixeldiepte van 24 bits. Cru gezegd heeft 4k@72fps op dit moment nog niet veel voordelen die je niet zou hebben wanneer je wat dichter bij je scherm gaat zitten (op voorwaarde dat de pixeldichtheid nog voldoende groot zou zijn).

Daarnaast is er wel nog steeds het grote nadeel dat onze ogen, bij cinemakwaliteit, echt wel afgesteld zijn op die 24fps. Ga je daar vanaf wijken, dan krijg je al heel snel het probleem dat je al snel het gevoel krijgt dat je naar digitale video zit te kijken, in plaats van een cinema-experience. Om dat probleem technisch te omzeilen is bijvoorbeeld de productie van The Hobbit zoveel vertraagd, en zoveel duurder geworden dan oorspronkelijk de bedoeling was.

Alles bij elkaar: mooie techniek, maar er is nog geen enkele reden om je HD-flatscreen al te gaan afschrijven.
Niet echt. The Hobbit kan mogelijk uitkomen in 48fps 4k 3D.

Zowel 3D als hoge framerates zijn technieken die het over een andere boeg gooien dan alleen verhogen van resolutie.

Avatar wordt geloof ik 60fps, en waarschijnlijk komt ie ook ooit zo digitaal beschikbaar voor de consument.

Of het een hit wordt, tja... Na The Hobbit heeft volgens mij geen enkele andere film nog geschoten in 48fps. De kosten/baten die ermee verbonden zijn lijken me weinig interessant voor de meeste producenten. De komende 6 jaar zal dat nog wel niet veel veranderen.

Maar de HDMI 2.0 standaard is er klaar voor :-)
Ik dacht dat dat ook in 4k@48fps zou worden, 12b diep. 60fps is een mogelijkheid, maar zou nog een hoop extra kosten met zich meebrengen (niet alleen voor de producenten, maar ook voor een gigantische hoop cinema-uitbaters) terwijl je er geen ticket meer mee verkoopt. Dus het zal wel een centenkwestie (en inschatting van belang van de consumentenmarkt die 4k en high framerates kan zien) worden of het al dan niet meer wordt dan 48fps.

Achja, hij heeft 50 camera's klaarliggen die het aankunnen, dus wie weet :-)
Dit kan ook gewoon gebruikt worden voor computermonitoren. Dan is een hogere framerate wel handig.
voor een computer is 60 fps nog niet voldoende.
voor een computer is 60 fps nog niet voldoende.
Hoezo?
De nieuwe Avatar film word in 60fps geschoten en over een maand of 3 komt de Hobbit weer in 48fps.

Over 6 jaar, dan heb je harde schijven te koop van +10TB en dan komt 8K alweer kijken.
Eerste half jaar.. 100 euro voor de kabels. Jaar daarna, 5 euro bij de Action :+

Maar mooi dat deze standaard er nu doorheen is! Goeie vooruitgang!
De echte signaalpurist zal de 100 euro kabels kopen. Je zou maar wat gegevens over je kabeltje verliezen in een ruisrijke omgeving....

Maar wel mooie specs voor de nieuwe standaard!
Grappig dat hier iedereen het nut van 'de juiste' HDMI kabels in twijfel trekt, maar wel kopen we allemaal massaal Cat6 of op zijn minst 5E kabels omdat we anders geen betrouwbare gigabit verbindingen kunnen opzetten; Daar hoor ik tenminste zelden discussie over.

Zou het zo kunnen zijn dat HDMI ook een (hoogfrequent) dataverbinding is, en het wel degelijk van belang is dat er een beetje kwaliteit bedrading en connector gebruikt wordt?

(Uiteraard zijn er een heleboel ernstig overdreven dure kabels in de verkoop, maar het is zeker niet zo dat de kwaliteit van de verbinding niet relevant is, en dat het voldoende is 'als er maar een verbinding is'.)

Een optische kabel met vergulde aansluitingen, dat is pas echte onzin... (en ja, ook die worden verkocht!)
Dat werkt anders; over een ethernetkabel kun je een variabele snelheid krijgen doordat er heel veel resends nodig zijn bij hoge error rates. Bij HDMI heb je een vaste bitrate, en als je die niet haalt dan heb je een probleem en is het meteen zichtbaar.

Da's wel vergelijkbaar als met ethernet trouwens: als je daar altijd 50 Mbps over kunt pompen dan is het wellicht genoeg voor je homecinema-kastje, terwijl de kabel eigenlijk 1000 Mbps aan zou moeten kunnen.

Bij HDMI is dat min of meer hetzelfde; een slechte kabel op een lage modus (bijv. 720p25) doet het wel omdat de bitrate haalbaar is. Diezelfde kabel op 1080p60 geeft echter wel ineens gigantisch veel errors.

(even kort door de bocht beredeneerd allemaal omdat het technisch eigenlijk net anders werkt, maar ik vond het wel een ok voorbeeld :P)
Bij HDMI is dat min of meer hetzelfde; een slechte kabel op een lage modus (bijv. 720p25) doet het wel omdat de bitrate haalbaar is. Diezelfde kabel op 1080p60 geeft echter wel ineens gigantisch veel errors.
Dergelijke kabels heb ik hier liggen, en het geeft meteen aan dat er dus wel sprake is van een verschil in kwaliteit. Het wil echter niet zeggen dat dure kabels een betere kwaliteit hebben dan goedkope.
De echte signaalpurist is dan knettergestoord want het is een digitaal signaal. Dus wat nou signaalverlies in een ruisrijke omgeving. Een kabel van € 1,50 van de Albert Heijn is net zo goed als een € 666,- kabeltje van de B&O.
Is het wel digitaal? Voor de bron en ontvanger is het digitaal, maar fysisch is het gewoon een metalen kabel waar elektrische spanninkjes omhoog (één) en omlaag gaan (nul). Dit kun je ook verstoren, theoretisch. Geen idee of er in de praktijk een ruisbron bestaat die het zodanig kan verstoren dat ze niet meer van elkaar te onderscheiden zijn of dat de ruis delen van het signaal wijzigt, waardoor je betere coderingstechnieken moet gebruiken om het alsnog leesbaar te maken. Of een betere (=duurdere??) kabel. Maar in theorie is het signaal verstoorbaar. En in de praktijk niet digitaal.

Digitaal is slechts iets virtueels ('verstopt' in computers die berekeningen doen), praktisch is alles analoog (ook die digitale computers zijn opgebouwd uit enkel analoge schakelingen).

[Reactie gewijzigd door erikieperikie op 23 juli 2024 07:59]

Het voordeel van het digitale signaal is dat er maar 2 mogelijkheden zijn. 1 of 0. Dus als je 0,8 binnen krijgt, wordt het 1 en bij 0,2 wordt het nul. Tuurlijk is er storing, maar er is gewoon meer ruimte voor deze storing voordat het echt effect gaat hebben op de output.
Zie mijn post hierboven. Overigens is digitaal veel complexer dan spanninkje omhoog / spanninkje omlaag. Verdiep je bijvoorbeeld maar eens in modulatietechnieken. Hier een willekeurig linkje: http://nl.wikipedia.org/w...uency_division_modulation

Het komt erop neer dat fouten ofwel 100% corrigeerbaar zijn, of een redelijk forse signaalfout veroorzaken die duidelijk zichtbaar is; zoals bij digitale tv kijken gewoon beeld versus blokkendoos. Er is niet echt een middenweg zoals dat bij analoog wel zo is, in ieder geval niet bij de technieken die worden gebruikt bij hdmi, dvb, bluray, etc.
Bedankt voor deze goede toevoeging aan mijn kennis. :) Ik weet slechts de basis. :P
Helemaal eens mr KnetterGek knettergestoord;) zolang de hmdi kabel een beetje stevig oogt vind ik het prima
Moet dit nu écht weer opnieuw opgestart worden?

En met 'dit' bedoel ik het TOTAAL achterhaalde debat over kabels en hun onderlinge kwaliteit: ELKE test wijst uit dat een hdmi-kabel van €10 of eentje van €100 even goed werken.

Je kan nu eenmaal geen nulletjes en eentjes bijtoveren door een kabel te gebruiken die door elven in maanlicht gesmeed zijn.

Het is en blijft boerenbedrog als je kabels laat aansmeren die duurder zijn dan de goedkoopste.
Wie start nu de discussie? Ik maak er slechts een sarcastische opmerking over. ;)

Ik ken geen testresultaten, dus dit baseer ik enkel op mijn kennis:

Ik kan me voorstellen dat een digitaal gecodeerd signaal bandbreedte verliest en uiteindelijk (bij veel ruis, hoeveel weet ik echt niet) ook gaat haperen/stotteren/frames verliezen als er veel elektromagnetische interferentie (EMI) is.

Een dure kabel zal betere EMI-shielding hebben (hoop ik voor je portemonnee), dus die zal het later begeven in een ruisrijke omgeving.

Nu, de tests. Als elke test uitwijst dat zelfs een goedkope kabel niet zo verstoord kan worden dat de bandbreedte te beperkt wordt om het signaal door te geven, dan is het inderdaad onzin om de dure kabels te kopen.

Ik gebruik zelf ook de goedkoopste kabels en het werkt prima. Zou het beter werken met een dure? Geen idee, ik zal het nooit weten want voor mij is geld een belangrijk aankoopargument.

Overigens vind ik het onzin dat de dure kabel eentjes en nulletjes bij zou toveren. Dat gelooft alleen een klein kind met fantasie. Het enige dat eentjes en nulletjes tevoorschijn 'tovert' is de bron, niet het medium (=kabel).

[Reactie gewijzigd door erikieperikie op 23 juli 2024 07:59]

Als een goedkope HDMI-kabel het niet goed doet krijg je:
- duidelijk zichtbare witte/zwarte spikkels in beeld
- foutmeldingen van je apparatuur
- helemaal geen beeld
- keihard gekraak of onderbrekingen in je geluid
- het bovenstaande, maar dan bijv. alleen bij hoge modussen zoals 1080p60

Er is geen tussenweg bij HDMI. Apparatuur kan de bandbreedte niet beperken dus de kwaliteit wordt nooit beïnvloed; het werkt niet of het werkt wel.
.oisyn Moderator Devschuur® @Sorcerer84724 september 2013 14:53
Tja, ik vind flikkerende pixels (wat ik wel heb meegemaakt bij extreem goedkope kabels) weldegelijk vallen onder "afname van kwaliteit". Uiteraard is het niet zo dat je een wazig beeld krijgt of dat de kleuren in het algemeen niet zuiver zijn zoals bij een analoog signaal optreedt, maar dat eeuwige gezever hier dat een kabel wel werkt of niet werkt omdat het nou eenmaal digitaal is en dat de kwaliteit van de kabel geen zier uitmaakt is gewoon onzin. En natuurlijk hoef je geen 100 euro kostende kabels te kopen, da's gewoon zonde van je geld. Maar je wilt er wel eentje die fatsoenlijk gecertificeerd is. Helemaal als die kabels in een EM stralingrijke omgeving liggen, of als ze wat langer zijn.

[Reactie gewijzigd door .oisyn op 23 juli 2024 07:59]

Je hebt gelijk, maar het punt is dat veel elvenkabelsmeedgelovigen denken dat er een kwaliteitsverschil is in scherpte, betere kleuren etc., maar dat is dus niet zo.

Beeld van een slechte kabel valt gelijk op doordat de storingen groot zijn, je hoeft dus niet bang te zijn dat er subtiele verschillen zijn en dat de ene kabel het iets beter doet dan de andere; de kabel is óf goed óf je ziet gelijk een hoop fouten.
Er zijn meer kwalitatieve aspecten dan alleen het signaal wat door de kabel gaat:
- Vaak liggen er andere kabels (component video/audio/antenne/speakers) in de buurt van de HDMI kabel en zal een kabel afscherming storing op naburige kabels veroorzaken.
- Over de constructie van de connector is ook veel te zeggen. Die Action dingen kun je niet erg vaak (ont)koppelen.
- De mantel van de kabel is ook belangrijk. Als een kabel dun en soepel dat kan hij knikken waardoor gemakkelijk je al snel met een kabelbreuk zit.
Kan geen kwaad dit te blijven herhalen zolang de verkopers bij de 'speciaalzaken' hun klanten bij voorkeur die E100 kabels aan blijven smeren met mooie verhalen over elfjes en maanlicht (hoewel het gemiddelde slachtoffer van dergelijke verkooppraatjes hier waarschijnlijk niet komt meelezen)
Je koopt dan superdure gouden kabels, en steekt ze in een blikken connector op je randapparatuur... :)
Voor de nieuwe standaard zijn geen nieuwe kabels of connectors nodig; de huidige 'categorie 2'-kabel voldoen volgens HDMI Forum.
En een maand daarvoor, 1 euro incl verzending bij dealextreme bijvoorbeeld.
Voor 50 meter kabel. Teveel voor mijn smaak. Ik koop liever de $0.50 kabel van een meter of 10.
Ik had verwacht dat je via dual HDMI wel 4K met >30FPS zou kunnen afspelen. Om 4K breed geaccepteerd te krijgen wil je toch compatibel zijn? Maar ben nog geen dual HDMI verloopstekkers tegen gekomen. Dat je dus 2 HDMI poorten combineert.

Als je dus nu een AV receiver koopt, ben je sowieso fucked. zo'n receiver wil je toch zeker 12-15 jaar mee laten gaan.
Ik had verwacht dat je via dual HDMI wel 4K met >30FPS zou kunnen afspelen. Om 4K breed geaccepteerd te krijgen wil je toch compatibel zijn? Maar ben nog geen dual HDMI verloopstekkers tegen gekomen. Dat je dus 2 HDMI poorten combineert.

Als je dus nu een AV receiver koopt, ben je sowieso fucked. zo'n receiver wil je toch zeker 12-15 jaar mee laten gaan.
Ik denk dat het sowieso wel 12 tot 15 jaar duurt voordat iedereen fatsoenlijke 4K content levert. En ook het nut ervan inziet: Voor films is het bijvoorbeeld niet nuttig, maar voor sportuitzendingen (voetbal en formule 1) is een 4K uitzending in hoge frame-rate zeker een toevoeging. Maar het gaat nog lang duren voordat de televisienetwerken in 4K gaan uitzenden (of überhaupt opnemen en schakelen).
Anoniem: 426269 4 september 2013 14:31
M.a.w. we kunnen nu echt even niets nieuws kopen totdat HDMI 2.0 er daadwerkelijk is, want dat blijkt dus wel een vereiste inmiddels.

Zelf zit ik bijvoorbeeld al bijna een jaar te wachten op een normale laptop van 15"-17", maar dan wel met een mat IPS beeldscherm, en de mogelijkheid om makkelijk een 2560x1440 externe monitor aan te sturen. Dan zat je al snel aan displayport maar veel laptops met IPS en displayport voor een schappelijke prijs zijn er nog niet... Ik zal dus nu gewoon maar nog langer gaan wachten op HDMI 2. Dan kan ik er ook meteen een 4k monitor of televisie op aansluiten. Wellicht snapt Asus het ook een keer en stoppen ze die zaken in een N550 of N750. Dus IPS en HDMI 2.

[Reactie gewijzigd door Anoniem: 426269 op 23 juli 2024 07:59]

Toch weer grappig om te lezen dit.... waarom is mijn "action" kabel van 10m dan niet instaat het signaal fatsoenlijk naar mijn beamer te brengen met minimaal verlies en mijn "duurdere" kabel a 80 euri dit wel kan? komt volgens mij alleen maar door een beter afscherming...
dus met de nieuwe standaard zal dit ook zijn toch?

Op dit item kan niet meer gereageerd worden.