Hdmi 2.1-specificatie is uitgekomen

Het HDMI Forum heeft dinsdag de hdmi 2.1-standaard beschikbaar gemaakt voor fabrikanten. De nieuwe standaard biedt, door de datadoorvoersnelheid bijna te verdrievoudigen, ondersteuning voor hogere resoluties en framerates ten opzichte van hdmi 2.0.

De aankondiging van de beschikbaarheid werd op de website van het HDMI Forum gedeeld. Met het beschikbaar komen van de standaard, wordt het mogelijk om apparaten met de nieuwe standaard op de markt te brengen. In september is er al een hdmi 2.1-kabel in een webwinkel verschenen en de Xbox One X zou er ook ondersteuning voor moeten hebben.

Hdmi 2.1 is in januari aangekondigd. De standaard maakt het mogelijk om 4k-beelden met 120Hz of 8k-beelden met 60Hz te versturen. Ook een 10k-resolutie is haalbaar. Dit wordt onder andere mogelijk gemaakt door een kabel met een bandbreedte van 48Gbit/s. De standaard is backwards compatibel met de oudere hdmi-standaarden.

Een andere nieuwe functie van de standaard is Game Mode Variable Refresh Rate. Hdmi krijgt hiermee ondersteuning voor dynamische verversingssnelheid, die ervoor zorgt dat het beeldscherm en de videokaart of apu compleet synchroon werken, zodat tearing en stotteren worden voorkomen. Voorheen was dit voorbehouden aan displayport, al demonstreerde AMD al FreeSync-over-hdmi.

Hdmi 2.1
Hdmi 2.1Hdmi 2.1Hdmi 2.1Hdmi 2.1

Door Emile Witteman

Nieuwsposter

28-11-2017 • 21:15

111

Lees meer

Reacties (111)

111
107
55
10
3
39
Wijzig sortering
Dit is toch wel een major update en echt een must als je (volgend jaar) in de markt bent voor een nieuwe 4K TV en/of versterker, waar je een langere tijd van wilt genieten.

Hier staan in een tabel alle verschillen tussen de verschillende versies van HDMI, en dan zie je dat HDMI 2.1 wel heel veel toevoegt.
Waarom precies? HDMI 2.0 levert 60Hz op 4K (maar geen 120Hz) en geen ondersteuning van dynamische verversingssnelheid. Ik ben ook benieuwd welke apparaten dit al zouden ondersteunen?
Het zijn nice to have features, maar geen noodzakelijke features.
Als je een PC aansluit op de TV en HDR overal wil kunnen gebruiken zonder compromissen. Ofwel:
3840 x 2160 x 30b (10-bit HDR) x 60 fps x YCBCR 4:4:4 is te veel voor de 14,4 Gbps van HDMI 2.0. Die valt dus terug op kleurcompressie als YCBCR 4:2:2 of YCBCR 4:2:0. Die kleurcompressie doet UHD Bluray bijvoorbeeld ook, dus voor video geen ramp. Echter een PC met veel haakse bochten in de weergave en kleine tekst in het bijzonder heeft daar veel sneller zichtbaar last van. Zie bijvoorbeeld ook:
https://gathering.tweaker...message/49198135#49198135

Daarentegen kun je haast alles op 4K gebied met HDMI 2.1 kwijt, je kunt dan alle toeters en bellen tegelijk gebruiken en daarbij haal je dan ook nog eens 120 in plaats van 60 fps:
3840 x 2160 x 36b (12-bit HDR) x 120 fps YCBCR 4:4:4, want past binnen de 42,6 Gbps van HDMI 2.1.
Windows 10 versie 1709 doet dit HDR windowed/desktop ook echt, alleen tot nog toe niet op 4K resolutie over HDMI.
https://www.reddit.com/r/...ith_fall_creators_update/
Voor DisplayPort 1.3 en 1.4 is 12 bit 120 fps net iets te veel gevraagd zonder compressie, maar wel kunnen daar dankzij de 32.4 Gbps bandbreedte nu al 10 bit x 120 fps of 12 bit x 60 fps varianten van 4K over heen. Daarom hebben velen ook al gevraagd om TV's met DisplayPort. Dat maakt HDMI 2.1 volgend jaar dus 'goed'.

Voor een mooi vergelijk van alle mogelijke resoluties bij verschillende HDMI versies en eventuele beperkingen als kleurcompressie of juist nieuwe mogelijkheden dankzij intelligentere compressiemethode DSC, dezelfde als DisplayPort 1.4 ingebakken heeft:
https://en.wikipedia.org/wiki/HDMI#Version_comparison
"Refresh Frequency Limits for HDR10 Video"

Tot slot eARC en Game Mode Variable Refresh Rate. eARC wil bijvoorbeeld Marantz nog wel gaan proberen te backporten over HDMI 2.0 voor bepaalde receivers zodat je straks ook Atmos en ander 3D geluid van bijvoorbeeld een streaming app op de TV terug kunt sturen naar een surround systeem. Echter VRR vereist HDMI 2.1 en is ideaal als je met een PC of naar verluidt ook Xbox One X wilt gamen op een TV omdat je niet meer vast zit aan een halvering van de refresh rate zodra je maar even onder de 60 fps komt. Het beeld blijft dan soepel, of in ieder geval veel beter, ook rond de 40-50 fps.

[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 15:18]

Niet alleen een PC maar ook een gameconsole profiteerd hiervan. De PS4 pro bijvoorbeeld schakelt met HDR op 4k ook terug naar YCBCR 4:2:0 vanwege de max bandbreedte van HDMI 2.0.
Persoonlijk snap ik de "hype" richting 4:4:4 niet zo. Voor video editing etc is het voor je source zeker interessant. Maar voor 90% heeft het geen invloed en is 4:2:0 visueel net zo goed als 4:4:4. Zeker op 4K waar het probleem nog veel minder speelt.

Het heeft vooral invloed op zeer kleine tekst op een enkel gekleurd vlak. En dat is eigenlijk alleen zo bij het gebruik van je Desktop op een TV....

Voor films? niet interessant
Voor Games? nauwelijks interessant
Voor TV? niet interessant

Meer info over Chroma-subsampling:
http://www.rtings.com/tv/learn/chroma-subsampling

Als je met dit soort voorbeelden moet komen om het verschil aan te tonen, zegt dat volgens mij al genoeg over hoe vaak het een issue is:
4:4:4: http://i.rtings.com/image...4k-60hz-pc-mode-large.jpg
4:2:2: http://i.rtings.com/image...-chroma-4k-30hz-large.jpg
4:2:0: http://i.rtings.com/image...-chroma-4k-60hz-large.jpg

[Reactie gewijzigd door Waah op 22 juli 2024 15:18]

Ik zeg ook niet dat het een wereld van verschil is, maar een verschil is er wel.
Dat betekend dat we met de huidige standaarden (4k+HDR) al tegen de limiet van de snelheid van HDMI aanlopen, en dat je zelfs met de huidige technieken al zou kunnen profiteren van HDMI 2.1 (ook al is het nog geen wereld van verschil).
Zodra we verder willen, hogere resolutie, hogere aantal bits, meer detail in kleur/HDR (je weet niet waar ze nog allemaal mee komen, en wat het meeste nut heeft laat ik even in het midden), dan zou je nu dus keihard tegen de beperking van HDMI 2.0 aanlopen. Dat de nieuwe standaard veel ruimte geeft om de komende jaren meer bandbreedte te gaan benutten is dan alleen maar goed. Anders lopen we er wellicht te snel weer tegenaan.

[Reactie gewijzigd door Mud.Starrr op 22 juli 2024 15:18]

Tuurlijk is een nieuwe HDMI standaard met een grote verbetering in throughput zeker interessant. Al zijn er genoeg andere technieken die nu al in HDMI zitten en niet gebruikt worden (Ethernet over HDMI anyone?) die veel nuttiger zijn. Dat ben ik met je eens hoor.

Echter geef je aan dat de PS4 pro terugschakelt naar 4:2:0. En dat is, an sich, helemaal geen issue. Omdat je dat tijdens het gamen niet gaat zien. Idem voor films. Onze ogen zijn (zeker bij bewegend beeld!) helemaal niet zo goed in staat om die verschillen te zien. Daarom is een 1920x1080 foto ook zeer slecht kwa scherpte.... maar als je een film op die resolutie ziet is het hartstikke scherp. Daar komt bij dat hoe hoger de resolutie is, hoe minder last je hebt van die lagere chroma-subsampling!

De verbetering van 8 naar 10 bit is een interessantere ontwikkeling, al is ook dat vooral zichtbaar bij bepaalde scenes. We zitten kwa beeldkwaliteit nu eenmaal dichtbij het punt dat het visueel niet zoveel meer uit maakt. De grootste stappen (zwartwit-kleur-HD-Full HD) zijn nu eenmaal al gemaakt. 4K is een kleinere stap, 10 bit is een nog kleinere stap en het weghalen van Chroma Subsampling zorgt vooral voor meer datadoorstroom... niet voor beter beeld.

Het is hetzelfde als met SSD's. Helemaal top dat er nu SSD's zijn waarmee je 3000MB/s kan halen. Maar als je in "normaal" gebruik het verschil eigenlijk niet ziet met 600MB/s Sata 6 SSD's... Wat is dan het nut nog? Marketing? Planned Obsolescence?

Het is ook de reden dat ik op 1080P60 ben blijven hangen. Ik film nog altijd in 1080p60 omdat dat een duidelijkere verbetering is dan 4k30 (60p is voor mij direct zichtbaar tov 30p. Bij 4K is dat al een stuk lastiger, mits beide met dezelfde camera zijn gefilmd). Waar mogelijk film ik met 4k60 maar dat is niet vanwege scherpte, maar zodat ik achteraf kan inzoomen. En dat is hetzelfde voor Chroma-subsampling:
Voor Editing is 4:4:4 fantastisch. 4K in Editing (en 8K/16K) is ook fantastisch. Maar voor het eindproduct? dan wordt het een stuk minder relevant opeens. En dan voldoet de HDMI standaard van v2.0b nog prima.

[Reactie gewijzigd door Waah op 22 juli 2024 15:18]

Goed dat HDMI 2.1 er nu is gezien de toekomst. Je kan inderdaad tegen limieten oplopen bij HDMI 2.0, maar wat @Waah zegt klopt natuurlijk.
De komende (zeker)5 jaar ga je er op film/video gebied als consumer niet veel aan hebben, en
consoles zijn niet krachtig genoeg om er echt iets mee te kunnen.
Hier heb ik op zitten wachten.... perfect!
Waarom ze dit geen HDMI 3.0 noemen is mij een raadsel.
Omdat ze anders na alle refsh waarschijnlijk al op HDMI 21 zouden zitten ;-)
Hiervoor is geen hardware upgrade nodig. Enkel soft/firmware upgrade. Dus een minor update op de techniek.
Het blijft wel afhankelijk van wat voor kabel je hebt (alleen "Ultra high speed" kopen) of je die 2.1 specs ook gaat aankunnen en of je apparaat (TV) die firmware upgrade wel gaat krijgen..

Zie https://tweakers.net/nieuws/132329/hdmi-21-specificatie-is-uitgekomen.html?showReaction=10840973#r_10840973

[Reactie gewijzigd door Wilglide op 22 juli 2024 15:18]

Want alle hardware in je huis ondersteund het al?

Dit zal pas (hopelijk) over een paar jaar standaard zijn op je grafische kaarten t/m TV/monitoren.
Dat blijft toch zo. Elk (paar) jaar komt er een update uit. De vraag is of je er de komende jaren echt niets aan hebt. Er zijn weinig mensen die elke 3 jaar een nieuwe TV en receiver kopen vanwege nieuwe standaarden.

Wat ik jammer vind is dat ethernet over HDMI al lang in de standaard zit maar ik nog nergens geïmplementeerd heb gezien. Dat zou mij een switch schelen achter mijn TV als mijn receiver al dit netwerkverkeer voor mijn TV, mediaspeler en gameconsole zou afhandelen.
Uncompressed - 42,67 Gb/s effective data rate
  • 4K (3840*2160) 10-bit 171fps
  • 5K (5120*2880) 10-bit 96fps
  • 8K (7680*4320) 10-bit 42fps
  • 10K (10240*5760) 10-bit 24fps
1:3 DSC - 128 Gb/s effective data rate
  • 4K (3840*2160) 10-bit 512fps
  • 5K (5120*2880) 10-bit 288fps
  • 8K (7680*4320) 10-bit 128fps
  • 10K (10240*5760) 10-bit 72fps
Mis overigens 12-bit in het lijstje. Voor de Dolby Vision standaard. Dolby vision zoals nu ondersteund is namelijk niet volledig. En daar heb je wel wat meer aan dan een resolutie van 10K
Fijn dat je zegt wat hiermee wilt.

1:3 DSC is voor displayport, dus dat gebruiken?
Helaas gaat dat niet werken voor gamen op te TV?

En leuk om te zien dat Philips de enige is die al hdmi 2.1 tv's heeft:
categorie: Televisies
Nu hoop ik apparaten met HDMI 2.0 nog een firmware upgrade krijgen naar 2.1 zou wel handig zijn met mijn huidige 4k hdr tv :?
Dit kan niet, want een bandbreedte vergroten van 18Gbps naar 42Gbps kan niet softwarematig, dit is ook een hardwarematige aanpassing. Verder heb je ook niets aan meer bandbreedte, want alle onderdelen in jou TV zijn gebaseerd op maximaal die 18Gbps standaard.

[Reactie gewijzigd door Jumpman op 22 juli 2024 15:18]

Dat klopt. Maar in het verleden hebben apparaten wel eens een firmware update gehad van 1.4 naar 2.0, Durf alleen niet meer te zeggen welke apparaten dat waren
Dat lijkt mij niet, want er is geen HDMI 1.5 standaard.

Bron: https://en.wikipedia.org/wiki/HDMI.
1.4 sorry. typte wat te snel 8)7 ieder geval laat ik het zo zeggen, Op dit moment kun je geen hdr en 4k op 60frames per seconden doorvoeren over een HDMI 2.0,a kabel, (2.0a kabel is max 18gbps)
Zou het met een 2.1 kabel dan wel lukken met 2.0 apparatuur?
Kabels hebben officieel GEEN versie nummer, vergeet bij kabels alle zogenaamde versies. Kabels worden geclassificeerd met een hoeveelheid bandbreedte; dus hoeveel data er doorheen gedrukt kan worden. Je hebt momenteel de volgende types:

Standard speed (tot 10.2 Gbps)
High speed (tot 18 Gbps)
Ultra high speed (tot 48 Gbps)

(Het 'with ethernet' gebeuren laat ik buiten beschouwing, 99,99% v/d tijd niet interessant namelijk)

De HDMI markt is een onoverzichtelijke rotzooi geworden/gemaakt om mensen vage dure kabels aan te smeren. Het is enorm verwarrend dat een highspeed '1.4' kabel compatible is met HDMI 2.0 poorten, terwijl je er logischerwijs van uitgaat dat een 1.4 kabel bij een 1.4 hdmi poort matcht. Kijk daarom nooit naar versienummers van kabels omdat het klinkklare onzin is, kijk alleen naar dataoverdracht (bandbreedte).

Standard speed kabels kan je negeren, die zijn inmiddels sterk verouderd en worden nog maar zelden verkocht.

High speed is momenteel het meest gebruikt. Hiermee kan je maximaal 18 Gbps aan bandbreedte versturen. Dit is genoeg voor 4K @ 60 FPS @ 4:4:4 of bijv 4K @ 60 FPS @ 4:2:2 HDR. De enige limitatie die ik ben tegengekomen bij deze kabels is dat je geen 4K @ 60 Hz @ 4:4:4 HDR gaming kan weergeven omdat dit teveel bandbreedte vereist.. je zit dan ruim boven de 20 Gbps, dit is een beetje de achilleshiel van HDMI 2.0. Bij videocontent speelt dit geen rol omdat het óf in 24 fps is geschoten óf geen 4:4:4 chroma subsampling toepast, waardoor de hoeveelheid bandbreedte altijd <18 Gbps zit.

De ultra high speed kabel is net uitgekomen en is feitelijk gericht op HDMI 2.1 om de bandbreedte van 48 Gbps aan te kunnen. Deze kabel heeft verder 0 nut op een HDMI 2.0 poort; die blijft gelimiteerd tot 18 Gbps. Dit is ook niet met software te patchen.

[Reactie gewijzigd door stin00 op 22 juli 2024 15:18]

Deze kabel heeft verder 0 nut op een HDMI 2.0 poort; die blijft gelimiteerd tot 18 Gbps. Dit is ook niet met software te patchen.
Dus voor iedereen die wil gamen op de TV zonder tearing moet weer een nieuwe videokaart met hdmi 2.1 support. En een nieuwe televisie met hdmi 2.1 poort, juist?

[Reactie gewijzigd door Wilglide op 22 juli 2024 15:18]

Voor iedereen die wil PC gamen op een TV met 4K @ 60 Hertz @ HDR (10bit) is een HDMI 2.1 poort inderdaad een musthave op zowel de videokaart als de TV. Op een PC monitor kan uiteraard Displayport gebruiken aangezien zij al veel langer hogere bandbreedte ondersteunen; HDMI loopt/liep op bepaalde punten hopeloos achter. HDMI 2.1 is gelukkig erg toekomstgericht, het zal enige tijd duren voordat we de limieten daarvan heben bereikt in de praktijk :)
Bedankt!

Ik vind HDR eigenlijk niet zo interessant, OLED 4K wel.
Maar die "Game Mode Variable Refresh Rate" heb je ook alleen bij HDMI 2.1 dus.

Kijkcomfort vind ik belangrijker dan HDR, die laatste verpest je toch met calibratie schema's, weinig blauw licht in de avond bijvoorbeeld i.v.m. je slaapritme? Of zie ik dat verkeerd?

OLED vind ik wel interessant i.v.m. de techniek (zwart is led-uit zwart), maar ook wat duur.
Het maximale wat HDMI 2.0(a/b) kan halen is 3840 x 2160 pixels 60 FPS 10bit HDR Chroma Subsampling 4:2:2.
Dat zei stin00 toch ook al?

4K @ 60Hz met 4:4:4 bij 8bit en 4K @ 60Hz met 4:2:2 bij 10bit. (http://www.acousticfronti.../03/HDMI-color-spaces.png)
Dit vroeg ik mij dus ook af. Is het “simpel” met een software update te fixen?
16 Gbit/sec bandbreedte naar 48 Gbit/sec? Dat is hardware. Tenzij een fabrikant het zag aankomen, kan dat niet in software. Maar deze standaard is geen verrassing, dus misschien zullen sommige fabrikanten al een compatible hardware implementatie hebben, en is er alleen een "software update" nodig die het ook daadwerkelijk aanzet.
En ik zit hier mijzelf maar af te vragen wat nou het verschil is tussen 1440p, 4k, 5k, 8k, 10k. Ik snap dat de pixels kleiner worden en groter in getale. Hogere resoluties enzo. Ik weet dat 4k gewoonweg 4 maal 1080p is. Maar ik zie het verschil niet, ook niet van heel erg dichtbij.

Mijn 1440p monitor is al ruim voldoende. Als begin volgend jaar de nieuwe GTX kaarten uitkomen (denk aan een 1160, 1170, 1180, en later in het jaar een 1180ti) hoef ik alleen maar die 1440p aan te kunnen sturen. Liefst op een refresh rate van meer dan 144Hz. Dat dan weer wel.

Het houdt een keer op, toch? Tot wanneer kunnen resoluties door blijven groeien? Tot op welk punt blijven mensen het kopen?
Het houdt een keer op, toch? Tot wanneer kunnen resoluties door blijven groeien? Tot op welk punt blijven mensen het kopen?
Het zal nooit ophouden, want fabrikanten blijven nieuwe bronnen aanboren zodat consumenten maar blijven kopen.

Wij hebben nu alles 4K van Sony (Blu-ray - Scherm - receiver - PS4 Pro - etc. ) maar ook voor ons is het nu een keer 'klaar' :/
Het is inderdaad bizar. Die extreem hoge resoluties hebben alleen zin bij extreem grote schermen, of wanneer je ervoor kiest om heel dicht bij het beeld te zitten. Ik heb zelf ook alles 4K (60hz), inclusief TV, 49 inch. Het verschil tussen 4K en Full HD beelden is alleen zichtbaar als je met je neus op het scherm zit, en zelfs dán denk ik: "het zal wel". Als je TV's van 49 - 55 inch 8K maakt, zijn er vast weer horden die zeggen dat ze het verschil zullen zien tussen 4K en 8K, maar ik geloof er geen woord van. :)
Daarnaast is er nog nauwelijks 4K content, laat staan 8K. Ik begrijp dat er één de 'voortrekker' moet zijn, maar bij home cinema houdt het wel degelijk ergens op.
Overigens zullen er wel degelijk toepassingen zijn voor deze standaard, daar wil ik niets aan af doen.
100% Mee eens. Het verschil op een 27" scherm tussen 1440p en 4k zie ik al niet. Misschien als ik heel erg met de neus op de pixels ga zitten speuren, maar ik heb al moeite het verschil tussen 1080p en 4k te zien. En mijn ogen zijn volgens jaarlijkse metingen zo perfect als 't maar kan zijn voor een mens :7

Wat jij zegt: 4k vs 8k, dat kán je toch ook niet zien? Ik zie op 4k de pixels al niet meer op een gangbaar groot 55" scherm. Met 8k wordt dat nog eens 4 keer zo gedetailleerd? Waarom dan?

En het aanbod is ook een goed punt. Streamen van 4k materiaal is zelfs met een glasvezelverbinding al behoorlijk zwaar. Verviervoudig dat voor 8k en je gaat films krijgen van enkele terabytes op o.a. Netflix?

Het gaat gebeuren maar ik denk dat ik goed weet waar ik het over heb. Ik zal 't niet gaan kopen in ieder geval. Tenzij d'r geen alternatieven meer zijn natuurlijk :+
Bijvoorbeeld met een VR-bril zie je nu gewoon de pixels staan in het midden van het beeld. Met 4K per oog wordt dat al veel beter natuurlijk, maar pas bij 16K per oog zie je dan echt geen pixel meer ook met scherp zicht. AMD zet dan ook in op 16K en 120fps op lange termijn:
https://www.tweaktown.com...e-vr-16k-120hz/index.html

Dus ergens zit straks iemand met zijn VR-setje stiekem heel blij te zijn met de beeldkwaliteit omdat ook jij uiteindelijk toch meedoet aan de 8K/16K gekte, zij het op enige gepaste afstand ;)
Mwa dat is niet waar, bij de mediamarkt heb je bv de 5k imac naast een oudere imac staan, beide 27". Daar zie je wel duidelijk verschil hoor.

Overigens alleen omdat je er nog geen halve meter vanaf zit. Bij een meter afstand zie je het inderdaad niet of bijna niet meer
Daarnaast is er nog nauwelijks 4K content, laat staan 8K.
Steker nog; Zelfs als het er is betaal je gemiddeld nog 25 à 30 Euro voor een (populair) schijfje en dan nog maar de vraag of het echt 4K is en geen 'opgepoetste' 2K

http://realorfake4k.com (site is traag met laden)
De Olypische Spelen 2018 worden in Japan in 8K uitgezonden. Dus HDMI 2.1 is meer dan welkom.

Bron: https://www.homecinemamag...in-8k-ultra-hd-uitzenden/.
Anoniem: 533924 @Jumpman29 november 2017 00:23
De spelen in Rio van vorig jaar werden gedeeltelijk al in 8k uitgezonden op de Japanse omroep.

In 2018 Zuid Korea blijft het nog steeds in proeffase en wordt het wederom gedeeltelijk in 8k en gedeeltelijk in 4k uitgezonden

In 2020 willen ze de spelen volledig in 8k uitzenden

[Reactie gewijzigd door Anoniem: 533924 op 22 juli 2024 15:18]

Zolang niemand een 8K TV heeft boeit dat niet.
Anoniem: 562971 @Jumpman29 november 2017 12:09
Daar heeft men ook schermen van 10 bij 15 meter :)
Techniek is nooit "klaar"

Heb je al Dolby Vision? 16 miljard ipv 1 miljard kleurtinten van HDR lijkt me niet aangezien sony dat niet ondersteund
UHD heb je ook niet als ik blu ray zie staan

receiver met DTS:X en Dolby Atmos?

zo te zien loop je nu al behoorlijk achter namelijk

en over 2 jaar weer etc.

techniek gaat vooruit. of had je liever nog op een zwart wit tv met mono naar film gekeken....
Anoniem: 562971 @hb198129 november 2017 12:46
Moet ik dan echt alles opnoemen wat jij daar beschrijft?

Sony 65XD-7505 (4K)

pricewatch: Sony Bravia KD-65XD7505 Zwart

SONY STR-DN1080 DTS:X en Dolby Atmos (4K)

pricewatch: Sony STR-DN1080

Sony UBP-X800 (4K)

pricewatch: Sony UBP-X800

PlayStation 4 Pro (4K)

pricewatch: Sony PlayStation 4 Pro 1TB Zwart

Edit: Wat is de meerwaarde van het 'kijkgenot' als men zo weinig content aanbiedt. Dit alles is al een strak beeld en dito geluid.

Daar komt nog bij dat men voor Atmos en DTS:X een zeer uitgebreid luidspreker-pakket nodig heeft. Dàn pas heb je Dolby Atmos en DTS:X

Zie jij je al in een woonkamer met 9 of meer luidsprekers? ;)

[Reactie gewijzigd door Anoniem: 562971 op 22 juli 2024 15:18]

"Daar komt nog bij dat men voor Atmos en DTS:X een zeer uitgebreid luidspreker-pakket nodig heeft. Dàn pas heb je Dolby Atmos en DTS:X

Zie jij je al in een woonkamer met 9 of meer luidsprekers? "

Uhm ja dat zie ik. Heb namelijk
2 zuilen voor
2 speakers voor hoog
2 speakers achter hoog
2 speakers laag
1 centerspeaker
1 subwoofer

dus in configuratie voor auro 3d / dts:X maar voldoet dus ook voor Atmos
LG OLED 65C6 met dolby vision
oppo 203 voor dolby vision
de tv zelf ondersteund ook netflix series in dolby vision en worden er steeds meer.
Al eens een Retina iMac of MacBook gezien? Dan weet je dat een hogere resolutie zeker zinvol is. Ik ben het met je eens dat het ergens ophoudt, maar zolang je nog individuele pixels kunt zien, mag de resolutie dus verder omhoog (op normale kijkafstanden).
Daar heb je gelijk in: http://carltonbale.com/does-4k-resolution-matter/
Voor tv's is 4K in de meeste gevallen nutteloos (of je moet een enorm scherm hebben en heel dichtbij zitten). Het is weer de volgende stap in marketing (remember 3D TV's?)
Voor laptops is dat een ander verhaal omdat je daar wel heel dichtbij zit.
Dit is echt gewoon de grootste onzin ever. Als je echt 4K beeld materiaal hebt zie je van 5 meter met gemak nog het verschil tov 1080p. Anders heb je enorm slechte ogen. Tuurlijk houd het op na 8K want je komt op een punt waarbij de resolutie de mogelijkheden van het oog voorbij gaat.

Maar mensen die het verschil tussen 1080 en 4K of UHD niet kunnen zien, please bezoek een oogarts.
Onzin, op mijn 10 inch tv zie je op 5 meter afstand het verschil echt niet hoor!
(Kortom: heeft alles te maken met de grootte van tv, scherm of projectie en niet alleen met afstand)
een normale TV is rond de 40 inch of soms meer en daar gaan we vanuit. Verder is het materiaal belangrijk. Ik heb 4K/UHD films gezien waar je nauwelijks verschil ziet (afstand en grootte scherm maakt dan weinig uit) en je hebt beeld materiaal: 4K demo's, natuur docu's, concerten en porno) waar het verschil heel duidelijk zichtbaar is.
Ja, er is verschil in materiaal - maar ik denk dat de 4k demo er op een fullHD-tv van 40 inch op 5 meter afstand ook super uitziet!
Je geeft zelf al aan dat je bij slecht UHD-materiaal het verschil al niet ziet. Dat geeft dan dus al aan dat jij de pixels niet meer ziet - anders kon je die gewoon tellen en kon je zo de uhd-tv herkennen. Dus de scherpte/kwaliteit van het materiaal is belangrijker dan de resolutie (tenminste, op een bepaalde afstand met en bepaalde grootte scherm) - 5 meter op 40 inch in ons voorbeeld.
Met jou durf ik wel een weddenschap aan te gaan.
Die durf ik wel aan te gaan. Maar dan wel op mijn 65” tv. Ik zie heel duidelijk het verschil op 5m (dat is namelijk mijn zitafstand). Met een kleinere TV is dat wellicht een ander verhaal, maar ik denk dat je het met 55” ook wel ziet, alleen moet je dan denk ik wel moeite doen om het te zien.
Ik zie het verschil niet. Mijn ogen worden jaarlijks getest en ik heb geen problemen met mijn ogen.

Sterker nog, mijn televisie thuis is een gewone LCD tv (edge-lit, local dimming). Bij mij is zwart dankzij local dimming al sinds 2011 praktisch zo goed als OLED.

Het is gewoon pure, pure marketing. En jij bent er ook slachtoffer van zo te lezen :+
edge led vs individueel aanstuurbare pixels, praktisch zo goed als hetzelfde in zwartwaarde? Jaja.........

Volgens mij heb je met een local dimming tv altijd nog te maken met een zekere mate van glow. Je gaat nooit in de buurt komen van pixels die pikzwart zijn als ze niet worden aangestuurd. Maargoed als jij vind dat hij zo goed als even goed is als een OLED in het weergeven van het zwart, its up to you

[Reactie gewijzigd door Anoniem: 533924 op 22 juli 2024 15:18]

hoe kan je local dimming hebben, als het edge-lit is? :) hint: dat kan helemaal niet!
Dat doe ik jaarlijks omdat ik skydive. Ook als motorrijder is 't prettig te weten dat mijn ogen niet achteruit gaan. Het is een gewone checkup voor mijn eigen veiligheid.
Omdat jij het niet ziet, wil niet zeggen dat anderen het niet zien.

Je hebt het over high-end grafische kaarten de noodzaak waarom ze die maken heeft hoge resoluties te maken.

Anders waren we bij vga blijven steken.
Anoniem: 423356 29 november 2017 00:04
Grootste gamechanger is toch wel de eARC. kan eindelijk alles direct aansluiten op de tv ipv rompslomp via receivers.
Dat is toch persoonlijk... Zelf snap ik niet waarom je alles op je tv aan zou willen sluiten, dan is het meestal toch juist lastiger om de kabel zooi netjes weg te werken. Voor mij zou vrr de grootste game changer zijn, maar daar hebben niet gamers weer weinig aan.
Ik heb in principe alles op receiver, maar wat als ik nou de Netflix app wil openen op de smart tv? Juist: ARC.
Je hoeft niet alles op je tv aan te sluiten om (e)ARC te benutten.
Het is dus niet nuttig voor gamers die op de TV willen gamen?

Of word het dan:
PC - via HDMI 2.1 poort en "Ultra high speed" kabel #1 - TV - HDMI 2.1 poort en "Ultra high speed" kabel #2 - Home Cinema Set / receiver?

Was te verwachten, maar duur grapje :+
En je videokaart moet ook HDMI 2.1 poort hebben dan, geen 2.0?

Ik heb hier totaal geen ervaring mee, dus sorry als dit niet zo gaat werken bij TV's van over een jaar dan.

[Reactie gewijzigd door Wilglide op 22 juli 2024 15:18]

Precies, al die extra bandbreedte zijn de meeste mensen niet echt nodig op dit moment. Zelfs een ultra HD blu-ray hdr speler is het volgens mij niet nodig. Omdat dat toch niet 60fps is. (Of 444)

Dus het enige apparaat is denk ik een (game) pc voor de komende tijd die er eventueel baat bij kan hebben..

Maar ARC das veel interessanter. Want hoe krijg je nu alle audio content uit je tv bij alle streaming services... Blu-ray speler kun je eventueel wil via de versterker laten lopen maar voor de rest is ARC nu wat beperkt met HDMI 2.0
Ik vind dat juist de minst boeiende. Gebruik nu ook nooit ARC. Alles zit bij mij in mijn receiver die in hetzelfde meubel staat als de 7 apparaten die erop aangesloten zitten. Ik heb geen 7 hdmi ingangen op mijn tv en zou al helemaal niet 7 hdmi kabels ernaartoe willen hebben lopen.....
Oftewel G-sync en Free-sync zijn niet meer nodig?
Ze zijn zeker nodig, alleen kun je het nu over HDMI doen en niet per se over displayport.
Jawel, maar werd voorheen niet ondersteund door hdmi. Op een paar uitzonderingen daargelaten.
Nu kan je dus ook van sync gebruik maken via hdmi.

Edit: te laat.

[Reactie gewijzigd door janremie op 22 juli 2024 15:18]

Ik vraag mij af waarom ze niet gewoon op display port overstappen..
De overgang van micro usb naar usb C duurt ook zo lang.
Omdat displayport oa geen ARC (audio return channel) en ethernet ondersteunt (wat op zich niet echt een gemis is)
ARC kan zeker wel een gemis zijn.
Ik doelde op ethernet, die wordt afaik niet vaak gebruikt, devices hebben meestal hun eigen aansluting, of gebruiken wifi.
Anoniem: 562971 @Zer029 november 2017 09:16
Alleen handig als je Netflix of Youtube kijkt via je scherm met een aparte receiver. Ook bij ons is alles Sony, maar dan heb ik af en toe nog een conflict via ARC. :O
Denk dat je USB-C bedoelt? ;)
Omdat ze geld verdienen op HDMI door licenties...
Ja, maar dan kunnen fabrikanten toch juist beter overgaan op DP? Scheelt weer een paar dollar..
Dat wilt iedereen wel denk ik.

Alleen heeft het HDMI association natuurlijk al een grote marktaandeel met apparatuur dat HDMI ondersteunt, die moeten dan wel allemaal Displayport ondersteunen.

Displayport heeft ook als voordeel dat het aangestuurd kan worden met het Displayport signaal waardoor er aansturings elektronica in de TV of Monitor overbodig word en er dus dunnere en goedkopere TV's en monitoren geproduceerd kunnen worden.
Het type connector is niet zo heel interessant, buiten dat we handiger allemaal dezelfde zouden moeten kiezen.. maar nieuwe specificaties zullen ook in de protocollen moeten worden opgenomen..
Nu nog partijen die deze specificatie zoals omschreven ook daadwerkelijk gaan maken zonder hiervan af te wijken. Ken een Nederlandse televisiemaker die hier volgens mijn provider een eigen interpretatie op nahoudt in eerdere versies. Misschien een leuke rubriek -> Wat krijg je daadwerkelijk geleverd. Verder goed om te zien dat er nog steeds innovaties mogelijk zijn.
En het is weer afwachten tot leveranciers spullen op de markt gaan brengen met dit label of een vage afgeleide ervan (hdmi 2.1 ready/compatibale etc etc) die in de praktijk weer niet goed blijkt te werken/onvolledig is/een budget variant blijkt die er alleen maar om bestaat om de minder-geinformeerde consument om de tuin te leiden.
Tjah dat is de schuld van de HDMI association die domme namen kiest.

HDMI 2.0a en 2.0b, als een fabrikant dan de a of b weglaat hoe moet je dan weten welke versie het is?

En waarom a en b?

Maak het dan 2.1 of 2.2, alsof cijfers op zijn 8)7
Yep. Met verplichting erbij van een duidelijk logo/label op de verpakking wat de maximale haalbare reso is bijvoorbeeld. Voor de volledigheid. Maar dat maakt het "lastig" om consumenten om de tuin te leiden en te verleiden tot impulsaankopen schijnbaar. :D
HDMI gaat niet over de resolutie, enkel de bandbreedte. En of jij nu kiest voor 4k op 120FPS of 8k op 30FPS maakt dan niet uit.
En waarom a en b?
(a)chterlijke en (b)elachelijke prijzen ;)
Bij onze Nederlandse televisiefabrikant hadden we problemen met geluid en was de conclusie dat deze zich niet aan de specs hield. Kost je als consument oneindig veel gedoe met provider, fabrikant, hoe zit de spec in elkaar, e.d. Tip melden bij ACM helpt. Onze Nederlandse top privider heeft het uiteindelijk opgelost met een schikking in €. Incident gemeld bij Over fabrikant televisie heb ik me kritisch uitgelaten over tv op website wat meteen resulteerde dat deze reactie weer werd verwijderd. Krijg met al deze upgrades nog steeds niet het gevoel dat er een standaard ontstaat. Heb nog steeds een micro USB kabel voor opladen telefoons, lightning voor tablet, USB-c voor... allemaal stekkers die nu ook weer gevoed moeten worden op verschillende amperages 2A de ander weer met 500mA. Laten we eens nadenken over overschakelen op https://www.delta.tudelft...ar-dc-weg-met-de-adapters. Gewoon goed toezicht vanuit overheid en ingrijpen bij misstanden/afwijkingen van standaard.
Probleem is dat het vanuit China al misgaat.

Als er allerlei kabels worden geproduceerd die niet aan de standaard houden en ook nog eens van een slechte kwaliteit zijn zal je altijd problemen tegenkomen.

Want consumenten willen natuurlijk zo goedkoop mogelijk, vervolgens zijn ze dan dagen, weken of maanden bezig om te achterhalen hoe een bepaald probleem ontstaat met hun TV, PC of receiver.

Ik heb die fout ook gemaakt door goedkope kabels te kopen uit China omdat ik dacht dat het toch niks uit maakt, vervolgens laadde mijn telefoon nauwelijks op en ik had helemaal geen vermoeden dat het daardoor zou komen.

Maar het was dus een kabel van erbarmelijke kwaliteit 8)7
Nice die game mode, nu moeten TV fabrikanten nog de technologieën van gaming monitoren implementeren en de input lag verlagen.

Droom van een living room gaming setup komt steeds dichterbij.
De input is inderdaad nog het grote probleem, het is gewoonweg nog niet goed genoeg voor een living room setup voor mij.
Bij mij meer de waf, met die grote game pc naast de tv.
Dat is in deze tijd niet meer nodig, je kan prima een high-end pc kwijt in een kleine behuizing. Of iig een onopvallende. Zet deze naast je tv meubel en zeg dat het een subwoofer is. ;)
Kan het proberen, helaas wel een sli opstelingkje voor gta te kunnen spelen.
Met een enkele GTX 1080 Ti kom je een heel eind zonder SLI hoor :p
Dat klopt, maar moet het helaas maar doen met een Titan in sli met een E atx.
Met deze officiele specificatie krijgt de Xbox One X nu de upgrade naar HDMI 2.1 :)

Op dit item kan niet meer gereageerd worden.