Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 82 reacties

De Video Electronics Standards Association heeft de embedded displayport 1.4-standaard bijgewerkt naar versie 1.4b. Half 2016 moeten laptops, tablets en all-in-ones, ondersteuning bieden voor edp 1.4b en zo onder andere 8k-schermen aan kunnen sturen.

Versie 1.4b is volgens de VESA nu 'production ready' maar inhoudelijk is er niet zoveel veranderd. Het biedt ten opzichte van 1.4a vooral optimalisaties. Zo is het protocol voor panel self refresh dat een deel van het scherm ververst uitgebreid. Panel self refresh zorgt ervoor dat delen van het scherm bij statische content niet ververst worden, om energieverbruik te verminderen. Het selective update-protocol bevat nu naast de x-as-coördinaten van het framedeel dat een update moet krijgen, ook die van de y-as. Gevolg hiervan is dat schermfabrikanten geen quartzkristal of kristaloscillator meer toe hoeven te voegen voor de timing, wat de kosten omlaag brengt.

Aan edp 1.4 is twee jaar gewerkt. De standaard biedt een link rate van 8,1Gbit/s per lane. De lanes kunnen opgedeeld worden in twee of vier onafhankelijke panelsegmenten of allemaal gebruikt worden voor een theoretische bandbreedte van 25,92Gbit/s. Door deze hoge doorvoersnelheden moeten displays met 8k-resoluties aangestuurd kunnen worden en grotere kleurdieptes binnen handbereik komen. Waarschijnlijk duurt het nog jaren voor laptops en all-in-ones 8k-schermen krijgen. Sharp toonde vorig jaar al wel een 13,3"-oled-scherm met de resolutie van 7680x4320 pixels, maar dat ging om een prototype.

Gpu's en cpu's die edp 1.3 ondersteunen moeten ook overweg kunnen met de 1.4-standaard, belooft de VESA. De organisatie begint al met de voorbereidingen voor embedded displayport 1.5.

embedded displayport 1.4a

Moderatie-faq Wijzig weergave

Reacties (82)

Feitelijk is dit gewoon een standaard die 25,92Gbit/s naar een display kan pompen. Wat kan je daar mee doen?
  • 2560x1440 op 144Hz met 12bit kleurdiepte.
  • 3840x2160 op 120Hz met 8bit kleurdiepte.
  • 3840x2160 op 72Hz met 12bit kleurdiepte.
  • 5120x2880 op 60Hz met 8bit kleurdiepte.
  • 7680x4320 op 30Hz met 8bit kleurdiepte.
8K (7680x4320) kan dus wel, maar alleen op 30Hz met maar 8bit kleurdiepte. Ook 5120*2880 (5K, zoals op de 27" Retina iMacs) kan op 60 Hz met 8bit kleurdiepte.

Als je compressie gaat toepassen, of kleurdata niet meer 4:4:4 gaat verzenden kan je nog meer winst pakken, maar voor ruwe ongecomprimeerde data is 5K het hoogste wat je fatsoenlijk gaat kunnen weergeven met deze standaard.
Ter verduidelijking: 12 bit kleurdiepte betekent: 12 bits per component, 3 componenten (rood-groen-blauw). Maw: voor de tweede resolutie: 3840*2160*120hz*8bit*3comp < 25.92gbit * 1024^3 / 8bitperbyte, dus dat past.
Niet te verwarren met de 16-bits kleuren / 32-bits kleuren die je vroeger veel tegenkwam -- dit is het totaal, maw: 16 bits was 5/5/6 bits voor de componenten.

Normaliter worden echter (per frame) alleen de verschillen doorgegeven. Maw: bovenstaande berekening is worst-case, wat gebeurt als het volledige scherm ververst wordt voor ieder frame.

Compressie wordt afaik verder niet toegepast. In de toekomst verwacht ik dat ze meer 'lanes' zullen toevoegen, wat eigenlijk zoveel betekent als dat er een deel van het scherm een 'apart draadje' krijgt en daardoor in parallel kan worden ververst.

De conclusie dat je 5K fatsoenlijk kan weergeven ben ik het niet mee eens. Dat is alleen het geval als je ieder frame alles ververst (zoals bijv. bij games en bij films het geval kan zijn); als je echter bijv. desktop werk doet, gaat dit prima. Het is in dat geval niet zo dat je net zoals bij de oude CRT monitoren alles ieder frame ververst.
Je moet echter rekening houden met de worstcase -- er is namelijk geen fallback als je het even niet bijbeent in je datarate. Je kunt dus neit zeggen "iedere 1/60e seconde ververs ik tot de helft van de pixels en als het harder gaat dan dat doe ik de volgende frame de andere helft van de lijnen" (interlacing nieuwe stijl), of "ik haal het nu niet dus ik stuur dit frame een kwart van de pixels en die updaten dan ieder 2x2 blok en zodra het mogelijk is komt de rest" (progressive gif stijl). De partial refresh is *alleen* voor stroombesparing, niet voor datarate besparing.

Dat zou in de toekomst kunnen veranderen, maar die technologie is er (nog) niet.
Als je compressie gaat toepassen, of kleurdata niet meer 4:4:4 gaat verzenden kan je nog meer winst pakken,
Voor video is 4:4:4 eigenlijk overkill en kom je makkelijk weg met minder kleurresolutie.
Voor een desktop wil je geen chroma subsampling en dan is 30Hz best wel karig.
5K goed weergeven is dan ook precies wat er op dit moment mist voor bepaalde fabrikanten, dus zo gek is het niet dat dat met deze versie wel kan.
En dan vraag ik mij af, is dit omdat het kan?
Allemaal leuk en aardig, maar op een 15/17 inch laptop op 8K resolutie kan ik de tekst niet meer lezen.
Voor externe aansluitingen is het een ander verhaal.

Of ben ik dan de enige?
Resolutie heeft natuurlijk niets te maken met tekstgrootte. Zelfs op 100K kun je je lettergrootte nog op 3CM zetten als je dat fijn vindt.
Wel is het zo dat op het moment dat je geen afzonderlijke pixels meer kan onderscheiden het nut van nog hogere resoluties natuurlijk nihil wordt. Bij telefoons en tv's <60" zijn we daar inmiddels al bij aangeland. Behalve VR zie ik dan ook echt geen zinvolle toepassing van 8K-schermen.

Maar goed, de consument heeft nu 3 20megapixels camera's liggen, dus nu is het tijd voor acht 16K schermen op de telefoon, de tv, de monitor, en de magnetron.
Oh ja? Probeer jij maar eens op een 4jk laptop 3dsmax, Android Studio en/of te gebruiken. Mss dat Win10 dat met dpi scaling nu iets beter kan, maar toen ik 'm kreeg waren OF hele programma's niet te lezen/gebruiken, OF enkele belangrijke dialoog vensters niet te lezen, wat dus op het zelfde neerkomt.

En, ja, ik weet waar ik moet zijn voor text instellingen en manifest files. Werkt niet goed genoeg als het programma er niet mee om kan gaan.
Resolutie heeft natuurlijk niets te maken met tekstgrootte. Zelfs op 100K kun je je lettergrootte nog op 3CM zetten als je dat fijn vindt.
Wel is het zo dat op het moment dat je geen afzonderlijke pixels meer kan onderscheiden het nut van nog hogere resoluties natuurlijk nihil wordt. Bij telefoons en tv's <60" zijn we daar inmiddels al bij aangeland. Behalve VR zie ik dan ook echt geen zinvolle toepassing van 8K-schermen.

Maar goed, de consument heeft nu 3 20megapixels camera's liggen, dus nu is het tijd voor acht 16K schermen op de telefoon, de tv, de monitor, en de magnetron.
Helaas werkt dit niet voor bijvoorbeeld websites. Lijkt mij een belangrijk punt voor de gemiddelde gebruiker. Websites gebruiken veelal een x aantal pixels, waardoor de website er lelijk uitziet als je daar scaling op toepast. Nu kun je de schuld leggen bij dergelijke developers, maar in de praktijk is het niet zo gemakkelijk. Alle icons, logo's en andere afbeeldingen zouden omgezet moeten worden naar SVG oid en dat is bijvoorbeeld weer lastig in een imagesheet te gebruiken. Daarnaast zijn foto's geen vectorbestanden. Het werkt prima als je een 20 megapixel foto hebt, maar die ga je natuurlijk niet op je website zetten. Tenzij je wilt dat iedereen 10MB per afbeelding moet inladen zullen afbeeldingen er op websites niet mooi uitzien bij 8K schermen. Ik moet eerlijk zeggen dat ik 1080p al redelijk klein vind op mijn laptop, kleiner hoeft wat mij betreft niet. 8K laptops zou ik zoals ik er nu naar kijk in de winkel laten liggen.

Daarbij klinkt het ergens ook wel zinloos om een grotere resolutie te nemen die je vervolgens moet compenseren met DPI scaling. Heeft dan ook weer geen nut lijkt me en kost wel een hoop resources.

[Reactie gewijzigd door Zenomyscus op 29 oktober 2015 14:41]

Voor het foto probleem is ook een opposing; namelijk met JavaScript kijk een wat de resolute is en zo de beste afbeelding mee sturen.

Of we er allemaal bljj van moeten worden weer ik niet, maar de mogelijkheid is er zeker en het implementeren is niet eens zo moeilijk.
Voor het foto probleem is ook een opposing; namelijk met JavaScript kijk een wat de resolute is en zo de beste afbeelding mee sturen.

Of we er allemaal bljj van moeten worden weer ik niet, maar de mogelijkheid is er zeker en het implementeren is niet eens zo moeilijk.
Gebruik je dan de werkelijke grootte of de grootte die wordt toegepast na dpi scaling? Bij de werkelijke grootte zul je tevens grote bestanden mee moeten sturen, wat een hoop data vraagt. Terwijl je bij de grootte na dpi scaling een kleine afbeelding stuurt die dus uitgerekt kan worden.
Bij jpeg kan je op een hogere resolutie (pixels per inch) de compressie hoger zetten wat leidt tot meer verlies van detail en minder data. De truc is dat de compressie door de hogere resolutie vrijwel niet opvalt en je in sommige gevallen minder bytes nodig hebt voor een - bijvoorbeeld - 1280 bij 960px afbeelding dan voor 640 bij 480px.

Neem wel in ogenschouw dat afbeeldingen met de kleurdiepte van het OS als rauwe bits in het geheugen komen te staan, dus het geheugengebruik van de computer gaat wel met 4 keer omhoog waar de bestandsgrootte in veel gevallen maar 20% meer wordt voor 4 maal zo veel pixels, en soms zelfs 20% minder afhankelijk van de hoeveelheid compressie en de afbeelding zelf.

http://silev.org/test/Retina-resize.html

[Reactie gewijzigd door n8n op 29 oktober 2015 18:28]

Qua video opname daar in tegen zorgt 4k,8k daar in tegen er wel voor dat er meer detail verwerkt kan worden in het algehele beeld.
Of je uiteindelijk zelf nog verschil gaat zien tussen levens echt en ultra levensecht is ook wel weer een vraag natuurlijk.
Den aan een iris van een oog als je die in 4k zou opnemen ipv fullhd zou dat in theorie 4 keer scherper en gedetaileerder moeten zijn.
Zie je dit verschil? Ja tot op een bepaald niveau valt daar idd verschil te zien.

[Reactie gewijzigd door kniftagstuh op 29 oktober 2015 14:28]

Ha,ha,ha 16K op de magnetron. Ik kon nog net voorkomen dat de koffie hier van de tafel viel.
Lach er maar om. Er zijn mensen die klagen over de resolutie van de rabobank scanner.
Totaal offtopic maar ja ik moest er ook aan denken haha, toen ik die nieuwe scanner kreeg dacht ik, "jemig deze resolutie in 2015", daarna moest ik mezelf maar even terecht wijzen dat het ook nergens op zou slaan als dat scherm scherper was geweest.

Zonde van de beperkte rekenkracht en de batterij. Ik wil die scanner niet elke week moeten opladen en al helemaal geen scanner met een snapdragon en een kostprijs van 100 euro(die ik links of rechts toch zelf moet betalen). Wel waren normale toetsen prettig geweest.
Totaal off topic: ik denk dat RB dat doet om je bewuster om te laten gaan met de reader/scanner. Beide hebben verschrikkelijke knoppen, en meen me te bedenken dat de reader een omgekeerd nummerpaneel had. Onder het mom van, weet wat je in tikt en waar je het in tikt, tis jouw geld!;)
Innovatie is goed. 8K zal ook niet gebruikt worden op een 15/17 inch laptop, maar meer bij televisies en andere toepassingen met grote schermen (denk aan LED schermen op een station o.i.d.).

EDIT: Ik bedenk me net dat mijn telefoon ook een hogere resolutie dan 1080P heeft. De pixel density is hoger, wat resulteert in een beter uitziend beeld. Dit kan dus WEL voor laptops toegepast worden.

[Reactie gewijzigd door SitoNL op 29 oktober 2015 12:56]

Niet gebruikt worden in 15/17 inch laptops? Natuurlijk wel, zelfs in kleinere laptops en ook in mobiele telefoons. Natuurlijk niet allemaal vanaf het eerste moment maar uiteindelijk wel. Zo gaat het altijd, net zoals er altijd mensen zoals jij zijn die zeggen dat het niet zal gebeuren, dat het niet kan of dat het niet nodig is. Ik weet niet hoelang je al op deze aarde bent maar ik kan je vertellen, de geschiedenis herhaalt zich, telkens weer. Ook als het om het in gebruik nemen gaat van nieuwe technologieën :)
Nodig is het eigenlijk zeker niet.

Bij een resolutie van 7680x4320 en een scherm van 15" praten we over een pixeldichtheid van bijna 600 pixels per inch (587ppi).

Bij 20/20 visie ligt het punt waarop je geen pixels meer ziet op ongeveer 220 tot 240 pixels per inch. En naarmate de kijkafstand toeneemt kan het scherm ook groter worden, zonder dat je hiervoor meer pixels nodig hebt.

De mate waarop je detaillering gaat zien zal dus niet zo groot zijn zoals we zagen tussen 720P -> 1020p -> 4K. Dus in die zin zijn deze hoge resoluties wel degelijk onzin.

Ware het niet dat bij schermen met deze zeer hoge resoluties ook marketing een enorme rol speelt en de consument graag laat denken dat méér beter en noodzakelijk is.

Voor wetenschappelijke toepassingen is dat weer heel anders. Het is natuurlijk prettig als bijvoorbeeld een scan in een ziekenhuis goed uitvergroot weergegeven kan worden.

[Reactie gewijzigd door p0pster op 29 oktober 2015 13:29]

Maar 20/20 visie is nog niet het beste zicht, de kijkafstand bij monitoren en laptops vergroot niet (mijn armen en bureau worden niet langer/groter) en het is niet omdat je geen individuele pixels kan onderscheiden dat je geen scherper beeld kan ervaren.
Zo kan je bij 30FPS op een 60Hz scherm ook geen individuele frames onderscheiden maar je kan zeker wel een verbetering ervaren met 60+ FPS op een 120Hz+ scherm.
Of het nodig is hangt van de use-case af, VR-headsets (denk aan de Oculus Rift) hebben wel baat bij een relatief hoge resolutie.
Helemaal mee eens, een telefoon die 4K vloeiend kan presenteren is straks ook beschikbaar om aan te sluiten op een 4K scherm voor desktop toepassingen, etc etc.
Ik betwijfel of 8K op telefoons (ik heb het over schermen), er ooit echt komt: op een bepaald moment zijn dingen nutteloos en worden ze ook niet toegepast...
Innovatie is goed. 8K zal ook niet gebruikt worden op een 15/17 inch laptop, maar meer bij televisies en andere toepassingen met grote schermen (denk aan LED schermen op een station o.i.d.).
Behalve natuurlijk dat we nu al met een 4k resolutie zitten op smartphones...
Zolang de standaard maar afgesproken wordt. Je wilt niet net zoals bij HDMI ineens achterlopen, omdat je 4K 60Hz was vergeten in je standaard.
"vergeten"? Nee hoor. 4K 60Hz kon gewoon niet. De datarate was maar de helftr van wat er nodig was daarvoor. Dat heeft niks met vergeten te maken.
Schaalbaar??

Zie het als retina bij Apple. Dat wat eerst 1 pixel is zijn er nu 4 zodat de letter O en zo mooi rond zijn ipv gekarteld.
8K is een 'iets' hogere resolutie dan Retina. Het maakt op slag de huidige MacBook Pro's verouderd, gesteld dat je veel gebruik zou gaan maken van deze resolutie.
Retina staat voor een bepaald dpi.
Retina voor een 108" scherm zou dus een hogere resolutie bevatten dan een 8k 108"tv.

Ik heb nog geen 8K monitoren of tablet's gezien tot zover, maar ik heb wel het vermoeden dat Apple deze direct toepast als deze beschikbaar komen (in de imac's dan)

dit wordt geschreven over Retina:
Retina-display is een merknaam gebruikt door Apple voor lcd-schermen die volgens hen een pixeldichtheid hebben die hoog genoeg is, zodat het menselijk oog geen onderscheid meer kan maken tussen losse pixels vanaf een bepaalde kijkafstand. Deze verschilt per apparaat, omdat je verder van je Macbook af zit dan van je iPhone. Volgens Apple moet men bij een Retina-display op een iPhone bij een afstand van 12 Inch (30cm) de pixels niet meer kunnen onderscheiden.

Verschillende Apple-producten beschikken over een Retina-scherm, waaronder de iPhone, iPod touch, iPad en de MacBook Pro 13 en 15 Inch. De pixeldichtheid bij Retina-schermen ligt rond de 327 PPI (Pixels Per Inch)(iPhone), dit verschilt echter per apparaat. Het meest recente apparaat met een Retina-scherm is de MacBook (Early 2015) met een resolutie van 2304x1440.


Pixeldichtheid is dus iets compleet anders dan de totaalresolutie
8K houdt enkel een resolutie in en retina een bepaalde pixel dichtheid per inch, beide staan los van elkaar en hebben niets met elkaar te maken.
https://en.wikipedia.org/wiki/8K_resolution
https://nl.wikipedia.org/wiki/Retina-display
Kun je na gaan wat het met de MacBook Air doet :P
Buiten het feit dat ik mijn 13" Air altijd mee neem in het vliegtuig, niet duur en werkbaar genoeg.
Het gaat om scherpte, leesbaarheid vergroot je door schaling.
Das natuurlijk gewoon een kwestie van scaling...
Voor externe aansluitingen is het een ander verhaal.
Tsja ach, als ze het uberhaupt al doorgeven. Via HDMI op de laptop is de doorgegeven resolutie vaak nog maar FullHD, 1920x1200 of (bij uitzondering) QHD. Terwijl de specs die op Wiki staan voor de maximale doorgifte van de connectoren en de gebruikte processor en videokaart toch meestal meer kunnen. HDMI 2.0 begint nu pas op enkele dure laptops te komen, en een displayport (die niet eens altijd 4k @ 60Hz doorgeeft, ondanks de specs) zit ook alleen op laptops van meer dan 800 euro.
Daarvoor heb je een OS met fatsoenlijke scaling nodig. Windows 10 doet dit best aardig. Jammer alleen dat veel desktop apps dit niet doen.
Wat een geneuzel.

Meer pixels die je toch niet ziet => verspilling processorcapaciteit die je voor nuttigere dingen kunt gebruiken.

Net als de smartphones met 2560x1440 of zelfs 4K schermen.

Ik zie liever een scherm wat een betere bitdiepte heeft dan 8 bits per kanaal en ook die fatsoenlijk in zonlicht leesbaar is want dat is nog steeds bagger.
Ik dacht precies hetzelfde. Nu heb ik een telefoon met 2560x1440, en ik zie het verschil met HD.

In tegenstelling tot wat er in veel reviews verteld wordt, is het verschil wel degelijk zichtbaar. Net zoals ik in een ander bericht zei, het is niet nodig, maar wel mooier. Niet zozeer met tekst, maar foto's en 1440p videos laten duidelijk meer detail zien. Daarnaast is het met de Google Cardboard heel goed te zien, veel minder nadrukkelijk pixels in beeld.

Je hebt wel gelijk dat de meerwaarde van meer bits en leesbaarheid in zonlicht waarschijnlijk groter is.
aan pixels hebben we op een gegeven moment wel genoeg.... maar technieken zoals "Anti-Aliasing" en "Anisotropic-Filtering" hebben dan nog wel baat bij meer pixels dan eigelijk genoeg is.

Reden waarom Nvidia's DSR (Dynamic Super Resolution) bestaat.

[Reactie gewijzigd door Floriss op 29 oktober 2015 18:14]

Ik kan pixels tellen op mijn 4k laptop scherm van 13 inch (bijna 4k dan, 3200*1800)
Zolang het menselijk oog nog pixels kan tellen en kartelrandjes ziet is het niet nutteloos, zeker bij producten die op korte afstand worden gebruikt.

Dat het ook ten koste gaat van accuduur etc is een tweede verhaal, maar innovatie moet van alle kanten komen.

ps. Mijn monitoren van 2560*1440 hebben een hogere kleur/bitdiepte, veel software weet daar niet mee om te gaan ;-) Dus zit ik er nu aan te denken ze te vervangen voor 4k schermen.

[Reactie gewijzigd door TWeaKLeGeND op 29 oktober 2015 13:08]

Je moet nu ook niet overdrijven: op een 4K 13" laptop zie je bij normaal gebruik geen pixels, net zo min als je ze kan onderscheiden op een 13.3" Retina Macbook (die laat ons zeggen 2K is - 2560*1600) vanaf een normale werkafstand. Voorbij 4K is bijkomende resolutie op een laptop van die afmetingen behoorlijk nutteloos. Als 8K ooit komt op een laptop wordt het dus in de eerste plaats "omdat het kan" en omdat er mensen zijn die het zullen kopen "omdat ze dat kunnen".
Jij niet, ik wel. Op een dag kost die extra resolutie geen cent extra in productiekosten en hoogstens een procent in accuduur, met denkers zoals jij komt die dag nooit, en nog belangrijker, dan waren we ook nooit zo ver gekomen als dat we nu zijn. Het verschil tussen 10 jaar geleden en nu is merkbaar en aanzienlijk. Over 10 jaar kan ik dat ongetwijfeld weer stellen. 10 jaar geleden riepen er ongetwijfeld ook mensen over van alles dat ze eigenlijk al wel tevreden waren. Ooit was ik ontzettend blij met 1080p op mijn laptop, nu kan ik me er aan irriteren omdat ik beduidend merkbaar beter gewend ben. Wellicht dat dat wat betreft resolutie een keer stopt (moet wel) maar nog niet bij 4k op 13.3 inch dat weet ik wel. 8k lijkt me een goede kandidaat.

[Reactie gewijzigd door TWeaKLeGeND op 29 oktober 2015 14:56]

Ik ben de eerste die pleit voor hogere resolutie in laptops, FHD is inderdaad maar matig en ik ben ook beter gewend. Anderzijds is 4k ongetwijfeld de grens van wat nog zinvol is. Geen kat - ook jij niet - zal vanop werkafstand ooit het verschil zien tussen 4k en 8k op een 13" laptop. Dat zijn geen dingen "die over 10 jaar anders zijn".
Ik geloof best dat er 8k laptops komen, maar inderdaad eerder "omdat het kan" niet omdat het enig praktisch nut heeft.
Is dit niet vooral interessant voor VR brillen die dicht op de ogen zitten?
Ja voor VR is 8K een prachtige ontwikkeling. Voor TV's is het absolute overkill (net zoals 4K eigenlijk al is, op schermen kleiner dan 60" en een kijkafstand van pakweg 3 meter). Voor enorme monitoren recht voor je neus kan het ook nog wel interessant zijn, maar de vraag is wie zo'n ding zal kunnen betalen.
Nou ik zou geen nee zeggen tegen 4k op mijn 24" monitor. Alles is dan lekker scherp en strak. Ik kan nu de pixels zien.

Het is absoluut niet nodig, maar wel mooier.
4K op een monitor oke, omdat je er ook met je neus bovenop zit. 8K lijkt me dan alweer schromelijk overdreven. Omdat je normaliter zo'n 3 meter van een TV zit, heeft 4K al geen nut meer, laat staan 8K (tenzij je een ENORME tv hebt, lees 100" of groter).
Op mijn 24" UHD monitor zie je echt wel het verschil tussen FullHD en UHD op een paar meter afstand* in games en video's. UHD ziet er duidelijk scherper uit. Overigens koop je (of ik) daarvoor natuurlijk geen UHD-monitor, want de resolutie in games of video's boeit me vrij weinig.** Het gaat juist om het normale gebruik: tekst en scans/foto's. En daar is UHD een flinke vooruitgang, maar zeker nog voor verbetering vatbaar.

* M'n Xbox One controller heeft een kabellengte van ±2.8m; niet strakgespannen is dat richting de bank laten we zeggen 2.5m, maar dat is niet de limiet van waaraf je het verschil nog ziet.

** Dankzij UHD zien ook juist lagere resoluties er weer een stuk beter uit omdat ze minder onscherp worden weergegeven. Eén mogelijke manier om het "nut" van hogere resoluties te meten is om te zien of om het even welke resolutie even scherp oogt, i.p.v. met een duidelijk voordeel voor UHD en FHD. Zeg maar net als vroeger op CRT's.
Met massaproductie, iedereen lijkt me. En het is leuk voor marketing en na 10 jaar koopt iedereen gemiddeld een nieuwe tv.
Ik vermoed een grote groep als je ziet wat we nu hebben wat 10 jaar geleden onbetaalbaar was voor de massa :)
ben i kde enige die zich doodergerd aan de ondoordachte namen voor de 'standaarden'.

Laat mij hier in de winkel maar eens aan noobs uitleggen dat 1.4 toch echt anders is dan 1.3 en 1.4b weer anders dan 1.4...
Zo moeilijk lijkt me niet om uiit te leggen dat 1.4 meer is dan 1.3.
De redenatie van de consument is als volgt. Als de kabel past,is het de juiste...en dat gaat dus niet meer op.
Dat is ook nooit zo geweest.

En moet je consumenten eens horen als voor dat soort upgrades moedwillig nieuwe stekkers worden toegpast zodat het niet past.
Op een 25-40 inch scherm zie je het verschil ja. Maar op een schermpje van 16-17 inch is het overkill en zal het nog extreem duur worden.
Als je nu nog kijkt dat niet iedere betaalbare laptop een 1080p scherm heeft...dat is dit een leuk streven wat niet heel snel gehaald gaat worden.
Leuk voor zakelijk gebruik misschien of beeldbewerking waarin niet veel gevergd wordt van 3D, maar voor gaming lijkt me dit een kriem... Beetje high end spul op 1080p, 60fps, ultra settings of noem maar wat is vaak al teveel gevraagd. Laat staan op dat soort resoluties. Maar goed, leuke ontwikkeling desalniettemin.
Voornamelijk VR denk ik, op een wat grotere field of view is het met bijvoorbeeld 2560x1440 nog best wel onscherp, onze ogen hebben op het midden/het focus punt een hele hoge "resolutie". Daarnaast heb je, omdat je met 2 ogen elk 1 schermpje kijkt grofweg dubbel de resolutie nodig. Dus als je dan 4K per oog hebt met een grotere vield of view zit je meteen op de helft van een 8K scherm. Daarnaast helpt een hogere resolutie ook met het screen door effect.

Daarnaast wil je op virtual reality ook een grotere refreshrate hebben, om een zo vloeiend mogelijk beeld te krijgen.

Huidige displayport heeft een bandbreedte van ongeveer 32gbit/s.

Voor 1x 4K op 60hz heb je ongeveer 14gbit/s nodig, voor 120hz is dat ongeveer het dubbele, a 28gbit/s. Voor 2 van deze streams zit je dan al op 53gbit/s. Deze standaard zorgt dat we in de toekomst wel door kunnen.

Het is altijd beter om dit soort veranderingen door te voeren als het nog niet nodig is, zodat op het moment dat je het wel nodig hebt. Het standaard overal al in zit. Anders krijg je een rare inhaalslag, zoals we hebben met Sata en pci-e of zoals met HDMI 2.0 wat in tegenstelling tot hdmi 1.4 wel 4k op 60hz aan kan, maar hdmi 2.0 is nog niet goed uitgerold, terwijl 4k al best wel goed verkrijgbaar is.

Ik denk zelf, dat we voor virtual reality ook nog wel hogere streams gaan krijgen, zoals bijvoorbeeld, er word beeldmateriaal verstuurd dat een hogere resolutie heeft met een grotere field of view waarbij de VR bril een deel kan kiezen, om voor een lagere latency te zorgen op het moment dat je rond beweegt.
Goede ontwikkeling voor VR.

Nu nog 5"/ 6 "schermpjes ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True