Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 61 reacties

VESA heeft versie 1.4a van de 'embedded displayport'-standaard gepubliceerd. De vernieuwde standaard maakt onder andere hogere doorvoersnelheden voor videosignalen mogelijk. Deze hogere snelheden moeten 8k uhd-schermen mogelijk maken op apparaten als laptops en tablets.

De 'embedded displayport 1.4a'-specificatie is een uitbreiding van de '1.4-embedded displayport'-standaard, die in februari 2013 werd gepubliceerd. Als basis dient de specificatie van de 'normale' 1.4-displayport-standaard. Hierdoor krijgt de 1.4a-standaard een link rate van 8,1Gbit/s per lane. Door deze hogere doorvoersnelheden moeten displays met 8k-resoluties aangestuurd kunnen worden, terwijl ook grotere kleurdieptes mogelijk zijn.

Embedded displayport 1.4a introduceert ook een nieuwe feature die door VESA 'multi-sst operation' is gedoopt. Via dit mechanisme moeten energiezuinige, dunne en lichte schermen efficiënter aangestuurd kunnen worden. De multi-sst-technologie is volgens VESA door Samsung aangedragen om zo goedkopere en zuiniger lcd-panelen aan te kunnen sturen.

VESA heeft ook het panel self refresh-mechanisme verbeterd. In de 1.4a-specificatie kan de gpu zo worden aangestuurd dat deze alleen het deel van het scherm hoeft te updaten dat daadwerkelijk is veranderd na het verwerken van een frame. Dit mechanisme moet ook het energiegebruik van bijvoorbeeld laptops of tablets verminderen.

Volgens VESA komen de eerste apparaten die gebruikmaken van de 'embedded displayport 1.4a'-specificatie in de loop van volgend jaar op de markt.

embedded displayport 1.4a

Moderatie-faq Wijzig weergave

Reacties (61)

[Press Release] VESA Publishes Embedded DisplayPort (eDP) Standard Version 1.4a
...
The eDP v1.4a standard leverages the VESA DisplayPort (DP) Standard v1.3, published in September 2014, as a base specification.
...
Eigenlijik is dit gewoon DisplayPort 1.3 voor embedded apparaten (tablets, laptops, all-in-one's etc.).

Wat daarmee veel interessanter is dan hoge resoluties zijn andere features die het met zich mee brengt. Adaptive Sync? Check. 10-bit 120Hz Ultra HD? Check. Display Stream Compression (DSC)? Check. Panel Self Refresh (PSR)? Check.

Voor de normale mensen / niet-nerds onder ons die wat uitleg willen, hier de bovenstaande termen uitgelegd :).
  • Adaptive Sync: (AMD: FreeSync, Nvidia tegenhanger: G-Sync) Techniek waarmee je het aantal frames dat je renderd ook daadwerkelijk ziet zonder tearing of stuttering. Speel je dus op 40fps zie je ook 40fps. Zodra een nieuw frame klaar is wordt het meteen op je monitor getoond. Zorgt dus dat alles er super vloeiend uitziet, niet alleen games maar ook bijvoorbeeld 24 of 25 fps video's op een 60Hz monitor.
  • 10-bit 120Hz Ultra HD: 10-bits per kleur (i.p.v. 8 bits) maken meer kleuren mogelijk, waardoor grotere kleurruimtes gebruikt kunnen worden zonder dat je banding ziet. 120Hz is een refresh rate, alles wordt dan 120 keer per seconde vernieuwd i.p.v. 60. Hierdoor is alles vloeiender. Ultra HD is tenslotte de resolutie, dit is 3840*2160. De prestatie is dat ze genoeg bandbreedte hebben om dit te combineren (3840*1920 pixels * 120Hz * 10-bits per kleur * 3 kleuren = 26,54Gb/s.
  • Display Stream Compression (DSC): Dit is een techniek waarmee een video-signaal gecomprimeerd kan worden met nauwelijks visueel verlies van kwaliteit. Dit scheelt bandbreedte, dus kan hogere resoluties/refresh-rates/kleurdiepte mogelijk maken en stroom besparen omdat er minder data verzonden hoeft te worden.
  • Panel Self Refresh (PSR): Techniek waarbij alleen het gedeelte van het scherm vernieuwd wordt waar daadwerkelijk wat veranderd. Ook dit bespaart bandbreedte en dus stroom.
Ook belangrijk zijn de stappen die ze gemaakt hebben om het goedkoper en energiezuiniger te maken. Naast DSC en PSR kan er ook gebruik gemaakt worden van de HBR3 modus die een hogere bitrate van 8.1Gb/s ondersteund. Hierdoor kan bijvoorbeeld 10-bit Full-HD (1920*1080) met 120Hz of 10-bit Quad-HD (2560*1440) met 60Hz over één enkele laan worden gestuurd. Met twee lanes heb je al 10-bit Ultra-HD (3840*2160) op 60Hz.
Minder lanes = minder stroomverbruik + minder complex ontwerp = goedkoper + energiezuiniger. Ook als je niet de geavanceerde features gebruikt heeft eDP (Embedded DisplayPort) 1.4a al daadwerkelijk voordelen.

[Reactie gewijzigd door Balance op 10 februari 2015 13:10]

Psssst:
"(3840*1920 pixels * 120Hz * 10-bits per kleur * 3 kleuren = 26,54Gb/s."
Maak daar even 2160 van ;).

Verder netjes en uitgebreid! Duidelijk voor de leek denk ik!
dit klopt, alleen dit moet dan natuurlijk nog gecomprimeerd worden.
Dit zijn de reacties die Tweakers voor mij goed maken. Zeer duidelijk en uitgebreid. Weer wat geleerd. Dank! :)
Het betekent ook dat nVidia binnenkort een harde keuze moet gaan maken voor het eigen G-sync, voor zover die al niet gemaakt is. G-Sync als commercieel model op de markt blijven zetten, of meegaan met een gedragen industriestandaard waar dezelfde functionaliteit in zit. Dan moet je met G-sync wel verdomd veel meerwaarde bieden aan gebruikers en je integrators om het te blijven gebruiken en licentiekosten aan te verbinden.

M.a.w: Ik denk dat dit het einde van G-sync definitief inluidt, de vraag is alleen hoe lang het duurt.
Bedankt voor de duidelijke uitleg.

Maar hoe vertaald dit zich nou in de praktijk? Is een driver update/smarttv update genoeg? Hebben we nieuwe kabels nodig? Of moet alle hardware nou weer worden vervangen in de hoop dat er snel genoeg media uitkomt dat ervan kan proviteren?
Tijd dat de markt overstapt op displayport en hdmi laat varen. Wat is eigenlijk nog het (technische) voordeel van hdmi? Gigantische bandbreedte en licentievrij.
edit: royalty free ipv licentievrij ;)

[Reactie gewijzigd door Maulwurfje op 10 februari 2015 13:07]

Ik denk dat de hoofdreden is omdat HDMI eerder is geïntroduceerd (2003) t.o.v. Displayport (2008). Beetje hetzelfde verhaal met alle apparaten die in 2003 - 2010 nog SCART hadden.

Ik snap eerlijk gezegd ook niet helemaal waarom HDMI überhaupt nog gebruikt word. Displayport is royalty free en HDMI kost al gauw 0.04 cent per apparaat (+licentie om het te gebruiken) om te implementeren.
Tijd dat de markt overstapt op displayport en hdmi laat varen. Wat is eigenlijk nog het (technische) voordeel van hdmi? Gigantische bandbreedte en licentievrij.
-
Ik denk dat de hoofdreden is omdat HDMI eerder is geïntroduceerd (2003) t.o.v. Displayport (2008). Beetje hetzelfde verhaal met alle apparaten die in 2003 - 2010 nog SCART hadden.

Ik snap eerlijk gezegd ook niet helemaal waarom HDMI überhaupt nog gebruikt word. Displayport is royalty free en HDMI kost al gauw 0.04 cent per apparaat (+licentie om het te gebruiken) om te implementeren.
Mogelijk zit er helemaal geen spannende reden achter het feit dat iedereen nu HDMI heeft. Een fabrikant kiest ergens voor en maakt een gok. Uiteindelijk is gebleken dat mensen bekend werden met HDMI en is zo goed als iedere fabrikant meegegaan met HDMI. Je kunt nu eenmaal niet meer een laptop aanbieden zonder HDMI aansluiting, alle (rand)apparaten zoals beeldschermen hebben het! De enige manier om deze oneindige cirkel te doorbreken is als fabrikanten zowel HDMI als DP gaan aanbieden. Wanneer DP genoeg binnen de markt is doorgedrongen zal men afscheid kunnen nemen van HDMI. We hebben dit in het verleden meerdere keren meegemaakt dat het ene product het wint van de ander [1]

1] "Videotape format war" (VHS vs Betamax)
"High definition optical disc format war" (Bluray vs HDDVD
Het vreemde is dat ze allebei in stand zijn gekomen door dezelfde bedrijven. Panasonic, Toshiba, Sony en Silicon Image hebben allemaal aan zowel HDMI als Displayport bijgedragen.

Bij VHS en Betamax zag je dat beide kanten compleet verschillende fabrikanten achter het formaat hadden staan (Sony, Toshiba, Sanyo, NEC, Aiwa en Pioneer (Betamax) tegenover JVC, Matsushita (Panasonic), Hitachi, Mitsubishi, Sharp en Akai (VHS)). Ook won VHS omdat het aanbod bij huur beter was t.o.v. Betamax. Af en toe hoor je ook nog wel eens het argument dat er meer pornografie beschikbaar was maar dit wordt vaak ten twijfel getrokken.

Maar ik denk dat je wel gelijk hebt met dat DP er gewoon langzaam doorheen moet komen (komt een beetje neer op wat ik zei met dat het eerder was geintroduceerd).
Zolang bedrijven als Neutrik nog geen connectoren maken zal je het in de professionele industrie niet veel gaan zien. Helaas
HDMI heeft ook dingen als return channels toch?
Ja audio return channel. Maakt mijn tv/receiver graag gebruik van.
Dit dus, ik heb dit nodig om te zorgen dat ik én digitale audio onbewerkt kan afluisteren én gelijk loopt met de beelden. Hoe gaan we dat doen met displayports? moet je dan geluid apart laten verlopen van htpc=>receiver=>tv=>return channel naar receiver, naast de displayport kabel=>receiver=>tv voor beeld? Zoja dan is het leuk en aardig dat het beeld meer mogelijkheden biedt maar een stap achteruit qua functionaliteit voor geluid.
Dat zou idd mooi zijn. Maar wat is eigenlijk de reden dat er uberhaupt amper tv's zijn met DP? Dit zou ook gewoon mooi naast elkaar kunnen bestaan.

Een 4K tv aansluiten op een PC met 4K 60hz is nu nog een drama en alleen aan GPU's met hdmi 2.0 besteed
We mogen 't hopen. HDMI is simpelweg een grote puinhoop. HDMI.org probeerde ooit eens vol te houden dat je als consument HDMI varianten alleen moet zien als standard of superspeed, en niet identificeren als iteratie 1.3, 1.4, 2.0 etc. De reden die ze geven dat je "naar de features van een product met HDMI moet kijken" (bron: http://twit.tv/show/home-theater-geeks/130) klint logisch, maar het maakt er uiteindelijk toch niet gemakkelijker op voor de gemiddelde consument.
HDMI is net zo'n puinhoop als DisplayPort qua versies. Het zou nog niet eens een probleem zijn als je wist wat je kreeg bij een bepaalde versie, maar helaas is het zo dat iedere versie heel veel "features" kent die vrijblijvend wel of niet geïmplementeerd mogen worden. Dan krijg je dus dat een apparaat welliswaar HDMI 1.3 zegt te ondersteuen maar nog steeds geen Dolby TrueHD bitstream kan afspelen. Hetzelfde zien we in het DisplayPort-kamp. Een apparaat wat DisplayPort 1.4 zegt te ondersteunen hoeft nog steeds geen AdaptiveSync te ondersteunen.

Het noemen van versienummertjes is dus waardeloos zonder opsomming van wat wel/niet geïmplementeerd is.
Tijd dat de markt overstapt op displayport en hdmi laat varen. Wat is eigenlijk nog het (technische) voordeel van hdmi?
Het verschil is HDCP, de DRM in HDMI dus. Dat gaan ze bij consumentelectronica niet laten varen zonder goedkeuring van de filmindustrie.
Door ook twee standaarden te hanteren (HDMI en DP) kunnen fabrikanten aan marktsegmentatie doen voor hun producten. HDMI = consumentenelektronica, DP = computers. Dan 'voorkomen' ze dat jij je computer monitor als tv zou kunnen gebruiken of omgekeerd, en dat je per saldo twee apparaten moet kopen.
Wat heeft het voor een zin om 8k te weergeven op een laptop scherm van onder de 20 inch? 8)7
Niet. Maar het is wel handig dat je een 8k scherm kan aansluiten op je laptop ;)
Daar geef ik je gelijk in. Maar, komop. Ik denk niet dat de gemiddelde consument nu al een 8k scherm thuis heeft staan. "Laat ik eens eventjes zomaar een 8k scherm van duizenden euro's kopen :)".
Zou kunnen. Maar dat zal nog wel minimaal 1,5 jaar - 2 jaar duren voordat de de helft van NL dat heeft (wat ik denk).
Wat maakt dat uit?

Als jij morgen met een specificatie komt van een poort (en bekabeling) die 32k beelden (en audio) kan versturen, reken maar dat je dan wat aandacht krijgt hoor. Zoveel data verstuur je niet even zomaar via een kabeltje. 8k is al heel wat :)

Dat we dat pas in 2022 kunnen benutten (vanwege de beeldtechniek) is natuurlijk een ander verhaal.
Ja okay, als je het van die kant gaat bekijken heb je gelijk ja. Daarmee ben ik het ook met je eens. ;)
Totaal geen zin maar het kan 8)7 Alleen een VR headset heeft denk ik echt wat aan 8K.
Maar dat zie je toch niet op zo'n klein beeldscherm (het verschil van 1080p en 8K bedoel ik dan).
Je kijkt door lenzen naar dit beeld. Je ziet met 1080p wel degelijk de pixels (heb zelf een Oculus DK2).
Daarnaast zijn er ook al 8K monitoren aangekondigd. Wel handig om dan al iets van een standaard klaar te hebben.
Dat heeft helemaal geen zin. Maar wel de hogere framerates, grotere kleurruimtes en alle andere nieuwe features zoals DSC en de mogelijke energiebesparingen.
En daarnaast: vooruitgang, omdat het kan!
Ik werk momenteel aan een 4K camera met hoge framerate (uiteindelijk >>120fps) en je wilt niet weten wat voor moeite het kost om dat uit een camera te krijgen... laat staan opslaan, maar dat is weer een ander vraagstuk :) Met deze spec zouden we het (net) over 1 connector kunnen redden op volle resolutie en snelheid :9
Mooi vooruitgang, helaas dat niet veel hardware gamen/pro tools in 4, laat staan 8k ondersteund.

(Natuurlijk, hoe meer geld je er tegen aan gooit hoe beter het lukt).

Is deze 1.4a specificatie ook compatibel met lagere gespecificeerde displays, kabels of adapters?
Gamen in 8K gaat hem niet worden, hoe veel geld je er tegen aan gooit. 2x 980 is net voldoende op de meeste games op high-vhigh te spelen op een UHD scherm, laat staan op nog een 4 maal de resolutie. Of je moet genoegen nemen met low-medium, maar dat klinkt voor mij heel tegenstrijdig.
Ooh? Linus heeft anders zonder al te veel problemen 3xr9 290x op 3x 4k schermen draaien. Tuurlijk was het zijn geld niet echt waard. En het is wachten op de r9 390x van amd. Dan zul je zien dat 4k al vele male goedkoper kan dan nu.
Heb je die benches gezien? Dat er beeld op de schermen verschijnt wil niet zeggen dat je er fatsoenlijk op kan gamen. Even terug naar de realiteit: http://www.guru3d.com/art...tx-980-sli-review,22.html
Met 3x 980 haal je op UHD 60-80FPS in de zwaardere games en een aantal komt niet eens over de 60 uit. Allemaal op high met weinig AA. Nooit dat je 4x UHD (of 3 keer) fatsoenlijk kan draaien met de huidige kaarten. Ja op medium misschien, maar zoals ik al zei. Waarom zou je een 8K monitor kopen om vervolgens op medium te gamen... Koop dan een UHD monitor en zet alles op high---ultra~

[Reactie gewijzigd door Thekilldevilhil op 10 februari 2015 14:16]

Reactie geeft reactie. Openen met ooh geeft iets denigrerends. Maar even nog wat cijfers met 3x980 op 3xUHD:

Farcry 4 op high:
minimum 18
gemiddeld 32

Battlefield 4 high:
minimum 28
gemiddeld 32

Anno 2070 max:
minimum 22
maximum 27

Vind jij dat speelbaar? Ik denk dat een hoop mensen daar toch anders over denken. Je moet terug gaan naar games uit 2010/2011 om de 60 gemiddeld aan te tikken. Skyrim bijvoorbeeld draait (zonder mods) 60fps op 3x UHD maar ja, die kan ik op 3x UHD met een enkele GPU al op 60FPS draaien.

Bandbreedte en shaders kracht zijn gewoon niet toereikend voor de huidige games. Misschien met HMC/HBM en 16nm GPU's maar nu is het eigenlijk geen serieuze optie.

Voor de mensen die echt veel pixels willen lijkt me 3xWQHD echt een betere optie. Ook dan loop je vaak tegen performance problemen aan (ervaring, ik heb 3 U2713HM's staan) maar het is nog een soort van te doen.

EDIT: Nog een bron: http://www.overclock.net/...lack-sc-benchmarks-thread

QUAD Titan BE en de minimum framerates zijn bedroevend. Lage 20 tot zelfs enkele cijfers.

[Reactie gewijzigd door Thekilldevilhil op 10 februari 2015 14:08]

Wait, 3 4K monitoren? Hahahah
Ja er zijn mensen die op 3x 4K gamen. Ik zou er niet gelukkig van worden, ik heb al moeite met de helft van die resolutie. ;)
We hebben het hier over performance op 3x4K niet of ik het wel of niet wil hebben. Ik snap niet helemaal hoe dit op alles wat hierboven gezegd is slaat?
Oké "niemand verplicht men"

Maar 3x 4k is al 75% van 8K :P

Ik haal hier 20-25 FPS in Skyrim 8K met een R9 290 (downsampling)
"Maar 3x 4k is al 75% van 8K"

Dat is de reden dat we van 8K naar 3x UHD gegaan zijn, als 3x UHD niet kan dan kan 4K ook niet. En 20-25FPS is vrij laag, zelfs voor 8K... Heb je soms FHD/UHD textures aan staan?
Naja dat zit er blijkbaar nog een flinke bottleneck in de sprong van 3x WQHD naar 8K... Gekkigheid.

Overigens wist ik serieus niet dat Youtube 8K ondersteunde... Helaas gaat mijn huis niet verder dan UHD, maar toch leuk :P
Het mag dan wel 8K zijn maar die textures zijn gewoon lelijk :P
Ja... Zelfs met UHD textures valt Skyrim een beetje tegen. Static mesh mod en betere belichting maakt een stuk meer uit.
Nu nog een betaalbaar beeldschermpje en videokaartje erbij. Het is mooi dat ze deze standaard uitbrengen, maar echt goed gebruik ervan maken blijft voor de gemiddelde consument toch nog echt even toekomstmuziek
Dat is met alles in de industrie zo, toch? Eerste het bedrijfsleven, dan de early adopters en dan mainstream
Volgens mij wordt de videokaartenindustrie niet echt geleid door het bedrijfsleven...
VESA staat los van de videokaartindustrie. En dat zou je verbazen hoeveel er in de pro markt omgaat, denk aan CAD oplossingen om maar een dwarsstraat te noemen. Kijk maar eens naar nvidia quadro kaarten, al worden die niet echt gebruik voor beeld maar meer voor rendering.

Games (daar refereer je aan, toch?) krijgen iets pas als het redelijk solide is bevonden. Een gamer wil immers geen product wat af en toe uit kan vallen of waar iets mee mis is
Goed nieuws, nu is er de mogelijkheid om 120 hz op 4k te doen.
Dat kon al met displaypoort 1.3.
Ja en beeldschermen zijn er nog steeds niet. 1440P 144hz of 4K 60hz is een moeilijke keuze. Heb liever dan 4K 120hz, ook al haal ik die 120FPS alleen in oudere games.
Maar nog steeds is het ook nog toekomst muziek voor apparaten.
Wat is eigenlijk het nut van DisplayPort in een apparaat waarbij de boel helemaal inwendig bedraad is? Het maakt dan toch geen moer uit wat de interface is?

Net als bij een SSD die op het moederbord vastgesoldeerd zit: het maakt geen zak uit met welke interface hij verbonden is, omdat hij toch niet los kan.
Jammer dat er nog steeds geen geluid meegestuurd kan worden via Displayport, het is namelijk een veel betere standaard dan HDMI.
edit:mijn fout, ik dacht dat Displayport geen geluid doorgaf, hulde aan praseodymium en Henk Poley

[Reactie gewijzigd door Johannes77 op 10 februari 2015 12:46]

Dat kan al een hele tijd: "Audio signal: Optional; 1–8 channels, 16 or 24-bit linear PCM; 32 to 192 KHz sampling rate; maximum bitrate 36,864 kbit/s (4.608 MB/s)", aldus http://en.wikipedia.org/wiki/DisplayPort
Hmm?
Q. Does DisplayPort also support audio?
A. Yes, DisplayPort supports multi-channel audio and many advanced audio features. DisplayPort to HDMI adapters also include the ability to support HDMI audio.
Src: http://www.displayport.org/faq/
8k hoeft van mij niet zo zeer.
Duurt toch nog een eeuwigheid voordat er een voor mij betaalbaar scherm op de markt komt.
Maar als de hele industrie zich gaat richten op 8k, dan worden de 4k schermen misschien wel haalbaar.

Ben er nog steeds van overtuigd dat men beter de kwaliteit van het beeld moet verbeteren
dan r&d gelden verzuipen naar een nog hogere resolutie die men bij normaal gebruik toch niet meer ziet.

jammer dat de dp standaard het niet gewoon bij 4k heeft gehouden. Verder is dit een uitstekende ontwikkeling.

Ik sluit me dan ook voledig aan bij de uitstekende uitleg van @Balance .
8K-support betekent dat er ook genoeg bandbreedte is voor 4K in 3D. Daarnaast betekent meer bandbreedte ook dat je de beeldkwaliteit kunt verbeteren door 10 bits per kleur en/ 120Hz te ondersteunen. Kortom: deze nieuwe standaard is een positieve ontwikkeling , ook voor mensen die het nut van 8K niet inzien. Daarnaast is het gewoon prima dat een standaard wordt neergezet die toekomst zeker is. :z

[Reactie gewijzigd door ymmv op 10 februari 2015 15:57]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True