Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 42 reacties

Standaardiseringsorganisatie VESA heeft maandag Displayport 1.3 uitgebracht. De nieuwe versie van de standaard heeft meer bandbreedte en ondersteuning voor 5k-monitoren, zonder daarbij te hoeven inleveren door compressie.

Displayport 1.3 heeft een bandbreedte van 8,1Gbps per lane, wat een forse toename is ten opzichte van de 5,4Gbps van versie 1.2. Door de update komt daarnaast de totale maximale bandbreedte uit op 32,4Gbps, waarmee de standaard ook beeldschermen met een hoge resolutie ondersteunt. Het gaat daarbij onder andere om de pas aangekondigde 5k-schermen met een resolutie van 5120x2880 pixels en één enkele connectie.

De nieuwe standaard biedt daarnaast ook ondersteuning voor hdcp 2.2 en hdmi 2.0 met CEC, die ervoor moet zorgen dat het hulpprogramma voor televisieprogramma's overweg kan met 4k-beeldmateriaal met kopieerbescherming. Verder komt met de nieuwe uitgave de 4:2:0-pixelstructuur beschikbaar, waarmee er support is voor toekomstige schermen met een zeer hoge resolutie. Tot slot blijven videoconversie naar vga, dvi en hdmi in de specificatie opgenomen.

Moderatie-faq Wijzig weergave

Reacties (42)

Voor wie, zoals mij, niet weet wat 4:2:0 inhoud is hier een copy-paste van wikipedia:
The subsampling scheme is commonly expressed as a three part ratio J:a:b (e.g. 4:2:2) or four parts if alpha channel is present (e.g. 4:2:2:4), that describe the number of luminance and chrominance samples in a conceptual region that is J pixels wide, and 2 pixels high. The parts are (in their respective order):

J: horizontal sampling reference (width of the conceptual region). Usually, 4.
a: number of chrominance samples (Cr, Cb) in the first row of J pixels.
b: number of changes of chrominance samples (Cr, Cb) between first and second row of J pixels.

In 4:2:0, the horizontal sampling is doubled compared to 4:1:1, but as the Cb and Cr channels are only sampled on each alternate line in this scheme, the vertical resolution is halved. The data rate is thus the same. This fits reasonably well with the PAL color encoding system since this has only half the vertical chrominance resolution of NTSC. It would also fit extremely well with the SECAM color encoding system since like that format, 4:2:0 only stores and transmits one color channel per line (the other channel being recovered from the previous line). However, little equipment has actually been produced that outputs a SECAM analogue video signal. In general SECAM territories either have to use a PAL capable display or a transcoder to convert the PAL signal to SECAM for display.
Wat ik zelf jammer vind is dat deze standaard weer net genoeg bied voor het (binnenkort) maximaal haalbare. Als men over 2-3 jaar met hogere resoluties komt mag er dus nog weer een nieuwere standaard komen. Sinds displayport 1.0 in 2006 is aangekondigt hebben we gehad: displayport 1.1, 1.1a, 1.2, 1.2a, en nu komt 1.3 alweer. De VGA standaard is geïntroduceert in 1987 en vind je nu, meer dan 25 jaar later, nogsteeds in dezelfde versie op veel videokaarten (al is het de laatste jaren niet meer zo veel in gebruik, dan heeft het nog 20 jaar aan de top gestaan). Bedankt voor de correctie dmantione.

@bantoo:
DVI dan? De Standaard komt uit 1999 en kan (mits je dual-link gebruikt, wat vrijwel elke gpu aankan) pas gaan teleurstellen nu er 4K schermen komen. Het punt is dat ze best de standaard voor hogere resoluties kunnen klaarmaken nu ookal zijn er geen schermen voor in de nabije toekomst, gpu's van nu/binnenkort kunnen waarschijnlijk wel hogere resoluties aan gezien ze nu al meerdere 4K signalen kunnen doorgeven.

[Reactie gewijzigd door svenk91 op 16 september 2014 01:10]

Ook de VGA-standaard is geëvolueerd. Het VGA uit 1987 ging uit van monitoren van 31.5 KHz die met de polariteit van de sync van resolutie werden geschakeld. Daarna werden er hogere resoluties gedefinieerd (zgn. Vesa-modes). De introductie van de multisyncmonitor maakte het pas echt flexibel doordat de monitor geen vaste set frequenties meer had en er dynamisch op kon afstemmen. Het is deze vinding (van NEC) die het mogelijk heeft gemaakt dat de VGA-standaard is geworden tot wat het vandaag is. Verdere toevoegingen waren de stroombesparingsmodi en het Display Data Channel.
Analoge standaarden gaan altijd relatief lang mee om dat er niet veel te verbeteren valt als je er eenmaal een hebt.
wat zou zo een kabeltje moeten kosten?
een paar euro uit china dure kabels is onzin ;p het is een digitaal signaal het komt aan of niet.
een gewoon simpel kabeltje wat goed is = goed.

goude kabeltjes va 60-100 euro is om te lachen
Het verschil tussen dure kabels is de kwaliteit van het signaal. Digitaal is toch altijd inwerkelijkheid een analoog signaal dat een digitale voorsteld. Slechte kabels dan wordt de kans dat signaal niet fatsoenlijk aankomt groter doordat er op analoog niveu niet veel van digitale signaal overblijft.

Meestal geen probleem met korte cheap kabels. Maar hoe langer hoe meer dit gaat mee spelen.

Digitaal 0/1 is werkelijkheid 0 tot 0,5 / 2,5 tot 5 als fictief voor beeld.
Is je signaal zo verkloot dat je signaal vaker in de ,6 tot 2,4 komt dat krijg je steeds meer artifacts. Er zal wat error check en recovery in protocol zijn. Dus een weg gevallen bit kan nog. Maar er is grens.

Het is natuurlijk de vraag bij welke lengte begint kwaliteit een rol te spelen. Meer dan 3 meter dan is cheap vs duur geen rol. Bij gebruik van normale lengte onder de 2 meter. Is invloed al bij langer dan 1 meter dan speeld het wel een rol die steed belangrijker wordt.

Ik vermoed dat het voor kleiner dan 2 meter niet zoveel uitmaakt. Maar ja dat is afwachten.
Gouden pluggen zijn handig tegen corrosie maar met de snelheid waarmee we tegenwoordig nieuwe standaarden krijgen krijgt die corrosie ook geen kans.

Overigens is het met een digitaal signaal niet zo dat het werkt of niet, daar kan je ook gewoon storing op krijgen. Het is niet één 1 of 0 hè, we hebben het hier over 32400000000 enen en nullen per seconde. Als je dan een kutkabel hebt kan je nog steeds rare effecten krijgen.
Als je 'het werkt' interpreteert als 'ik zie geen artifacts' dan klopt het wel wat @BruceLee zegt. Waarschijnlijk bedoelt hij dat je geen storing kan krijgen zoals je dat vroeger wel eens kon hebben (flikkerend beeld, kleurvervorming, ...).
Artifacts vallen harder op en zijn ook storender, dus dan kan je sneller concluderen 'het werkt niet' ipv 'het lijkt alsof er wat storing op zit'
In gouden kabeltjes heb ik ook geen vertrouwen, in dikkere kernen wel.

Ik heb een AWG24 (~0.5mm) kern DVI-D kabel van 5 meter. Daar gaat 1440p 120hz over 5 meter over, terwijl mijn goedkope kabel tot 70hz ging voordat er artifacts te zien waren. Artifacts als in dansende stippeltjes en geen beeld meer boven de 80hz.

De reden is dat 1440p 120hz ver boven de officiele dvi-d specificaties ligt.

foto kabel: http://images.monoprice.com/productlargeimages/26872.jpg
Ik denk dat oude kabels gewoon blijven werken, het gaat meer om de apparatuur die je er aan hangt die met een nieuw protocol overweg moet kunnen (zo ging dat met vorige versies).
Dat zal afhankelijk zijn van de afscherming van de kabels en de lengte, als je een degelijke had voor de vorige versie is de kans groot dat het wel zal werken maar heb je een te goedkope kabel of een te lange dan kan het best zijn dat hij door net te veel demping in het hoogfrequente stuk wat ze nodig hebben om al die data over te rammen storing geeft.

Met hdmi is dat eigenlijk hetzelfde, de korte kabels werken meestal een stuk verder dan gespecificeerd, bij langere kabels wordt de kwaliteit belangrijker.

En dan heb ik het niet over superdure monsterzut maar over gewoon goede kwaliteit.
En het afronden van deze standaard leidt weer tot geruchten over nieuwe iMacs: http://www.macrumors.com/...displays-displayport-1-3/
Als je 5k draait op een apple kun je gamen wel direct vergeten. Een 3d programma zal ook gaar draaien.

Alleen bij 2d zal het nog goed werken. En de gpu kun je niet upgraden. Oh, en reken maar dat er geen snelle gpu in die nieuwe imac komt. Apple gaat altijd voor de goedkope gpu's.
Want een 5k paneel kan je alleen maar op 5k gerenderde frames aansturen? Weet je wel waar je het over hebt?
De allereerste generaties lcd-monitoren hadden een dusdanig lage resolutie (1024x768 of 1280x1024) dat een andere resolutie er niet mooi uitzag. Mensen hebben daarom onthouden dat een andere resolutie dan native er niet uitzag. Maar op mijn eerste laptop met 15,4" 1200p-scherm kon ik prima gamen in 1280x800 bijvoorbeeld en dat zag er prima uit. Dit soort hoge resoluties zijn helemaal meer dan genoeg om op te gamen in welke resolutie je maar wil, dat schaalt prima inderdaad :)
Ik was persoonlijk altijd gewend om met inferieure hardware te gamen. De meeste games konden niet hoger dan de low of ultra low settings. Dat gepaard met de laagst ondersteunde resolutie van dat spel.

En dan koop je een gaming rig en gaat er een gruwelijk gave nieuwe wereld voor je open hahaha
De doelgroep van de iMac zijn geen PC gamers. Ik snap dat het concept van een machine niet gericht op gamers een lastig concept blijft voor tweakers maar het is echt zo. De GPU in de iMac gaat zoals altijd een keuze worden goed performt voor het OS (gpu acceleratie etc.) en niet te warm zal worden / energie gaat vreten om de machine stil te houden.

[Reactie gewijzigd door Kura op 16 september 2014 01:22]

De keuze van de GPU is zo goedkoop mogelijk. Een sterke gpu wordt wel warmer en luidruchtiger, maar alleen als je hem zwaar belast. Oftewel ingame, en dan overstemt het game geluid. En als je graag te veel betaalt voor een computer door een imac te kopen, dan let je ook niet op je energie rekening.
Apple wil die dunne iMacs ook fatsoenlijk te koelen houden.
En als je graag te veel betaalt voor een computer door een imac te kopen, dan let je ook niet op je energie rekening.
Dat vraag ik me af. Hoeveel mensen zitten te wachten op een PSU die 800 watt vreet om de zoveelste matige console port te spelen?

Daarnaast. iMacs teveel kosten? Er zijn geen alternatieven. Tenzij je een kast op/onder je bureau of dat stuk plastic dat Dell/Acer een 'all-in-one' noemt wel iets vind natuurlijk, dan kost een iMac veelst te veel. Mooi scherm ook, dat TN paneeltje om de kosten te drukken.
Geen alternatief? Als je even kijkt wat er beschikbaar is, dan zul je zien dat er in de pricewatch 223 all-in-ones staan. Daar beperk je wel sterk je uitbreidmogelijkheden mee en je krijgt een heel dikke monitor. Mooier en praktischer is een stijlvolle kast onder je bureau. Bijvoorbeeld een van de 349 aluminium kasten.

En ga me nou niet vertellen dat 223 all-in-ones en 349 kasten lelijker zijn dan apples want dan kijk je alleen naar het apple logo.
Ik neem aan dat games gewoon in 1080p draaien, net als de meeste films nu nog. Maar voor de standaard interface zou het wel mooi zijn. Ikzelf draai Windows met een 30" scherm op 2560x1600 en dat mag echt wel wat scherper wat mij betreft.
De iMac is de al in one met de krachtigste GPU
Klopt, maar de gemiddelde Tweakers vergelijkt graag hun game pc met knipperende leds met een iMac, waardoor de GPU al snel wat trager is.
Een retina iMac zou nu mooi zijn, maar de prijs van 5K schermen zal er nog niet om liegen. Ik kan me bijna niet voorstellen dat die standaard in de iMacs komen. Misschien een top model naast de gewone modellen, zoals ze eerst bij de Retina Macbook Pro ook gedaan hebben.

Eerst een nieuw 5K Thunderbolt scherm? Die is wel eens aan een update toe.
Deze nieuwe standaard opent in ieder geval de deuren naar deze schermen.

[Reactie gewijzigd door OkselFris op 15 september 2014 22:54]

En dan is er geen computer waar zo'n scherm op aangesloten kan worden, want geen DP1.3. Dus als dat gebeurd, gaat dat pas bij nieuwe MacBooks gebeuren en laten die nu net vernieuwd zijn.
Weet iemand hoe dit zit? Stel dat je nu een Mac Pro hebt met Thunderbolt 2 (en dus ondersteuning voor DisplayPort 1.2a), zou de ondersteuning voor DP 1.3 dan eventueel met een driver of firmware update toegevoegd kunnen worden of moet er echt hardware vervangen worden?
DisplayPort 1.3 is downward compatible met DisplayPort 1.2 (die weer downward compatible is met 1.1), anders zou deze nieuwe standaard nooit aan kunnen slaan.
Dat lijkt me inderdaad logisch. Maar mijn vraag is andersom. Als je nu hardware hebt die DP 1.2a ondersteunt, is dat dan met firmware of driver aan te passen zodat hij DP 1.3 kan praten met een DP 1.3 display?
Helaas, is dit onwaarschijnlijk. De snelheid waarmee de data verwerkt moet worden ligt vaak hardwarematig vast. Wat eerder zou kunnen is een oplossing van twee aansluitingen naar de monitor om zo snelheid te winnen.
Huh? Zou FreeSync hier niet (als optioneel) in zitten?

Edit:
Of zit dat in de nieuwe HDMI?

[Reactie gewijzigd door ManIkWeet op 15 september 2014 23:01]

FreeSync is er in displayport 1.2a al bijgekomen, dit gaat over 1.3.
Ja, zou hier in moeten zitten, echter rept de bron er geen woord over.

ExtremeTech wel (en Displayport.org linkt hier weer heen): http://www.extremetech.co...t-for-4k-60-fps-5k-and-8k

Dus ik hoop eindelijk binnenkort een Freesync monitor te kunnen kopen!
Displayport 1.3 gaat tot 8K, niet 5K.
Ja als je valsspeelt met chroma keys, en 30 Hz verversing ja. Als ik het zo eens bekijk is er ruimte genoeg voor 4 of 5k, maar dan houdt het ook snel op. Vergeet niet dat 8k 4x zoveel data is als 4k...
zonder daarbij te hoeven inleveren door compressie
Die opmerking begrijp ik niet helemaal. Is er een verbinding voor computermonitoren waarbij je wél inlevert door compressie? Want ik zou verwachten dat bij een computermonitor iedere pixel altijd exact zo staat als hoe de videokaart em uitstuurt - hoe hoog de resolutie ook is.

Een TV is een ander verhaal, maar dit is DisplayPort, wat juist voor computers bedoeld is.

[Reactie gewijzigd door _Thanatos_ op 16 september 2014 01:52]

Dat kan toch nog steeds? PNG, ZIP en FLAC zijn ook compressie-methodes, maar de output is identiek aan de input, omdat het lossless formaten zijn. Wat je echter wel bereikt is dat de gecomprimeerde file kleiner is dan het origineel.
Als je dat doortrekt naar je kabeltje dan kun je met lossless compressie dus meer data door hetzelfde draadje stampen, maar dat zal wel enige lag veroorzaken, afhankelijk van hoe snel de compressie/decompressie verloopt. Dat zal wel hardwarematig zijn (het lijkt onderdeel van de standaard te zijn) dus dat zal ook wel meevallen, maar het liefst werk je natuurlijk helemaal uncompressed.
Prima. Maar de quote impliceert dat het speciaal is. Ik verwacht dat iedere pixel EXACT wordt weergegeven zoals uitgestuurd door de videokaart. Dat er lossless compressie wordt gebruikt, zal me jeuken, maar als erbij wordt opgemerkt dat ik daar geen kwaliteit mee verlies, gaat er een lampje brangen: "wat dat eerst wel zo dan? zijn er situaties mogelijk waarbij dat wel zo is/wordt? is dit speciaal?"
Kom maar door met Freesync, voor mij de meest interessante techniek van deze standaard :)
Kunnen we dan nu eindelijk een scherm van 4k met tenminste 120Hz aansturen? Of is de nieuwe standaard al verouderd nog voordat hij uitkomt?
FreeSync! My body is ready!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True