Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties
Bron: Cdrinfo

Er is nieuwe informatie verschenen over de aankomende standaard DisplayPort, die zowel VGA als DVI moet gaan opvolgen. Het voorstel, dat onder andere door ATi, nVidia, Dell, HP en Samsung is ontwikkeld, is eerder deze week bij de VESA ingediend voor evaluatie. Deze review zal minstens een halfjaar in beslag nemen, en verwacht wordt dan ook dat de eerste producten die DisplayPort ondersteunen op zijn vroegst over een jaar zullen verschijnen. Het voordeel van de nieuwe standaard zit vooral in de verhoogde bandbreedte. Via een dunnere kabel kan er dankzij een 'low-voltage differential signal' maximaal 10,8 gigabit per seconde verstuurd worden, waardoor er voor grote schermen zoals de Cinema Display van Apple geen speciale dual-link kabels meer nodig zijn om de maximale resolutie te halen.

Tevens kan er naast beeld ook audio en 'interactieve communicatie' (denk bijvoorbeeld aan de terugvoer van een touch screen of afstandsbediening) door de DisplayPort heen, waardoor het aantal kabels achter de pc weer extra kan afnemen. De beeldkwaliteit gaat volgens de ontwerpers omhoog, omdat niet langer voor ieder frame het complete scherm getekend wordt, maar alleen de wijzigingen ten opzichte van het vorige beeld worden doorgegeven. Als extra voordeel zou dit nog stroom kunnen besparen in laptops ook.

Hoewel DisplayPort dus duidelijk voordelen heeft boven DVI, verwacht niet iedereen dat het een groot succes wordt. De geïnstalleerde markt van VGA en DVI is zo enorm groot dat de overgang moeizaam zal verlopen. Bovendien is er dit keer een concurrerende standaard met een behoorlijke voorsprong: HDMI. Ook zit er nog een potentiële adder onder het gras, een optioneel kopieerbeveiligingsmechanisme dat mensen die normaalgesproken altijd de nieuwste technieken willen hebben af zou kunnen schrikken.

Apple 30
Moderatie-faq Wijzig weergave

Reacties (43)

HDMI wordt gesteund door Hitachi, Panasonic, Philips, Silicon Image, Sony, Thomson en Toshiba. HDMI is zoals gezegd dus al een stuk verder. DisplayPort zal dus hoogstens naast HDMI kunnen bestaan. Dat DisplayPort allerlei anti-copieer crap bevat maakt de kans op succes alleen nog maar kleiner.
Ehm, HDMI is niks anders dan een DVI signaal door een ander kabeltje met een spoortje extra zodat ook geluid meegestuurd kan worden. En ook hierin is een beveiliging ingebouwd namelijk HDCP wat dus ook gebruikt wordt op DVI bij DVD-spelers/LCD-TV's

Kortom displayport is een verbetering ten opzichte van VGA, DVI en HDMI en HDMI is zoals gezegd niets anders dan een DVI signaal door een ander kabeltje
HDMI is echt wel veel meer dan alleen eeen DVI signaaltje.

quote van wiki:
"HDMI supports standard, enhanced, or high-definition video, plus multi-channel digital audio on a single cable. It is independent of the various HDTV standards such as ATSC, DVB(-T,-S,-C), as these are encapsulations of the MPEG data streams, which are passed off to a decoder, and output as uncompressed high-resolution video data. This video data is then encoded into TMDS for transmission digitally over HDMI. HDMI also includes 8-channel digital audio."

Daarnaast is HDMI ook al geschikt voor 1080i resoluties zoals HDTV en 5.1 geluid over één kabeltje. Dat vind ik wel voorruitgang.

bron: http://en.wikipedia.org/wiki/HDMI
Je hebt Wikipdeia niet ver genoeg gelezen:
"Type A HDMI is backwards-compatible with the single-link Digital Visual Interface (DVI) used on modern computer monitors and graphics cards. This means that a DVI source can drive an HDMI monitor, or vice versa, by means of a suitable adapter or cable, but the audio and remote control features of HDMI will not be available. Additionally, without support for HDCP, the video quality and resolution may be downgraded by the player unit. Type B HDMI is similarly backwards-compatible with dual-link DVI."

HDMI is inderdaad, in essentie, DVI + audio.
Video en 5.1 geluid door een kabeltje? Dan moeten ze dus video- en geluidskaarten in één gaan maken én de boxen in het scherm inbouwen wil het enig nut hebben wat kabelwirwar betreft.

Nee, doe mij maar een kabeltje extra dan.
AFAIK is HDMI eerder bedoeld als digitale vervanger van de SCART-kabel, niet om op computers te gebruiken.
@jeroen123:
Dat het backwards compatible is met DVI is wat heel anders dan dat het dan dus alleen maar "DVI met extra een audio kabeltje is". Voorbeeld: De PS2 is ook backwards compatible met de PS1. Maar dat betekent niet dat de PS2 een PS1 met een DVD speler is. HDMI kan terugschakelen naar DVI kwaliteit. Vandaar ook het "the video quality and resolution may be downgraded by the player unit" wat in het Wikipedia artikel staat.
Volgens mij zeg je nu precies wat ik ook al zei.

HDMI is hetzelfde als DVI alleen met een extra mogelijkheid tot doorgeven van geluid. En dit geluid kan inderdaad ook 5.1 zijn. Maar qua resolutie van het beeld is er geen verschil tussen DVI en HDMI.
Maar als er minder goede of geen beveiling is zullen niet veel fabrikanten er hun producten beschikvbaar maken voor displayport. Waardoor het dan al zeker weten een flop wordt.
Maar als er minder goede of geen beveiling is zullen niet veel fabrikanten er hun producten beschikvbaar maken voor displayport.
Fabrikanten hebben geen belang bij zgn. beveiligingen: alleen content-makers (filmstudio's, software-maffia etc.) drammen dat er steeds door.

Vergeet niet dat een van de grootste electronica-fabrikanten in de wereld, China, geen of nauwelijks belang heeft bij die lobby en dus zelf de standaard kan kiezen c.q. dicteren. En die standaard zal gekozen worden op hoe 'eenvoudig' het is om te inplementeren (geen of nauwelijk royalties, weinig componenten nodig, eenvoudig te produceren e.d.)

En trouwens, zoals altijd zal de standaard waar de meeste porno voor wordt gemaakt, winnen. :*)
(filmstudio's, software-maffia etc.)
Ach ja, de software-maffia. je weet wel, die donker gehoede mensen die je at gunpoint dwingen om bepaalde software te gebruiken en zelfs te kopen....
We mogen ook niet vergeten dat nVidia en ATi zich achter DP zetten ipv HDMI. En de steun van deze 2 is nodig om voet aan de grond te krijgen in de PC markt
1 van de 2 gaan floppen (DisplayPort of HDMI) en ik denk dat het als het aan de consument ligt DisplayPort gaat worden, omdat je voor die optionele kopieërbeveiligingsmechaniek als consument waarschijnlijk weer extra gaat betalen. Wat volgens mij geen zin gaat hebben omdat aan het begin alleen de wat rijke mensen het geld hebben voor dit soort apparaten kopen, toch vaak alles gewoon legaal kopen, en tegen de tijd dat de prijs hiervan is gezakt, is die beveiliging alweer gekraakt.
omdat je voor die optionele kopieërbeveiligingsmechaniek als consument waarschijnlijk weer extra gaat betalen.
Hm, daar had ook wel wat over in het artikel mogen staan.
de consument heeft helemaal geen besef van potentiele copieerbeveiligingen in een kabel. dit is iets wat alleen voor ons een opvallend iets is. ik heb ff op wikipedia gekeken wat hdmi is en eigenlijk kan ik niet zo oppervlakkig iets zeggen waarom het een wel of niet zal floppen. maar als ik kijk naar de partijen staat displayport er wel erg sterk voor gezien wie erachter staat.
Tja, als je dan eens wist dat er bij HDMI ook kopieerbeveiligingstechniek is ingebouwd dan maakt het de consument ook geen bal uit natuurlijk.. De consument heeft daar toch weinig over te zeggen, de fabrikanten zullen het toch gaan implementeren of consumenten dat nu wel of niet willen..
Zoals het artikel al zegt, de "opvolger" van DVI hebben we al: HDMI.

Het is al enorm irritant dat die HDMI doorgedrukt gaat worden en dan met name het HDCP component daarvan. Er zijn al heel veel DVI displays op de markt, maar deze kunnen dus niet samenwerken met HDMI met HDCP. Alleen HDMI is wel compatible met DVI, maar het is nu al duidelijk dat alle consumenten video apparaten (blu-ray/hd-dvd) HDCP gaan gebruiken.

En nu willen ze dus -weer- met een nieuwe aansluiting komen?

Je zult dan natuurlijk zien dat deze weer computer-only zal gaan worden, zodat audio/video apparatuur en computers weer kunstmatig van elkaar verwijderd gaan worden.

Met betrekking tot displays zag je juist dat steeds meer gewone (LCD) TVs een DVI poort kregen. Daarom hebben computer monitors met een DVI poort ook een toeslag: ze vallen onder de audio/visuele apparatuur.

Echter... er zijn nog nagenoeg GEEN DVD spelers/recorder of DVB decoders met een DVI uitgang. Dit is een erg vervelende situatie, want tot nu toe kan je dus alleen een computer aan een DVI ingang hangen, ook al zijn de schermen niet speciaal voor "de computer".

Als er nu 2 andere standaarden komen (HDMI en display port) dan zie ik deze situatie alleen nog maar erger worden. DVD spelers en consorten zullen dan waarschijnlijk NOOIT een digitale output voor video krijgen maar tot in de eeuwigheid op analoog blijven gangen. (in iedergeval hier in Europa).
Valt wel mee, de SCART-uitgang (rood/groen/blauw) is het zelfde systeem als voor VGA en is dus meer dan voldoende om een signaal van een DVD-speler (wat een relatief lage resolutie en refreshrate heeft in vergelijking met VGA) zonder kwaliteitsverlies op je TV af te spelen. Je TV is de beperkende factor, niet de kabel.

Als je de data digitaal wilt, steek een DVD-ROM speler of DVB-kaart in je PC, klaar.

Overigens is de ware reden om van VGA of te stappen kostenbesparing, niet verbetering van de kwaliteit. Met goede analoge elektronica is VGA veruit superieur aan DVI, wat de reden is dat er nu al, slechts enkele jaren na introductie van DVI, alweer over een opvolger gesproken wordt terwijl VGA het inmiddels al bijna 2 decenia uithoudt.
@dmantoine:

Ik ben het niet helemaal met je eens dat met goede conversie VGA superieur is aan DVI. Waar bij VGA geprobeerd wordt om het originele digitale signaal weer zo veel mogelijk in z'n originele staat terug te krijgen, is bij DVI het gewoon zo dat als er een 1 in gaat, er een 1 uitkomt.

A/D converters zijn namelijk voor een deel gebaseerd op kansberekening indien het signaal "ruis" bevat (datacommunicatie technisch gesproken dan). Deze ruis is eigenlijk een vervorming van het originele signaal die optreedt door invloeden van buitenaf. De A/D converter zal dan proberen het originele stukje informatie weer terug te krijgen in z'n originele staat.

Maar het is niet altijd duidelijk (bij een teveel aan vervorming) hoe het originele signaal er uit zag. Dit betekent dat met bepaalde technieken, zoals bijvoorbeeld interpolatie, als het ware wordt gegokt wat het desbetreffende stukje informatie in z'n originele vorm was. Als dit verkeerd "gegokt" is kan het effect zijn dat bepaalde kleurcomponenten op het beeld beinvloed worden.

(Aan de hand van het vermogen hoe goed een coverter deze methodieken toepast, wordt de kwaliteit van de converter bepaald).

voorbeeld: De kleurinformatie in het signaal van de ene pixel beinvloeden voor een deel het stukje signaal die bij een andere pixel hoort, waardoor de laatstgenoemde pixel beinvloed wordt door de ruis.

Dit is niet van toepassing op DVI. Het digitale signaal gaat rechtstreeks door de kabel. Er hoeft niets geherconstrueert te worden. De monitor ontvangt het digitale signaal in z'n originele vorm en zet deze op het scherm. Het enige waarmee schermen met DVI nog van elkaar verschillen is de kwaliteit waarmee kleuren worden weergegeven en hoe het beeld wordt opgebouwd.
Ten eerste, bij VGA wordt signaal het in de regel via analoge logica zo snel mogelijk aan het elektronenkannon gevoerd, digitale functionaliteit zoals het on-screen-display wordt meestal via een aparte analoge kabel vanuit een besturingsprintplaat aangevoerd. Een conversie naar digitaal is duur en verlaagt de kwaliteit, omdat het elektronenkanon analoog is.

Bij LCD is de zaak natuurlijk anders, en is de digitaal/analoog/digitaal-conversie natuurlijk wel overbodig, maar die dingen hebben zowieso lagere beeldkwaliteiten dan CRT's, als we het over de ultieme beeldkwaliteit hebben, kunnen we die buiten beschouwing laten.

VGA wordt beperkt door de analoge bandbreedte van de elektronica en bekabeling.

De beperking bij DVI zit 'm erin dat er een maximale byterate is; er is een maximale hoeveelheid bytes die je eroverheen kunt sturen. Die bandbreedte is beperkt, afhankelijk van welke verversingsfrequentie je nog acceptabel vindt is de limiet 1280x1024 of 1600x1200 daarboven houdt het gewoon op.

Nu heb je met 1600x1200 bij goedkope VGA-oplossingen zeker al problemen, zeker de on-boardoplossingen liggen eruit. De wat betere videokaarten (hoef je nog niet eens een dure te hebben want de capaciteit van de RAMDAC, de analoge bandbreedte, ligt tegenwoordig gauw op 350 á 400 MHz) hebben daarentegen nog veel reserves.

Maar ja, dat zijn extremen. Bij televisie geldt dat zelfs 1920x1080 een makkie is voor een VGA-kabel (of een SCART-kabel, de techniek is exact dezelfde). De refreshrate is namelijk verschrikkelijk veel lager. Reken maar eens uit, 1920x1080i@50Hz is 1920x1080x25=51840000 pixels per seconde terwijl 1280x1024@85Hz is 1280x1024x85=111411200 pixels per seconde.

Nu kan je zeggen dat een DVI niet vervormt, nooit niet. Maar een VGA, heeft, zeker op bandbreedtes die ver onder de maximale specificaties liggen, beslist geen last van ruis, immers dan zou het beeld er op de maximale frequenties simpelweg onnacceptabel uitzien.
Hmmm dat van die byterate e.d. had ik idd geen rekening mee gehouden... goed! Weer wat geleerd ;)

I stand corrected
Maar SCART is analoog, dus heb je verlies bij de conversies als je een digitale TV hebt. En SCART kan ook geen HDTV aan.
SCART kan wel degelijk HDTV aan, maar dat is maar in 1 richting omdat de RGB-leidingen in 1 richting zijn uitgevoerd. De composietleidingen lopen wel in twee richtingen.

Een DVD-videorecorder kan bijvoorbeeld wel een hoge-resolutiesignaal naar de TV sturen, en als die dat aankan zal 'ie beeld geven, maar kan geen hogeresolutiesignaal van een TV opnemen.

Over kwaliteitsverlies als gevolg van A/D-conversies zou ik me niet teveel zorgen maken, nogmaals, de kwaliteit van de televisie is veel eerder het probleem.
Via een dunnere kabel kan er dankzij een 'low-voltage differential signal' maximaal 10,8 gigabit per seconde verstuurd worden, waardoor er voor grote schermen zoals de Cinema Display van Apple niet meer met twee losse kabels nodig zijn om de maximale resolutie te halen.
Het lijkt alsof je hiermee wil zeggen dat de 30" ACD met 2 kabels of 2 pluggen wordt aangesloten, maar dat is niet het geval. Het is gewoon 1 DVI plug.
Als je een zeer hoge resolutie wil draaien, heb je momenteel 2 pluggen nodig.
misschien, maar dan spreek je wel over resoluties hoger dan die van het 30" Cinema Display (welke dus gewoon met een, weliswaar dual-link, plug/kabel kabel aangesloten wordt.)
Dual Link is niet hetzelfde als 2 pluggen...
Ik schat inderdaad in dat HDMI er nu sterker voor staat. Technisch zit Sony, Hitachi, Thomson, Philips, Matsushita (Panasonic) en Toshiba bovenop de bal. Maar vanuit de filmindustrie zitten Fox, Universal, Warner Bros. en Disney in het HDMI-front.

HDMI is ook geschikt is voor HDTV systemen. En wordt niet alleen gebruikt voor beeld, maar ook voor meerdere audiokanalen (8 kanalen). En er is nog ruimte voor meer.

Grappig genoeg zie ik Samsung ook staan op de lijst van HDMI adopters, net als ATI.
Wat? displaykwaliteit gaat omhoog omdat alleen alle wijzigingen doorgegeven worden? Ik ken dat verhaal, dat zeggen ze ook bij MPEG. Maar daar komt het erop neer dat als er veel beweging in het beeld is, de kwaliteit snel achteruit gaat (blokkerig beeld). Bijvoorbeeld bij het pannen van de camera, iets wat nogal vaak gebeurd.

Verder vind ik het suf dat het gecodeerd doorgegeven gaat worden. Beeldmixers en andere VJ apparatuur zal allemaal dure beeldverwerkingchips nodig hebben. (VGA willen ze immers ook vervangen!)
Dat blokkerige effect heeft niets te maken met het principe van de still frames en wijzigingen daarop. Wel met de compressie van het beeld *zelf*.

Bij deze techniek zal geen compressie toegepast worden, dus daar hoef je niet bang voor te zijn.
Ja, maar ze beweren dat de beeldkwaliteit omhoog gaat omdat alleen de wijzigingen doorgegeven worden en niet het complete scherm ververst moet worden. Dit gaat dus niet op wanneer het complete scherm wel ververst moet worden.

Als dit niet uit zou maken zie ik het voordeel niet in van alleen de wijzigingen doorgeven... dat heeft (afhankelijk van de codering) voor een complete schermverversing zelfs een hogere bandbreedte nodig. (de plek van wijziging moet ook doorgegeven worden).
je hebt geen last meer van knipperingen , er is dan geen sprake meer van een "vernieuwingsfrequentie", bvb in spellen zou dit handig zijn aangezien je geen afgekapte beelden meer krijgt als vsync afstaat

volgens mij zal het beeld dan uiterst stabiel lijken...
ook die touchscreen functies zie ik volkomen zitten! dit wordt fantastisch!
Waarom maken ze niet een kabel waar:
-HDTV-beeld makkelijk doorheen gaat (1080i natuurlijk)
-7.1 geluid
-4 of meer usb-2.0 kabels
-1 coaxiale en 1 optische geluidsaansluiting
Dan heb ik maar 1 kabeltje nodig van mijn bureau naar mijn PC :*)
Handig zo'n 5 cm dikke kabel :+
zoals op de hercules gametheater xp 7.1 :)
Is een van die 3
(1:7.1 geluid, en dan neem ik aan dat je analoog bedoeld
2: Coaxiaal
3: Optisch)

Niet genoeg dan :?
Ik heb een coaxiale kabel lopen van mijn SPDIF out waar al m'n (7.1) geluid van m'n PC doorheen gaat ;)

Wat ik me trouwens afvraag, zou dit niet gewoon door een glasvezelkabeltje kunnen sturen? Die hebben zo'n beetje onbeperkte capaciteit :) (op het moment iets van 10 Gigabit als ik het goed heb)
De beeldkwaliteit gaat volgens de ontwerpers omhoog, omdat niet langer voor ieder frame het complete scherm getekend wordt, maar alleen de wijzigingen ten opzichte van het vorige beeld worden doorgegeven
Ten eerste snap ik niet hoe hierdoor de beeldkwaliteit omhoog gaat en ten tweede lijkt me dit niet zo gunstig voor de 'latency', als er verschil wordt uitgerekend zal er zoizo een beeldje vertraging zijn... of maak ik nu een denk fout??
heeft te maken met de mannier waarmee dat videokaarten hun beelden renderen, nu is er een hogere latency omdat de ramdacs steeds volledige plaatjes moeten opbouwen uit partiele data(niet dat dat een grote performance hit geeft, de huidige videokaarten zijn meer dan snel genoeg)
Het verschil wordt niet uitgerekend, uiteindelijk wordt niet steeds een volledig frame doorgezonden maar alleen de recente veranderingen wat resuleert in een kleiner aantal te renderen pixels op het beeldscherm & een lager verbruik van bandbreedte
Hm, dus straks krijgen we helemaal rare specificaties. De ondersteunde resolutie op een bepaalde verversingsfrequentie zou dan afhangen van hoe groot het deel is van het scherm wat ververst moet worden, immers, als de bandbreedte op is, is 'ie op...

'This display supports a resolution of 8000x6000x60hz at 10% refresh, and 1600x1200x60hz at 100%'...
Wat is de timeframe van deze nieuwe standard? Het is wel leuk dat ze steeds nieuwe dingen bedenken maar dat word voor de consument niet fijn. Simpel een onderdeel van je computer upgraden zit er bijna niet meer bij.
Ik ben zeer benieuwd naar de maximale lengte van de kabel die deze standaard aan kan. Ik heb m'n computer graag zo ver mogelijk weg van m'n werkplek, het liefst in een andere kamer.

DVI kan 1280x1024x75 over 4,5 meter aan, mits je een goede videokaart hebt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True