Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties
Bron: The Tech Report

Volgend jaar zullen de eerste chipsets van Intel verschijnen die de DisplayPort-standaard zullen ondersteunen. DisplayPort is de opvolger van de dvi-standaard, ondersteunt met een enkele verbinding een maximale resolutie van 2560x1600 en kan overweg met hdcp.

DisplayPort-kabelDe chipsets met de codenaam Eaglelake zullen in het tweede kwartaal van 2008 ge´ntroduceerd worden. Zoals gebruikelijk komt er een P- en G-variant op de markt waarbij de G-variant de beschikking krijgt over ge´ntegreerde graphics. Naast DisplayPort ondersteunt de G-variant ook hdmi en dvi. Beide varianten krijgen ondersteuning voor quadcore 45nm-processors, een 1333MHz fsb en pci express 2.0. Omdat verwacht wordt dat ddr3-geheugen niet snel gemeengoed zal worden ondersteunt Eaglelake niet alleen ddr3-1333, maar ook ddr2-800. Veel details over de nieuwe ge´ntegreerde grafische core zijn nog niet bekend, maar wat in ieder geval verbeterd zal worden is de mogelijkheid om het afspelen van blu-ray- en hd-dvd-films te versnellen. De Eaglelake-chipset zal de - nog niet ge´ntroduceerde - Bearlake-chipset opvolgen.

Moderatie-faq Wijzig weergave

Reacties (41)

En waarom standaardiseren we niet naar HDMI? Zou fijn zijn, identieke aansluitingen voor monitoren en TVs. Het enige grote verschil tussen de twee tegenwoordig is technisch gezien de afwezigheid van een tuner in een monitor.

[dream mode]composite, S-video, SCART, D-SUB, DVI, component, allemaal weg. HDMI op elke weergever en elke bron. Nooit meer geklungel met stekkers. Alles past altijd.[/dream mode]
En waarom standaardiseren we niet naar HDMI?
Patenten en royalties dacht ik.
yup, hdmi heeft echt hele hoge royalties terwijl DisplayPort royalty free is, gratis dus zullen veel meer op aparaten gebruikt worden dan HDMI in de toekomst.

hdmi zal geen scart levens duur hebben.
Kan ik hier ook mijn crt monitor op aansluiten, aangezien dat met een dvi convertor wel kon. Of ben ik nu verplicht een nieuwere monitor te kopen ?
Das nou juist het probleem.. van LCD etc word ik moe, krijg koppijn (ook van 2ms) enz.. CRT nooit een probleem gehad. Plus dat mijn "oude" CRT monitor al meer zelf samengestelde computers heeft overleefd dan dat de gemiddelde huis tuin en keuken pc vervangen moet worden.


edit : toevoeging
je hebt altijd convertors die DVI naar VGA omschakelen. En volgens het artikel is er ook een DVI-aansluiting.

Laat ik juist naar LCD overgeschakeld zijn omdat mijn ogen te vermoeid werden met CRT (aan 85Hz).

Ik heb reeds een paar operaties aan mijn ogen achter de rug en moet alles doen om hen niet te veel te vermoeien. Dankzij de overstap naar LCD worden mijn ogen (en ik) veel minder moe. En dat merk je, anders slaan ze rood uit (ÚÚn van de merkbare gevolgen van vermoeide ogen bij mij).
Ik heb ook juist geen problemen met LCD.
Als ik alleen al kijk naar een CRT scherm zie ik het al knipperen. Vooral met die oude schermen die wij op school hebben staan is het echt niet te doen, als ik er dan met mijn laptop voor zit en een oud CRT scherm staat nog toevallig aan zie ik alleen maar geknipper boven mijn laptop.
veeeel monitoren staan standaard op 60hz. Op 85, 100 of zelfs 120hz zie jij niets meer knipperen.
Misschien een trage weg van gewenning. Ik heb de eerste weken ook last gehad van de switch van CRT naar LCD, gebruikte gemiddeld de CRT destijds 12 uur per dag. Na 4 weken was het over. Alles moet wennen ;)
DVI -> VGA is niet echt een conversie. Uit de DVI-I connector worden gewoon de pinnetjes met het DVI-A (analoog) signaal verbonden met een VGA-stekker. Er wordt dus niets geconverteerd, dit is gewoon een handige manier om de (meestal) 2e uitgang van een videokaart dubbel te benutten.
De vraag is dus juist of het -A- deel van het signaal nog beschikbaar zal zijn....
Op die manier is het inderdaad geen conversie.

Maar in 'theorie' wel:

IN: DVI -> UIT: VGA

VGA is een ander systeem als DVI, dus is er sprake van conversie.
VanDale.nl zegt:

conĚverĚsie (de ~ (v.), ~s)
1 omzetting naar een ander systeem
mss komt er wel een disployport naar crt adapter. het is hetzelfde principe als DVI-> crt, ook gewoon digitaal naar analoog downgraden
Een DVI-poort waar zo'n DVI->VGA-adapter op past, heeft native ondersteuning voor analoge signalen. Het digitale signaal wordt niet omgezet in zo'n adaptertje. Als je DVI-poort dat niet heeft (DVI-D), dan kan je er geen DVI->VGA-adapter op aansluiten.

Zie ook http://en.wikipedia.org/wiki/Dvi#Connector
Met een wat meer intelligente adapter zou dat kunnen, maar iets heel anders, die hoge resolutie haal je nooit over een analoge kabel, dus CRT's zullen vast met een digitale interface komen.
Als je in 2008 nog steeds met een crt monitor werkt, is dit nieuwe bord niets voor jou!! ;) maar dit idee van Intel lijkt me wel oke!! en met converters zal je wel al een heel eind komen :)
ik zou niet weten waarom ik mijn crtje weg zou moeten doen. Nog steeds erg goed beeld. En een erg diep bureau. Anders zou ik dat scherm toch naar voren trekken. En dan zie ik die dikke achterkant niet hoor.
Pardon?
Er zijn nog zat mensen die graag gamen/werken op een CRT. En ik zie hier in 2008 nog geen verandering in komen.
CRT is toch wel een beetje verouderd dus een nieuwe monitor zou geen kwaad kunnen ;)
daar ben ik hetniet helemaal mee eens: crt schermen worden in de grafische sector bijvoorbeeld nog veelvuldig gebruikt. Aangezien zo'n (duur) scherm meestal langer meegaat dan de pc is dit een gegronde vraag.
Maar het antwoord is eenvoudig: neen, je kan niet zomaar of via een eenvoudig verloopje hier een goeie ouwe VGA (d-sub) connector aanfriemelen: Uit een Displayort komt immers alleen een digitaal signaal.
Een eenvoudig verloopje naar DVI (-D !!!) kan wel.
Daarom verwacht ik dat binnenkort heel wat grafische kaarten uitgerust zullen worden met een VGA- en displayport-aansluiting, net zoals het nu vrij "gewoon" is een dvi en vga poort op je kaartje te hebben.
Daarom verwacht ik dat binnenkort heel wat grafische kaarten uitgerust zullen worden met een VGA- en displayport-aansluiting, net zoals het nu vrij "gewoon" is een dvi en vga poort op je kaartje te hebben.
High-end kaarten hebben nu dubbel DVI. Ik verwacht niet dat een DVI weer vervangen wordt door D-SUB. Het zal wel DVI en DisplayPort worden.
Vergeet niet dat het hier over de connectiviteit van een chipset gaat, dus het gaat hier per definitie over budget/massasystemen en inderdaad, CRT monitoren worden steeds minder gebruikt. Het zal dus betekenen dat je inderdaad over een tijdje je CRT monitor niet meer op een standaard systeempje kunt aansluiten.
@Blaatkiller: dat betekent natuurlijk niet dat je verplicht bent een nieuwe monitor te kopen. Het betekent alleen dat je niet meer met de standaardsysteempjes uit de voeten kan en in de toekomst een "speciale" (steeds zeldzamer wordende) grafische kaart zult moeten aanschaffen die nog over een analoge uitgang beschikt...
Je hoeft niet DisplayPort te gebruiken, je kan ook gewoon een (HDMI->)DVI->VGA adaptertje blijven gebruiken. :)
Zoals Paddixx hierboven al aangeeft, bestaat DVI uit twee delen: analoog en digitaal. Het analoge deel is hetzelfde als VGA; het digitale deel is hetzelfde als HDMI (behalve audio uiteraard). HDMI kent geen analoog deel, en zodoende zal jouw combinatie nooit werken!
DisplayPort is de opvolger dan de dvi-standaard, ondersteunt met een enkele verbinding een maximale resolutie van 2560x1600 en kan overweg met hdcp.
Lekkere opvolger is dit trouwens. Woepie! 2560x1600..
Als ze nou meteen de stroom via dezelfde kabel deden en misschien nog mogelijkheid tot USB of geluid welke dan een mooi poortje voor je camera of hoofdtelefoon zouden hebben op je monitor.
stroom via dezelfde kabel zou teveel storen, waardoor uw beeld kwaliteit nochal fel achteruit gaat..
stroom via dezelfde kabel zou teveel storen, waardoor uw beeld kwaliteit nochal fel achteruit gaat..
Het signaal is digitaal. Weliswaar is het nog gevoelig voor dit soort storingen, maar stukken minder in verhouding met analoge varianten. Of het beeld werkt, of het beeld werkt niet.

Overigens draagt pin 9 van de analoge VGA connector +5V vanuit de videokaart.
mm, blijkbaar was Apple me al voor.
Vaag dat ze er weer mee gestopt zijn, blijkbaar kan stroom via de kabel dus wel.
http://en.wikipedia.org/wiki/Apple_Display_Connector
En dat hadden we dus met ADC (Apple Display Connector) zie http://en.wikipedia.org/wiki/Apple_Display_Connector.... maar toen begin iedereen te bitchen.
|:(
Stroom via dezelfde kabel --> dikke storingsbron
Via USB?? veel te weinig bandbreedte of bedoel je een usb poort in de monitor?
Hoezo kan dat niet? Mn vorige scherm was een Apple Cinema Display, die toendertijd via 1 plug DVI, stroom en USB gevoed kreeg. Het nadeel was een andere plug, dus je videokaart en AGP bus moest dit ondersteunen.
Bij de huidige schermen van Apple hebben gaat ook alles door 1 kabel, die zich afsplitst naar een stroom, dvi, usb en firewire kabel bij de computer. Het kan dus zeker wel.

Ik ben het ook eens met Sillymidget, 2560x1600 is een beetje weinig voor een next-gen aansluiting. Maar misschien is het mogelijk om meerdere kabels te gebruiken voor schermen met een hogere resolutie.
Door twee kabels voor het beeld te gebruiken ben je weer terug bij af. Het ging er nou juist om dat je niet twee aparte kabels nodig had voor beeld en geluid.

Voor wat betreft die maximale resolutie ben ik het gedeeltelijk met je eens. Een (veel) hogere bandbreedte geeft meer ruimte voor de toekomst. Vergeet echter niet dat de meest recente schermen van 23 Ó 24 inch 'maar' een resolutie hebben van 1920x1200. Als je de pixel pitch gelijk houdt, heb je voor een resolutie van 2560x1600 een scherm nodig van minstens 40 inch. Voor de komende paar jaar zal displayport daarom wel voldoende bandbreedte hebben. Over tien jaar zal dat echter een beetje anders liggen.
@ Blaatkiller

Het is bewezen dat LCD monitoren veel minder vermoeiend voor de ogen zijn en ook logisch. Omdat het beeld zo snel vernieuwd, dat je hersenen het als een stilstaand beeld zien. Bij een CRT zien de hersenen het als beeld... zwart....beeld...zwart. Dat is niet een kwestie van; ik vind, het is gewoon zo. Het zit wellicht tussen de oren.

Kan iemand mij uitleggen waarom we wel veel S-video en DVI aansluitingen zien en geen HDMI? En wat geeft het mooiste beeld weer van de 3. Als je nu alle 3 de aansluitingen op een grafische kaart of moederboard plakt, dan ligt die keuze voor iedereen voor de hand, dan maakt het niet uit wat voor scherm je bezit en gaat het meer richting de tv/pc combo.
Zie hierboven, dat ligt mogelijk aan patenten die aan het toepassen van HDMI kleven.
DVI is op notebooks erg zeldzaam terwijl HDMI juist wel aan lijkt te slaan.

Het heeft waarschijnlijk allemaal met het doel te maken. Computermonitoren zijn DVI en dus heeft een desktop PC een DVI uitgang. TVs beamers e.d. zijn meestal ofwel VGA of HDMI: Voor een extern beeld van een notebook zijn deze aansluitingen dan ook logischer.

Gegeven dat DVI en HDMI compatible zijn maakt het echter weinig uit welke aansluiting je hebt. Een converterkabel is op elke straathoek te koop. Het voordeel van een HDMI aansluiting is dat er ook geluid over verstuurt kan worden, maar dat is bij computertoepassingen in veel gevallen niet echt relevant.
En dan een verkeerd signaal op de verkeerde ingang waardoor je versterker hard gaat piepen alvorens een grote rookwolk uit te braken.

Wake up please! ;)

(@ Dr Strangelove)
Ben jij er zo een die een S-video stekker in een cinchingang krijgt ofzo :?

Met standaardisatie op HDMI bedoel ik niet alleen standaardisatie van de stekker, maar ook het signaal. Bovendien is het onzin om bang te zijn voor rookwolken, het ergste wat er kan gebeuren als de signalen niet gestandaardiseerd zijn is dat je geen beeld krijgt, zoals nu ook al het geval is. Over een SCART poort kan je composite, S-video, RGB, en component (ja, bij Loewe wel) gooien en beeld krijgen, en je kan er VGA en HDMI ingooien, maar verwacht dan geen beeld. Het ding leeft echter nog wel hoor :)
@ Blaatkiller, dat is heel apart, hier is het precies andersom! :+
@TCL ga je schamen kerel, je verhaal klopt voor geen meter. |:(

Ga je inlezen in de techniek voor je begint te blaten.
LCD ververst juist helemaal niet snel, en bij een crt, komt nooit een zwart scherm tussen de beelden voor, tenzij die uitstaat, of een donkere film natuurlijk.

LCD is juist een stuk rustiger aan de ogen, omdat hij ook werkelijk rustig is. het is niet een beeld dat 60 of 85 x per seconde ververst, maar juist een statisch scherm dat zich constant aanpast..
Als ik het goed begrijp, is dit een onboard video. Dus als je deze op je laptop hebt, en je wilt een beamer aansluiten, ben je verplicht een adapder van 25 euro te kopen?
Voor de rest wel goed dat intel vooruit wil, maar dat ze eerst maar een echte gpu maken, want deze gaat toch geen enkele profesional, die nog met crt werkt, gebruiken.
Wat weten ze over kabellengte en kabelmateriaal? Als het backwards compatible is met HDMI dan kan het al ophouden bij 5 meter. En als DisplayPort ook over koper gaat houden we missch. geen bliksemafleiders meer over. :) Goed je case isoleren.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True