Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 188 reacties

De Radeon R9 Fury X heeft geen ondersteuning voor hdmi 2.0, heeft AMD bekendgemaakt. Voor de weergave van 4k-content op 60fps is de kaart daarmee aangewezen op displayport 1.2a, al komen hier verloopjes voor.

De bevestiging dat de kaart geen hdmi 2.0 ondersteunt komt van een woordvoerder van AMD, die op het Overclockers-forum aanwezig is als 'AMDmatt'. "AMD raadt aan en gebruikt displayport 1.2a voor de weergave van 4k60-content", schrijft hij. Over de compacte R9 Nano, die AMD dinsdag eveneens aankondigde en die vooral voor kleine gamesystemen met bijvoorbeeld mini-itx-borden geschikt is, zei hij niets. Die kaart is net als de Radeon R9 Fury X met een Fiji-gpu uitgerust dus de kans bestaat dat deze ook geen hdmi 2.0 ondersteunt.

De hdmi 2.0-specificatie werd in 2013 aangekondigd. De bandbreedte van 18Gbit/s maakt het mogelijk om op uhdtv's 4k-beelden te tonen met framerates tot maximaal 60fps bij 24bit-kleurdiepte. De meeste monitoren zijn met dispayport uitgerust dus daarbij zou 4k-weergave op 60fps met de Radeon R9 Fury X geen probleem zijn, maar recente udhtv's bevatten hiervoor hdmi 2.0, waar de kaart dus niet mee werkt. Wel zijn er verloopstukjes van displayport 1.2a naar hdmi 2.0 op komst.

AMD kondigde dinsdag de R9 Fury en R9 Fury X aan. De kaarten zijn met de nieuwe Fiji-gpu uitgerust. De gpu van de Fury X beschikt over 4096 streamprocessors en communiceert met het onlangs aangekondigde hbm-geheugen via 4096bit-interface. Door het gebruik van gestapeld hbm-geheugen zijn de kaarten compacter dan gebruikelijk voor high-endvideokaarten. De R9 Fury X en R9 Fury komen respectievelijk 24 juni en 14 juli. De nog compactere R9 Nano moet later in de zomer beschikbaar komen.

Radeon R9 Fury X

Moderatie-faq Wijzig weergave

Reacties (188)

Geen paniek dus: met een verloopstekker zitten we dalijk alsnog goed. De ongetwijfeld komende negatieve reacties zijn dus nergens voor nodig.
Interessanter lijkt mij dan de vraag of AMD (of een van de partners) een dergelijk verloopstukje ook mee gaat leveren. :)
Als hij bestaat, misschien wel. Het ligt er dan nog aan hoe duur die verloopjes worden.
Q. How can I use my existing display or digital TV set with a new computer that has a DisplayPort output?

A. DisplayPort has the unique ability to support external display adapters. The DisplayPort Source device (such as a notebook computer) provides power at the DisplayPort plug to power such an adapter, and it detects the type of adapter connected, as well as the type of monitor. Inexpensive DisplayPort adapters are readily available for VGA, DVI, and HDMI displays. Adapters for HDMI 2.0 will become available in the near future.
http://www.displayport.org/faq/
ik heb er 1 gevonden op amazon...

http://www.amazon.com/Bel...er-Supports/dp/B001NIEHIO

nog geen 12 dollar.

edit : staat blijkbaar fout op amazon. deze heeft GEEN hdmi2.0 ondersteuning.

[Reactie gewijzigd door Countess op 18 juni 2015 14:48]

Afgeprijsd van $60, laten we hopen dat dat alleen een verkooptruc is... :/

[EDIT]
Lees de reviews trouwens ook, schijnt dat het helemaal niet werkt met HDMI 2.0 :-(

[Reactie gewijzigd door LongBowNL op 18 juni 2015 12:38]

http://belkinbusiness.com...-displayport-hdmi-adapter

Provides up to 1080p resolution with digital audio
Een simpele adapter kan geen DP of HDMI 1 signaal omtoveren naar HDMI 2...
Het verloop stukje wordt ook niet voor hdmi 2.0 gebruikt, maar zorgt er voor dat de gebruiker nog wel 4@60fps kan afspelen
2160p60 is toch niet haalbaar over HDMI 1?
HDMI 1.X kan maximaal


3840x2160 @ 24Hz | 25Hz | 30Hz
4096x2160 @ 24Hz

Bron: http://www.hdmi.org/manuf..._1_4/hdmi_1_4_faq.aspx#21

HDMI 2.0 kan 4096x2160 @ 60Hz aan
Maar dan is het wel mogelijk, en als het betreffende verloopstekkertje erbij geleverd wordt is er toch niks aan de hand? ( behalve dat het vreemd is dat het niet standaard ondersteund wordt, beperking van de fury X om 1 of andere reden ? )
Dat zal niet gebeuren, omdat voor omzetting van displayport naar HDMI 2.0 actieve elektronica nodig is, wat de prijs hoger maakt. Niet dat het een vermogen zal kosten, maar het maakt meeleveren wel economisch aantrekkelijk gezien niet iedereen dat verloop zal gebruiken.
Alsof ik nu alle verloopjes gebruikt, bij de duurdere kaarten (en daar hebben we het nu over, zit vrijwel alle soorten verlopen die je je kan wensen, tenzij de nodige poorten er al op zitten)...

Bij mijn HD6990 kreeg ik 3 DP verloopjes, 2 naar HDMI en 1 naar DVI, bij mijn R290's kreeg ik bij ieder netjes 1 DP naar HDMI en 1 DP naar DVI...

Dus ik denk dat de nodige kabels er wel degelijk bij zitten, net als 6 naar 8pins voedingsverloopje.

[Reactie gewijzigd door watercoolertje op 18 juni 2015 11:37]

Dat zijn domme verloopjes: Het verloopje verbindt de draadjes van de DVI- of HDMI-kabel met de juiste pinnetjes in de DP-connector. De kaart detecteert dat en gaat i.p.v. het-Displayportprotocol het TMDS-protocol dat in DVI en HDMI gebruikt wordt over de pinnetjes praten.

Deze methode is enkel mogelijk bij conversie naar single-link DVI en HDMI. Voor Dual-link DVI of VGA zijn actieve converters nodig, waarbij de videokaart Displayport praat. Hoewel het er niet expliciet staat kun je uit dit artikel concluderen dat de kaart geen HDMI 2.0 kan praten, anders zouden er namelijk wel fabrikanten gaan zijn die er een ander connectortje op solderen. Er is dus een actief verloopstuk (dwz. met DP naar HDMI conversiechips) nodig.

Ik heb nog nooit een videokaart gezien waarbij actieve verloopstukken werden meegeleverd. Ter info: Een actieve verloopkabel van DP naar DVI (dus met dual-linkondersteuning) kost tussen de 20 en 25 euro.
DP 1.2 heeft toch meer bandbreedte dan HDMI1?
Waarom zouden ze anders DP1.2 to HDMI2.0 verloopstukjes uitbrengen?
Ze converteren hier niet van HDMI1 naar HDMI2.

"A single DisplayPort interface can support up to four monitors at 1920-by-1200-pixel resolution each, or two monitors at 2560-by-1600-pixel resolution, with each display receiving independent audio and video streams."

HDMI1.4 is not going to manage that, I suppose...
Een (goedkoop) verloopje is geen convertor.. en een convertor is niet goedkoop.
Zeg ik toch ook niet?
Ik zeg juist dat een verloopstukje DP1.2 naar HDMI2.0 brengt. Wellicht op een iets lagere resolutie dan mogelijk is met HDMI2.0, maar nog steeds voldoende voor 4k video. Er hoeft niet geconverteerd te worden, als ik de tekst goed begrijp.
Dan is de tekst dus fout. ;)
Een verloopje kan die conversie namelijk niet uitvoeren.

[Reactie gewijzigd door Olaf van der Spek op 18 juni 2015 13:36]

van DP1.2 naar HDMI2.0 niet?
Waar lees jij dat?
Staat niet in het artikel..
DP en HDMI zijn hele andere protocollen, wil je daartussen converteren dan heb je een dure en complexe convertor nodig, geen simpele adapter.
Er zijn wel DP -> HDMI adapters maar dan ondersteunt de videokaart zelf al HDMI en komt het HDMI signaal vanaf bepaalde pinnen.
ok. thanx for the info & nice to know!
"Wel zijn er verloopstukjes van displayport 1.2a naar hdmi 2.0 op komst."
Als je er een monitor aanhangt sluit je die bij voorkeur via DP aan dus is er geen probleem. Wil je op je 4K TV gamen dan kun je een DP naar HDMI2 verloopje (daar zit wel wat logica in en kost dus wel wat) gebruiken.
Die verloopstukjes zijn anders vaak schreeuwend duur. DVI naar DisplayPort kan je zomaar 150 euro kosten.
Dus als deze DisplayPort naar HDMI 2.0 verloopjes ook duur worden, is dat niet zo fijn.
DP => DVI is inderdaad spotgoedkoop, maar DVI => DP is weer erg duur. De reden hiervoor is dat er erg veel logica gedaan moet worden om deze conversie te maken. Ik geloof dat een beetje DP => DVI adapter al voor een tientje oid te koop is als je een beetje zoekt.
Normale Single Link adapters wel, Dual Link adapters zijn bijzonder prijzig aangezien daar elektronica voor in de adapter moet zitten
Een Display port naar DVI adapter kost echter geen drol. Ik denk dat het wel mee zal vallen.
Ligt eraan. Als het zonder problemen kan worden doorgegeven met HD audio dan is er geen probleem. Als het bijvoorbeeld zonder audio is dan word het lastiger voor ze. Denk dat niet iedereen een losse DP kabel naar zijn tv wil en een losse HDMI naar de receiver.
DisplayPort kan normaal ook audio doorgeven. Indien AMD dit correct aanpakt zou deze kaart dit dus ook moeten ondersteunen. Hopelijk dus ook op alle DP poorten.
En men kan garanderen dat er geen dataverlies optreedt bij het gebruik van verloopstukjes?
We leven niet meer in het analoge tijdperk, door checksums icm met error-correction/retransission te gebruiken binnen digitale communicatie kan men inderdaad garanderen dat er geen data-verlies optreed.
Correct me if I'm wrong maar op dit soort streams zit bij mijn weten geen error-correctie. Daar is ook geen tijd voor; het is bij dit soort signalen zaak om zo snel mogelijk 'te leveren' om de latency laag te houden. Er wordt bij mijn weten niet (zo weinig mogelijk) gebufferd om zo weinig mogelijk latency te genereren. Retransmission van een pakketje houdt ook in dat de order niet meer in sync loopt, en dat geeft allerlei problemen met audio/video. Daarom is het ook zaak om bij signalen zoals HDMI / toslink / spdif goede kabels te hebben, een 1 moet een 1 blijven. Dat neemt niet weg dat peperdure kabels (Monster bv...) grote onzin zijn in mijn ogen... maar daar zijn genoeg discussies over op GOT :)

Bij TCP en degelijke protocollen is dat anders, maar die zijn door hun gebruik minder afhankelijk van latency.

[Reactie gewijzigd door Rataplan_ op 18 juni 2015 10:52]

HDMI gebruikt in de TMDS stream BCH ECC parity voor error-correction.
(https://en.wikipedia.org/wiki/HDMI#TMDS)
Retransmission zal inderdaad niet gebruikt worden binnen HDMI, maar mijn opmerking betrof dan ook digitale communicatie in het algemeen. Wellicht had ik er "of" tussen moeten zetten.
Nee, met checksums kun je hooguit garanderen dat de frames welke je ontvangt niet corrupt zijn geraakt. Echter checksums kunnen niet garanderen dat de framerate of resolutie gelijk blijft bij conversie, alleen dat hetgeen wat is verstuurd correct is.

Stel dat een converter 4k60 omzet naar 4k24, dan zullen alle 24fps correct checksums, maar mis je nog steeds ruim de helt van het aantal frames. Ook dat kun je als data verlies omschrijven. Ook en conversie van 4096 x 2160 naar 3840 x 2160 kan men zien als data verlies..

En volgens mij doen de meeste players alleen het frame niet tonen als de checksum afwijkt..
door checksums icm met error-correction/retransission te gebruiken
Met checksums alleen ben je er inderdaad niet, vandaar dat ik checksums in combinatie met error-correction of retransmission zei..
Echter checksums kunnen niet garanderen dat de framerate of resolutie gelijk blijft bij conversie, alleen dat hetgeen wat is verstuurd correct is.
Conversie is niet relevant, je voegt nu opeens een extra stap toe in het proces.
En volgens mij doen de meeste players alleen het frame niet tonen als de checksum afwijkt..
Zoals ik in mijn antwoord op Rataplan al aangaf, HDMI gebruikt ECC parity om fouten te herstellen. (tot op zekere hoogte natuurlijk, te grote errors zijn niet te herstellen)
Is niet helemaal waar, heb vaak genoeg gehad dat de signaal van mijn Computers of versterkers of andere apparaten niet goed werkte, en de signaal iedere keer weg viel (audio en of beeld), en dat werd opgelost met een HDMI Repeater, en niet met een andere HDMI kabel, en nee lengte was ook niet een probleem, mijn sus heeft het met haar Cloud Media Open Hour Chameleon dat elke keer de beeld weg viel, en dat was niet met andere kabels op te lossen, en toen deed ik een HDMI Repeater er tussen en het was opgelost.

Ik vind het erg triest dat AMD weer wat anders doet, ik weet zeker dat bij veel nieuwe grafische kaarten dus geen verloop stekker bij zit, erg jammer dit weer, is het zo veel moeite op er een HDMI 2.0 port op te zetten.


edit spel fouten.

[Reactie gewijzigd door AmigaWolf op 18 juni 2015 22:55]

Dat is het voordeel van digitaal versturen, je verliest weinig bitjes... Ook met die verloopstukjes niet, alleen kun je bijvoorbeeld geen rare encrypties meesturen. Dual-mode Displayport kan ook HDMI-signalen vervoeren, en DP 1.2 heeft meer ruimte op z'n kabels dan HDMI 2.0. An sich is er dus geen enkel probleem.
Natuurlijk. Al die data is digitaal en daarmee kun je vrij eenvoudig garanderen dat er geen data verlies is.
Hoop wel dat die er bijgeleverd gaan worden dan.
Wel beetje apple praktijken, een kabeltje bij laten bestellen om gebruikelijke connectiviteit te bieden
Sorry, maar als Chief Design Officer zou ik niet akkoord gaan met deze quick and dirty oplossing. Dit is simpelweg een gebrek aan tijd, kennis of inzet geweest en zal nVidia ook zeker gaan gebruiken als sterk marketingargument voor hun concurrerende producten.

Niets negatiefs aan, gewoon realistisch: HDMI 2.0 is er niet voor niets; HDMI is de standaard, niet DisplayPort.
Mwa, HDMI is de standaard voor TV's, op beeldschermen (in elk geval de beeldschermen waar het wat uitmaakt) zit volgens mij even vaak of vaker DP.

De pricewatch kent welgeteld 3 4K monitoren met HDMI 2.0 en 27 met DP1.2 (waaronder die 3 met HDMI 2.0).

Bij de UHD tv's is de situatie dan weer precies omgekeerd.

Stellen dat HDMI 2.0 de standaard is vind ik dus niet terecht tenzij je over TV's spreekt. Neemt niet weg dat ze het er beter wel gewoon op hadden kunnen maken om zowel TV als monitor gamers tevreden te stellen.
HDMI is de standaard op TV's, ik vermoed echter dat er meer Displayport monitoren in omloop zijn dan HDMI monitoren. Heel veel bedrijven hebben namelijk allemaal monitoren met Displayport omdat ze dan makkelijk meerdere monitoren neer kunnen zetten.
Voordat je zegt dat het allemaal wel goed zit, vind eerst maar eens een verloop die 4k@60Hz ondersteund. Omdat er zo veel mensen beweren dat je "gewoon" een goedkoop verloopje moet halen heb ik zelf even gezocht, en ik kan alleen een aankondiging van Bizlink vinden (die een half jaar geleden binnen enkele weken iets uit zou brengen) maar geen enkel daadwerkelijk uitgebracht product.
Meeste van die goedkope verloopstukken zijn passieve adapters waar de DP poort van signaal veranderd. Ik heb bvb een displayport hub liggen die dit intern doet. Voor HDMI 2.0 zullen we moeten wachten op een actieve adapter.
:+
55" Class (54.6" diagonal)
3840 x 2160
LED
1200
Dat is een random voorbeeld van een 4k scherm wat 60Hz ondersteund. En heeft wel hdmi 2.0 ingangen, maar geen displayport, dus heeft een verloop nodig om een fury x videokaart te gebruiken voor 4k@60Hz. Dus nu we een scherm hebben gevonden..... missen we nog de verloopjes?
Toch wel triest anno 2015 op highend kaart geen hdmi 2.0 wat en jaar of 2 al standaard is.

wel of geen verloop stekkertje anno 2015 moet er gewoon hdmi 2.0 op.
HDMI is al sinds het begin, minder snel als Displayport. waarom zouden we niet eens gewoon met zijn alle Displayport gaan gebruiken?
Omdat verschillende markten zich in verschillende richtingen ontwikkelen. TVs en hun randapparatuur blijven gebruik maken van HDMI terwijl de computers meer en meer in de richting van DP gaan (kijk maar eens naar hoeveel laptops er DP hebben en hoeveel HDMI).
Zal vast iets met licentiekosten en implemenatie te maken hebben. HDMI moet een TV gewoon ondersteunen vanwege alle HDMI spullen die er al zijn. DP kost dan gewoon extra. Techniek is mooi maar wat het kost is het belangrijkste besliscriterium.
Omdat merendeel hdmi al heeft.
Het merendeel heeft inderdaad HDMI op de TV, maar geen versie van HDMI die 4K@60Hz ondersteunt. Als ik een UHD tv zou gaan zoeken zou een DP aansluiting wel op de wensenlijkst staan.

Voor mijn huidige TV zonder DP maakt het niet uit dat deze kaart HDMI 2.0 niet ondersteunt. De TV is toch "maar" FHD (en er wordt geen PC op aangesloten).
Mijn uhdtv kan anders prima 4k60hz spelen die heeft namelijk hdmi 2.0 met 4k60Hz support.
Ja nieuwe UHD TV's wel, maar die zijn nog niet echt gemeengoed h
Dus? DP en HDMI kan toch prima naast elkaar? De meeste TV's hebben ook meerdere analoge inputs (+ HDMI) dus waarom ook geen DP erbij?
Doorgaans koopt men vaker een nieuwe videokaart dan een nieuwe TV

Ik in ieder geval wel
Het is juist triest dat anno 2015 TV's nog steeds niet standaard met Displayport worden uitgerust. Wel hebben ze nog analoge inputs, S-Video, Scart 8)7
Displayport is er gekomen omdat videokaartfabrikanten een standaard wilden die geen grote hoeveelheden plek op een chip inneemt (waardoor bijv. Eyefiniti mogelijk werd), lange kabels mogelijk maakte, en relatief makkelijk met actieve veroopstekkers om te zetten was naar andere standaarden (VGA, DVI, HDMI en nu ook HDMI 2.0). De amusementsindsutrie vond Displayport veel te ingewikkeld en wilde alleen de snelheid van de kabel opvoeren. Het gevolg is dat DisplayPort niet in de standaardchips voor televisies zit. Om DisplayPort te ondersteunen moet een fabrikant extra chips toevoegen en dat ligt in het eeuwige gevecht om de lage prijs altijd lastig.
wel of geen verloop stekkertje anno 2015 moet er gewoon hdmi 2.0 op.
Displayport 1.3 lijkt me beter, HDMI 2.0 kan geen 4k@120fps aan, displayport 1.3 wel.
Maar de Fury ondersteunt DP 1.2a ... jammer dan!
Ook triest dat TVs geen DP ondersteunen..
De HDMI 2.0 definitie mag dan 2 jaar bestaan, het is nog helemaal niet standaard. Afaik heeft de meeste apparatuur die de afgelopen twee jaar uit de fabrieken is gerold over het algemeen HDMI 1.3/1.4 aansluitingen
dit artikel is wel wat gedateerd maar verklaard een hoop
http://www.pcworld.com/ar...rface-reigns-supreme.html

consortiums, hdmi single display vs dp multi display etc
Ik vind het helemaal niet triest. Displayport is toch beter dan HDMI. Die gebruik ik zelf altijd.

Wel jammer voor de mensen die geen DP scherm hebben. Maar een beetje goede 4k monitor heeft ook een DP aansluiting.

Voor alles onder de 4k maakt het niet uit dat er geen HDMI 2.0 op zit.
Er zijn op dit moment goede 4K TV's op de markt die significant goedkoper zijn dan dedicated 4K monitoren (er is nu eenmaal een grotere markt voor TV's). Geen van die TV's heeft een DP aansluiting, ze hebben wel allemaal HDMI 2.0. Als je die wil gebruiken ben je nu aangewezen op een NVidia kaart.

C't had onlangs een leuk artikel over het inzetten van een TV als monitor.

[Reactie gewijzigd door timag op 18 juni 2015 10:53]

Dat gaat op voor zuinige Pietje die geen dure 4K monitor kan kopen, die koopt denk ik ook geen Fury X. Enthousiastelingen hebben altijd meer geld uitgegeven aan high end spullen.

Daarbij zijn de 4K tv's van dit moment die dezelfde prijs hebben als een dure 4K monitor geen "goede 4K tv".
Een Fury X koop je dan misschien niet, maar dit nieuws is ook niet echt opzienbarend omdat specifiek deze kaart geen HDMI 2.0 heeft maar meer omdat het erop hint dat AMD een nieuwe generatie levert zonder HDMI 2.0.

Ik kan voor 500- 700 een prima 4k tv kopen van 32" of groter. Ik weet niet wat jij onder een "dure" 4K monitor verstaat maar degene die ik kan vinden kosten minimaal het dubbele.
Er staan momenteel zo'n 12 UHD monitoren in de pricewatch van onder de 500,- Ook allen met DisplayPort overigens.

DisplayPort zou wat mij betreft de toekomst moeten zijn: open, zonder royalties/licenties, ik zie geen nadelen tov HDMI.
van 32" of groter
Dat is omdat een 'normale' monitor op een dermate korte afstand gebruikt wordt dat het onwerkbaar is als die groter wordt dan die 32". Daar is dus nauwelijks een markt voor, dus gaat de prijs flink omhoog.
TV's hebben doorgaans te veel inputlag om fatsoenlijk werkbaar te zijn, zeker met fps-games.

Ik denk dat we met veel tweakers het erover eens zijn dat we graag een basic TV/monitor zouden willen (al dan niet met tuner) met een zo laag mogelijke inputlag, dus geen verdere processing in de TV en zo min mogelijk smart-TV fratsen. Die voeg ik zelf wel toe met Kodi.
Tja daar is het niet helemaal voor bedoelt. Jammer voor die mensen. Of inderdaad een Nvidia kaart halen.
Displayport heeft meer bandbreedte dan HDMI.
Akkoord, maar het ging erom hoe hij het zei. Je ziet wel vaker in reacties dat hoe mensen het zelf gebruiken is dan opeens waarheid. Van Astennu verwacht ik wel anders, daarom dus alleen even trollen... ik kon het niet laten. :P
Hele goede zet van AMD. Gezien de markt waar zij zich met deze kaarten op richten, namelijk gamers zijn met high-end monitoren die allen zijn voorzien van een displayport, is het volkomen onnodig om deze kaarten uit te rusten met hdmi 2.0.

De meeste monitoren zijn met dispayport uitgerust dus daarbij zou 4k-weergave op 60fps met de Radeon R9 Fury X geen probleem zijn, maar recente udhtv's bevatten hiervoor hdmi 2.0, waar de kaart dus niet mee werkt. Wel zijn er verloopstukjes van displayport 1.2a naar hdmi 2.0 op komst.

Ja, natuurlijk was het leuk geweest en mooi meegenomen wanneer deze kaarten het zouden ondersteunen, maar de daarbij komende meerprijs voor het implementeren van dit stukje techniek zitten we dan weer niet allemaal op te wachten. Kortom voor degene die daar baad bij hebben, zij kunnen gebruik maken van een converter ( verloopstuk ).

En wellicht generaliseer ik wel met deze uitspraak, maar wanneer jij een of meerdere van deze kaarten in je systeem stopt, ga je simpelweg niet gamen op een uhdtv met ~ 50 Ms latency.
Dat gaat een duur/onhandig geintje worden met een actieve converter dan. Dit is gewoon een gemiste kans voor een videokaart in deze prijscategorie. Als klant mag je gewoon verwachten goed te zitten als je zoveel geld uitgeeft.
Ik had dan liever gehad dat het gewoon erop zou zitten zonder te kliederen met converters. Er zijn genoeg mensen die een pc aan hun tv hebben hangen (al dan niet als second screen) en daar op gamen of films op kijken. Voor jou misschien onnodig, maar voor een ander kan het een dealbreaker zijn. Ik denk dat er zat mensen zijn die juist gaan gamen op een uhdtv. Niet elke pc gamer kruipt alleen maar achter een bureau meer anno 2015.
Het zal voor AMD niet mogelijk zijn geweest om dit er nog in te bouwen zonder rigoreus aanpassingen te rmoeten maken aan het ontwerp.

[Reactie gewijzigd door sjekneck op 18 juni 2015 12:21]

Als een fabrikant een HDMI connector op zijn product heeft, moet hij daaarvoor licentiekosten betalen. Dit is precies de reden waarom displayport ontwikkelt is, deze biedt vergelijkbare functionalitiet maar zonder licentiekosten. Als deze kaart dus een HDMI zou hebben, betalen all gebruikers daarvoor, ook als je alleen DisplayPort gebruikt. Nu de stabdaardisatie van HDMI ook al begint achter te lopen, zie ik geen bestaansrecht meer voor HDMI.
Als je een videokaart gaat kopen van 500 euro of meer gaat kopen, dan mag je toch aannemen dat de hdmi royalties van minder dan 10 cent per product wel bij de prijs zijn inbegrepen. Aangezien er vrijwel geen tv's zijn met displayport en ze wel vrijwel allemaal hdmi hebben is er bestaansrecht voor HDMI.

[Reactie gewijzigd door sjekneck op 18 juni 2015 16:53]

HDMI is voornamelijk voor TV's. Maar goed, nu zal elke nVidia aanhanger wel gamen via zijn TV. Voorheen heb ik nog nooit zoveel gehoord over de must van de nieuwste HDMI aansluiting. Zal wel komen omdat dit het enige is wat nVidia nu nog beter op orde heeft. Typisch...

Daarnaast kun je nog altijd je 4K TV aansluiten op een Fury X kaart. Alleen heb je dan een maximale beeldverversingssnelheid van 30Hz. Alleen voor gamen is dit een probleem, enfin niet echt een probleem in de praktijk en ze zullen er niet veel verkopen door missen. Films en alle andere media kun je er perfect me naar je TV toveren.

Voor die enkeling die dan toch op een TV wil gamen met 4K@60Hz is er nog altijd de mogelijkheid tot een verloop stekkertje.
converters voor de hdmi1.4 standaard kosten nog geen 6 dollar. hdmi 2.0 kosten nu nog beduidend meer misschien maar zullen straks ook gewoon voor een dergelijk bedrag beschikbaar zijn.

lijkt me dus allemaal niet echt een groot probleem.

edit
heb er 1 gevonden op amazon voor nog geen 12 dollar

http://www.amazon.com/Bel...er-Supports/dp/B001NIEHIO

[Reactie gewijzigd door Countess op 18 juni 2015 12:23]

Ja leuke kabel, totdat je leest dat 80% van de kopers de kabel een 1 of 2 sterren heeft gegeven omdat hij gewoon niet werkt, voor betrouwbare HDMI 2.0 op een DP, ben je gewoon minimaal 75 euro kwijt.
de eerste is ook pas 6 maanden gelden gepresenteerd ze blijven echt niet zo duur.
Een goede actieve HDMI 1.4 kabel kost ook nog steeds 50, ik denk niet dat er binnen kort ook passieve 2.0 kabels komen.

En zelfs 6 maanden is voor veel gebruikers 6 maanden te laat.
Een goede actieve HDMI 1.4 kabel kost ook nog steeds 50,
ze zijn er vanaf 23 dollar

http://plugable.com/products/dp-hdmi

en deze gaat tot QHD@60hz. een 4k hoeft dus echt niet 3 keer zo veel te kosten.

[Reactie gewijzigd door Countess op 18 juni 2015 14:49]

Supports resolutions up to 38402160 (4k) Ultra-HD@30Hz. 25601600 and 25601440 QHD displays supported at 60Hz

In the Bag: 8″/20cm Plugable [m]DP 1.1 to HDMI 1.4 active adapter
Sorry maar je hebt wederom onbruikbare oplossing gevonden. _/-\o_
uhmm dat om een voorbeeld van huidige active adapter voor hdmi 1.4 waarvan jij zei dat ze zeker 50 euro kosten, en dat dat dus voor veel minder kan.

de laatste zin had dat toch geheel duidelijk moeten maken als je goed gelezen had.

des al niet te min de quote toegevoegd om duidelijk te maken waar het om ging.

[Reactie gewijzigd door Countess op 18 juni 2015 14:51]

Een feature niet hebben is een goede zet 8)7

Kom op je zoekt nu gewoon naar redenen voor AMD om het maar weg te laten, het implementeren van HDMI 2.0 ipv 1.4 heeft GEEN ENKEL nadeel
Een feature niet hebben is een goede zet 8)7

Kom op je zoekt nu gewoon naar redenen voor AMD om het maar weg te laten, het implementeren van HDMI 2.0 ipv 1.4 heeft GEEN ENKEL nadeel
Dus, om even een conclusie te trekken uit jouw reactie;
Jij stelt dat het weglaten van een feature waar vooralsnog geen markt voor is maar wel duizenden euro's voor betaald moeten worden om gebruik van te kunnen maken GEEN goede zet is?

Het maken van een goed besluit staat los van het hebben van "GEEN ENKEL nadeel"
Als jij voor jezelf eens na zou gaan;
  • Hoeveel een bedrijf aan royalties betaalt om gebruik te mogen maken van HDMI 1 + 2.
  • Hoe groot de markt is die dusver dagelijks gebruik maakt van hdmi 2.0 ( gebruiken in de zin van 4K a 60 Hz via hdmi. ).*1
  • Hoeveel tv's er 4K ondersteunen ( geen in de pricewatch )*2
  • Hoeveel monitoren er zijn die 4K ondersteunen ( 1 in de pricewatch die vooralsnog niet eens over hmdi 2.0 beschikt zie hier )
Ben je dan nog steeds van mening dat het niet implementeren van, maar wetende dat er verloopstekkers zijn voor, HMDI 2.0 een nadelig effect heeft voor de organisatie?

Het is naef om te denken dat een grote organisatie als AMD daar niet van te voren over nadenkt en dergelijke zaken overweegt. Met oog op de toekomst sluit ik zeker niet uit dat er in latere generaties gebruik zal worden gemaakt van HDMI 2.0. Maar deze kaarten die worden voorzien van DP en HDMI 1.4 voldoen prima voor de huidige markt.

Daarnaast voor degene die claimt een 4K scherm te hebben dat wel beschikt over HDMI 2.0, ik kom graag eens buurten met mijn Titan X 3 SLI setup!

1* Dat er HDMI 2.0 op de schermen zit betekend vooralsnog niet dat je daadwerkelijk gebruik maakt van 4K @ 60hz.
2* HMDI 2.0 uitgeruste schermen hebben dusver een max resolutie van 3840x2160 (Ultra-HD) geen 4096x2160 ( 4K), dus er is voor zover ik weet niet eens een markt voor.

*edit typo*

[Reactie gewijzigd door flsh2pwn op 18 juni 2015 13:26]

Een lange post, maar waarom zit je zo te hameren op het verschil tussen ultra HD en 4K?

Voor 3840x2160 60 hz op een tv is ook hdmi 2 nodig, en 100 tv's in de pricewatch hebben dat, 6 tv's hebben displayport. Met hdmi 1.4 is dat alleen mogelijk met lossy kleurcompressie, je levert flink in op beeldkwaliteit en amd kaarten ondersteunen het ook niet zover ik weet.
27 * UHD schermen die ook daadwerkelijk 60hz ondersteunen.
En het is kortzichtig dat je stelt dat ik daar op zit te hameren.
De essentie van de post is dat het een aantoonbaar kleine markt is en er waarschijnlijk meer achter heeft gescholen dan het simpelweg laten ontbreken van een feature of niet.

Ik hoop dat ik het in dit geval kort genoeg voor je heb gehouden ;)

[Reactie gewijzigd door flsh2pwn op 18 juni 2015 13:51]

Wordt-ie wel goedkoper van. Voor elke feature betaal je.
Het punt is alleen dat het AMD veel minder kost om het toe te voegen dan de eindgebruiker als die een losse adapter moet kopen.
Zo heel duur zal het ook niet zijn, want nVidia levert HDMI 2.0 al wel op hun Maxwell v2 kaarten (ook op een 'simpele' GTX960, het zal dus echt geen tientallen euros aan de prijs toevoegen, als het op een kaart van nog geen 200 euro standaard al zit).
En ja, dat is dus een beetje een jammer puntje dan, als de concurrent het al lang heeft, en jouw nieuwste/duurste kaart nog steeds niet.

[Reactie gewijzigd door Scalibq op 19 juni 2015 09:41]

Als je naar de specs kijkt van Displayport versus HDMi, dan kom je er achter dat Displayport meer te bieden heeft dan HDMI.
Gezien deze kaart i.d.d voor echte High Quality game fanaten is, is het overbodig om met hdmi aan te komen.
Displayport kan veel meer, b.v. met een Displayport aansluiting meerdere monitoren, wat bij HDMI niet kan.

Persoonlijk vind ik DVI-D fijner, om het simpele feit dat het minder -onwettige-copieerbeveiliging (gebruikersbeperkingen) ondersteund.
Waarom zit er dan wel HDMI 1.4 op?

Ik ben het zonder meer met je eens dat DP beter is dan HDMI, maar laat het dan helemaal weg of zet er netjes HDMI 2.0 op.
Omdat de hdmi 1.4 aansluiitng voor de tv gebruikers is, en Displayport voor de quality gamers.
Mogelijk om gezeur te voorkomen, dan men gaat huilen over het feit dat de videokaart niet op hun tv kan . (kopen zonder specs te bekijken)

Ik bedoel, hoeveel gamers hebben een tv thuis met hdmi 2.0 input?
Als men echt kwaliteit wilt gebruikt men Displayport.

[Reactie gewijzigd door 631029 op 18 juni 2015 12:33]

Erm, dit is onzin.
HDMI is backwards compatible: http://www.hdmi.org/manuf...2_0/hdmi_2_0_faq.aspx#121
Op een 2.0-poort kun je ook een TV aansluiten met een lagere versie.
Er is dus geen reden om HDMI 2.0 van de kaart af te laten wegens compatibility.

[Reactie gewijzigd door Scalibq op 19 juni 2015 11:48]

Een goede zet lijkt me toch niet. Uiteindelijk wil je toch over van 1.4 op 2, dus waarom niet nu implementeren? En wat maakt een kleine meerprijs uit op kaarten van ~700 euro?

Die "nano" kaart heeft het dus waarschijnlijk ook niet, en daar had het duidelijk meerwaarde gehad. Er staan maar 6 tv's met displayport in de pricewatch, en 100 met hdmi 2.
Misschien wachten ze tot FreeSync in HDMI is opgenomen :)
nieuws: AMD demonstreert FreeSync-over-hdmi

Of ze hadden FreeSync wel af voor HDMI 1.4, maar niet voor 2.0
En wellicht generaliseer ik wel met deze uitspraak, maar wanneer jij een of meerdere van deze kaarten in je systeem stopt, ga je simpelweg niet gamen op een uhdtv met ~ 50 Ms latency.
Onzin, ik heb speciaal een UHD TV uitgezocht met een redelijke lag van 32ms, en ja shooters zijn niet mijn eerste keuze met een dergelijke lag, maar zijn nog steeds redelijk speelbaar.

Maar games als WoW, Dirt en andere race games zijn wel degelijke goed te spellen, daar die minder last hebben van lag, en ik ben prima tevreden met mijn TV en de GTX 970 SLI opstelling voor gamen en HTPC gebruik.

En als de Nano, die op de Fury X is gebaseerd, uit was op het moment dat mijn kaarten kocht, was het zeker een van de kaarten op mijn lijstje geweest waar ik had naar gekeken met zijn 175W TDP en waarschijnlijk vergelijkbare prestaties als de GTX 980.

Er is imho gewoon iig niet zo 1 2 3 een goede reden te bedenken om het niet aan board te hebben.

En er zijn bv ongeveer 700.000 actieve Kodi gebruikers, en veel daar van maken op het moment de over gang naar 4K, voor hun zijn er 5 nVidia opties, en geen van AMD, zelfs niet in hun nieuwe producten die ene halfjaar later uitkwamen!

Hoewel ik zit te wachten op de Fury X, als een alternatief voor de 980 Ti, vind ik het gebrek aan HDMI 2.0 gewoon een behoorlijke misser.
Goede zet of grote blunder, you decide.

Ze dachten natuurlijk een extra optie uit te melken voor de volgende generatie kaarten maar ze hebben niet goed nagedacht over dat het de huidige lijn verkreupelt.
Tja fabrikanten, houd het dan ook bij zo min mogelijk type poorten. Als DP het al kan, wat is dan de toegevoegde waarde van HDMI 2.0?
Want heel veel verschil behalve de formfactor zal er niet zijn als een verloopje genoeg is.
Klinkt meer als planned obsolescence. En daar zitten we als consumenten niet op te wachten.
Klinkt meer als planned obsolescence.
Hoezo? Als verloopstukjes werken zonder kwaliteitsverlies, dan maakt het niet uit welke fysieke poort met de kaart wordt meegeleverd.
Jawel, want die verloopstukjes kunnen erg duur zijn.
Maar ze kunnen er ook standaard bij zitten en dan zit het in de productprijs. De chip ombouwen voor ondersteuning kan ook erg duur zijn, en anders hadden ze intern een verloopje gemaakt om iedereen tevreden te houden, maar ook dat komt gewoon in de productprijs te zitten en is niet gratis.

Doe mij maar DP ipv HDMI, op die DP port kan ik zelf kiezen waarheen ik het omzet, (VGA/DVI/HDMI1 of 2 of gewoon DP laat)....

[Reactie gewijzigd door watercoolertje op 18 juni 2015 11:42]

Zo'n verloop is meer dan een paar draadjes. Er zijn actieve chips nodig om van DP HDMI 2.0 te kunnen maken. Dat drijft de prijs op en daarmee maakt het wel degelijk uit wat voor poorten de kaart specifiek heeft.
Als DP het al kan, wat is dan de toegevoegde waarde van HDMI 2.0?
HDMI 2.0 is backwards-compatible met HDMI 1.x
Op een TV met HDMI 2.0 kun je je "oude" 1.x apparatuur nog aansluiten.

[Reactie gewijzigd door Zer0 op 18 juni 2015 10:24]

Ze kunnen ook gewoon 1 DP poort maken en de rest HDMI? Ik zie het probleem niet zo. Laten ze scart en overige achterhaalde aansluitingen maar weg.
1 extra DP poort waarop? Op de TV? Maar wat dan als je alles aan wilt sluiten via een reciever, moet daar dan ook weer een extra DP poort ingang op, en wat dan als je twee DP devices aan wilt sluiten? Doe mij maar gewoon HDMI (2) op mijn AV-apparatuur, dat is nu eenmaal de standaard, en voor die enkele DP-only devices gebruik ik dan wel een adapter.
Op dit moment word DP alleen nog maar gebruikt door videokaarten, afaik.
De eerste TV met HDMI had er ook niet gelijk 6 op zitten. Vergeet ook niet dat je voor HDMI altijd extra betaald, aangezien er royalty's voor afgedragen moet worden, itt DP.
Voor HDMI betaal je 1 keer per device, niet per poort, dus zolang je ook backwards compatible wil zijn moet je die royalties toch al betalen. Daarnaast heb je voor een DP poort ook extra hardware nodig in de tv, en die is ook niet gratis.
Ik gebruik al jaren DP (Thunderbolt), maar zie geen enkele meerwaarde in een DP poort op mijn TV. Ik sluit geen externe devices aan op mijn tv, alles gaat via de reciever, en mijn mac sluit ik gewoon aan met een DP-HDMI kabel, daar is geen extra poort voor nodig.
Tja in jouw geval maak je dus sowieso al gebruik van een convertor van DP naar HDMI.
HDMI is een standaard gebruikt voor TV's, DP is er een voor computers. Ik snap de planned obsolescence reactie niet echt.
Los van de 'oplossing' met verloopstekkertjes is het gewoonweg triest dat een kaart van anno 2015 dit nodig heeft...punt.period.
en dat heeft niets met 'onnodige' negativiteit te maken.

Maar we krijgen als consument wat ons toekomt. We slikken maar al te snel dingen die niet goed zijn en er is dan ook vanuit producenten geen noodzaak om het beter te doen.
- gtx970 memory issue: ach we passen de specs aan.
- LCD tv's met clouding en backlight bleed: ach als je tv kijkt zie je dat toch niet (altijd)
- auto's die op papier 1 op 25 rijden maar in praktijk 1 op 15 : moet je maar in een windtunnel gaan rijden met constant 90km/uur.
Je hoeft het niet te slikken, niemand verplicht je om deze videokaart te kopen.
Wat betreft blacklight bleeding is dit inderdaad zoals onder mij al gezegd een eigenschap van LCD en is het dus volstrekt logisch dat goedkopere modellen een lagere kwaliteit en dus meer bleeding hebben.

Voor de auto's melden fabrikanten (al dan niet in de kleine lettertjes) hoe ze die auto hebben getest.

Voor de gtx970 issue geldt dat kopers van voor dat het probleem bekend was inderdaad imho terecht hun geld terug zouden moeten krijgen, nadat het bekend was en de specs aangepast waren geldt wederom dat je zelf verantwoordelijkheid draagt voor wat je koopt, er zijn genoeg producenten die wel aan jouw en mijn eisen voldoen maar ja dan moet je wel bereid zijn wat meer te betalen.

We willen allemaal voor een dubbeltje op de eerste rij, alles moet beter en sneller maar vooral goedkoper, in mijn ogen zijn het niet de producenten die ons rotzooi aansmeren, het zijn de consumenten die van de producenten eisen om goedkope rotzooi te maken.

Wat betreft deze videokaart vind ik het ontbreken van die HDMI 2.0 poort totaal geen probleem, deze kaart is gericht op PC Gaming en dat doet men in het algemeen met een monitor, de hele DP standaard is ontworpen voor (high-end) monitors, ik vind het eerder een ontwerpfout van de TV fabrikanten om uhdtv's zonder dp poort te verkopen, dat zou het ook een stuk makkelijker maken voor opstellingen met meerdere tv's.
jullie missen beide -doelbewust- de strekking : daarom zijn voorbeelden in mails eigenlijk slecht. je kan namelijk voor ieder voorbeeld wel een zooi tegenargumenten verzinnen.

Ik zou zeggen : blijf gerust tevreden met slechte produkten, dan verandert er niets en kan je lekker achteraf alsnog gaan zitten zeuren dat het niet bevalt.
Ik heb het idee dat je eerder de strekking van mijn bericht mist. Ik ontken het bestaan van slechte producten niet maar ze sluiten het bestaan van goede producten niet uit. Er bestaan goede producten maar hier hoor je weinig over omdat ze zoals verwacht functioneren.

Waar ik van overtuigd ben is dat het bestaan van die slechte producten wordt gevoed door de wens voor spotgoedkope producten terwijl we het wel over geavanceerde producten hebben.

Ik ben niet tevreden met slechte producten en dat is precies de reden waarom ik ze niet koop. Zolang mensen zoals jij en ik bereid zijn meer te betalen voor goede producten is er niks aan de hand, we kunnen die "slechte" producten toch negeren?

Als er vervolgens een groep mensen is die wel tevreden is met die "slechte" producten dan mogen zij die toch lekker kopen? Dan is aan het einde iedereen tevreden, eind goed al goed.

Wat jij wil is louter goede producten voor de laagste prijs, en dat is simpelweg niet mogelijk. We moeten als consumenten niet vergeten dat technologische producten nou eenmaal gevoelig zijn voor kwaliteitsverschil. Je kunt nou eenmaal niet verwachten dat een LCD TV van 300 euro net zo goed is al n van 1500 euro en dat is ook niet erg, zolang je dat maar van te voren bedenkt.

Als AMD het ondersteunen van HDMI 2.0 onnodig vindt omdat er al DP op zit dan ben ik dat met ze eens, waarom moet elke kaart volgegooid met aansluitingen die vervolgens nooit worden gebruikt, zonde van de ruimte.
Als het aan mij ligt gaan we naar een situatie waarbij er alleen DP op de videokaarten zit, de fabrikanten kunnen dan verloopstekkers meeleveren/verkopen voor legacy support en voor je het weet is DP de enige standaard en dan is dit hele gezeur opgelost, en AMD neemt hier een eerste stap die kant op.

Ik begreep 15 jaar geleden al niet waarom een monitor een D-sub aansluiting had en een TV scart/av, de uiteindelijke beeldbuis in het scherm is hetzelfde. Hetzelfde geldt voor SPDIF / COAX en nu dus DP/HDMI

Los van de hele "tevreden zijn met slechte producten" discussie zie ik dit niet anders dan een Apple die alleen USB-C op zijn macbook plaatst, het is vervelend in het begin maar iemand moet de knoop doorhakken en standaarden die bij introductie eigenlijk al achterhaald zijn (HDMI 2.0) laten vallen.

HDMI is imho sowieso een draak van een standaard maar daar ga ik maar niet over beginnen want dan wordt dit wel een heel lang verhaal.
Twee van de drie punten die je noemt zijn vrij onzinnig.

Backlight bleeding is nou eenmaal een nadeel van de LCD technologie. Ja het is (nagenoeg) weg te krijgen maar dat kost geld. Dat er bij goedkopere modellen dus wat backlight bleeding is lijkt mij niet zo'n probleem.

Brandstof gebruik dat alleen in een lab te behalen is moet je wetgeving de schuld van geven die het toelaat om in totaal niet realistische omstandigheden te testen. Daarbij kan je als koper in een paar minuten het daadwerkelijke gebruik binnen een paar minuten op internet vinden.

Dat een verloopstekkertje niet de meest handige oplossing is dat ben ik met je eens maar het is nou ook weer niet alsof het een totaal onwerkbaarde oplossing is. Je prikt 1x een verloopstukje van 2cm op je kabel en je hoeft er nooit meer naar om te kijken.
Zou bijvoorbeeld een MSI of EVGA er niet alsnog een hdmi 2.0 op kunnen zetten of is dit onwaarschijnlijk?

Ik heb niet echt een probleem met de aanwezige ports maar op een kaart van dit kaliber verwacht ik eigenlijk OOK een HDMI 2.0 aansluiting.
MSI kan maar EVGA lijkt me sterk, die maken namelijk alleen Nvidia kaarten.
Sapphire wil nog wel eens van dit soort kaartjes maken. Waarschijnlijk maken die gewoon een actieve convertor op het PCB. De FleX series als ik me niet vergis.
is deze info echt zulkse tweakers kop waardig? omdat er nu toevallig native geen hdmi 2.0 opzit....dat is 0.1% van het doelpubliek.... en een convertor is ook geen ramp.
0.1^%... LoL ... vast gedegen marktonderzoek ;) En weer zullen de AMD-fans verontwaardigd zijn waarom NVIDIA zoveel beter verkoopt met licht slechtere prestaties. NVIDIA lijkt sowieso meer feeling met het 'doelpubliek' te hebben. Natuurlijk zijn er ook mensen die het niet kan schelen of het er op zit of niet. Maar ik ben iig oprecht teleurgesteld dat het geen basis feature op de fury is , want dan kunnen we ondersteuning op de 3xx serie helemaal vergeten.
je spreekt hier wel over HDMI 2.0 op een gpu he, 95% van de schermen (buiten DVI dan) zijn DP :) je kan er amper PC schermen vinden met hdmi, en die paar die een TV gebruiken voor gaming zijn amper bezig met 4k60hz... schermen kan je ook op 1 hand tellen

nvidia verkoopt gewoon beter als brand name, altijd al geweest.
'HDMI 2.0 op gpu' wat inhoudt oa hevc 265 en hdcp 2.2. Dat is heel wat meer dan 1 handje. Aangezien de 9xx geforces en nieuwe intel onboard gpu's dat wel hebben een negatief punt en AMD krijgt van mij wederom het handje ;)
haha, kan je nog wat meer gooien met nieuwe termen, het is en blijft een ver weg bed show kom binnen 2-3j nog eens terug, dan heb ik al lang een andere gpu...
ben niet de enige die hier zo over denkt trouwens met de hybrid oplossingen vna nvidia en intel momenteel
http://www.anandtech.com/...4k-era-hdmi-hdcp-and-hevc

trouwens ATI is altijd de eerste geweest met intro van nieuwe en meer connecties, er zal dus wel zeker een reden zijn waarom deze niet....
Ja ik ken wel meer mensen die hun AMD na 2 jaar weggooien ;) En de reden is dat AMD meer in freesync en dp ziet, maar waarom dan niet de nieuwste 1.3???
Edit (ik had net geen tijd om naar de link te kijken): En bedankt voor de link. Hoewel het stuk op verschillende punten suggestief overdreven z'n gelijk probeert te halen was voor mij iig dat intel alleen hybride het ondersteunt niet bekend. Maar om alleen de 960 te noemen vind ik wel een beetje kinderachtig in het stuk aangezien alle 9xx serie kaarten het volledig hardware ondersteunen.
(maar toch geen plusjes vanwege 'het gooien met nieuwe termen' aangezien daadwerkelijk nog even naar gekeken had op oa de wiki wat mensen die DP de hemel inprijzen ook aan te raden vallen gezien de versie verschillen en sommigen hier features van DP 1.3 aanhalen)

[Reactie gewijzigd door AtariXLfanboy op 18 juni 2015 17:19]

Maar om alleen de 960 te noemen vind ik wel een beetje kinderachtig in het stuk aangezien alle 9xx serie kaarten het volledig hardware ondersteunen.
Onjuist

Maxwell heeft op alle kaarten HEVC encoding.
Hiermee kun je gameplay in 4k recorden.
Maar de 960 is de enige kaart die hardwarematig 4k materiaal kan decoden
Ok hier vertel je me iets nieuws, maar ook dat encoding wordt van belang gezien de ontwikkelingen van streaming gamen (hoewel ik eerlijk gezegd toe moet geven niet echt voor mij van belang) Bedankt voor deze informatie , want die was mij ontgaan aangezien ik vooral na de 960 had gekeken en dus onterecht had aangenomen dat de andere duurderen het dan ook wel konden decoden.

[Reactie gewijzigd door AtariXLfanboy op 25 juni 2015 18:12]

Doe mij maar alleen zo'n verloopkabeltje en je kan met een veel goedkopere kaart lekker UHD afspelen van HTPC naar TV.
Als de kaart HEVC ondersteund...
Zoals nieuwe(re) NUC's.
Welke CPUs zit er in die NUC's?
Want voor zover ik weet heeft intel nog geen enkele geintegreerde GPU die HEVC volledig ondersteund (ook de Iris 6200 Pro kunnen dit niet volledig hardwarematig, de CPU neemt nog zeer veel van het werk over).
Ik hoop dat bij Skylake HEVC toegevoegd wordt zodat 4k HTPCs zonder Grafische Kaart mogelijk zijn.
Anders is een GTX 960 nodig.

[Reactie gewijzigd door Clemens123 op 18 juni 2015 15:26]

dit is maar een gedeeltelijke ondersteuning, echte HEVC hardware support is er nog niet. (is al beter als voorheen, maar nog niet ideaal)
Voor desktop gebruik maakt dit toch niet veel uit? Volgens mij hebben alle 4K monitors ook DP
Heb je het artikel gelezen?
De meeste monitoren zijn met dispayport uitgerust dus daarbij zou 4k-weergave op 60fps met de Radeon R9 Fury X geen probleem zijn, maar recente udhtv's bevatten hiervoor hdmi 2.0
Ja ik heb het artikel gelezen, maar het aantal mensen die hun desktop op hun PC op hun TV aansluiten ( laat staan een 4K TV) zal niet veel effect hebben op de verkopen 😜
Daarnaast zullen er wel genoeg custom kaarten uitkomen met HDMI 2.0
Niet zo'n probleem lijkt me, behalve dan dat je naast 500+ Euro ook nog eens eventueel voor een adapter kabel mag lappen.
En erg jammer als je meer 4k schermen aan wilt sluiten dan dat er displayport aansluitingen zijn.
er zitten 4 DP poorten op zover ik kan zien. Dus jij wilt meer dan 4 4K schermen aansluiten?
Ik? Ik hou het bij twee schermen. En ik heb alleen monitors aangesloten, met displayport dus.

Dus zoals ik zeg: "niet zo'n probleem lijkt me."

Behalve als je (je is niet ik) meer 4K schermen aan wilt sluiten dan dat er displaypoorten op zitten, of als je (je Is niet ik) eventueel extra mag lappen voor een verloopje.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True