Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia maakt kijken van uhd-streams Netflix mogelijk met GTX 10-kaarten

Door , 156 reacties

Nvidia heeft drivers vrijgegeven waarmee het mogelijk is om met een GeForce GTX 1050-kaart of hoger Netflix-video in ultra-hd te kunnen bekijken. Het gaat voorlopig om een preview die alleen beschikbaar is voor Windows Insiders.

Tot nu toe is in uhd streamen van Netflix alleen mogelijk in combinatie met een pc die over Intel Kaby Lake-processors beschikt, maar Nvidia breidt dit met previewdrivers uit naar zijn videokaarten. Het systeem moet dan wel over een GTX 1050 of krachtiger kaart van de GTX 10xx-generatie met minimaal 3GB videogeheugen beschikken. Bovendien moet de gebruiker als Windows Insider een test-versie van Microsofts besturingssysteem draaien om de drivers te kunnen ontvangen.

De 4k-weergave werkt ook alleen in combinatie met de Windows-apps van Netflix of als de gebruiker Netflix in de Edge-browser van Windows 10 draait. Daarnaast is er een uhd-monitor nodig die hdcp 2.2 ondersteunt en moet de verbindingssnelheid op 25Mbit/s of hoger liggen. Met de previewdrivers is het nog niet mogelijk om met sli-configuratie in uhd te streamen. Wanneer Nvidia de definitieve drivers vrijgeeft voor de uhd-weergave van Netflix is niet bekend.

Netflix maakt van h265, of hevc, gebruik voor zijn html5-streams via de browser en vereist voor 4k-weergave hdcp 2.2-ondersteuning, waarover Windows 10 beschikt. Om de uhd-streams te ontvangen moet de klant het duurste abonnement van de videodienst afnemen. Er zijn ook veel uhdtv's en blu-rayspelers die Netflix in de hogere resolutie aankunnen, net als de Xbox One S, de Chromecast Ultra en een groeiend aantal settop-boxen van providers.

Door Olaf van Miltenburg

Nieuwscoördinator

01-05-2017 • 12:17

156 Linkedin Google+

Reacties (156)

Wijzig sortering
Waarom zijn er zoveel hardware restricties om 4k af te spelen? Is dit alleen omdat content creators bang zijn dat het geript wordt op de PC? Kan me niet voorstellen dat m'n 4790k geen 4k stream aan kan zij het zonder hardware decoding.
Idd netflix die draconische drm afdwingt.

4K H265 is overigens wel zwaar voor je cpu, ik had op m'n ouwe i5 750 4GHz wat 1080p H265 afgespeeld en dat belastte de cpu al 70%. Al kan het dat vlc toen minder efficient was. Als 4K 4x zo zwaar is zal jouw cpu ook behoorlijk aan het werk moeten.
Het idee achter het nieuwsartikel is dat deze met videokaart kan worden gedecodeerd. De GPU is daar véél beter in dan de CPU. Een tijdje later, als het videoformaat gemeengoed is worden er vaak speciale chips in de CPU gezet die deze encoding dan out of the box kunnen.
Waar heb je het over? Chips in een CPU? ;) Als je bedoelt dat er instructies worden toegevoegd aan de CPU, dan is dat al zo. De nieuwste generatie Intel CPU's hebben al hardware support voor h265 aan boord.
Het is niet zozeer 'speciale instructies' maar gewoon volledige hardwarematige decoding. Vaak een digitaal bouwblokje dat ze erbij slepen.
Het is ook een beetje muggenziften over de definitie van een speciale instructie, maar zoals @Cilph aangeeft, is het echt een specifiek stukje hardware en daar doelde ik op.
Ik denk dat hij doelt op de specificaties van de IGP, dat zijn toch echt aparte units in de package van de CPU (edit: ik zie nu dat die toch op dezelfde die zitten, maar het blijven aparte units van de verschilllende CPUs). Sandy en Ivy bridge hebben bijvoorbeeld geen support voor HEVC decoding, afgezien van domweg de CPU dit laten uitrekenen (zie haarbal's post hierboven).

Je bent wellicht in de war met moderne instructiesets zoals AVX, die weliswaar een hoop helpen maar natuurlijk niet in verhouding staan tot dedicated decoders.

[Reactie gewijzigd door Lekkere Kwal op 1 mei 2017 15:21]

die zijn er al op nvidia maxwell (alleen met GM206) en voor alle kaarten vanaf Pascal

bron: https://developer.nvidia.com/nvidia-video-codec-sdk
Interessant. heb gainward 960oc kaart
Volgens wiki https://en.wikipedia.org/wiki/GeForce_900_series
Moet mijn kaart gm206 hebben. enig idee hoe ik dan kan terug vinden ?
Google even op: gpu-z
Netflix dwingt dat niet af, de content providers doen dat. Netflix moet van de filmuitgevers DRM implementeren, anders willen ze niet dat hun content op Netflix terecht komt.
Netflix dwingt dat niet af, de content providers doen dat. Netflix moet van de filmuitgevers DRM implementeren, anders willen ze niet dat hun content op Netflix terecht komt.
Potato, potato... Netflix is de aanbieder. Netflix wordt betaald. Bij Netflix klagen de klanten. Ook brengen ze hun eigen series uit met DRM.

Bovendien helpt die DRM toch niets. Ook de UHD streams worden geript.
netflix is zelf ook een content creator en heeft er alle baat bij om zijn exclusives als dusdanig te houden, anders zijn ze hun unique selling point kwijt
Komt ook doordat de cpu dan geen hardware decoder heeft. Heeft echt zoveel impact. Ik heb eens een testvideo gedownload 4K H.265. Op mijn overclocked i5 4690k draaide het nét met een cpu gebruik van rond de 80/90%. Op mijn nieuwe dual-core ultrabook i5 draait de video geweldig soepel met maar iets van 10% cpu gebruik. Die heeft wel een ingeboude hevc decoder. Zo raar om te zien, haha. :P
Vanaf Skylake hebben de Intel processors hardwarematige ondersteuning voor HEVC decoding geloof ik. Mijn 7700K @ 5.0 GHz toont 11-12% belasting bij het afspelen van een 10 bit HDR 4K UHD film.
op 60FPS?

wel al 10 bit? Dacht dat nog niet in de skylakes zat maar dat kan ook zo het encoding stuk gedeelte geweest zijn waar nog niet alles in zat.
3D is feitelijk geflopt, dus nu moet alle content 4K (want dan worden er weer tv's/monitoren verkocht) dat is letterlijk de enigste reden, heb jij bijvoorbeeld ooit iemand horen zeggen 'nou ik vind dat HD maar bagger, geef me nog meer pixels', ja oke 4K is nog scherper, maar uiteindelijk is er eigenlijk niemand die daar op zat te wachten toch?

Het is gewoon het zoveelste trucje van de gehele industrie om weer geld te genereren, ik zou zeggen wacht lekker een paar jaar tot 4K of flopt, of gewoon normale prijzen krijgt, je huidige PC kan het in ieder geval gewoon aan.
Maar hdr is daarentegen wel een verbetering. Een zichtbare. 4k is daarbij dan een bijkomend iets. Voor mensen met grote tv's is het dan wel weer een toegevoegde waarde. Dus 4k wegschrijven als overbodig is misschien te makkelijk. Full HD content wordt ook nog wel veel door tv's kunstmatig verscherpt. Dan lijkt het op afstand gedetailleerder dan het is.
En misschien is er ook niks mis met het hebben van grotere tv's met behoud van relatieve scherpte. Dan heb je gewoon meer om naar te kijken. Letterlijk. Meer details die je dan opvallen die in films de ervaring rijker kunnen maken. Zoals wanneer je dichter bij een schilderij gaat staan om de kleine dingen te bestuderen. Tv en film hoeft niet per se iets te blijven wat alleen op afstand en in een totaalplaatje bekeken kan worden. Zo werkt het in een bioscoop eigenlijk ook. Je kunt meer zien.
Hoezo is 3D feitelijk geflopt?

Als het geflopt zou zijn, dan zou je het nergens meer tegenkomen.

Of dit is je mening, of je hebt ergens gelezen dat het geflopt is.

Geef eens bronnen.
Kijk eens bij een doorsnee electronica boer op de site/in de winkel, de paar 3D TV's die ze nog hebben zijn vooral oude modellen, er worden nauwelijks meer nieuwe 3D tv's gemaakt, er word nauwelijks nog nieuwe 3D media gemaakt.

3D is dus in mijn ogen (voor de zoveelste keer) geflopt, anders had het nog steeds in iedere TV gezeten, en waren het merendeel van de recente films in 3D thuis te kijken.

Begrijp me trouwens niet verkeerd, ik heb ook een 3D TV, maar de keren dat ik er 3D content op heb gekeken is op 1 hand te tellen, en dat hoor ik ook van mensen om me heen.

Het enigste wat de 3D TV hype heeft bewerkstelligd is meer interesse in 3D Bioscoop
Het enigste wat de 3D TV hype heeft bewerkstelligd is meer interesse in 3D Bioscoop
En ook daar voegt het in 99 van de 100 gevallen niks toe. De ervaring wordt er eerder slechter door.
Ik vind het nog steeds erg mooi in de bios hoor..

Laatst nog Ghost in the Shell in 3D gekeken, was ook weer erg indrukwekkend en mooi. (Nou heeft Scarlet Johansson natuurlijk wel enkele eigenschappen die in 3D erg goed uitkomen :P). Ik denk dat het in de bios toch wel een blijvertje is, bijna alle grote actiefilms hebben nog wel een 3D optie en die worden ook druk bezocht.

Als het goed gebruikt wordt (op een niet gimmickige manier) voegt het heel erg veel toe. Ik heb Avatar zowel in 3D als in 2D gezien en de 3D was veel indrukwekkender vond ik.

Alleen, voor thuis... Tja. De hardware was duur, niet geweldig van kwaliteit en je had een hoop geklooi met instellingen. Bovendien zijn er weinig computerschermen met 3D, ik kijk bijna alles op mijn computer. In de TV staat een ¤200 40" TV voor de vriendin om de soaps op te kijken.
Bij de meeste films heb je tegenwoordig niet eens een keuze, dus dat die films druk bezocht worden ligt m.i. niet echt aan de toevoeging van 3D. Een 2D versie is gewoon niet beschikbaar dus ja, wat moet je dan? Als 2D er wel is dan ga ik daar zitten, niet de 3D versie. GitS was wel fraai, maar ik had nu niet het gevoel dat het erg leunde op 3D en in 2D was ik er net zo lief voor gaan zitten. Logan was dan weer alleen in 2D en poeh...wat een verademing. Een keer niet met die bril op in de bios. Alles haarscherp en goed te zien in plaats van de vage blurry troep die "3D" moeten voorstellen. Ik vindt het geen succes, en daar waar het wel een zichtbaar effect geeft voegt het slechts zeer zelden iets toe, meestal is het een geforceerd "kijk, we doen ook 3D!" scene. De openingsscene van Guardians of the Galaxy Vol 2 is wel leuk gemaakt bijvoorbeeld, maar voegt het iets toe behalve veel moeite om te focus te houden? In de rest van de film is het me niet eens opgevallen. Films met 3D die ik heb gezien (en dat zijn er nogal wat) die ook de moeite waard zijn in 3D zijn op één hand te tellen. Op zich is het natuurlijk wel bijzonder dat een van de betere waar het is toegepast (jou Avatar) ook één van de eerste is geweest, en dat alles wat erna kwam vooral veel "meh" was.
Mee eens. Als brildrager met een kunstlens in een van m'n ogen zie ik het beeld nooit scherp, een probleem dat ik bij 2D niet heb.
Daar kun je je nog in vergissen, Full HD softwarematig decoderen had ook nog relatief veel processing power nodig. Ik meen me te herinneren dat je toch wel een 2.5GHz Core 2 Duo nodig had toentertijd om (bijna) alle content vloeiend af te spelen. 4K is 4 keer zo veel pixels, dus wel een flinke stap bij softwarematige decoding.

Het ligt aan meerdere dingen, bitrate, compressie, en implementatie (multithreading bv) of dat je processor het gaat trekken of niet.
Maar waarom zou je softwarematig decoderen? Dat dat duur is snap ik ook wel maar als je een beetje courante hardware hebt dat toegespitst is op multimediagebruik kan dat spulletje gewoon hardwarematig geaccelereerd worden en dan lukt 4k playback prima hoor.

Die gekke hardware eisen van nu zijn puur en alleen voor de DRM. Het is eigenlijk te absurd voor woorden dat ze dat überhaupt mogen. Gewoon een stukje planmatig ouderdom, vinden die hardwareboeren natuurlijk fantastisch al die filmhobbyisten die nu weer in nieuwe hardware gaan investeren terwijl dat eigenlijk helemaal niet nodig is.

[Reactie gewijzigd door Ton Deuse op 1 mei 2017 13:22]

Je hebt gelijk hoor. Hardwarematige support heeft niet heel veel meer met de echte hardware prestaties te maken. Het is eerder een strategische keuze van de fabrikant om deze wel of niet te implementeren. Waarnaast ook nog eens een besturingssysteem, drivers én de contentprovider ondersteuning moet leveren.
Want laten we duidelijk zijn. De 900 serie van Nvidia ondersteunt ook hevc (dacht ik). Dit is gewoon een manier om mensen te pushen naar de nieuwere lijn. Terwijl een 980ti hetzelfde presteert als een 1070.

Het is echt een beetje te triest voor woorden hoe drm de visie van contentproviders verblindt. Is hetzelfde principe als die muur die Trump zo graag wilt bouwen. Of de kast met snoepjes afsluiten. Of van je partner verwachten dat je elkaars inloggegevens geeft.

[Reactie gewijzigd door TJRef op 1 mei 2017 16:33]

Dit boardje wat ik heb speelt moeiteloos 4k (@ 60Hz) af: pricewatch: ASRock J3455-ITX
HDMI 2.0, H256, HEVC 10-bit Decoding. Kostte een tijdje terug slechts 80 euro.

Dit is inderdaad alleen Netflix die zo moeilijk doet met zijn 4k streams. En inderdaad alleen vanwege DRM. Eerst kon dat alleen met HDMI 2.0 en een Kaby Lake processor onder Windows 10. Nou ja, dan maar geen 4k stream.

Een Kaby Lake HDMI 2.0 boardje is helaas niet te betalen (vanaf 200 euro voor een mini-itx), of je moet gaan werken met displayport en een adapter naar HDMI 2.0 (van Club 3D voor 30 eruro), maar dan kon je alleen geen 4k Netflix streams afspelen. Wel gewoon al het andere 4k @ 60Hz.

Zelf vind ik streaming er slechter uitzien dan een 1080p rip, dus ik vind het allemaal wel best, ik heb zelf gewoon dat goedkope J3455 bordje genomen en speel dus 4k @ 60Hz probleemloos af. Alleen geen Netflix streams dus. :)

[Reactie gewijzigd door Slingeraap2 op 1 mei 2017 15:17]

Wel grappig want ik heb een smart tv waarbij de hardware niet in de buurt komt maar die speelt netflix makkelijk af met 4k. Bizar deze restricties zeg
Je smart TV heeft waarschijnlijk geen Intel maar een Arm gebaseerde processor. Deze hebben in veel gevallen hardware acceleratie voor zaken als x265.
Ja maar het is niet de calculatie kracht maar puur hardware matige restrictie dus
Mja, restrictie of gebrek aan acceleratie voor een specifieke bewerking die normaliter veel rauwe cpu-cycli kost... Ook voor ARM SoC's is hardware acceleration nog relatief recent toegevoegd en er zijn ongetwijfeld telefoons en smart-tvs van nog geen 2 jaar oud die er moeite mee zullen hebben (zonder die "extra" hardware acceleratie)
Is inderdaad puur voor een nieuwe generatie end-to-end DRM. Vandaar de redelijk strenge maatregelen. De meeste 4K TV's hebben Netflix 4K-support ingebouwd, dus Netflix komt er nog mee weg om het op PC "moeilijk" te maken. 4K monitors zijn veel zeldzamer dan 4K TV's
Ik vind het ook sneu. De legaal betalende gebruiker zit met omhoog met z'n ondersteuning van z'n nieuwe scherm, terwijl de piraat het toch wel geript krijgt. Zolang het af te spelen is kun je het gewoon onderscheppen lijkt me.

//edit
Wel hulde voor nVidia trouwens!

[Reactie gewijzigd door necessaryevil op 1 mei 2017 13:04]

Ja HDCP 2.2 is gewoon DRM- alsof de vorige versies iets gedaan hebben aan het voorkomen van piracy. 8)7
En het is al gekraakt met de HDFury. Al je apparatuur moet compatible zijn en laat dat nou best wel eens voor problemen zorgen. Als er ook maar één kink in de keten is, doen ze het al niet. Met de HDFury heb je als installateur ook die problemen getackled.

De contentindustrie heeft wat dat betreft niet veel geleerd. Vrijwel elk systeem is te kraken alhoewel Sony het met de PS3 erg moeilijk heeft gemaakt. En wat als het niet kan? Dan kan je altijd nog een soort van analoge kopie op een goed (OLED) scherm maken. Piraten vinden altijd een manier.

Ik ga liever voor gemak. Ben benieuwd of de KPN dat met 4K TV ook afdwingt.
Zonder hardware-ondersteuning is het niet mogelijk. Beeldmateriaal van 1080p@24Hz met HEVC levert al problemen op, 4K is niet te doen.
Als het geluid niet synchroon loopt, dan heeft je hardware er al moeite mee.
Jammer genoeg zijn de videokaarten die het wel aankunnen nog behoorlijk duur.
Als ze nou ook een meer 21:9 gaan ondersteunen... Werkelijk waardeloos om native 21:9 films met grote zwarte randen volledig rondom te hebben. Vul dat scherm gewoon lekker..
Er zijn verschillende Chrome extensions die dit omzeilen door de content een klein beetje te upscalen.
het probleem is als je netflix via chrome kijkt je enkel in 720p kan kijken
Dat is geen oplossing (vanuit Netflix) maar een workaround (vanuit de eindgebruikers).
Volslagen onzin dat eindgebruikers op deze manier Netflix 'bruikbaar' moeten maken voor gebruik icm 21:9 schermen... vooral gezien 21:9 schermen steeds meer en meer gemeengoed beginnen te worden.
21:9 steeds meer gemeengoed? Binnen jouw filterbubbel zeker. :+
Pricewatch monitoren gesorteerd (standaard) op meest bekeken vermeld toch echt 3x een 21:9 paneel in de top 10... dus ja dat zou ik zeker aanschrijven als steeds meer gemeengoed.

Uiteraard is alles relatief en Tweakers pricewatch is geen goede indicatie van alle computergebruikers (van netflix) en al helemaal geen representatieve weergave van álle Netflix gebruikers gezien een absurde meerderheid netflix op hun TV of smartphone/tablet gebruikt en het percentage gebruikers van netflix welke een computer+monitor gebruiken voor netflix 'verwaarloosbaar' relevant is.

Met het oog op robuustheid en flexibiliteit (16:9 is ook niet altijd de standaard beeldverhouding voor TV's noch smartphones geweest) en de snelle ontwikkelingen en veranderingen op tv/smartphone/tablet/pc gebied zou het voor een bedrijf als Netflix niet extreem raar zijn om te verwachten dat ze hun platform zo vormgeven dat deze flexibel en schaalbaar is ongeacht de schermverhouding van het weergaveapparaat. We hebben het hier niet over super ingewikkelde dingen, gewoon software/playermatige letterboxing capaciteit en evt. aspect ratio scaling zodat alle content gewoon in haar native resolutie naar de klant gestreamed kan worden en niet alles 16:9 aangeboden hoeft te worden. Ik vind het absurd om oude 4:3 content op netflix te kijken met letterboxing naar 16:9 en films van 21:9 ook geletterboxed naar 16:9 in de stream zelf.
ultrawide schermen zijn in het afgelopen jaar flink gezakt in prijs en er zijn veel betaalbare nieuwe monitoren bijgekomen. Dusja, het is nog niet standaard maar de verkoop zit flink in de lift.
Binnen jouw filterbubbel zeker niet. :)
Ultra-Wide Video is mijn favoriete plug-in, na het uitproberen van een aantal plug-ins. Kan met ctrl+alt+c de video automatisch bijsnijden en switchen tussen 16:9 en 21:9.
En lekker het Google data sleepnet nog wat spekken, dacht het niet.
Sowieso is dat geen oplossing, maar symptoombestrijding.
Ik denk dat het voor Netflix totaal niet interessant is om dat te doen. Ik dat meer dan 80% van de gebruikers Netflix op een TV of ander apparaat kijkt dat geen 21:9 verhouding heeft maar 16:9 of 16:10, of zelfs 4:3.

Wat is dan je doelgroep voor 21:9? TV's waren geen succes dus dan blijft de kleine groep met een 21:9 monitor over, en misschien nog de verdwaalde telefoon.
Het mooie is dat Netflix geen statistieken hoeft te verzinnen, maar deze al beschikbaar heeft.
Blijkbaar is de groep 21:9 kijkers zodanig klein dat hier nog geen prioriteit aangegeven is.
Van de andere kant: hoe moeilijk kan het nou zijn om 21:9 te supporten? Dat materiaal wordt in dat formaat op Netflix gezet (een uitgever gaat geen 21:9-materiaal aanleveren in 16:9 met zwarte balken). Daarbij ondersteunt praktisch ieder populair platform het. Of je nou Facebook neemt, Youtube of Vimeo, allemaal ondersteunen ze prima 21:9. En Windows Media Player, Media Player Classic en VLC ondersteunen het ook. Wat ik me afvraag is hoe het werkt op een 21:9 TV met een Netflix-app op een settopbox van KPN of Ziggo. Is het dan nog steeds met zwarte balken?
Voor gaming zijn er hele communities die 21:9 en triple monitor setups proberen te ondersteunen, kijk bijvoorbeeld naar flawless wide-screen. Ik betwijfel niet dat het een minderheid is, maar maakt dat dat we als een achtergestelde minderheid behandeld mogen worden? Hoop het niet zeg.
Waarom niet? Netflix is toch geen liefdadigheid instelling? Als er markt voor is komt het wel, als die markt dusdanig klein is dat het alleen maar geld kost dan komt het niet.

Ze zijn nu in 4K en HDR aan het investeren, dus daar zien ze markt in.
Als nu iedereen met een PC een 21:9 setup had zou het vast interessanter zijn.
In andere landen supporten ze al 21:9....
Wat is dan je doelgroep voor 21:9? TV's waren geen succes [...]
Ik dacht juist dat 21:9 meer en meer in opkomst was, hoe kom je erbij dat dit niet zo is?
Volgens mij moet je ook nog het duurste netflix abbo hebben
Dat is nou niet echt significant, waarschijnlijk heb je al het abonnement van 9,99 per maand voor HD content. Als je dan het duurste van 11,99 moet hebben voor 4k is dat een verhoging van ¤24 per jaar. Dat valt toch in het niet vergeleken met de aanschaf van een 4k scherm.
En meteen 4 gelijktijdige gebruikers ipv 2 :)
Dat is correct, anders is 4K per definitie niet beschikbaar voor je.
Deze mogelijkheid zal toch niet alleen aan de kant van nVidia vandaan komen? Netflix en Microsoft zullen toch ook wel hun bijdrage daaraan hebben geleverd? Nu AMD nog en dan is Kaby Lake only n.v.t. meer wat eigenlijk niet meer dan logisch is.
Hangt ervan af hoe Netflix het toegevoegd heeft, als ze naar capabilities kijken van de hardware en niet naar de naam/model nummer, kan nvidia het gewoon zelf aan hun drivers toevoegen.
In dit artikel wordt er gesproken over nVidia en Netflix, en normaal gesproken moet Netflix hardware certificeren om dat 4k afspelen mogelijk te maken.

http://www.anandtech.com/...ix-4k-pc-preview-launched

Enige beperking is er blijkbaar ook nog voor het afspelen in 4k.

In any case, for the moment NVIDIA is calling this a preview, presumably due to the Insider OS requirements. Despite this qualifier, 4K Netflix support should fully work on all Pascal GPUs with 3GB or more of VRAM, though this means that 2GB GTX 1050 cards are oddly excluded. NVIDIA does note however that support isn’t currently working with SLI configurations, and in that scenario the video cards need to be unlinked first. NVIDIA has also posted a helpful chart on HDCP 2.2 compliance, noting that 4K support is only available when all active displays support HDCP 2.2; any active HDCP 1.x displays will limit the stream quality to 1080p.

[Reactie gewijzigd door hardware-lover op 1 mei 2017 13:29]

Dus als ik 4K HDCP 2.2 main monitor heb en HDCP1.X 1080p tweede monitor, kan ik alleen 1080p kijken?

Toch niet meer van de tijd dit sort limitaties. Ze weten toch als het beeld op volledig op de 4k monitor is..

[Reactie gewijzigd door jerkitout op 1 mei 2017 15:06]

Sterker nog: als jij een prachtige 4K tv aan de muur hebt (met HDCP 2.2, er zijn er een paar die dat niet hebben), maar je koppelt je HDMI 2.0 kabel aan een device dat zelf toevallig geen HDCP 2.2 ondersteund (bijvoorbeeld Receiver of simpele audio splitter), dan speelt er helemaal niets af op je TV.

En inderdaad, vrijwel geen receivers hadden en hebben HDCP 2.2 ondersteuning. Het is iets wat niet software matig kan worden toegevoegd, dus je hebt niets aan die apparatuur voor je 4K beelden.

(Hoewel, er is een hele dure splitter die een HDCP 2.2 kan 'faken' voor je randapparatuur).
Alle Denon receivers since modeljaar 2016 hebben HDCP 2.2. En de reden dat oudere receivers het niet hebben is omdat de Blu-ray spec voor 4k nog niet klaar was toen de 2015 modellen uitkwamen. Hetzelfde geldt ook voor Yamaha, Marantz en Onkyo.

Feitelijk is de 4k spec pas klaar sinds de zomer van 2015. Daarvoor werden er wel 4k TV's verkocht, maar dat was zonder duidelijke standaard.
Zelfs van iets vroeger al, mijn Denon AVR X1200W (2015) heeft tot mijn verbazing al HDCP2.2
Je hebt gelijk. Ik zit er een jaar naast.
Met receivers kan je vaak ook nog het audiokanaal via de TV doorsturen naar de receiver. De TV wordt dan je selectieapparaat en je receiver hoeft alleen nog maar aan of uit.

Dat vrijwel geen receivers HDCP 2.2 hebben klopt niet meer. Ik denk dat er een 20-30 dat wel hebben. Je kan er binnen tweakers pricewatch alleen niet op selecteren maar alles vanaf 2016 is een goede gok. En daar zitten de nieuwste receivers van Anthem en Arcam nog niet bij, alhoewel die maar voor een beperkte groep liefhebbers is.
Maar dat audiokanaal dat doorgestuurd word via de tv is max 5.1 dolby digital of dts. De lossles formaten en Atmos worden niet doorgestuurd, dus je mist alsnog een voordeel dat de nieuwe formaten geven.

Ze schieten zichzelf in de voet met dit soort vooruitgang beperkende drm.
Hoeveel mensen hebben 7.1 en hoger thuis staan? Ik denk dat die ook een fatsoenlijke receiver hebben die hdcp 2.2 ondersteunt. En zeker met Dolby Atmos, dat is zulke nieuwe technologie, dan is de kans erg groot dat je een receiver van na 2016 hebt.
Een mooi opstapje om UHD streaming boxen te verkopen, gesponsord door Nvidia zo te zien.
Doen ze al. Het apparaat heet Shield TV en speelt Netflix, Youtube en Google Play Movies op 4K af.
Ah, dan snap ik even niet wat het nut is van dit alles. Voor mensen met een desktop, want die markt is zo groot?
Of is dit een 'nieuwsbericht' om mensen lekker te maken voor laptops met een 1050+ erin? Flinke winstmarge's op dergelijke laptops.. dat zal het zijn dan.
Dit maakt het voor pc's en laptops mogelijk om 4K materiaal af te spelen van Netflix. Het is in toenemende mate normaal voor mensen om 4K materiaal op hun pc af te spelen, de monitoren ervoor worden steeds goedkoper en de toegenomen rekenkracht van de videokaarten zorgt ervoor dat gamen in 4K ook steeds beter gaat. Die markt groeit dus ook enorm.

Het is dus geen cynische graaiactie maar simpelweg het mogelijk maken van het afspelen van Netflix op hoge kwaliteit, op hun voorwaarden. Dit is bij oudere videokaarten om een aantal technische en copyrightrechtelijke redenen niet mogelijk.
Die markt groeit dus ook enorm.
Maar die was zo klein dat elke vorm van groei al snel 'enorm' is. Dan heb ik het wel specifiek over de desktop markt, maar jij ook zo te zien.

Betwijfel eerlijk gezegd of die markt daadwerkelijk interessant is, ongeacht groei. Het lijkt me dat dit voornamelijk een laptop dingetje is.

Deze laptops zijn nu een stuk interessanter:
categorie: Laptops
En deze een stuk minder:
categorie: Laptops
De oude generatie is nog te populair lijkt me, je gaat mij niet vertellen dat een 950m tot 980m niet in staat is UHD netflix te streamen. Die doen ook prima x265 toch?
Dit is een mooi excuus de aanzienlijk prijzigere laptops aan de man te brengen. Heel wat fabrikanten die daar profijt van hebben.

[Reactie gewijzigd door echtwaarisdatzo op 2 mei 2017 00:06]

En ook nog eens op 60hz IPV die bagger 30hz boxen.
Leuk voor mensen die AMD CPU's gebruiken zou ik zeggen.
Vooral leuk voor de mensen die AMD cpu's icm een AMD GPU gebruiken.

En als NVidia het met een driver update kan oplossen dan zou AMD dat ook moeten kunnen lijkt mij.
Netflix moet het ook toestaan. De HDCP beveiliging moet gegarandeerd zijn.
Dus wat let AMD om dat mogelijk te maken? Het enige wat een probleem zou kunnen zijn is de hardware, maar volgens mij ondersteunen zowel de laatste GPU's als CPU's HDCP2.2.

Ik denk niet dat Netflix minder afzet voor 4K wil hebben dus als AMD het wil komt het er denk ik ook wel.
Dat is het 'm ook. AMD moet er wat voor doen, en Netflix moet dat akkoord bevinden. NVidia is daar nu als eerste mee.

Als dit allemaal zomaar aangesloten kon worden, hadden we nu al hele volksstammen met een raspberry PI achter de TV voor Netflix. Op dit moment is het vooral "illegale" content die je via de RbPI kunt bekijken via Exodus.

[Reactie gewijzigd door Fairy op 1 mei 2017 13:07]

Hetzelfde kan ook met een NVidia Shield TV. 50 euro duurder maar wel 4K en Netflix en Amazon. En dan heb je ook nog eens gebruiksgemak.

Het gaat dan wat wil je verder want alleen voor Netflix is én een PC én een dure videokaart best een dure oplossing. Als je op een PC wilt werken is de Intel Kaby Lake voldoende. Dat is weer veel goedkoper.
Of Skylake/oudere Intel CPU's.
Alleen minder leuk voor mensen met een oudere intel processor met AMD GPU
en voor alle mensen die niet Windows gebruiken
Als je een AMD CPU hebt met een Nvidia 10xx kaart is het toch goed, of lees ik ergens overheen dat je perse een Intel CPU moet hebben?
Ja dat dacht ik ook al, dat het fijn is voor die gebruikers dat die functies niet meer afhankeleijk zijn van jouw CPU. alhoewel Nvidia 10xx kaarten een stuk duurder kunnen zijn dan de AMD variant, als je er toch een hebt is het topnieuws.
Dan ben je wel weer ¤150 kwijt voor een videokaart om te kunnen streamen van 4k content, de RX 460 kan ook 4k afspelen werkt dit dan niet met netflix?
Is trouwens alle content van Netflix ook beschikbaar in 4K of is dit ook nog enkel beperkt?
Waar haal je die 150 vandaan? Een 1050 kost nu al minder dan 120, en de aanstaande 1030 zal nog minder kosten dan dat, wat niet enorm ver is van een Chromecast Ultra. Dit is (aanzienlijk) minder geld dan je CPU+RAM te moeten upgraden (als CPU+RAM nog voldoende zijn op gebied van prestaties, maar simpelweg de nieuwste DRM en video standaarden niet ondersteunen).
Je hebt minstens 3gb vram nodig en een gtx 1050 is het minimum. Een 1050 ti is de goedkoopste kaart (op een laptop 1050 na) die je zou kunnen gebruiken en die kost minstens ¤150.
1030 wordt hem niet.
Het systeem moet dan wel over een GTX 1050 of krachtiger kaart van de GTX 10xx-generatie met minimaal 3GB videogeheugen beschikken.
Het is heel goed mogelijk dat ook de 1030 gebruikt kan worden, nvidia kan echter moeilijk een vermelding maken van een GPU die officieel nog niet bestaat.
Als AMD zijn drivers zal certificeren voor Netflix (door Netflix) zal dit waarschijnlijk geen issue zijn. Moeten ze alleen die stap wel nemen. Dit zie je ook bij veel Mediaplayers, een door Netflix gecertificeerde speler als de Nvidia Shield heeft netjes ondersteuning voor 4K en HDR, een niet gecertificeerde chinese player zal gelocked zijn op 480p.

Uiteraard is niet alle content van Netflix in 4K beschikbaar, dit zal namelijk ook liggen aan hoe Netflix de content krijgt aangeleverd van de content eigenaren. Als die geen 4K aanleveren, zal Netflix dat ook niet kunnen leveren.
Eigenlijk voldoet een Kaby Lake Pentium G4560 ook prima, die kost zo'n ¤60,-. Dus als het enkel om het streamen van 4k Netflix zou gaan dan kan het ook aanzienlijk voordeliger.
De 1030 zal is waarschijnlijk ook wel gaan ondersteunen, maar die is officieel nog niet uit en daarom zeggen ze daar dus ook nog niets over.
Zou ik zo zeker nog niet van zijn; NV geeft een minimumvereiste op van 3GB VRAM, waarmee zelfs de GTX 1050 2 GB al uitgesloten wordt. Zou eerder opmerkelijk zijn als de 1030 dan wel ondersteund zou worden.
Aan de andere kant, wel een gemiste kans als dat zo blijkt inderdaad.
Om de uhd-streams te ontvangen moet de klant het duurste abonnement van de videodienst afnemen.
Klopt dit wel? Volgens mij kunnen bestaande abbonees die voor oktober 2014 een Netflix abbonement hebben afgesloten gewoon UHD kijken op hun 9.99 EUR abbonement.

Edit: Ik hoop overigens dat wanneer de officiele drivers uitkomen er ook support is voor de 1030 GTX die net geleaked is. Dat is namelijk toch een dGPU die mensen gaan aanschaffen voor een HTPC of ander streaming setup.

[Reactie gewijzigd door Tim2010 op 1 mei 2017 12:28]

En alle macOs en Linux-gebruikers worden zonder pardon aan de kant geschoven?
Volgens mij wil het op Safari nog wel naar 1080p gaan. Linux kan de bietenbrug op.

[Reactie gewijzigd door pasarica op 1 mei 2017 19:13]

Gewoon op herhaling, in het begin hadden we hetzelfde met het kunnen afspelen van HD materiaal en H264. Tegenwoordig is dit standaard en kan ieder apparaat dit, maar de tijd dat je nog een high end videokaart nodig was kan ik me nog goed herinneren.

Over 1 a 2 jaar zal ook H265 net zo normaal zijn als H264 en HD nu.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*