Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 189 reacties

Sharp heeft de eerste 8k-tv op de markt gebracht. Het gebeurde nog niet eerder dat een fabrikant een tv met zo'n hoge resolutie uitbracht. De televisie is dan ook niet goedkoop. Hij moet 16 miljoen yen opbrengen, omgerekend bijna 120.000 euro.

De televisie heeft een diagonaal van 85" en een resolutie van 7640x4320. Daarmee heeft de display 104 pixels per inch, veel hoger dan veel andere tv's. De pixeldichtheid is ongeveer hetzelfde als bij een 42"-tv met 4k-resolutie. Het aantal pixels ligt vier keer hoger dan bij 4k-tv's en zestien keer hoger dan bij een fullhd-variant.

De helderheid van de display komt tot 1000 cd/m2, meldt AVWatch. Het aansturen van het beeld verloopt via vier hdmi-kabels, hoewel in de toekomst er aansluitingen moeten zijn die met een kabel 8k-beelden kunnen aansturen.

Het is de eerste 8k-tv die op de markt verschijnt, hoewel meerdere fabrikanten op beurzen prototypes hebben laten zien van zulke displays. Sharp toonde zelf een prototype in januari 2011. Er is ook nauwelijks iets te kijken op volle resolutie, omdat veel content, zoals films en series, online komen of uitgezonden worden op maximaal 4k. De 8k-televisie lijkt daarom vooral bedoeld voor bedrijven.

Het is onbekend of fabrikanten werken aan 8k-televisies voor thuis. Dergelijke resoluties lijken in de huiskamer overbodig en fabrikanten lijken zich vooral te richten op het verbeteren van beeld door bijvoorbeeld hdr.

Sharp 8k-tvSharp 8k-tv

Moderatie-faq Wijzig weergave

Reacties (189)

Wat ik dan niet begrijp; er wordt gesteld dat er nog geen kabels zijn die 8K kunnen aansturen. Dat klopt want de maximale spec van HDMI2.0 staat op dit moment op 4096×2160p/60 Hz.

Wat me dan wel opvalt is dat dezelfde spec het heeft over maximale doorvoer van 18Gbit incl 10-bit overhead; dat ligt aanzienlijk hoger dan de recente ontwikkelingen waarbij 4K-films op een 100GB-disc worden gedrukt. Zelfs bij lineair doorrekenen, heb je maar 400GB nodig voor een 8K-film en blijven we steken op een doorvoer van grofweg 55Mbit (bij een speeltijd van 2 uur).

Mis ik nu iets in de correlatie doorvoer vs. resolutie of zijn er personen in het HDMI-consortium die links heel erg vooruit lopen en rechts echt achterblijven?
Je mist het feit dat er ruwe beelddata over een HDMI kabel gaat en geen gecomprimeerde video.
Het videobestand wordt 'uitgepakt' door de speler door daar een berg rekenkracht tegenaan te gooien (die vaak, en zeker in dit geval, niet in het scherm zit)
Het resultaat van vertaalslag van video-bestand naar ruwe beelddata is een stroom aan gevevens waarin voor ieder frame en iedere pixel afzonderlijk de kleurinformatie wordt doorgegeven.
Je praat dan over vele Gigabits aan data per seconde. Die kunnen vrij 'eenvoudig' door het beeldscherm op het paneel 'getekend' worden.
(kort door de bocht, want zo'n scherm heeft er zijn handen vol aan, zeker als er ook nog interne kleurtabellen geraadpleegd en backlight/kleurcorrecties toegepast moeten worden.)

[Reactie gewijzigd door NovapaX op 16 september 2015 09:35]

Overigens kan Displayport 1.4a gewoon prima 4:4:4 8K 60hz aansturen, wordt eens tijd dat we van HDMI afstappen ;)

Hopelijk zien we eind volgende jaar videokaarten met Displayport 1.4a in Pascal/Artic Island videokaarten
https://en.wikipedia.org/wiki/DisplayPort

ondersteunt 8k. hdmi is niet de enige aansluiting.
al heb ik nog geen gpu gevonden die wel 8k aan kan. en ook geen content.

Daarbij nog melden dat DP royalty free is. en hdmi 4 cent per pop.

en zover ik weet kan dp ook audio versturen dus dat kan ook geen reden zijn.

[Reactie gewijzigd door loki504 op 16 september 2015 10:32]

Ik snap niet dat HDMI zo veel gebruikt wordt. Ik vind DP echt veel beter.
Ik gebruik het al een jaar of 6 (mijn Dell 3008WFP had het al)

Allemaal rare beeld scaling problemen dat je rand compensatie moet toepassen heb je met DP niet en met HDMI helaas regelmatig.

Daarnaast kan HDMI pas sinds 2.0 4K met een kabel. DP kan dit al veel langer.

Er zal vast een goede rede zijn waarom er bij TV's en receivers zo veel HDMI gebruikt wordt maar wat mij betreft gaan ze snel over naar displayport.
HDMI bevat ook audio en ethernet, en DP volgens mij niet, toch?
DP kan sowieso Audio.
En weet je zeker dat HDMI ook netwerk doet? Ik dacht dat het alleen Audio en beeld was.
Ok thanks, daar was ik niet van op de hoogte! In dat geval is het inderdaad een beetje vreemd dat HDMI nog zo alomtegenwoordig is, terwijl DP nog lang niet op alle apparaten zit..
ARC is wel handig icm bijvoorbeeld een settopbox van de digitale TV, Dan hoef je geen aparte optische/coaxkabel te gebruiken voor de audio, of op je receiver weer een beeld (hdmi) en audio (optisch) poort te koppelen.
Je hebt ethernet over HDMI :) Geen idee wat je ermee moet though

[Reactie gewijzigd door Gamebuster op 16 september 2015 13:47]

Je AV-receiver op je netwerk aansluiten en je smart-tv via HDMI ook van internet voorzien, bijvoorbeeld :) Scheelt weer een netwerkkabeltje naar je tv.

[Reactie gewijzigd door Grrrrrene op 16 september 2015 18:37]

HDMI heeft vanaf versie 1.4 een ethernetkanaal. Echter wordt dat in de praktijk zelden tot nooit gebriukt.

Verder heeft HDMI functies als HDMI CEC (vanaf HDMI 1.3) en een Audio Return Channel (HDMI 1.4) wat Display Port niet heeft. Waar ik overigens van mening over ben dat dergelijke functies leuk zijn (mits ze überhaupt werken), maar zeker niet doorslaggevend om de discussie HDMI vs Display Port te winnen.
HDMI1.4 ondersteunt ook 4K. Al is dat op maximaal 30fps. Prima voor de films en series maar niet geschikt voor gaming.
Waarschijnlijk hdcp codering? Of gaat die softwarematig ook over displayport?
Displayport heeft ook HDCP.
Displayport 1.3 heeft HDMI 2.0 compatibility mode met HDCP 2.2 support.
Display port vs High Definition Media Interface. Display port kan alleen video (en audio dan) versturen waar HDMI ook audio terug kan sturen, een ethernetkanaal heeft (weinig gebruikt) en IR commando's kan terugsturen naar een decoder (veel gebruikt met bijvoorbeeld een rpi2 en kodi) Zelf heb ik deze functies nooit gebruikt, maar hdmi is wat veelzijdiger, en beter geintergreerd dan displayport. Langzaam komt displayport echter wel op gezien de vele male hogere bitrates die mogelijk zijn, vooral in bedrijven (Waar dit scherm ook op gericht is, welkomst scherm met super scherpe video anyone?), hdmi is meer op thuisgebruik bedoeld waar zo min mogelijk kabels achter het meubel moeten hangen :p
"royalty-free" is een beetje een misleidende term: DP gebruiken is helaas helemaal niet gratis. Er is namelijk heel wat IP van bedrijven dat gebruikt wordt in de DP technologie. Je hebt als bedrijf dus een licentie nodig op die IP om DP te kunnen toepassen.

Deze licenties werden onlangs gebundeld, om het makkelijker te maken. De licentiekosten van DP liggen op 20 cent per product. Je hoeft dus inderdaad niets aan VESA te betalen voor de standaard (royalty-free), maar wel aan de bedrijven die de IP op de technologie achter de standaard hebben.

On topic: leuk voor de professionele markt, maar 8k in de huiskamer lijkt me wat overkill voor die prijs.
Oke, had alleen eve snel een oud artiekel gevond waar ze zeiden dat het royalty free was.
4K heeft 4096 x 2160 pixels 50fps en 5.1 geluid (4K Ultra HD is 4x Full HD)
8K heeft 7680 x 4320 pixels 120fps en 22.2 geluid (8K Ultra HD is 16 x Full HD and 4x 4K Ultra HD)
Dus je calculatie gaat niet op.
een 22.2 multichannel sound dat gewoon over de 5.1 sound gaat. Aan het geluid veranderd dus (vrijwel) niets.
Dat is niet correct. De Super Hi-Vision standaard waar 8K onder valt ondersteund voor audio ook Hamasaki 22.2 (https://en.wikipedia.org/wiki/22.2_surround_sound). Dit is echt 22.2 geluid met 22 speakers en 2 subwoofers. Waar jij op doelt is Dolby Atmos, dat is 128 kanaals geluid dat inderdaad wel gebruik maakt van de bestaande 5.1 opstelling.
Oh excuses, verkeerde interpretatie. Thanks!

Overigens, 22 speakers is aardig wat :D
5.1 zegt volgens mij wat over je speaker setup. 1 sub en 5 boxen. 1 center en 4 in de hoeken. Bij 7.1 heb je nog 2 speakers in het midden hangen. Voor je en achter je.
Yes, dat is correct :)
Huh 22.2 geluid. Dat blijft gewoon 5.1 volgens mij hoor.
Volgens mij zegt 8K zelfs helemaal niks over het geluid ;)
8k zelf inderdaad niet. Maar de volledige standaard van NHK heet Super HiVision en dat bestaat uit een 8k beeld en maximaal 22.2 geluid.
Zoals NovapaX al aanhaalde, de ongecomprimeerde beelddata voor HD is max 1,5Gbp/s (1080i60), 1080p60 is max 3Gbp/s. 4k is 4x het aantal pixels, en ook 4x de bandbreedte. 4k haalt dus max. 12Gbp/s. 8k gaat richting de 48Gbp/s. Dan krijg je in de toekomst nog HDR en 120fps er bij. Dat worden korte kabels :X

[Reactie gewijzigd door Vaal op 16 september 2015 11:41]

Of hele dikke kabels met enorm veel aders. Of misschien toch chroma subsampling of een of andere compressie want het loopt de spuigaten uit zo.
Aders maakt niet uit, het gaat om de mhz en die eroverheen gaan qua data. Je zult hoogstens een ader of 5-6 nodig hebben, maar het gaat langzaam naar honderden mhz. Serieel werkt beter dan parallel, een tv tekent zijn beeld lijn voor lijn (al gaat het zo snel dat het niet zichtbaar is)
Lijn voor lijn? Bij beeldbuizen zeker, maar ook bij moderne schermen? :?
ken je het fenomeen screen tearing? Een nieuw frame is al bij de monitor terwijl hij de vorige nog aan het vertonen is (oftewel, de GPU is al verder dan het scherm). Stamt nog uit de CRT tijd, daarvoor is toen ook vsync ontwikkeld (waardoor ze synchroon gaan lopen). De meeste schermen "verversen" hun beeld 60x (of 59x) per seconde. De gpu kan echter sneller, wanneer ze niet synchroon werken (fps ongelitimeerd zetten) kunnen dus frames door elkaar gaan lopen omdat het scherm het niet bij kan houden.

Tearing is altijd "horizontaal" gezien er van boven naar beneden gewerkt word.

[Reactie gewijzigd door aadje93 op 16 september 2015 15:01]

Dat lijkt me niet hetzelfde als wat je in de post waar ik eerst op reageerde beweert. Tearing treedt op als de data buffer in de monitor al deels al overschreven is op het moment dat het frame op de monitor gerenderd wordt. Maar dat betekent juist niet dat het beeld lijn voor lijn opgebouwd wordt, hooguit dat de data serieel de buffer in geschreven wordt.
Heb zojuist de full spec 8k bitrate gezien: 144Gbps. Als je dit serieel wilt doen gaat het met optic fiber. Daar zie ik ook nog wel mogelijkheden, consumentenapparatuur uitrusten met SFP cages en gewoon fibers gebruiken.
Ik zie hier eerder een glas oplossing voor komen.
Fout. uitgaande van 3840*2160@60hz (4:4:4, 10bpc) geeft catalyst hier aan dat er een assigned data rate van wel 23,8 gbps is. als je spreekt van maximale waarden, is het wel zo handig om o.a. 10bpc en 4:4:4 aan te houden...
Het is welliswaar waar dat veel tv's in combinaties met BD-spelers e.d. 4:2:2 toepassen, maar het is ook zonder dat je het woord maximaal noemt belangrijk juist naar de situatie te kijken zonder dat er kantjes vanaf gelopen worden; Als "4k alleen door de kabel past in 7bpc op 4:2:2" hebben we het al niet meer over 'echt' 4k... en mag er bovendien alvast gekeken worden naar een andere manier van aansluiten.

[Reactie gewijzigd door Annihlator op 17 september 2015 08:08]

Ik denk niet dat er uberhaupt een correlatie is. Je hebt een maximale resolutie en een maximale doorvoer, that's it. Uiteraard moet die doorvoer wel hoog genoeg zijn om een bepaalde resolutie aan te kunnen in de praktijk, met wat speelruimte omdat je de maximale doorvoer eigenlijk nooit haalt.

Sowieso is bitrate een keuze, je kan ook besluiten om de bitrate op te krikken voor nog beter beeld, bij een wat kortere film, of spreidt de film uit over 2 schijfjes.
Check het volgende plaatje:
http://www.rtings.com/ima...television-graph-size.png

Als je op 3 meter van je TV zit, moet je Ultra-HD televisie al 80" (2 meter) zijn om het verschil te kunnen zien. Bij een 8K televisie moet je met een zelfde scherm (2 meter) al op 1.5 meter afstand gaan zitten. Het scherm is dus groter dan de afstand tot je TV.
De stelling gaat dat bij zicht van 1 boogminuut (0°1') per pixel, je de volgende verhouding krijgt tussen pixelbreedte en afstand: tan(0°1') = 2,9089E-4 keer de afstand per pixel, ofwel tweemaal 0,3142 de afstand tot het volledige scherm in geval van UHD (breedte van 2160 pixels). Inverteren geeft dat de afstand 1,5915 (~1,6) keer de breedte van het scherm moet zijn om de pixels nog te kunnen onderscheiden, maar niet meer.

Om de breedte te bekomen van een 16/9-scherm met diagonaal X kan je volgende formule gebruiken:
(gegeven dat atan(9/16) = 29,3578 graden en dat cos(die_hoek) = 0,8716)

breedte = 0,8716 * X

Afstand tot een scherm van 80 duim is dus 1,6 x 0,8716 x 80 duim = 111,6 duim.

[Reactie gewijzigd door IveGotARuddyGun op 16 september 2015 21:36]

Ja, maar die foto is fout. Die zegt dat UHD pas opbrengt van 3 meter of korterbij, maar dat klopt niet. Het punt van 3 meter is waarop de pixels van het beeld de scherpte van het oog volledig kunnen verzadigen, maar een volledige verzadiging is niet nodig om te kunnen genieten van de extra scherpte.

De volledige verzadiging voor 1080p (FHD) is voor 80" diagonaal gelijk aan een afstand van 6 meter. Vanaf dan en alle afstanden dichter dan 6m zal UHD een merkbaar scherper beeld geven dan FHD.

edit: en dan is er nog de stelling dat 1 boogminuut scherpte van goed zicht een achterhaalde waarde is. Lees meer.

edit2: nog meer lectuur.

[Reactie gewijzigd door IveGotARuddyGun op 16 september 2015 15:28]

Ik heb van de week op de IBC meerdere 4k en 8k schermen gezien en je kan vanaf 10 meter afstand al zien dat iets UHD is ten opzichte van HD
POWEREDIT: Rekenwerk is fout; aantal pixels in de breedte is 3840 en niet 2160. De juiste afstand is dus 62,78 duim ipv 111,6 duim.
"De 8k-televisie lijkt daarom vooral bedoeld voor bedrijven."
Welk bedrijf heeft een 8k televisie nodig?

[Reactie gewijzigd door pjdijkema op 16 september 2015 09:17]

8K-panelen worden al gebruikt voor post-processing van Hollywood-films. Ook worden deze panelen ingezet in setups voor teleconferencing waarbij meerdere personen in hoge resolutie tegelijkertijd op het scherm getoond worden. Daarnaast kunnen dergelijke hoge resolutie-schermen gebruikt worden bij medische diagnoses, bijvoorbeeld voor het weergeven van röntgenopnames.
Röntgenopnames: Nee.

Absurd duur voor dat doel, en bovendien is de resolutie van de opname niet hoog genoeg. Als die al zo hoog zou worden, dan is de infra er omheen niet gereed om dergelijke beelden te bewerken en opslaan. Deze beelden worden nu gewoon bekeken op fullhd 24" schermen.
In ieder geval ons ziekenhuis, en de ziekenhuizen waar ik regelmatig mee spar, gaan echt geen 8k schermen gebruiken aangezien het niets toevoegt en vooral heel veel geld op een verkeerde manier gebruikt.
Om beelden te beoordelen zal je toch echt een dicom scherm moeten hebben. Vaak maken wij gebruik van Barco 4MP schermen of Eizo.

https://www.barco.com/en/...lor-display-system_1.aspx

Om gewoon beelden te tonen aan een patient is een 24inch full HD goed genoeg ja.
4MP dus... dit scherm heeft ~33MP ;)
Full HD is iets meer dan 2MP, 4K een dikke 8MP, wat dus ruim voldoende moet zijn voor jouw toepassingen. Overigens zijn de meeste diagnostische monitoren op de markt gewoon Full HD (2MP)
Maar de medische wereld staat ook niet stil. Als straks de apparatuur op hogere resoluties opnames gaan maken kan je wellicht net dat ene plekje zien wat je anders wellicht gemist had.
Je kan ook inzoomen...
Degene die vind dat ze met een 4k televisie tijdens een presentatie naar een nieuwe Lego Movie zitten te kijken en ¤140.000+ (inc. btw) ervoor over hebben...
CAD/CAM, ziekenhuizen (radiologie), grafische designers, etc.
Een bedrijf met een marketingafdeling die van gekkigheid niet meer weet wat ze van haar geld moet doen.
Exact zelfde discussie als bij de komst van HD en bij de komst van 4K. Typisch Nederlands om vooral uit te leggen waarom innovatie niet nodig is. En huidige technieken voldoende zijn...

Denk dat we over 5-10 jaar dezelfde discussie hier voeren bij de komst van 16k ;)

Ook ik heb van films en series genoten op mn 100hz 82cm Sony Trinitron breedbeeld tv aangesloten op mn Yamaha Dolby Pro Logic receiver. Kon me toen ook amper voorstellen dat het nog zoveel beter kon worden... 8-)
Ik denk dat de discussie toch iets anders is: bij FHD zie je zeker verschil met 720p, zeker op grotere schermen en van een kleinere kijk-afstand, maar 4K televisie heeft maar een beperkte meerwaarde meer tov FHD, voor ongeveer elke normale use-case bij de huidige courante schermgroottes. Eigenlijk heeft 4K alleen zin als je naar een soort home-cinema formaat gaat en dan heb je het toch automatisch over een niche.

4K op monitoren daarentegen heeft véél meer zin omdat je dan duidelijk waarneembaar scherpte toevoegt aan teksten (voor beelden is het uiteraard overkil).
't is niet zozeer dat het niet goed is dat deze technieken ontwikkeld worden. De vraag is eerder waarom dit scherm op de markt komt, gezien zijn exuberante prijs en het feit dat 4K toepassingen net intrede vinden. Zover ik weet is er nog geen content op 8K en zijn er maar bitter weinig toepassingen die zulke hoge resoluties gebruiken (Natuurlijk is dat een beetje een kip of ei verhaal). En als die er zijn gebruiken die meestal monitoren ipv TV's en verantwoorden die niet 120000¤ uit te geven aan een display.
Ik denk dat Sharp voornamelijk tot doel heeft 8K in de markt te zetten en her en der een TV aan een early adapter met te vele geld wil verkopen.
Ik denk (maar weet niet met zekerheid) dat zelfs de filmindustrie eerder geïnteresseerd is in kleinere monitoren (waar je dus ook dichter bij kan zitten). Misschien willen ze wel zoiets als deze Sharp wil voor demo en publiciteitsdoeleinden.
Ik kijk het liefst naar een goede beeldbuis (tv) Ik HAAT digitale artefacten. Zoals bewegings onscherpte. En delen van gezichten die de andere kant op bewegen t.o.v. de rest van het gezicht. Ravelranden. Lossless digitale tv zal wel goed zijn, maar wat er nu word uitgerzonden... En ik kijk graag naar NATUURLIJKE kleuren.

Daarentegen zit ik wel eens achter een https://en.wikipedia.org/wiki/T221... 3840×2400,
kijk, bij een pc heb je daar iets aan.
De beperkende factor is het menselijk oog, niet de technologie. Met andere woorden. 8k biedt geen enkel voordeel t.o.v. 4k en het voordeel van 4k t.o.v. FHD is al zeer gering. Al zullen fabrikanten die graag geld willen verdienen en dus redenen voor de consument bedenken om hun FHD-TV te vervangen, en consumenten die zojuist een (klein) vermogen hebben betaald voor het nieuwste van het nieuwste natuurlijk ten aller tijden het tegendeel beweren.
-
In de tijd van Trinitron, Scart en analoge televisie was er nu eenmaal nog zeer veel winst te behalen. Nu we bij het plafond van het menselijk oog zijn aangekomen is verder innoveren op resolutie nutteloos en puur marketing.
-
De zwartwaarden die met superamoled kunnen worden behaald zijn vele malen interessanter en van invloed op de beeldbeleving. Jammer dat LG dat monopolie nog bekleed.
7640x4320 op 85", dus is als UHD op een 42,5" en je moet dus wel HEEL dichtbij zitten. Maar vooruitgang is altijd goed! Voor mij meer positief dat hij 1000CD/m2 haalt aangezien dat hem geschikt maakt voor HDR. En na die techniek eindelijk eens echt gezien te hebben ben ik daar toch wel heel erg positief over.

Jammer dat hij bijna net zo veel als een klein huis kost... :X
4-way UHD Splitscreen. Maat dan zijn 4 aparte schermen evengoed voordeliger.
85" 8K sherpte is als UHD 42" heeft de sherpte van een 21" FHD TV.
Lijkt mij meer maat voor 8K computersherm. Maar curved lijkt mij dan wel gewenst.
UHD lijkt mij van af 84" redelijke zinvolle maat. 8K 100"+ maat.

Maar mocht ooit 8K paneel productie kwa volume en kosten UHD verdringen. Zoals nu FHD HD 1080P vs 720P verdrongen heeft.
Tja dan is het onvermijd baar.
Een poof vlak voor sherm op meter van 65" 8K om geval van 8K toch die sherpte iets van mee te krijgen. En voor niet 8 K spul of waar het niet boeid op de bank met kijkafstand van 4 meter.
zal wel een dure HTPC set worden als je ook nog eens een geschikte PC er wilt aankoppelen
moet wel 4 topclass nvidiea titan kaarten nodig hebben om die resolutie te ondersteunen.
En over 5 jaar, als die TVs betaalbaar zijn, is een enkel standaard midrange-kaartje voldoende.
5 jaar? Dream on. We kijken nog 90% in 1080i hoor...
90% in 1080i? Misschien bij TV uitzendingen, maar die kijk ik nooit (net zoals een steeds grotere groep). De rest is allemaal 1080p. "we" lijkt me wat overdreven ;)
Ja TV inderdaad. Maar druk eens een 4K stream door je internet lijn, dat gaat ook niet best voor het gros van de mensen. En dan zijn we in Nederland nog goed bedeeld qua internet.

Dit gegeven maakt 4K toch een stuk minder relevant, en onderstreept ook dat 1080p niet alleen genoeg is voor de meesten, maar dat meer ook lang niet altijd haalbaar is. En zolang de groep kijkers niet groot genoeg is, zal 4K content exclusief en dus duur blijven. We lopen ook tegen limieten van bestaande lijnen aan, zeker wanneer grotere groepen deze content moeten gaan binnenhengelen.

[Reactie gewijzigd door Vayra op 16 september 2015 10:05]

Een 4K stream gaat in veel gevallen niet een grotere aanslag op je bandbreedte zijn dan 1080P streams dankzij de H265 codec die een stuk efficiënter werkt dan zijn voorganger. (maar bedenk eens een1080P stream met dubbel de bitrate :9~ )

[Reactie gewijzigd door MenN op 16 september 2015 11:23]

UHD H265 is kwa bandbreedte ongeveer het dubbele van 1080p H264
Netflix 4K en YouTube 4K gebruiken maar 20-30Mb/s.

Dat terwijl 90% van Nederland toegang heeft tot 200Mb/s internet van Ziggo. Tenzij je op het platteland woont, maarja dan moet je ook niet klagen, je kan tenminste je geluid keihard aanzetten zonder last van buren :)
Ik heb een keer een YouTube 4K video gedownload en die was toch echt maar 12 Mbps. En Netflix 4K is als ik het mij goed herinner ook maar 15.6 Mbps.

Als je googled op "Netflix 4K bitrate" dan zie je die 15.6 Mbps ook bevestigd worden.
En YouTube 4K is qua kwaliteit nog wat slechter dan Netflix 4K, ze gebruiken dan ook een nóg lagere bitrate.

Er wordt wat gauw geroepen dat een stream 20-30 Mbps is, maar in realiteit hebben de streams een veel lagere bitrate.
Ik heb net even de laatste Linus Tech Tips video gedownload met 4K Downloader en het geeft 19.4 Mb/s aan :P
Maar ondertussen kopen genoeg consumenten wel graag telefoons met resoluties boven de 1080p.. Geloof maar dat er een markt voor is. Ik verbaas me er al enige tijd over dat er maar zo weinig laptops met resoluties boven de 1080p uitkomen; daar zit je vrij dicht bovenop en daar merk je het verschil in resolutie prima.
Netflix 4k is niet zo zwaar hoor. Mijn internet lijn zou makkelijk een 8k compressed film aan. Of netflix zijn lijnen dat aankunnen is een 2de
En over 5 jaar, als die TVs betaalbaar zijn, is een enkel standaard midrange-kaartje voldoende.
Je hoeft je scene niet op de maximale TV resolutie te renderen om toch die TV resolutie nuttig te maken. Denk eens aan antialiasing bv.
Zie het nut er echt niet meer van in, zeker de komende 10 jaar is onze hardware toch veel te traag om dat fatsoenlijk te kunnen aansturen met het detail dat men wil/verwacht van 8K..
Lol, geef het een paar jaar en er is een aparte decoder chip voor 8k en voila, elk ding met een scherm kan het afspelen. Zag je ook pak m beet 10 jaar geleden, HD liet je computer flink zweten, een generatie verder en er zat een decoder chip in elke video kaart en alle problemen waren weg.
Ik had het niet zozeer over video ansich, maar over gaming, 4K lukt ze nu nog niet eens fatsoenlijk..
Van de week heb ik anders wel Fallout 3 en Skyrim gespeeld in 8K locked 60FPS.

Met twee 980Ti's haal je ongeveer 30FPS in Witcher 3 met alles op Ultra. Ik verwacht dat je dus met twee Pascal videokaarten gewoon in de buurt komt van +45FPS
Juist ja, 2 980ti's ofwel highend kaarten die samen zo'n 1500 euro kosten... Dat duurt dus nog wel een jaar of 4 a 5 voordat die kracht in een doorsnee videokaart zit van rond de 150 euro, en tegen die tijd is de verwachting van hoe gedetailieerd het beeld is weer een stuk hoger dan nu bv voor Witcher 3..
Kijk highendkaarten zul je altijd hebben, maar je moet dus denken in termen van 'normale consumenten', en die geven geen 300-400 euro uit aan een videokaart.. Een tweaker is een ander verhaal, maar een tweaker is dan ook geen doorsnee consument, maar dat vergeet die tweaker maar al te vaak..
Ik ben 20 en heb er twee, so what? Kan me niet voorstellen dat een hoog opgeleide Tweaker hier met 3000-4000¤ baan gaat lopen gamen met een R7 260.

Overigens is 1500¤ niks, we praten hier immers over een TV van 120.000¤

En ja de 'normale consumenten' geven wel 300-400¤ uit, want de GTX 970 en R9 390 zijn de populairste videokaarten van de afgelopen maanden en ze worden ook gebruikt in de Desktop Best Buy Guide - MAINSTREAM-gamesysteem
10 jaar terug had ik al meer dan een jaar 2048 x 1536... ja, als monitor, je hebt het over pc.
Gewoon HD is nogal een achteruit gang.
Tv, ik kijk nog steeds beeldbuis. Zie mijn reactie hier boven.
Die TV heeft dus ~33 miljoen pixels. Dat betekent dat zelfs een goede fotocamera niet eens de nodige resolutie biedt om een demoprentje te maken. Ik vraag me vooral af voor wat voor content deze gebruikt zullen worden. Ik gok zo vooral als 'show of' voor een mooi 3d modelletjes of iets dergelijks. Maar zelfs de grootste bedrijven zullen 120k een dure display vinden voor promo-doeleinden. Dus blijft de vraag; welke high res toepassing heeft echt nood aan zulke displays?
Medische wereld om duidelijke beelden te krijgen zonder al te ver in te zoomen. Vaak staan de medici heel dicht op een ouderwetse monitoren te kijken om details te zien. Met deze dingen die later ongetwijfeld bij een pakje boter gaan zitten, zullen zij waarschijnlijk toch een van de beroepsgroepen zijn die hier heel erg profijt van gaan hebben. Ze staan vaak toch al dichtbij dus afstand is geen issue, en met 103 PPI is het scherm niet overdreven scherp.

Ja scherper dan wat we nu hebben, maar bij lange nog niet scherp genoeg als het aan mij ligt op zo een formaat. Wil je even scherpe schermen hebben als we nu in telefoons gewend zijn (400+ PPI) dan zullen ze nog dus even door moeten ontwikkelen naar 16K schermen (voor dit formaat) of met een geheel andere oplossing moeten komen wat het idee van losse pixels loslaat.
In de medische wereld:
- zijn de resoluties lang niet zo hoog
- zijn de meeste monitoren geen TV's
- zijn de meeste monitoren niet zó groot (85")
...daar gebruiken ze eerder http://www.necdisplay.com...dical-diagnostic-displays

Dit is een TV, en dus (nog steeds) niet bedoeld om dichtbij te gebruiken (zoals telefoon of tablet). Vandaar dat de pixeldichtheid een stuk kleiner is.

[Reactie gewijzigd door the_stickie op 16 september 2015 10:26]

Er worden hier plaatjes (tandheelkunde lab) geschoten met meer dan 50Mpixel voor onderzoek en verbetering van producten gebruikt in tandheelkunde. Tv of Monitor maakt in deze ook niet uit, het gaat om de basis technologie, dit vind zijn weg dus ook terug naar monitoren. Monitoren waren vroeger 1024 * 768 op 15", nu staan er 24" FHD schermen, maar als scherper en groter tegelijk kan, dan gaat dat dus vanzelf ook komen. Overzicht en scherpte in 1 beeld, ipv wat ze nu doen, ergens heel diep op inzoomen voor de scherpte maar je raakt het overzicht kwijt.
Handig voor het bekijken van foto's met een groepje studenten. Hoef je niet zo te dringen achter een scherm. Denk dat vele laborant of analist er ook geheid erg blij mee zijn.
"Overzicht en scherpte in 1 beeld, ipv wat ze nu doen, ergens heel diep op inzoomen voor de scherpte maar je raakt het overzicht kwijt."

Er is nogal wat verwarring tussen wat nuttig is voor bewegende beelden (zoals bij televisie) en statische beelden (zoals een medische foto).
Het heeft weinig zin om een bewegend beeld van dichtbij te bekijken: dan zie je wel "scherp", maar zonder overzicht heeft het geen toegevoegde waarde.
Bij een statisch beeld daarentegen kan het nuttig zijn om het van veraf te bekijken (overzicht) en van dicht (detail), zonder te moeten "inzomen".
ook aan 120000¤, of grofweg de prijs van 10 echt diagnostiche monitoren, of 3x een deftige beamer met scherm en installatie kost?
Nee dat natuurlijk nog niet, maar nu zijn 4K tv's ook al redelijk betaalbaar, een paar jaar terug waren ze duizenden euro's en nu kan je toppers voor 800 euro krijgen van niet al te grote formaat. Er zal altijd een eerste commerciele product zijn die stervensduur is, vervolgens komt de productie en productiemogelijkheden op gang en dan daalt de prijs vanzelf.

Op den duur zal het dus met 8K ook zo gaan verwacht ik, en tot die tijd zijn we natuurlijk ook tevreden met FHD en 4K monitoren.
Summary: Echt onzinnig is het dus niet.
Net zoals een dure beamer ook niet altijd de beste oplossing voor thuis is, maar voor een grote zaal misschien wel.
Misschien was het in mijn iniitële post onvoldoende duidelijk, maar ik had het over nu en de lancering van deze specifieke TV aan 120000¤.
Dat er voor 8K binnen dit en een paar jaar wél een markt is, lijkt me evident.
Aha, verwarring, mijn reactie was voornamelijk op je vraag:
welke high res toepassing heeft echt nood aan zulke displays?
Daar heb ik de prijs natuurlijk buiten beschouwing gelaten :)
Je kan voor hetzelfde geld 16 van deze beamers kopen (pricewatch: Sony VPL-VW300ES) en aansluiten dan heb je 15360x8640 resolutie
Mooi schermpje, 4K dus maar overslaan ;)
Dat zat bij mij sowieso al in de planning. Ergens vroeg in 2000, als ik me goed kan herinneren, kwamen er tegelijk een 4k en een 8k prototype uit. De 8k was nog bijna 3 meter, maar het concept was er. Die 4k is echt een tussenpaus, om bandbreedte-, opslag en opnametechniek te kans te geven mee te groeien.

Aan de andere kant is mijn full HD scherm nog steeds toppie.

edit: typo

[Reactie gewijzigd door hooibergje op 16 september 2015 09:20]

Mja ik weet niet hoor. Maar 8k in de woonkamer? Ik vind 4k al overkill, hoewel je het wel ziet. Maar echt grote meerwaarde...

Wat mij betreft ontwikkelen ze 4k gewoon door voor in de huiskamer en daarmee prima. 8k gaat nergens over voor gewoon gebruik imo.
Uiteindelijk zal 8k ook wel op kleinere schermen komen. Zoals op een regulier televisieformaat als 40 inch.

De pixeldichtheid van veel mobieltjes is nu al ruim groter...

Ik kan me de tijd nog herinneren dat 1024 x 768 hippe shit was. En dat men zij dat dat wel voldoende was. Daar begin je nu ook niet meer aan.

En natuurlijk die beruchte opmerking over '640 k' ;)
640K heeft er niets mee te maken.

Het menselijk oog kan maar 'zoveel' pixel per cm2 onderscheiden. Een mobieltje hou je heel dicht bij je oog, dat verklaart het verschil met een TV, waar je niet met je neus bovenop gaat zitten. Dat kan ook niet omdat je dan de hoeken niet meer tegelijkertijd kunt zien.

4K kun je al makkelijk naar 110 inch oprekken zonder dat je het verschil kunt zien, op 3,5 meter afstand. 8K televisie heeft dus pas zin als je dichterbij gaat zitten en / of je scherm aanzienlijk groter is.

Het is maar de vraag of dat mensen zo'n grote TV in huis willen. Pakweg 220 inch = 5,5 meter diagonaal past al niet in huis.

Bij een computermonitor zit je veel dichterbij, maar dan nog.. Ik heb zelf een 40' UHD. Als je de pixels kunt zien, zit je al zo dichtbij dat de hoeken niet tegelijkertijd te zien zijn.

Daarom zal 8K op een 40 inch er nooit komen.
"Daarom zal 8K op een 40 inch er nooit komen."

Over een paar jaar lachen we hard om je opmerking ;)
TV dan hè? ;)

Laat ik het dan zó zeggen: Als het er ooit komt, is het omdat het goedkoper was om dezelfde hardware te gebruiken voor alle modellen van een serie. Maar het blijft nogal kansloos aangezien je te dicht op het scherm moet zitten om de resolutie te zien zonder enorme perpectivische vervorming aan de randen.

Ik zal al blij zijn als binnen 10 jaar 4K UHD de standaard wordt voor TV en video.
UHD is allang de standaard. Alleen zijn mensen te koppig of slecht geinformeerd.

De pricewatch: LG 49UB820V Zwart was laatst nog 549$ op Amazon.com voor de Amerikanen. In Nederland was hij 650¤ tijdens de BTW dagen in januari bij Media Markt/Scheer&Foppen enz.

[Reactie gewijzigd door Koning Willy op 17 september 2015 00:07]

My bad, ik was niet duidelijk. Ik bedoelde de content. Alle TV's zijn zo ongeveer wel full HD nu, en de belangrijkste Ziggo kanalen worden nu wel als 'HD' verkocht maar mijn Ziggo kastje levert nog steeds maar 720P en zelfs wat er voor Full HD doorgaat is vaak upscaled materiaal.

720P kijken op een Full HD tv is één ding maar 720P kijken op een UHD… wordt er niet mooier op.
Het is 1080I en geen 720P of 1080P.Ik heb een 200Mb/s abbo bij Ziggo en zelf ook een 4K TV, zou mooi zijn om tenminste daarmee live TV te kunnen kijken in 4K.
Aangezien 1) het na al die jaren nog steeds niet gelukt is om Full HD 1080P signaal op de kabel in Nederland te krijgen en 2) er toch nog veel met hele oude / matige camera's gewerkt wordt bij o.a. de publieke omroep, ondanks dat Full HD ontegenzeggelijk is aangeslagen bij het grote publiek, vrees ik dat die partijen niet nu ineens heel hard hun best gaan doen om Full HD bij ons thuis te krijgen.

Heel realistisch is het niet daarom niet om te verwachten dat 4K binnen een paar jaar de standaard wordt op Ziggo. Dus een 8K televisie voor thuis.. heeft natuurlijk pas toekomst als er wat vooruitgang zit in het 'half HD' -> Full HD -> 4K traject.
Ja maar bijna niemand kijkt nog "normale" TV :P

En waarschijnlijk zijn er een hoop cameras die 4K of hoger kunnen opnemen zonde dat alles in 1080i wordt weergegeven.
Waar kan ik een 32 inch ROG Swift monitor kopen met OLED 8K 240hz G-SYNC? :+
Wellicht als TV niet, maar ik denk dat een hoop mensen die beeldscherm werk doen maar niets liever willen dan hogere pixeldichtheid op hun schermen. Ziet het er allemaal nog scherper uit en werkt het prettiger.

[Reactie gewijzigd door MenN op 16 september 2015 11:31]

Ik ben zo'n beeldschermwerker. Ik zie het ook graag komen. Maar ook bij monitoren geldt dat het niet zinnig is om de resolutie eindeloos te verhogen, zonder het fysieke scherm groter te maken. Anders krijg je grote vervorming zoals wanneer je vanaf het balkon naar een projectie kijkt op een flatgebouw.
Waarom zou je projectie issues krijgen? Je text/plaatjes ect wordt gewoon scherper. In plaats van 1 pixel worden het er 4 of 8. Of je gebruikt de extra pixels om meer werkruimte te creëren. Je ziet toch ook geen vervormingen of projectie issues tussen een 320x480 telefoon en een 2560x1440 model? Het scherm is gewoon scherper.
Meer pixels per inch heeft geen zin meer als je voorbij het punt gaat dat je oog het verschil niet meer ziet, daar zijn we het over eens.

Je kan dan wel dichterbij gaan zitten of het scherm groter maken (noem het meer werkruimte creëren) en dan lijkt / wordt je scherm dus groter.

Als je een 40' scherm hebt op 3840 pixels breedte (UHD), heb je al zoveel resolutie, dat je zo dichtbij kan gaan zitten voordat je de losse pixels kunt onderscheiden, dat je je hoofd moet draaien om de randen / hoeken van het scherm te kunnen zien. Dat is niet prettig kijken, maar er zijn grotere nadelen:

Naarmate het scherm groter wordt (of je dichterbij gaat zitten), kijk je onder een steeds scherpere hoek naar de randen van het scherm.

Vergelijk het met een plein vol vierkante tegels. Je staat midden op het plein. De tegels die vlakbij liggen zien er ook zo goed als vierkant uit, maar de tegels die 3, 5, 10 meter verderop liggen, lijken (puur optisch, '2D' gezien) steeds minder vierkant.

Overdreven gezegd: Stel dat het plein een TV is met een resolutie, zo hoog, dat je geen pixels meer kunt onderscheiden als je recht naar beneden kijken. Het beeld van het plein, of eigenlijk de projectie ervan op je netvlies, wordt door het perspectief zodanig vervormd, dat alleen het deel wat dichtbij is er nog realistisch uit ziet.

Natuurlijk kun je besluiten vanuit een helicopter op grotere afstand naar de plein-TV te gaan kijken zodat de perspectivische vervorming minder wordt, maar dan benut je de enorme resolutie van de plein-TV niet meer*. Er komt dus een punt dat nog meer pixels echt geen nut meer heeft.

(*Dat is ook waarom bij grote TV's, maar nog meer bij grote monitoren, die een hoge resolutie hebben, waar je dus dichtbij 'moet' gaan staan, een gebogen scherm nut heeft. Door de kromming van het scherm heb je geen / minder last van de perspectivische vervorming dan bij een plat scherm. De kromming zorgt ervoor dat alle pixels (meer) op dezelfde afstand van je oog komen te liggen. Bij een klein scherm / scherm van lagere resolutie waar je verder vandaan blijft, heb je nauwelijks perspectivische vervorming, dus dan is zo'n kromming niet nodig.)
Maar je betoog gaat over grote van een monitor. Ja tuurlijk 40" is geen lekkere grote voor een monitor. Geen enkel normaal persoon heeft een 40" computer monitor.

Maar 4k op 24" is echt geen luxe hoor. Dan hou je een 1080P scherm over maar dan alles lekker 4x zo scherp. Je hoeft er niet dichter op te gaan zitten. Je UI blijft even groot maar het wordt gewoon veel scherper.
Je ziet dat de retina MacBooks alom geprezen worden om hun fantastische scherm, of het geweldige 5K scherm in een iMac. Ga eens kijken bij de media markt ;) zie je direct hoe mooi het eruit ziet dat alles lekker scherp is. En hoe groot het verschil is tussen een 2560x1440 iMac en de 5K versie, je ziet het echt wel ;)

Kijk gewoon eens naar alle ontwikkelingen op telefoons en tablets. Het lezen is gewoon zoveel prettiger geworden omdat het scherper is. En dat geld ook voor een monitor. Het is JUIST de bedoeling dat je geen pixels kunt zien. Dat maakt het juist zo fijn, de letters zijn scherper omdat een letter met 2x meer pixels kunt renderen.
Lees m'n verhaal nog eens want je hebt wat gemist. Natuurlijk wil je geen pixels meer zien maar er komt een punt dat nog meer pixels het beeld voor je oog niet scherper meer maken.

We hebben het niet over het verschil tussen een 2560x1440 iMac en een 5K versie, maar zoiets als het verschil tussen een 5K versie en een 10K versie.

De 5K versie ziet er beter uit dan de 2.5K, dat zijn we eens. Als je nu op de bank op 3 a 4 meter naar een Full HD TV zit te kijken, heb je grofweg al zo'n gedetailleerd beeld als je met je 5K iMac hebt.

Het heeft dan geen zin meer om een 4L UHD TV te nemen, laat staan een 8K UHD.

Net zoals het geen zin heeft een 10K iMac te bouwen (zonder het scherm weer groter te maken, maar zelfs dat heeft zijn grenzen zoals ik hierboven probeer uit te leggen).

Een krantenfoto is bijvoorbeeld veel grover, door het raster, dan een echte foto. Toch is dat op een meter afstand niet meer te zien, dus niemand maalt er om. Zo werkt het ook met TV / monitoren.

Je kan wel blijven roepen dat het scherper is als je er met je neus op gaat zitten, maar kranten worden niet op postzegelkwaliteit gedrukt, alleen maar 'omdat het kan'.
Heb jij de laatste alinea wel gelezen? 8K op 40" is echt nutteloos, tenzij je er met je neus bovenop gaat zitten. Ik betwijfel ten zeerste of dit ooit standaard in de huiskamer gaat worden.
Tja, 200+ pk in je bak is ook nutteloos... Je mag maar 130 :P

Gezien het succes van de Retina-schermen, en de mogelijkheid om je computermonitor te vervangen door zo'n mooi groot scherm, denk ik dat we binnen redelijke tijd 8k gaan zien op onze schermen. Ook als ze kleiner zijn (want 80" op je werkplek is wat overkill... hoewel het ideaal is voor coden met z'n 2en, of anderszins samenwerken :Y) )
Tja, 200+ pk in je bak is ook nutteloos... Je mag maar 130
Maar er is geen acceleratielimiet ;)
Het probleem is dat je voor 8k wel heel dicht op je tv moet zitten die tv ook nog eens vrij groot moet zijn. Feit is dat veel mensen nu al te ver van hun Full HD tv afzitten.
Hehe absoluut eens. Het zal uiteindelijk ook wel gemeengoed worden, maar of je op 3 meter afstand ook nog echt verschil gaat zien tussen 4k en 8k. Maak 4k dan maar lekker cheap, koop ik dat wel :P

Maargoed, de ontwikkeling gaat natuurlijk atlijd door, en als het niet in resoluties is, dan wel weer in iets anders waardoor je toch die nieuwe tv wilt :P
Of je dat verschil ziet ligt ook aan de grootte van je scherm 😉

Maar het ligt ook zeker aan je ogen. Ik heb voor mijn leeftijd bovengemiddeld goede ogen en zie scherper dan anderen om mij heen. Ook maar een kleine afwijking maakt bij zoiets toch al veel verschil.
Ik wil het in ieder geval wel eens naast elkaar zien 😃
Ben ik niet met je eens.
Onbewust is de beleving veel realistischer.
Sherpte van 40" 8K == 20" 4K == 10" 1K.
Dat scherpte dat redelijk past bij een tablet of laptop
Zo zinloos vanaf 4 a 5 meter.

En 4K is bij mij UHD.
4096 is 4K DCI
Dat dus! 4K heeft bij een diagonaal van 55 inch en een kijkafstand van pakweg 4 meter nauwelijks meerwaarde boven een vergelijkbare Full HD TV. 8K is écht overkill. Als je op een halve meter afstand zit, dan kun je op een 65" misschien wat verschil zien, maar voor het blote oog, nauwelijks zichtbaar. Voor de huiskamer is 8K echt niet nodig.
Bij deze grootte is het sowieso de vraag of je een dergelijk groot apparaat wel te verkopen is aan een markt die groot genoeg is. In de woonkamer kunnen of willen de meesten het niet zetten, en in een toegewijde bioscoopkamer kan de belichting dusdanig aangepast worden dat een beamer logischer is.
De markt hoeft niet enorm te zijn; er zijn altijd bedrijven te vinden die dit soort technieken willen gebruiken. In 2006 werden er bijvoorbeeld nieuwe Philips-schermen opgehangen in diverse Holland Casino's, welke brilloze 3D weer konden geven. 3D stond op dat moment helemaal in de kinderschoenen, zeker brilloze technieken. Daarnaast was de techniek ontzettend duur. En zo zal er voor de 8K 80"+-TV's ook wel een markt zijn waar geld te verdienen is. Daarnaast is het ook een ideale proeftuin om dit soort techniek te testen en krijg je er nog wat voor terug ook, wellicht. Vergis je verder ook niet in de multi-miljonair-markt. Toen LCD- en Plasma veel te duur was voor de gewone mens, zag je in de huizen van de superrijken dit soort schermen met 40"+ beeldformaten al hangen.
Ik denk dat 8k voorlopig juist niet voor de woonkamer bedoeld is en dat 4k gemeengoed wordt. Niet om als Bill Gates te klinken met "640kb is genoeg voor iedereen", maar het verschil tussen 4k en 8k zie je op woonkamerafstand echt niet meer. Ik zou dan ook eerder 4k adopteren en 8k overslaan tot de volgende generatie (16k? Holodeck? Betere kleurtechnieken?).

[Reactie gewijzigd door adamvansanten op 16 september 2015 09:30]

Dat kun je gewoon zeggen zonder als Bill Gates te klinken hoor, hij heeft die uitspraak nooit gedaan.
Niet? Urban legend dan? Heb dat hier zo vaak gequote zien worden dat ik op een gegeven moment het maar als waar ben gaan aannemen ;)
Die 4k is echt een tussenpaus, om bandbreedte-, opslag en opnametechniek te kans te geven mee te groeien.
Dat geloof je zelf toch niet?
Aan de andere kant is mijn full HD scherm nog steeds toppie.
Precies! Als ik op 3 meter van mijn 40" tv zit, dan zie ik nauwelijks verschil tussen een goede 720p en een 1080p film. Ik denk dat ik pas behoefte aan 4K ga krijgen als ik die 40" tv van mij heb vervangen door een exemplaar van minimaal 55". Tot die tijd volstaat Full HD.
Dit dus. Sterker nog, ik kwam er pas na een jaar achter dat mijn KPN settopbox op 720p i.p.v. 1080p stond afgesteld :z
Voor de duidelijkheid: 4K (4096 x 2160) televisies komen praktisch niet voor; UHD (3840 x 2160) wel. We zitten dus nog niet eens op volledige bioscoopresolutie met televisies, aangezien praktisch elke bioscoopfilm in 4K wordt geschoten.

Voordat er een volledige omslag heeft plaatsgevonden van 4K naar 8K voor bioscoopopnames zijn we rustig vijf tot tien jaar verder, zeker als je kijkt naar de enorme investeringen die dat met zich meebrengt om te kunnen projecteren voor bioscopen. En dan moet de consumentenmarkt nog op gaan starten.

Je kunt die 4K televisie dus rustig kopen; waarschijnlijk wel twee ook voordat 8K mainstream is.

OLED en HDR daarintegen zijn wel interessante technieken die de televisiewereld op hun grondvesten doen gaan schudden.
Dan mag het wel een heel budgetfilm zijn als het nu in 2015 in 4K wordt geschoten.

De camera's van RED die industriestandaard zijn zitten als sinds 2013 op 6K @ 100hz en je kunt de upgrade naar een 8K sensor die in April 2015 is aangekondigd al pre-orderen ;)
Dat is die ouwe 4K DCI standaard.
4K ( 4K-DCI 4096 & UHD 3840 )
Dan mag je lang wachten; het zal nog jaren duren voordat de hardware bij kan benen met 4K, 8K is nog eens 4x zo zwaar / complex. Grafische kaarten moeten dus iets van 8 keer zo snel worden (2x zo snel om 4K aan te kunnen) voordat 8K praktisch wordt.
Wat dacht je van volgend jaar dat een beetje mainstream gpu 4k aankan? 14/16nm + HBM2 gaat daar echt wel voor zorgen.

8k duurt alleen dan weer nog eventjes.
Nope, de GPU's van volgend jaar zijn gemaakt voor 8K gaming, daarom worden ze ook uitgerust met Displayport 1.4 en HBM2
8k gaming op sub 30fps ja gaat nog iets langer duren voordat dat goed mogelijk is zonder een fortuin uit te geven.
Van de week heb ik anders wel Fallout 3 en Skyrim gespeeld in 8K locked 60FPS.

Met twee 980Ti's haal je ongeveer 30FPS in Witcher 3 met alles op Ultra. Ik verwacht dat je dus met twee Pascal videokaarten gewoon in de buurt komt van +45FPS
Want 2 980ti's zijn betaalbaar. Met 1 kaart rond de 200 euro gaat je dat echt niet lukken. 8k zal volgend jaar echt niet mainstream worden 4k langzamerhand wel.
We hebben het niet over mainstream maar over "enthousiast" class. Veel mensen zeggen hier dat het ONMOGELIJK is om in 8K te gamen. En twee 980Ti's en een quad core zijn opeens 4-5 keer goedkoper dan een overkill PC met 5960X en 4X Titan X.
Ik heb het de hele tijd al over mainstream niet over een paar gpu's die bij elkaar 1000+ euros gaan kosten. Hoe jij erbij komt dat ik het over enthousiast class gpu's heb snap ik niet. Daarmee is het inderdaad al mogelijk om op 4k en in sommige gevallen zelfs op 8k te gamen.

Dus nogmaals 2016 word een jaar dat 4k langzamerhand mainstream gaat worden. 8k absoluut nog niet alleen al omdat die monitoren daarvoor een fortuin kosten laat staan de gpu's.
Met een 970 (R9 390 zelfs beter door extra vram) kan je anders wel in 4K 60FPS gamen met settings op high en sommige op medium?

Of wil je met een "mainstreamkaart" instellingen van 'enthousiast" dus ULTRA gebruiken? In een game zoals GTA V merk ik bijna geen verschil terwijl het framerate wel bijna verdubbeld.
Kweet niet hoeveel jij verdient maar meeste mensen kunnen geen gtx970 of r9 390 kopen. Het zijn zeker geen mainstream kaarten die zitten meer rond de 200 euro niet 300+.

Onder tweakers kan dat natuurlijk weer totaal anders liggen maar ik reken ons niet als de gemiddelde consument die wil gamen. Zelf heb ik al een tijdje een hd7970 waar ik alles op 1440p mee speel volgend jaar weer lekker upgraden :).

[Reactie gewijzigd door Barsonax op 17 september 2015 18:54]

Ik ben nog maar 20 dus ik verdien beetje meer dan het minimum jeugdloon

We leven in Nederland toch, niet in Africa? Zelfs een kind van 13 jaar kan in 5 maanden een GTX 970 of R9 390 kopen. Ik weet niet precies hoeveel ze nu krijgen maar 7-8 jaar geleden kreeg ik er nog 70-80¤ per maand ervoor, dat is vast nu meer.

En als je tweedehands gaat kijken is het helemaal makkelijk,een ASUS R9 290 met aftermarket cooler voor 185¤
De groep mensen die meer dan 300 euro uitgeeft aan een gpu is relatief klein. We behoren toch echt tot de minderheid ben ik bang :P.

2e hands klopt dat je ze goedkoop kan krijgen. Veel mensen beginnen hier echter niet aan als ze al weten hoe ze zon kaart moeten installeren (hoe simpel het ook is weten een hoop mensen dit niet/beginnen er niet aan).

[Reactie gewijzigd door Barsonax op 17 september 2015 20:07]

Je hebt met zoveel pixels een stuk minder grappen nodig zoals AA of AF, en juist die vreten power (en worden volgens mij vooral in spellen gestopt om het lekker zwaar te maken). Het ziet er dan toch ongeveer hetzelfde uit.

Wat belangrijk is, is de beeldkwaliteit, ruwweg evenredig aan de verwerkingskracht van je GPU, en de mogelijkheid om die kwaliteit op je scherm te krijgen. Dat laatste lukt wel met 4k of 8k... (aangenomen dat je geen 7-bits TN schermpje hebt).
Als jij het verschil tussen AA en geen AA niet ziet, misschien tijd voor een bril? Of dat 1024x800 scherm eens de deur uit doen.
Hmmmm of misschien moet ik mijn resolutie eens lager instellen :P Dan is het effect opeens weer merkbaar.

(wat mijn punt precies duidelijk maakt: als je pixels klein genoeg zijn om onzichtbaar te zijn, maakt het niet uit dat ze een blokkerig randje vormen... de blokjes zijn immers te klein om zichtbaar te zijn.

[Reactie gewijzigd door FreezeXJ op 16 september 2015 11:59]

Ik game ook (soms) in 4K en daar zie je echter wel het verschil tussen 0 AA en 2X MSAA/TXAA. 4X of hoger heeft geen nut, tenzij je screenshots wilt maken en later gaat inzoomen.
Ideaal voor vertoningen in grotere zalen en dergelijke. Daarom ook voor bedrijven waarschijnlijk interessant in de toekomst.
85" in een grotere zaal? Vele andere sites houden een afstand aan van ongeveer 6 feet, grofweg 2m, om het verschil te kunnen waarnemen tussen 4K en 1080p.

Door het verhogen van de resolutie in de genoemde TV in het artikel, zal de kijkafstand dus moeten afnemen wil je nog de afzonderlijke pixels wel/niet kunnen zien.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True