Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 212 reacties, 54.941 views •

Televisies met een resolutie van minimaal 3840 x 2160 pixels gaan in de winkel aangeduid worden met de term 'Ultra High Definition' of 'Ultra HD', zo heeft de Consumer Electronics Association besloten. De tv's moeten over minstens één 4k-ingang beschikken.

De term Ultra High Definition moet 'de superioriteit boven conventionele hdtv aangeven', schrijft de CEA. De naam is unaniem verkozen door de 4K-Working Group van de organisatie, die begin dit jaar opgericht was om te beslissen hoe consumenten en winkeliers het beste voorgelicht kunnen worden over de nieuwe standaard.

Volgens de CEA wordt de 4k-technologie deze herfst uitgerold. De eerste Ultra HD-toestellen, zoals de LG 84LM960V en de Sony 84X9005, gaan echter meer dan vijftienduizend euro kosten. Een recent onderzoek beweerde onlangs dat het marktaandeel van Ultra HD in 2017 met 0,8 procent nog verwaarloosbaar blijft.  

De vereisten om de Ultra HD-aanduiding te mogen dragen zijn een resolutie van minimaal 3840 x 2160, een beeldverhouding van minimaal 16:9 en de aanwezigheid van minstens één digitale input die de volledige 3840 x 2160-resolutie ondersteunt. 

De eerste Ultra HD-tv's van Sony en LG komen nog dit jaar beschikbaar in Nederland. De verwachting is dat alle fabrikanten nieuwe modellen op de CES-beurs in januari in Las Vegas aan gaan kondigen. 

Reacties (212)

Reactiefilter:-12120208+1132+215+30
Moderatie-faq Wijzig weergave
1 2 3 ... 6
Die stomme frames moeten gewoon een keer omhoog ipv als maar focussen op de resolutie.


Ik ben benieuwd, The Hobbit komt bijna in de bios. De bioscoopfilm die als eerste in 48fps word vertoond.

edit : http://www.engadget.com/2...fps-film-limited-release/

Na het zoeken van de bron lees ik dat de film industrie al de vooruitgang weg heeft gedrukt.
Eigenlijk vind ik het enorm zonde dat de ontwikkeling de kant van "meer pixels" opgaat. Dat is namelijk helemaal niet wat nu de beeldkwaliteit beperkt.
Ik zou veel liever een veel hogere (opname)frequentie zien: dus i.p.v. 24 Hz gewoon naar 120 Hz. Nu zie je vaak het beeld frame-voor-frame verspringen. Dan is het wel leuk dat de afzonderlijke beelden haarscherp zijn, maar voor de totale filmervaring is dat juist niet nodig.
Er staat in het stukje "minstens een digitale input die de volledige 3840 x 2160-resolutie ondersteunt", is er ook al een universele stekker hiervoor gemaakt?
Of zijn fabrikanten hier nog vrij in, zolang de ingang de resolutie maar aan kan?
Ik neem aan dat ze gewoon de HDMI upgraden, net zoals met 3D pas vanaf HDMI 1.4 werkt. HDMI 2.0 komt eind dit jaar, die zal wel 4k ondersteunen.

Edit: bron: http://en.wikipedia.org/wiki/HDMI#Versions

Edit @ hieronder: dat klopt, maar dat is nog niet op volledige kleur etc zoals 1080p wel is. De nieuwe versie zal neem ik aan dit wel ondersteunen.

[Reactie gewijzigd door lukjah op 20 oktober 2012 10:43]

4K zit al in de HDMI 1.4 standaard.
4K zit alleen als 4Kx2K@24p in de HDMI standaard, dus alleen voor bioscoopfilms, dus niet als 4kx2K@25p/30p/50p/60p voor reguliere video signalen.

[Reactie gewijzigd door tomaat23 op 20 oktober 2012 20:06]

films zullen ook wel de eerste zijn die op het 4k format verschijnen! tv uitzendingen zijn nog steeds 720p/1080i en dat zal ook nog wel even duren voor dat gaat veranderen denk ik!
Maar je hebt ook nog pc's en consoles. Die willen ook graag meer fps dan 24.
Het zou ook kunnen dat ze een nieuwe standaard ontwikkelen, gebaseerd op displayport, vermits dit superieur is aan DVI (waarop HDMI gebaseerd is). Als de consument toch nieuwe kabels moet kopen, kunnen ze beter een ander type ontwikkelen ipv een upgrade van de huidige standaard.
Het zou ook kunnen dat ze een nieuwe standaard ontwikkelen, gebaseerd op displayport, vermits dit superieur is aan DVI (waarop HDMI gebaseerd is). Als de consument toch nieuwe kabels moet kopen, kunnen ze beter een ander type ontwikkelen ipv een upgrade van de huidige standaard.
Waarom moet dat nou wéér wat nieuws worden dan? Zo blijf je aan de gang en worden TV en andere apparaten alleen maar duurder.

Daarnaast krijg je wéér een extra aansluiting die nodig iis om überhaupt beeld te krijgen op een bepaalde kwaliteit.

Inmiddels is HDMI ingeburgerd en dat is lekker makkelijk: beeld én geluid door 1 kabel, scheelt al zo ontzettend veel (zeker als je kijkt hoeveel apparaten men wil kunnen aansluiten op een TV), dus waarom er wéér iets nieuws moet komen lijkt mij compleet onzinnig en onnodig, in theorie kan HDMI het ook, dus waarom daar niet op verder bouwen? :)
Als HDMI het ook kan waarom is hoger dan 1920x1200 dan niet mogelijk met HDMI?
Als HDMI het ook kan waarom is hoger dan 1920x1200 dan niet mogelijk met HDMI?
omdat HDMI specifieke resoluties ondersteund gok ik. 1920x1200 is geen gangbaar formaat voor TV's, wel voor monitors, en geen TV standaard, integenstelling tot HD-ready, full-HD en Ultra-HD.

* arjankoole is blij dat z'n denon iig HDMI 1.4 doet, en dus al klaar is voor 4K.
Ik zou balen, had ik mooi een goede smoes om over 3 jaar een nieuwe Denon te kopen :)
is dit hele 4k gebeuren sowieso geen marketing?

Als ik naar het oplossend vermogen van een oog kijk is 4K veel te hoog. Voor de meeste mensen is zelfs full hd te hoog gezien hoever ze van de tv zitten.

http://www.blogcdn.com/ww...6/12/resolution_chart.jpg

Als je nu voor je neus zo'n mega scherm wil hebben zou het al wat logischer zijn.

Mensen die beweren het verschil te zien tussen 720p en 1080p zijn de mensen die er in de winkel dichtbij gestaan hebben... Maar vanaf 3 meter (op 40") onmogelijk te zien.

Op zolder heb ik een beamer hangen en genoeg videofielen die bij mij games komen spelen en allen vinden het een mooi strak beeld. Niemand klaagt over de detail/scherpte. Als ik ze dan confronteer met het feit dat ze 3 meter afstand van een 75" scherm zitten met een resolutie van 768 x 1024, dan zijn ze allen verbaast.
Marketing: Ja en nee. Is 4k te hoog voor een 40" scherm, zeer waarschijnlijk. Maar de schermen die het hebben zijn momenteel 84" of 231cm, oftewel de grootte van een bed. Dit formaat zullen weinig mensen in huis hebben, zeker niet voor $15k per stuk. Maar zou in bepaalde instanties wel interessant zijn. Vergeet niet dat 4k is ontwikkeld met in het achterhoofd de bioscoop waar de afstand veel groter kan zijn maar het beeldscherm nog veel groter is waardoor de eerste paar rijen inderdaad het verschil met 1080p kunnen zien.

Ik werk momenteel met 30" displays met een resolutie van 2560x1600 waarbij ik echt heel goed moet kijken wil ik het verschil tussen 720p en 1080p zien op een afstand van 75-90cm.

Je voorbeeld met een beamer is natuurlijk heel scheef, dat ding heeft hetzelfde effect als een CRT, het projecteert op het uiteindelijke scherm, waardoor de pixelation veel minder opvalt. Op een LCD zou bij 75" en 1024x768 elke pixel 1,1mmx1,1mm groot zijn. Dat valt inderdaad minder op bij een afstand van 3m. Maar bij de beamer komt daar nog het effect bij dat de lijnen tussen de pixels minder duidelijk worden waardoor het nog minder opvalt.
Hoeveel mensen hebben niet lopen te watertanden bij het megascherm dat bijna bij iedere Mediamarkt stond?(2,62m) Die was uiteindelijk "slechts" 1080p dus voor mij is het net als 720p vs. 1080p bij alle 40-50" schermen. Je gaat er toch zeker niet dichter opzitten want je ogen willen ook niet zulke afstanden van links naar rechts afscannen.

ja precies, je zit er 75cm-90cm vandaan... Heel logisch, net als die retinaschermen van apple... Dat zie je ook.

Je zou mijn beamerscherm van dichtbij moeten zien, dan zie je dat alle pixels er haarscherp opkomen. Maar met 3000 lumen en alles echt zo goed als lichtdicht mag dat ook wel. En zoals gezegd zijn er videofielen die dat echt wel gemeld hadden.
Nou nee het gaat om groot kijkveld cinematic ervaring.
Op 3 meter dus gewone volk kijk afstand hebben film enthausiasten iets in de 50" a 65" staan vaak plasma.

Op 3 meter met UHD is 84" dus een voor normale huis een bijna optimale formaat. 100" of groter

Iemand met een villa waar hij kijkt van af 7 meter naar zijn TV heefd een FHD 84" als hij bewust is dat die dat gewoon nodig heefd om die sherpte optimaal te kunnen ervaren op 7 meter en dat er voor overheefd naast zijn X5 en z3 in zijn garage.
Wilt hij optimaal UHD dan word dat meer iets in de 200" op 7 meter

Een sherm gemaakt voor zaal is 55" in SD voor kijk afstan 15 meter
Uhd zou dan 400" zijn

Het simpele regel
Kijkafstand is bekend en dus vast bijvoorbeeld 3 of 4 meter.
Optimale sherpte kwa beeldpunten per inch. Wordt bepaald door kijk afstand. En is dus voor die kijkafstand ook een constante.
Dus beeld diagonaal staat dan in verhouding als
SD : HD : FHD : UHD : 8K tot die optimale beeld sherpte op die afstand
Grof 1 : 1.5 : 2 : 4 : 8

Wat neerkomt als je je optimale FHD sherm grote weet. Voor UHD is dat factor 2.
55" hier wordt. 110"

Dus 84" vervangt een 42" op kleinere afstand of neemd genoegen met mindere optimale sherpte waarneming.
Klopt maar technologie stop je niet, net zo min als dat HD audio signalen, 24-bits en 192Khz is net zo veel onzin en ondanks dat er mensen zijn die claimen het te zien en horen is dat niet zo omdat ze niet begrijpen dat hun hersens hun laten zien/horen wat ze willen horen. Ze worden letterlijk door hun eigen hersens voor de gek gehouden.

Ik ben zelf een enorme audo- en videofiel maar ik zal nooit beweren het verschil tussen een wav, flac of zelfs een 192kbps vbr mp3 te horen, of het verschil op mijn 50" plasma tussen 720p en 1080p op 4 meter afstand, want die is er namelijk niet. En iedereen die beweert dat wel te kunnen liegt (uitzonderingen van mp3's daar gelaten want soms pik ik ze er zelf ook tussenuit) :P.

Maar goed, TV's en audio apparatuur is alleen maar goedkoper geworden dus mensen moeten niet klagen. Mijn 50" plasma kostte nog geen 600 euro, terwijl mijn Samsung (een van de eerste full HD LCD's) ruim 2500 euro kostte .... Ik weet nog dat we thuis 8000 gulden hadden betaald voor een 32" beeldbuis van Philips. Mijn oude Technics versterker kostte ook een vermogen, een schijntje van wat een instapper Onkyo kost tegenwoordig.
Dit behoefd geen marketing, het is gewoon een luxe item, dus voor cinema fielen heefd het wel degelijk meerwaarde.

Bij filmen in sd hd uhd is er ook kijkhoek in begrepen.
Goed voorbeeld is epische effect wat letterbox cinematic de kern scene in contex van de omgeving zet.
Bij SD is het halve acteur bij FHD 3/4 acteur en wat omgeving.
Letterbox halve acteur en veel omgeving.
4k hele acteur en veel omgeving.
8k hele squad en nog meer omgeving.

Een film fanaat wilt dat wel. Alleen de prijs is nu voor de meesten fanaten gewoon nog te hoog. En die maken wel de ruimte voor.
Dit behoefd geen marketing, het is gewoon een luxe item, dus voor cinema fielen heefd het wel degelijk meerwaarde.

Bij filmen in sd hd uhd is er ook kijkhoek in begrepen.
Goed voorbeeld is epische effect wat letterbox cinematic de kern scene in contex van de omgeving zet.
Bij SD is het halve acteur bij FHD 3/4 acteur en wat omgeving.
Letterbox halve acteur en veel omgeving.
4k hele acteur en veel omgeving.
8k hele squad en nog meer omgeving.

Een film fanaat wilt dat wel. Alleen de prijs is nu voor de meesten fanaten gewoon nog te hoog. En die maken wel de ruimte voor.
En je denkt echt dat ze die films voor het nieuwe formaat even opnieuw gaan bijsnijden?

Ik verwacht echt dat het hele 4K-gebeuren gewoon is voor de rijke figuren met 3 Porsches voor de deur en een Swarovski deurknop, om even te laten zien wat voor een lange plasser ze eigenlijk hebben.
Ach ja, in de audio wereld is gebleken dat mensen liever 100 nummer op 1 CD hadden van MP3, dan 10 in WAV. Om maar te zwijgen over SACD etc. Ondanks dat je 4k resolutie gaat krijgen gaan mensen de films bewaren in 720p, want anders kost het te veel ruimte op de Harddisk.

Voor het gewone volk is het toch kwantiteit boven kwaliteit.
Ja de ene BR is de andere niet.
Films worden zwaar bewerkt maar menkiest daar bij ook voor een bitrate.
De video fielen zullen wel weten welke BR film als referentie goed te gebruiken zijn.

Zo heb ik SG1 op DVD ik heb het idee dat die serie is opgenomen met een kamera met slechte licht gevoeligheid of daarbij wat meer beeld ruis.
Zal bij BR niet anders zijn.
Dan hebben al die mensen die bij jou komen een bril nodig! Ik zit op +- 3 mtr afstand van mijn tv 46 inch en ik zie het gelijk als het minder is als 1080p(jammer genoeg zijn er maar weinig films die helemaal 1080p op bluray zijn gezet donkere achter grond en ik zie de pixels al verschijnen)! En ik vind dat nog niet scherp genoeg dus kom maar op met 4k
Dat je op donkere achtergronden 'pixels' ziet verschijnen heeft niks met de resolutie te maken. Ook zie je geen 'pixels', maar compressie artefacten. Ze zijn iets te veel gaan comprimeren in donkere vlakken, waardoor het geen egale vlakte is met mooie overloop tussen verschillende mate van 'donkerheid'.

Dit zou je eventueel kunnen oplossen door met je contrast te spelen. Als je TV een goede contrastratio heeft, zou je het donkere achtergronden donkerder kunnen krijgen, zonder dat het hele plaatje te donker wordt.
Als je bij donkere achtergronden pixels ziet houdt gewoon in dat je contrast vrij waardeloos is. Bedoel als ik op mijn PC een film kijk dan zie ik dat zelfs bij 1080p films omdat mijn monitor niet zo'n geweldige contrast heeft. Terwijl als ik m'n 3 weken oude TV gebruik met films ziet dat er veel beter uit.
Het is de bedoeling dat je een 2x zo grote TV koopt, anders heeft het inderdaad weinig zin. Vandaar ook dat er voorlopig geen grote vraag verwacht wordt.
Ze doen dit omdat FHD nu massa productie is de marges worden laag. Dus komen ze met iets nieuws war er nog flinke marge op kan.
Als richting de ¤2000,- als instapper dan wordt de marge en de volumesales interresant van een commercieel stand punt.
Maar ja ze meoten ergens beginnen bij ¤15.000,-
De eerste jaren zitten ze nog met de R&D kosten maar als de volumesales op gang komen dan hebben ze na enkele jaren dat er uit .
Maar het kan ook floppen.
De drang van zwartwit buis TV nar kleur is wel groot.
Van 65" FHd naar 100" UHD lijkt mij geen massa audience.
En je met er ook plaat voor hebben of willen vrijmaken.

Heb 55" zou best wel 65" willen hebben. Maar UHD heefd zin als je ook enigzins optimale kijk afstand beeld diagonaal zou hebben. Dat is dus 110" a 130"
En met 8K kom je al over de 200" dus een halve of grotendeels as muur zijde grote TV

Maar ja nu heefd men ook op 4 meter een 32" in FHD en massa heefd geen benul dat men helemaal die FHD resolutie niet optimaal kan ervaren.

Dus genoeg volk die later met een 65 of zelfs 55" UHD sherm zal gebruiken.
Totdat UHD FHD verdringt in dat segment dan net zoals je nu weet.
Dat 720p zat is voor 42" op 4,5 meter maar alleen of breedere keuze aan FHD is.

Misschien dat men dan ook meteen overgaat naar OLED panelen.
Ik zie niet helemaal in wat de markt nu zal zijn voor deze nieuwe UHD standaard...voorlopig hebben veel mensen vooral nog DVD's met een deel Blu-ray, die zijn vaak nog niet eens op FullHD resolutie...waarom zou je dan een TV kopen met een grotere resolutie? Ik denk niet dat veel mensen een TV kopen om vervolgens hun PC op aan te sluiten voor gaming, dus wat ga je dan afspelen op je UHD TV?
Ga er maar vanuit dat er ook fabrikanten zullen zijn die dan een resolutie van ongeveer 3000x1500 uit gaan brengen die ze dan SuperHD zullen noemen en waar je geen HDMI aansluiting of dergelijke voor nodig hebt.

Lang leve de diversificatie :/
Ik denk dat ze "HD Ready" pakken en dat verdubbelen ofzo, en dat vervolgens "Ultra HD Ready" noemen. Want, denkt de consument, dan zal het wel goed zijn.

Dan wordt het dus 2560x1536.

[Reactie gewijzigd door _Thanatos_ op 20 oktober 2012 20:20]

HD ready is doorgaans 1280x720, dan zou UHD Ready 2560x1440 zijn, en niet 1536. Is maar een klein detail hoor ;)

Feitelijk is het "Read" tekstje inderdaad niks meer dan de digibeet aantrekken om iets te kopen waarvan ze toch het verschil niet snappen. UHD Ready of daadwerkelijk UHD. Is best verwarrend.

Net zoals x86 en x64 aanbieden. Men zou verwachten dat x86 beter is. (even een zijlijntje)
X86 is ook meer verzamelnaam van IA32 X86 x86-64 AMD64 en alle pre 32 bit x86 varrianten 16 en 8 bits.
IA64 valt daar niet onder.
X64 ken ik niet.
Wel 6800x
Ik ken x64 wel, het zit in al m'n pc's. Maar laten we niet mierenneuken over termen, je weet best wat ermee bedoeld wordt ;)
Is niet nodig.
HDMI vanaf versie 1.3 ondersteunt een bandbreedte van 1,04 Gigabyte/sec
Een Mpeg2 blueray full HD signaal op 1920x1080 gebruikt 36 Megabyte/sec
Dus als je 4x 36 MB/sec doet om het 4K resolutie te halen en dan zelfs dat maal 2 doet om een 3D signaal door te sturen zit je op een max van 288 MB/sec

Dit laat meer dan genoeg ruimte voor uitbreiding of zelfs andere video formaten die meer bandbreedte vragen.
We zullen pas een nieuwe kabel/aansluiting nodig hebben als het 8K resolutie uitkomt maar dat zou nog wel eens gewoon met het HDMI 2.0 versie kunnen.

Displayport tech van intel is juist de vervanger van DVI en kan zelfs meerdere schermen aan sturen met 1 kabel wat dus totaal niet nodig is met gewone TV's and video apparatuur.

-Edit
MB ipv Mb
En dit is gebaseerd op 24p niet 30p

[Reactie gewijzigd door Caelestis op 20 oktober 2012 12:44]

Hoe kom je aan die 36 Megabyte/sec, en wat maakt het uit of het van een mpeg2 komt?

Voor zover ik weet gaat er over een hdmi kabel typisch gedecodeerd niet-gecompresseerd beeld. Dan kom ik voor full hd 30p al aan 1920x1080x3x30 = 177 MB/sec.
Voor Ultra HD en 3D kom ik dan al aan 1.4 GB/sec
Je vergeet een berekening aangezien jij het nu dus heb over MegaBits.
Doe je berekening nogmaals maar dan delen door 8 op het eind om Megabyte's te krijgen
En dan zit jij op 23 Mb/s dus geeft ik al aan dat het meer is.
hij doet megabytes (MB), namelijk 1920 * 1080 * 3bytespp * 30fps
Probleem is voor HDMI wordt elke pixel kleur berekend met 10 bits niet 3 bytes dus daar gaat het al aardig scheef in de berekening
Heb je daar een bron van?
Op wikipedia vind ik dat allesinds 8 bit per component RGB ondersteund moet zijn, en sinds hdmi 1.3 zijn er zelfs modes tot 48bits per pixel voorzien.
De laagste mode die ik vind is YCbCr 4:2:2 (8–12 bits per component), wat als ik me niet vergis neerkomt op 16 bits per pixel.

Verder lijkt het volgens wikipedia er op dat in HDMI 1.4 Ultra HD @ 30fps voorzien is, maar hoger word niet vermeld, en ook 3D lijkt op deze resolutie niet ondersteund.
Het is in het wiki pagina terug te vinden onder het kopje TMDS
Welk ik moet nageven is een beetje verwarrend maar als je een duidelijker uitleg wil hebben zal je de officiele spec sheet voor HDMI moeten downloaden welk je hier kan vinden
http://www.hdmi.org/manufacturer/specification.aspx
Voor zover ik kan zien heb je dat toch verkeerd begrepen. Er staat enkel dat om het signaal te verzenden er van 8b/10b encoding gebruik gemaakt word. Oftewel er worden 10-bits gebruikt voor elke 8 bits die verstuurd worden.
Dit is zo ongeacht het welk kleurformaat er word verstuurd, en het hangt dus af van de verdere specificatie van wat er precies word verstuurd hoeveel van die bytes voor elke pixel nodig zijn.
(Staat ook onder die hoofding dat het General Control Packet informatie over de kleurdiepte kan bevatten)

Ik heb de volledige HDMI specificatie niet doorgegeven, maar de FAQ op de hdmi pagina vermeld bij v1.3 het volgende:
Deep Color: HDMI 1.3 supports 10-bit, 12-bit and 16-bit (RGB or YCbCr) color depths, up from the 8-bit depths in previous versions of the HDMI specification, for stunning rendering of over one billion colors in unprecedented detail.
Dat bevestigd toch opnieuw dat tot 1.3 8-bit per component (dus 24-bit voor RGB pixel, en 16-bit voor een YCbCr 4:2:2 pixel) gebruikt werd, en dat sinds 1.4 het mogelijk is om dit verder uit te breiden.

Om alle mogelijkheden van HDMI met een Ultra HD beeld te kunnen benutten mag het dus wel duidelijk zijn dat een standaard die meer bandbreedte bied vereist is. (vermoedelijk HDMI 2.0 dus)
3D werkt prima met HDMI 1.3 hoor, alleen wordt het dan niet automatisch gedetecteerd.

[Reactie gewijzigd door benito100 op 20 oktober 2012 20:02]

"een beeldverhouding van minimaal 16:9"

wtf is dat nou weer voor eis? Wat maakt het uit wat je beeldverhouding is zolang het daadwerkelijke aantal pixels maar hoog genoeg is?..

Snap best dat er tegenwoordig echt geen tv's meer gemaakt zullen worden met een verhouding van 16:10 of kleiner maar om dat nou als EIS te stellen vind ik toch wel raar hoor.
Dat heet uniformiteit dat lijd tot minder balken of zoom geklooi bij TV kijken.
Minimaal 16:9 is sowieso gek. Mag 2.35:1 dan wel, maar 16:10 niet?
Niet eens alle kanalen worden in 1920x1080 uitgezonden en ze gaan alweer verder met UHD. Heb je weer dat straks iedereen een ultra resolutie TV heeft en dat alles dan in 1920x1080 word uitgezonden.
Ja het word dan wel geschaald maarja, kun je net zo goed DVD's kijken op je full HD scherm toch?
Niet dat het een slechte ontwikkeling is hoor, tuurlijk niet.
Dit komt meer omdat de verschillende technologische ontwikkelingen niet in de pas lopen. Het is makkelijker om UltraHD apparatuur te ontwikkelen dan een hele infrastructuur te upgraden. In het eerste geval gaat het immers slechts om losse apparaten, in het tweede eval praat je over een hele keten van camera/studio - distributienetwerk - commerciele proposities - huiskamerapparatuur....
Je hebt toch altijd nog zoiets als Blu-Ray Speler, PS4 / XBOX720 die dat allemaal wel gaan ondersteunen, dus je hebt er zeker wel wat aan, maar TV zenders lopen natuurlijk altijd achter..
Dat is wel zo alleen 90% van de tijd dat ik naar mijn stuk glas zit te staren kijk ik televisie. Ik vraag me ook af trouwens hoe dit gaat via digitale tv en iTV, mijn KPN boxje verbruikt bij full HD al 8/10MB/s verbruikt dit dan rond de 16/20?
4x zo veel dus 32/40 MB/s. Horizontaal is 2xHD, vertikaal is 2xHD dus 2x2 HD = 4xHD.
Zo makkelijk is het niet. Vergroten van je frame zal inderdaad een verhogen met zich meenemen, maar verviervoudigen gaat het niet doen. Aangezien wat op het scherm staat op zich hetzelfde is maar gewoon met meer detail kan de encoder dus meer detail encoden waar het nodig is. Denk bijvoorbeeld aan een blauwe hemel, die gaat echt amper meer data nodig hebben dan nu voor FullHD. Ook zullen er sowieso nieuwe encoders/decoders komen die in ruil voor meer CPU kracht een betere compressie kunnen doorvoeren. Er is nu al gigantisch veel verschil tussen verschillende AVCHD profielen dus de kans is vrij groot dat dat gewoon zo gaat blijven...
Tegen de tijd dat dit mainstream wordt denk ik dat glasvezelinternet ook mainstream is en we veel meer via internet kijken dan via de klassieke ether/kabel/satelliet. Denk bijvoorbeeld aan het nieuwsbericht gisteren (?) dat Netflix naar Nederland komt.

In de toekomst zullen we denk ik grotendeels afstappen van het idee dat je om 18 uur klaar moet zitten om het 18uur-journaal te kijken en dat je om 20 uur naar het toilet moet zijn geweest omdat je anders het begin van GTST mist. Overstappen van de ene naar de andere resolutie is dan ineens wat makkelijker, omdat zenders meedere resoluties kunnen aanbieden en het feitelijk gewoon om streams gaat.
De digitale zenders zullen dat vast bij kunnen houden, tzt, met een decoder die de resolutie aankan.
Je abo zal natuurlijk duurder worden omdat je veel meer data verbruikt.
En natuurlijk hangt eea ook weer af van hoe jouw aansluiting is, met adsl ga je er niet komen(of eerst een paar dagen bufferen 8)7 ), je zult dus waarschijnlijk glasvezel moeten hebben om voor die service in aanmerking te kunnen komen, en liefst dan tot in huis glasvezel, ipv zoals nu (vaak) tot aan de provider-verdeler ergens.
Gok ik......... :P

[Reactie gewijzigd door Teijgetje op 20 oktober 2012 22:37]

Dat vraag ik me dus af, als een Blu-Ray nu precies op het schijfje past, hoe gaan ze dan ooit beeldmateriaal van hogere resolutie op hetzelfde schijfje proppen zonder kwaliteitsverlies? Als er geupscaled gaat worden zit ik persoonlijk liever met een FullHD beeld zonder upscaling...
Niet eens alle kanalen in Nederland nee.

In bijna alle andere landen zijn ze hier veel verder mee voor zover ik gezien heb.
Behalve in Belgie, daar zenden alleen de publieke omroepen in HD uit. De rest van de zenders lopen nog verder achter.
De Nederlandse zenders zijn toch zo goed als allemaal (op de regionalen na) in HD beschikbaar. NL1/2/3, de RTL-/SBS zenders, Eredivisielive, Film1/Sport1, HBO, vrijwel alles is HD.

(dat lang niet alle content daarop native HD is is een ander verhaal)
HD Wat? 1080i? of zijn er al bij die native, vanaf de camera en alle apparatuur er tussen 1080p50 of 1080p60 doen? Dan heb je het pas over echt full HD!! Ik heb het nog niet gezien... Ga je het verschil op je TV zien? Zou kunnen, maar door de compressie, het is 2x zoveel data (raw) dan 1080i. Dus meer artifacts... Dus grote kans dat het niet eens echt mooier is.
Hadden ze het niet gewoon 4K HD kunnen noemen? Dat snapt iedereen.

En nu ze 4K Ultra HD noemen, welke naam gaan ze bedenken voor 8K? Super Ultra HD, Mega Ultra HD...?
Niet iedereen begrijpt het (zeker niet in grotendeels onopgeleide landen als de VS, maar ook in Nederland is het treurig). Als een groot deel van de bevolking zo'n moeite heeft met cijfertjes dat ze breuken al universitair niveau vinden moet je met onzinnige termen komen als "hoge resolutie" en "heel heel hoge resolutie". Dan kan je het meteen ook met een paar marketing trucs opblazen alsof het heel bijzonder is. Voor iedereen met verstand van zaken is Full High Definition helemaal niet zo high (tenzij het misschien in een 7 inch tablet zit), maar de massa bereik je juist beter met dat soort termen.
Kom maar op met die Ultra-HD, naast TV's lijkt me het vooral interessant om een Ultra-HD projector in de woon kamer te kunnen hebben, zo kan je een muur vol projecteren met een hoge DPI.

Als gpu's deze resolutie gaan ondersteunen lijkt het geweldig er op te gamen 8-)
GPU's hebben de rekenkracht echt wel. Anti-aliasing verhoogt eigenlijk de resolutie, waarbij het vlak voordat het videosignaal wordt verstuurd het beeld weer kleiner maakt. Alles wat je moet doen is stoppen om het beeld kleiner te maken. Met een beetje hoge DPI heb je geen eens meer AA nodig, met als resultaat dat je spellen potentieel op dit scherm juist sneller draaien (immers, de berekeningen die het beeld downscalen hoeven niet meer te worden gedaan, dus in de essentie gebruik je minder rekenkracht). Tenzij je op 4k gaat gamen met AA, dan kost het mogelijk een rekencapaciteit vergelijkbaar met nu 16x AA (wat de sterkere videokaarten nu al bij veel games kunnen).
4k? lijkt me meer 2k
1920*1080 = 2073600
3840*2160 = 8294400

De resolutie is 4x zo groot, en de horizontale grootte is bijna 4k, vandaar de naam: 4k HD, nu dus Ultra HD.
Wat mij betreft een prima naam. Het lijkt me niet dat de 'onwetende' consument het verschil tussen Full HD en Ultra HD niet 'ziet' of niet 'uit elkaar kan houden.'
4K HD is scherper dat we uberhaupt kunnen zien.
Volgens mij is dit alleen uitgevonden om het downloaden te bemoeilijken.
Ik kan bij 1000k nog de individuele pixels tellen, hoor. Moet je alleen een metershoog scherm bouwen. Onzinnige reactie, of het scherper is dan je kan zien ligt ook aan de grootte van het scherm. In een telefoon zou het wel heel ongelooflijk groot zijn (op mijn 4,8" 720p scherm begin ik moeite te krijgen de individuele pixels te zien), maar bij grotere formaten moet je de resolutie drastisch verhogen om dezelfde DPI te houden. Bij 10 inch kom je dan al over de 2560*1440, en bij 20 inch ga je bij gelijke DPI al over 5k (natuurlijk zit een computerscherm iets verder van je af, dus je kan je een iets minder fijn beeld veroorloven, en de TV is nog verder van je vandaan dan een computerscherm). Dan is 4k nog niet eens zo heel extreem op 24 inch of groter. Op kleinere schermen dan 20 inch zou het naar overkill neigen.

Scherpte is overigens eigenlijk een foutieve term. Ik zie het scherm van een iPad 1 even scherp als dat van een iPad 3,maar de 1 is wel beduidend korreliger in uiterlijk. Als je scherm niet meer scherp genoeg is accommoderen je ogen waarschijnlijk niet meer goed. Dat heeft te maken met lenzen, hoe het licht op je netvlies valt en brillen.
en komt er dan ook een Ultra HD Ready? :+

over 10 jaar Ultra Mega Super Duper HD ?

hier zal wel een team van 16 man dag en nacht over na hebben gedacht

anyway, hogere resolutie is altijd wel fijn, hopen dat 4k ... sorry ik bedoel Ultra HD TV's niet al te duur blijven
De opvolger van 4K UHD staat inderdaad ook alweer klaar, namelijk 8K UHD (7,680 × 4,320).
Ik vraag me af of dat echt nog zin heeft, of ze speculeren erop dat we straks tv's met een diagonaal van 2m hebben ofzo. Ik merk dat ik het verschil tussen 720p en 1080p amper zie op een 42" televisie op 3m afstand. UHD kan ik nog snappen voor grote tv's en beamers, maar 8k UHD lijkt me meer marketing dan daadwerkelijk een vooruitgang.

Maar ach, we moeten wat om de tv-verkopen te stimuleren. 3D slaat niet echt aan :P
plaatje
Mooi plaatje m.b.t. jouw comment :)
wordt vaak gepost maar moet toch zeggen dat ik er aan twijfel. ik zelf heb een 1600p scherm en kijk daar ook Televisie op (series, films et cetera) maar zie toch zeker het verschil vanaf 3m tussen een filmpje van 480p en 1080p. Dus je kan het wel aan blijven halen, maar dit klopt gewoon niet. (althans voor mij)

disclaimer erbij gezet dat dit betrekking heeft op mijzelf.

[Reactie gewijzigd door boto op 20 oktober 2012 12:01]

Dat ligt dus ook aan het formaat van je scherm, en uiteraard zit er van persoon tot persoon wel wat verschil in. Daarnaast is het ook geen hele harde scheiding.

Echter wat waarschijnlijk belangrijker in dit geval is, is de compressie. Goede kans dat wat je op lagere resoluties voornamelijk ziet is de compressie, en niet zozeer de resolutie die onvoldoende is. Op hogere resoluties vallen die compressie-artifacts minder snel op, zijn minder, etc. (Afhankelijk van codering uiteraard).
Je moet ook inzien dat we er steeds meer aan wennen dat het beeld scherper word. Ik herinner me nog goed hoeveel mensen de meerwaarde van Full HD niet inzagen ten opzichte van HD ready.
Hier, nog steeds niet. Het is dat "Full HD" zo'n beetje standaard ondersteund wordt tegenwoordig maar het verschil met "HD-Ready" is voor mij absoluut onzichtbaar bij normaal gebruik.
Beter nog: Ik waardeer een goede DVD beter dan een schrale BRD. Een goede omzetting en nabewerking telt meer dan die paar extra pixels.
Dan zijn je ogen niet goed. Niet negatief bedoeld verder, maar tussen 1080p en 720p zit een erg groot verschil als je eerlijk vergelijkt. Veel gemaakte fouten zijn dat er verschillende bronnen worden bekeken of dat het 1080i is ipv 1080p of dat er ergens 720p wordt geupscaled naar 1080p door een dvd speler of een combinatie van bovenstaande dingen. Ook tv-zenders zijn onbetrouwbaar om te oordelen.

Een goede DVD is ook uiteraard beter dan een schrale BRD, dat zegt verder niks over FUllHD en is ook geen eerlijke vergelijking.

Ook Ultra HD is zeer zeker een merkbaar betere beeldkwaliteit dan FullHD. Voor huidige formaten (40-50 inch op een paar meter) is er daarboven weinig verschil meer te zien.

Waar ik mij soms aan heb gestoord is dat sommige mensen nog met een analoog signaal werken op een FullHD scherm en dat ze dan kritiek hebben op de kwaliteit van het FullHD scherm...
vergeet ook niet dat veel mensen totaal niet weten wat echte 1080p is aangezien ze alleen maar downloaden, en dan ook van die 'kleine' 5-8gb files(hell of nog veel kleiner) welke vaak genoeg echt behoorlijk kwaliteitsverlies hebben in vergelijking met de echte fatsoenlijk gemasterde bluray..
Het kwaliteit verschil tussen een 8gb en een 16gb 1080p is echt niet groot, ik kijk regelmatig films op mijn 32" 1080p scherm en een 90" 1080p beamer scherm. Meestal pak ik gewoon een 2GB ripje omdat op mn 32" het verschil niet te zien is.

En ja de 40GB LOTR op 1080p zag beter uit dan die 2GB blueray rips, maar groot was het verschil niet.

Sowieso, resolutie staat los van birate dus ik snap je punt niet, tenzij het geupscaled is maakt het geen barst uit, als de resolutie maar 1080p is kan je zelf bepalen of je hetverschil ziet tussen 7020p en 1080p en op welke afstand.
Resolutie straat zeker wel in verhouding tot bit rate.
Maar je kan een
0,5gbit UHD flick encoden. Artifacten fiasco
Maar ook een 5gbit 720p kwaliteit stream.

Maar de benodigde bitrate schaald met resolutie.
Dan speeld de codec ook een rol.

.
En wedden dat iedereen die dat het hardst roept ook de telefoons heeft met full-HD scherm? Maar dan heeft het ineens wel meerwaarde, dat strakkere beeld.

Hopen dat doe 4K schermen ook op 24-26" komtvoor bij de pc. Liever vandaag dan morgen.
die was er al, was voor velen toen te duur.
http://en.wikipedia.org/wiki/T221
ik heb destijds de Iiyama versie niet gekocht;
¤3500 / ¤5000 was me helaas teveel
maar ziet er wel goed uit,
en op een halve meter zie ik de individuele pixels.

(ips avant la letre, 3840x2400)
Klopt helemaal, op een 42" zie ik het verschil niet tussen 720p en 1080p op 3 meter afstand. Op een 50" zie ik bij 4,5 meter het verschil niet tussen 720p en 1080p. Dat wil zeggen dat je ten minste naar 85" moet of op 1 meter gaan zitten voor je het verschil ziet. En op 1 meter afstand heb je na een half uur al nekpijn van je hoofd heen en weer bewegen.

Overigens zie ik op mijn 27" monitor zie ik op 1,5 meter het verschil niet meer tussen 720p en 1080p.
mee eens, UHD (om het zo dan maar te noemen) is nog te doen , maar 8K zal wel gewoon onnodig zijn (but who knows, anything can happen)
Nee, eerder een luxe probleem net als met auto's velen hebben er geen andere hebben een " heilige koe" van ton¤
Het is wat je hobby is en wat je preoriteiten zijn.

Wel is het zo dat een 8ksherm met een optimale beeld agonaal in een gewone woonkamer grote al snel zo groot als de muur wordt.
Dat is voor velen al grote probleem om een vrije meer te hebben maar je richt je huis dan ook in aan de hand van een muur grote TV.
Bij velen zal hun vrouw / vriendin er heel grote mooite mee hebben. Gezien die vaker dominant zijn kwa woning inrichting.

Als het betaal baar wordt nou ik wil wel maar kan niet omdat ik dan een muur grote kast weg moet doen voor een 4meter sherm.
4K nou 100" nou nee deur in de weg. 84" nou dat wordt krap.
Maar als het van mij afhing ging die kast weg:)
Ik heb op de IBC in de RAI dit jaar naar een 8K staan kijken... Op een paar meter afstand wat als normale afstand voelde was ik totaal niet onder de indruk... Tot ik op 1 meter van dat 85" scherm ging staan. Zo ongelovelijk veel detail.. WOUW!

Maar, z'n groot scherm hang je thuis niet weg en ga je niet op 1 a 2 meter afstand naar kijken.

Als we beter TV willen... Moeten we bij de kabel bedrijven beginnen, als die eerst de bandbreedte eens een heel stuk vergroter per kanaal. Dan kan de compressie een heel stuk naar beneden. Zeker als er straks 4K door zou moeten.. Door die zelfde 10Mb/s?? dat wordt toch helemaal niks. Nog meer artifacts!!
Voor schermen tussen de 20 en de 30 inch kan het ook fijn zijn. Daar zit je vaak met de neus tegen aan, dan zie je het toch ineens best goed. Ik stoor mij dagelijks aan het Minecraft uiterlijk van mijn computerscherm.
720P 42"
1080P 65"
2160P 130"

je vervangt je SD CRT beeldbuis 55cm 26"
Ook niet voor een 26 HD ready of 26" FHD Of 26" UHD.

Men zegt ook voor 42" op 4 meter voldoet 720p alleen je hebt die keuze niet meer.

Er zijn video fielen die liever een 50" 720p plasma willen en FHD 75"

Alleen als budged reikt tot 50" kuma pioneer.
Zal niet 10jaar zijn. Ze zijn al lang bezig met 8k (4320p) http://en.wikipedia.org/w...igh-definition_television dus ben benieuwd hoe ze dat gaan noemen
Super Hyper Infinity Extra Large Definition. Of wel S.H.I.E.L.D.

Stark: “You should get a better name.”
Wel heel interessant dat wiki artikel. Vooral die bandbreedte is gigantisch:
in May 2012, NHK showed the ultra-high definition imaging system it has developed in conjunction with Shizuoka University, which outputs 33.2 megapixel video at 120 fps with a color depth of 12 bits.
As Ultra-high definition broadcasts at full resolution are designed for large, wall sized displays, there is a possibility that fast moving subjects may not be clear when shot at 60 fps, so the option of 120 fps has been standardized for these situations.
To handle the sensor output of approximately 4 billion pixels per second with a data rate as high as 51.2 Gbit/s, a faster analog-to-digital converter has been developed to process the data from the pixels, and then a high-speed output circuit distributes the resulting digital signals into 96 parallel channels.

[Reactie gewijzigd door Struikrover op 20 oktober 2012 13:54]

Sorry dat ik dit zeg (niet alleen tegen jou,maar ieder ander) wikipedia is geen bron jongens. Ik kan ook neerzetten dat over 15 jaar een tv komt met geur, zodat je in de film wordt getrokken.
Het merendeel van de informatie op wikipedia klopt vaak niet.
Ik ben het met je eens dat wikipedia niet per definitie een betrouwbare bron is, maar om nou te zeggen dat het merendeel van de informatie niet klopt vind ik wel een beetje erg sterk geformuleerd. Als er een een bronvermelding bij staat (in het betreffende artikel 3 vermeldingen bij de het hoofstuk over 8K) kun je toch wel zeggen dat de informatie redelijk betrouwbaar is. (even afhankelijk van de bronnen zelf)

Of die standaard er binnen 10 jaar al is, dat is een andere vraag, maar het zou best wel eens kunnen. Al is het natuurlijk maar de vraag of er genoeg beeldmateriaal is op die resolutie. Dat is natuurlijk wat de massale adoptie van de techniek drijft.
Nou daar zit je verkeerd... Omdat de informatie mogelijks van een onzekere betrouwbaarheid is, maakt niet dat het geen bron is.
Verifiëren is de boodschap!
In dat geval kun je 4K beter overslaan.
Het heeft overigens bijna 10 jaar geduurd voordat 16:9 een echte standaard was.
Kan me er dan ook niet echt druk om maken.
Volgende standaard wordt Über HD. In Amerika Uber HD. In Azië Übel HD.
Een nieuwe vorm van PAL en NTSC, maar dan met een 3e vorm erbij.
Ultra HD Ready is gewoon HD :+
Ik vind de naam niet echt spannend, maar hij dekt de lading wel goed.
Ik zou het ook mooi gevonden hebben als 4K gewoon 4K was blijven heten. Vind ik ook wle wat hebben.

Ik ben ook benieuwd of er inderdaad gewoon een HDMI-versie komt of dat er een nieuwe kabel voor nodig is.

En de prijzen.... in het begin heel duur, later zullen ze wel goedkoper worden.
Zoals iedereen weet komt in het rijtje na Ultra, M-M-Monster (en dan Ludicrous en als laatste holy shit).

In 2020 kunnen we dus de eerste TV verwachten met M-M-MonsterHD.
Nee UHD is de nieuwe ready 8K is de nieuwe topper.
Eerst kwam er hdready met 720 of 768 wild groei.
FHD kwam later.
ik vraag me af wanneer de ''gewone'' consument een 4k scherm in huis kan halen.

weet iemand hoelang dat ongeveer duurde bij full hd? (van introductie tot daadwerkelijke betaalbare schermen)

wel een erg mooie ontwikkeling zeker voor gamen op grotere schermen!
Ik vraag me juist af in hoeverre dit voor de "gewone" consument een nuttige ontwikkeling is. In hoeverre zal je het verschil daadwerkelijk kunnen zien/appreciëren als je normale kijk afstanden houd van woonkamers.

Wanneer je de bekende 'distance charts' bekijkt op internet is 1080p materiaal pas zinvol bij een maat van 50" = 3-3,5 meter. Nu word de resolutie verviervoudigd.

Zelfs al zou je dit alleen betrekken tot desktop monitoren zit er een limiet aan kijkafstand vs beelddiagonaal wat je ogen kunnen zien.
dit artikel op CNet legt uit / probeert uit te leggen waarom 4K resolutie stom is, waarbij ze met harde cijfers komen (alhoewel niet heel wetenschappelijk) en zaken uitrekenen als zichtbare pixels.

Ik ben het er alleen niet helemaal mee eens; als je bijvoorbeeld mijn Mac naast een 'retina' Mac zet zie / merk je wel degelijk verschil, ook al kun je in beide gevallen geen individuele pixels onderscheiden. Om maar een random voorbeeld te noemen.

Maar eerlijk is eerlijk; in de bioscoop heb je ook 4K resolutie op een belachelijk groot scherm, daar heb je ook niet last van 'pixels'. Oké, in dat geval zit je met wat menging van de pixels en het licht daarvan, het is een projector, geen laser.
Zoals je zegt, ondanks dat je bij beide geen pixels ziet, zie je toch verschil.
Beter beeld heeft dus niet direkt met het zien van pixels te maken.

Je bioscoopvoorbeeld loopt wat mank.
In de bioscoop worden de films geprojecteerd, door een speciale projektor vanaf film, niets digitaal.
Zoals je een dia immens groot op kunt blazen "zonder" scherpteverlies.
Of zoals je vroeger per ongeluk voor de projektor kon staan, bv met je hoofd, zodat de hele zaal een zwart beeld zag; je hoofd is geen 4K en ook niet zo groot als een bioscoopdoek. ;)
Dat klopt wel niet hoor. Zowat alle cinemas in België en Nederland (en zowat in de hele wereld) gebruiken nauwelijks nog pellicule. Digitale projectoren, volgens de DCI standaard, is de nieuwe film. Daarenboven zijn er nog maar zéér weinig 4K projectoren in dienst (of films in die resolutie beschikbaar), de meerderheid van de films en de zalen vertonen op 2K (iets beter dan Full HD) aan 24bps.
Lijkt mij een prachtige ontwikkeling, net zoals retina op al die Apple producten.
Het scherm van de mbpr ziet er prachtig uit terwijl ook iedereen riep "Dat is niet nodig op 15".

Als de tv's dan 55" blijven zoals de top modellen nu maar als is een aantal X zo scherp dan kan ik dat alleen maar toe juichen. Lijkt me geweldig.
Ik roep het nog steeds, op 15" is het nutteloos. Ik heb er 'ns mee gewerkt, nou het maakt mijn ervaring niet prettiger ofzo. Goede ontwikkeling dat wel, maar nodig? nee.
je hebt er " 'ns mee gewerkt". Nou dan moet je er eens een weekje mee gaan werken (Photoshop, aperture enz) en dan terug stappen op een normaal scherm. Went erg snel en dan is de rest toch best lelijk geworden.
Precies, het went snel en je wil dan niet meer terug, eigenlijk.
Zo ziet mijn oude 27"HDready tv, "er niet uit", in vergelijking met mijn 40"3DHD ips-tv. (Ik zit nog steeds op 2,5 m afstand)
Terwijl ik hem ooit mooi beeld geven vond (zoals mijn oude tante dat nu vindt ;) )

Wat mij dan weer opvalt;
Iedereen altijd maar roepen dat die oude monstreus grote CRT schermen scherper beeld gaven dan de moderne HD-tv`s.
En nu die naar die scherpte toegaan zie je het blijkbaar niet??

Natuurlijk zie je dat wel, vnl bij snelle bewegingen die stukken vloeiender worden.
(of bv de lijnen van een voetbalveld zijn plotseling wel kaarsrecht ipv geblokt versprongen.)
Of idd bij bewerkingsprogramma`s waar je de pixels induikt.

Als je HD en UHD naast elkaar zet, even groot, en je blijft beweren dat je het verschil niet ziet is de beste optie eens bij een goede opticien langs te gaan IMHO. :P

Ik denk dat diegenen bedoelen, dat, voor hén, het huidige beeld scherp genoeg is..
En dat is ook zo, je brein maakt overal een vloeiend plaatje van(bv een muur zie je als plat vlak, terwijl als je het van dichtbij bekijkt je de gestopte gaten en verffouten wel ziet en blijkt dat de muur helemaal niet vlak is maar welft en plafond-,/vloer- en hoek-lijnen golven.
Of zoals je een film ook prima op een 10"tv kan bekijken zonder het idee te hebben iets aan detail te missen.
Het is dus maar net wat je gewend bent en/of hoe je gewend bent te kijken(veraf/close-up)
Maar dat is dan ook niet de doelgroep die >15K uitgeeft aan een tv, en misschien nog 200 euro voor kabeltjes.
Maar geloof me, zodra die 4k tv betaalbaar is, zoals de gewone tv nu, dan schaft die groep ook 4K aan.

Ondanks dat ze het "niet zien". ;)

[Reactie gewijzigd door Teijgetje op 20 oktober 2012 22:05]

Als je het toch over PS en apperture hebt dan zou ik kleurcalibratie toch echt verkiezen boven een hogere resolutie.
Van mij mag een scherm 1024x768 zijn als ik de kleur maar goed kan beoordelen onder een gegeven omgevingslicht.

Ben het met je eens dat het snel went, maar als je echt aan het materiaal moet werken dan boeit resolutie echt een stuk minder.
Resolutie is dan vooral gebruiksgemak, als je een 27" scherm hebt wil je toch echt niet op 1024x768 werken ook al zijn de kleuren nog zo perfect...juist als je aan fotobewerking doet is het prettig om een groter deel van je foto tegelijk op je beeldscherm te kunnen toveren zodat je een beter idee hebt van waar je nu eigenlijk mee bezig bent en welk effect dit heeft op de foto als geheel...wat niet wegneemt dat je wel degelijk een punt hebt, kleurcalibratie is zeer belangrijk bij dit soort werk, maar zoals jij het stelt lijkt resolutie volledig onbelangrijk en dat is volgens mij toch overdreven.
grappig dat je het over photoshop hebt, want de kleuren op het scherm zijn toch echt slecht te noemen. Maar ik heb er "'ns mee gewerkt" en mijn 30" 1600p scherm voldoet prima.

Dus mijn 'normale' scherm voldoet prima. Ik vind het niks toevoegen.
rustig maar jongen, Ja dat is mijn mening.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True