Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 145 reacties
Submitter: Snikker

Het Japanse bedrijf NHK heeft aangekondigd met een sensor voor een 133-megapixelcamera te komen. De cmos-module kan onder andere video in 8k-resolutie opnemen, de opvolger van 4k. Onduidelijk is welke fabrikanten de sensor gaan gebruiken.

Volgens NHK wordt de cmos-sensor op 29 mei voor het grote publiek onthuld, zo geeft het bedrijf aan op zijn website. Wel heeft het Japanse bedrijf al laten weten dat de chip beschikt over 133 megapixels en een Bayer rgb-kleurenfilter. Door alle rgb-kleureninformatie op één chip af te handelen kan de totale grootte aanzienlijk kleiner gemaakt worden dan bestaande 8k-camera's, die veel gebruikmaken van 33-megapixelsensors per kleurkanaal.

De nieuwe cmos-sensor heeft een lichtopvangend oppervlakte met een diagonaal van 43,2mm. 8k-video, wat overeenkomt met een resolutie van 7680x4320 pixels, kan geschoten worden met maximaal 60 beeldjes per seconde. Waarschijnlijk is de chip bedoeld voor gebruik op de professionele markt, maar NHK heeft nog geen prijs bekendgemaakt.

Ook is nog onduidelijk welke fabrikanten interesse hebben in de chip en wanneer de eerste producten met een 133-megapixelcamera op de markt komen. NHK is al sinds 1995 bezig met de ontwikkeling van sensoren die video in 8k-resolutie kunnen schieten. Eerder dit jaar slaagde het bedrijf erin om een video met 8k-resolutie over een afstand van 27km te versturen.

NHK 8K cmos beeldsensor 120fpsEen 8k-sensor die NHK eerder introduceerde.

Moderatie-faq Wijzig weergave

Reacties (145)

Jammer dat er veel gereageerd over de zin en onzin van hoge resolutie weergave. Het gaat hier om opnames en in de industrie wordt er graag gekozen om op te nemen in een stap hoger dan het formaat waarin het gekeken wordt. Zo is een van de meest geroepen kreten bij de komst van 4K geweest, "eindelijk goed FullHD". Zie het zo, als er beeldinformatie (een haar) tussen twee pixels zit, word dat bij een FullHD sensor genegeerd. Helemaal als er wordt opgenomen in 4:2:2 of 4:2:0. Wanneer je FullHD wilt leveren in top kwaliteit, schiet je in 4K. Dat geeft ruimte om te croppen, stabiliseren en vooral bied het veel meer kleurinformatie. Wanneer je 4K beelden terug schaalt naar FullHD worden verloren pixels (de haar) een kleurnuance van de omliggende pixels. Dat resulteert in de illusie van meer detail.
Nu consumenten in de komende jaren meer om 4K gaan vragen is het aan de markt om de productie industrie te voorzien van een stap boven 4K zo is 6K RAW in de goedkope Red Epic lijn net in gevoerd bij de Dragon update.
Deze ontwikkeling voor 8K opname hoort daar ook bij, dat betekend niet dat je binnen twee jaar 8K televisies voor consumenten mag gaan verwachten of dat het allemaal maar marketing is (pixelrace).
Terwijl ik alle reacties las bedacht ik me dat ik dit stukje maar eens zou schrijven.
Blijkt dat jij het al hebt gedaan, Thanks :).

Verder verwonder ik me steeds om de reacties van mensen die niet verder kijken dan hun neus lang is. Ze lezen dat er een sensor voor 8k ontwikkeld wordt en roepen gelijk dat ze het verschil tussen fullHD en 4k al niet zien, zonder er over na te denken dat een TV/Monitor maar 1 van de vele mogelijkheden is om beeldmateriaal te tonen. En dan hebben we het nog niet over de vele mogelijkheden om beeldmateriaal te ver- en bewerken.
Daarnaast zijn er zat industriŽn waar een ultra hoge resolutie op een hoge framerate gewoon bruikbaar is

denk aan auto crashtesten (alhoewel 60fps aan de lage kant is), inderdaad de digitale beeldstabilisatie bij sport opnamen of andere opnamen met heel veel beweging, digitaal croppen om een detail shot / close-up te laten zien bij een wedstrijd zoals tijdens een voetbal goal.. de mogelijkheden voor ultra-highdef zijn totaal niet bedoeld voor een end-user, maar voor de industrie bijzonder interessant!
Waarom 133 MP en niet gewoon 33 megapixels? 8K = 33 megapixels. Dat wordt niet uitgelegd.
De vermelde pixels van camera's zijn eigenlijk subpixels in tegenstelling tot pixels op een beeldscherm. Zoek maar eens op Bayer-filter.
Wil je alle 33 megapixels van 8K van echte kleurinformatie voorzien zonder te interpoleren heb je bij gebruik van een Bayer-filter 4x zoveel subpixels nodig. Een subpixel bevat maar 1 basiskleur.
"...dat de chip beschikt over 133 megapixels en een Bayer rgb-kleurenfilter. Door alle rgb-kleureninformatie op ťťn chip af te handelen kan de totale grootte aanzienlijk kleiner gemaakt worden dan bestaande 8k-camera's, die veel gebruikmaken van 33-megapixelsensors per kleurkanaal."

Ergens hierin zal de verklaring liggen denk ik... zullen wel 4 kleurkanalen zijn dan rgb en zwart?
Je zit een heel eind in de juiste richting, maar het werkt iets anders ;).

Ten eerste: Megapixels op je monitor (TV, laptop, smartphone, etc.) zijn niet hetzelfde als pixels op een camera sensor. Wat wij een pixel op een monitor noemen is de combinatie van 1 rode, 1 blauwe en 1 groene subpixel. Drie van die gekleurde subpixels kunnen (bijna) alle kleuren weergeven, en noemen we dus in monitor land een pixel.
Op een digitale camera sensor werkt het iets anders. Daar kan een pixel maar een kleur detecteren. Wat we een sub-pixel noemen in monitor land heet dus een pixel in camera land.

Het menselijk oog is gevoeliger voor groen licht. Daarom moeten er in sensoren dus ůf gevoeligere groene pixels zitten ůf simpel weg meer. Zo is het Bayer-filter ontstaan. De meeste sensoren werken als volgt: Elke pixel, die maar een kleur bevat, leent van zijn buren wat informatie. Zo kunnen ze toch tot een gekleurde waarde weergeven.

Deze sensor werkt vermoedelijk dus anders. 8k Ultra HD is 7680*4320 pixels, 33,2MP. Hij heeft 133MP, wat bijna exact 33,2 maal 4 is (132,7MP). Deze sensor zal dus, volgens het Bayer-filter, 1 rode, 1 blauwe en 2 groene pixels gebruiken om de kleur van 1 pixel te bepalen.

Waarom is dit nu beter? Bij de eerst genoemde methode vind interpolatie plaats. Niet alle daadwerkelijk benodigde informatie is aanwezig, dus wordt deze geleend van de buren. Deze sensor werkt anders. Hij heeft daadwerkelijk alle kleur informatie ter beschikking (rood, groen en blauw) en maakt daar een pixel van die alle kleurinformatie bevat.

Als deze sensor doormiddel van interpolatie zou werken, dan zou dit eigenlijk een 16k sensor zijn, precies 15360*8640 = 132,7MP. Alleen door niet ik geÔnterpoleerd 16k op te nemen maar in 8k is de bestandsgrootte en bitrate dus lager maar heb je wel pixel die bijna perfecte kleuren weergeven.

---

Verder heb ik nog wat informatie uitgerekend aan de hand van de volgende gegevens: 133megapixels, 43,2mm (dit is exact 1,7") diagonaal, 16:9 aspect ratio.
  • DPI: 10366.62
  • Dot Pitch: 0.0025mm (2.5Ķm)
  • Size: 1.48" ◊ 0.83" (3.76cm ◊ 2.12cm)
  • Aspect Ratio: 16 ◊ 9 (1.78:1)
  • Effectieve resolution: 15,360 x 8,640
  • Pixel Count: 132,710,400
  • Megapixels: 132.71MP
We praten hier dus over een sensor vergelijkbaar met full-frame formaat (36mm x 24mm), alleen met een ander aspect ratio (en heel veel pixels :P). Oppervlakte is net iets kleiner (797,12mm2 tegenover 864mm2).

[Reactie gewijzigd door Balance op 17 mei 2014 13:01]

Balance,
Heel hartelijk dank voor de duidelijke uitleg!
Weer veel bij geleerd.
vr. groeten
ik geloof dat er een kleur dubbel is, blauw volgens mij. dit om de details van de helderheid het beste vast te leggen. Het menselijk oog is veel gevoeliger voor helderheid dus veel beelden zijn opgemaakt door een zwartwitbeeld en een kleurenbeeld. alleen de kleurenbeelden zijn minder scherp dus voor een sensor is het belangrijk de intensiteit heel goed vast te leggen. kleuren zijn minder belangrijk. veel codecs gebruiken ook een 1080 lijnen voor zwartwit en bijv 720 voor kleur.

overigens lijkt mij met 4k al de grens bereikt. 8k is alleen voor bioscopen nog interessant denk ik. maar de sensor is handig omdat de kwaliteit na het croppen beter is.
Die kleur is groen. Ik zelf denk dat het aantal pixels nog wel blijft groeien. Of het zin heeft is een ander verhaal.
De reden dat het groen is, is dat (waarschijnlijk doordat we planten eten) onze ogen veel gevoeliger zijn voor groen dan voor rood en blauw. Je ziet dit ook terug in andere kleurformaten. Bijvoorbeeld bij 16-bits kleur krijgen de rode en blauwe kanalen ieder 5 pixels en het groene kanaal 6.
De reden dat het groen is, is dat (waarschijnlijk doordat we planten eten) onze ogen veel gevoeliger zijn voor groen dan voor rood en blauw.
Dat is eigenlijk de reden waarom we o.a. ook de kleur rood kunnen zien. Jonge blaadjes bevatten minder gif dan wat oudere blaadjes en zijn ook wat roder van kleur (dit laatste geldt ook voor fruit). Dichromatie is het zien van maar 2 kleuren, zoals onze hond en huiskat, en die zien alleen blauw-groen. En ze eten in principe geen planten.
De reden dat onze ogen en dat van vele andere zoogdieren kleuren in het zichtbare deel (zichtbaar per definitie uitgaande van onze eigen ogen, natuurlijk) van het EM spectrum kunnen zien, is dat deze kleuren in ondiepe wateren nog zichtbaar zijn terwijl IR en UV hier niet goed door raakt. Onze vroege, vroege voorouders die nog in de wateren leefden hebben zich hier op aangepast. Tijdens de aanpassing aan het leven in het donker op het land zijn onze recentere voorouders het driekleurig zicht verloren geraakt, maar later weer opnieuw verkregen.

De reden dat we rood kunnen zien heeft niets te maken met dat we groen kunnen zien. Het heeft te maken met de aanwezigheid van photoreceptoren die gevoelig zijn voor licht met de golflengte geassocieerd met rood. In principe is dichromatie mogelijk in verschillende varianten.

De reden dat het groen is, is niet omdat we planten eten, noch omdat we gevoeliger zijn voor groen want dit laatste is niet waar: De rode photoreceptor is nog iets gevoeliger. Waarom voor extra groen gekozen is in sensoren is me niet geheel bekend, maar wel weet ik dat het niet om de hierboven benoemde redenen is.

Wat betreft het meten van intensiteit zou het logisch zijn om voor een cyaanblauwe sensor te kiezen, gezien cyaanblauw de kleur - of eigenlijk bijbehorende golflengte - is waarvoor onze staafjes het meest gevoelig zijn. Ons grijswaardespectrum is gebaseerd op het intensiteitsspectrum van dit cyaanblauw. NoxiuZ had wat dit betreft een goed punt, echter is er waarschijnlijk een technische reden waarom dit niet zodanig toegepast is in sensortechnologie. Wellicht zijn in deze sensoren de groene receptoren wel gevoeliger, of is er somehow makkelijker mee te rekenen.

Update: Heeft dus inderdaad met een technisch en eigenlijk zelfs natuurkundig punt te maken. Groen heeft de hoogste luminescentie van de drie basiskleuren en dat maakt het verwerken van beeldgegevens met een extra groene subpixel in de sensor beter dan wanneer een andere kleur gebruikt zou worden. Zoals Roelofs-Hengelo vermeldt, hierom ook een green-screen in plaats van een blue-screen.

Dit bevestigd dan ook dat de keuze NIET ligt aan de gevoeligheid van het menselijk oog voor de kleur, wat vaak als reden opgegeven wordt. Hierboven genoemde details verklaren waarom dit geen goed argument is.

Meta: Best een variatie in moderatie merk ik. Is gewoon ontopic hoor. Niet offtopic, niet spotlight, gewoon ontopic of informatief.

[Reactie gewijzigd door Sacron op 17 mei 2014 17:57]

Nadat ik je post had gelezen begon ik na te denken of het misschien ook te maken had met de verschillen tussen bluescreens en greenscreens. Kwam snel wat aardigs tegen:
The green channel is the cleanest channel in most digital cameras today. The green channel has the highest luminance of all three (red, green and blue) digital channels, and thus the sensors deliver the least noise in that channel. The processing is three-fold: There is Bayer Pattern filtering (which occurs in single CMOS/CCD sensors, but not 3-CCD cameras), DSP (digital signal processing) and the processing in the actual recording format.

Bayer Pattern means that the sensor has a filter arrangement on its pixel array that actually records twice as many green pixels as red or blue. So the actual recording resolution of the green channel is double that of the other channels.
source...
Precies, goed gedacht! Greenscreen is dus in de meeste gevallen beter voor key-en, bluescreen heeft echter nog wel zijn voor delen bij het registreren van bewegingen, denk aan 3D moddeling, maar dat heeft weer met IR te maken. Greenscreen vraagt echter wel wat meer correctie.
En dat is dus ook de reden waarom lichtrestversterkers (night vision) een groen beeld gebruiken. In groen kunnen de meeste tinten onderscheiden worden.
Anderzijds hebben ook alle planteneters behalve buideldieren dichroom zicht. Als trichromatisch zicht zo'n enorm voordeel was voor planteneters, zou convergente evolutie het wel in verschillende evolutielijnen hebben gebracht (zeker aangezien de 'lagere' klassen van vissen, amfibieŽn en reptielen vaak tetrachromatisch zijn en vogels zelfs pentachromatisch).

Vergeet ook niet dat de meeste primaten bladeren zelfs jonge bladeren slechts als bijkomstig deel van hun dieet gebruiken; in tegenstelling tot vruchten en dierlijke weefsels zijn ze erg lastig te verteren voor enkelmagigen.

Het is dus niet meteen duidelijk waarom een evolutionaire lijn van dieren die weinig druk ervaren om scheuten te zoeken een kenmerk zou hebben dat voor de meeste andere herbivore of omnivore groepen veel belangrijker zou zijn.
@ OddesE
De reden dat het groen is, is dat (waarschijnlijk doordat we planten eten) onze ogen veel gevoeliger zijn voor groen dan voor rood en blauw. Je ziet dit ook terug in andere kleurformaten. Bijvoorbeeld bij 16-bits kleur krijgen de rode en blauwe kanalen ieder 5 pixels en het groene kanaal 6.

Zou dat dan betekenen dat als iemand b.v. veel rode paprika' 's, rode kool,
rabarber, rode bessen, rode appels, tomaten e.d. eet, hij/zij gevoeliger wordt/is
voor rode kleuren?
n.b.: dit is gťťn hypothetisch voorbeeld, maar een praktijkgeval onder meer van ondergetekende, die toch wel een hekel heeft gekregen om de kleur rood te dragen. Persoonlijk denk ik dat dit een andere reden heeft.
Ja, dat heeft er niets mee te maken daar we het hier over evolutie hebben, iets wat werkt over tientallen tot honderden tot duizenden generaties... Niet in een enkel leven, jouw genen veranderen niet door wat je eet*.

(*eigenlijk is dat niet 100% correct, de werkelijkheid is nu eenmaal altijd ingewikkelder maar voor het gemak...)
je bedoelt bits
Ik zelf denk dat het aantal pixels nog wel blijft groeien. Of het zin heeft is een ander verhaal.
Het heeft zeker zin dat het aantal megamixels nog hard blijft groeien. Het is (relatief) niet duur om CCD's te maken, en optica is wel duur. Door groeiende lichtgevoeligheid en kwaliteit van lichtgevoelige sensoren wordt digitale zoom steeds beter, en is er steeds minder licht nodig.
Minder licht, en mogelijkheden van digitale zoom zonder (relevant) kwaliteitsverlies, maakt dat optica (lenzen) veel minder groot en minder verstelbaar hoeven te zijn. Je camera's (lenzen) worden kleiner, minder kwetsbaar en (als de prijs van sensoren blijft zakken als hij nu doet) goedkoper.

High end camera's zijn nu erg duur, dus als er met een 'fancy' sensor en wat 'goedkopere' optica een camera gebouwd kan worden die high-end foto's kan leveren (en ik geloof er heilig in dat dat over enkele jaren kan) zal hier zeker markt voor zijn.

Deze megapixelrace heeft dus zeker wel een doel, al is dat niet persee de smartphone.

[Reactie gewijzigd door Luxx op 17 mei 2014 20:38]

Houd rekening dat optisch niet alles mogelijk is. Glas heeft nu eenmaal zijn beperkingen. Daarmee komt ook nog als je een bepaald oppervlakte volledig wilt vullen met licht dan moet het objectief daar ook voor gemaakt zijn. Een grotere sensor zal altijd nog een groter objectief nodig hebben want je hebt gewoon groter glas nodig om die sensor te vullen. Ook word er nog niet gesproken over wat voor soort sensor het gaat. Is dit een APS-C, 6X6 of praten we hier over een 1"? Dus ik denk dat de combinatie van "fancy sensor" met goedkopere objectieven niet samen gaat, verwacht dus niet dat je straks voor een prikkie een pracht van een camera zult kunnen aanschaffen omdat je sensor goedkoop was.
Om even wat tegen gas te geven: Het is nogsteeds een trent om duurder glas in een camera te zetten met een grotere diafragma opening, terwijl sensors juist zo veel beter zijn en minder licht nodig hebben. Dit zien we ook nog op het compact segment. Daarmee word er op een spiegelreflex als een Nikon D800 ook altijd gesproken dat je technisch zeer goed glas moet aanschaffen juist omdat je anders die scherpte kwijt raakt. Een objectief van slechte kwaliteit zal op een zeer goede sensor zal de sensor te kort doen, waardoor je nooit de kwaliteits winst zult hebben. Dit staat uiteraard los van de gevoeligheid van de sensor. (ook weer niet want vaak betekend meer mp ook meer ruis.)
Het zou mooi zijn als er een andere techniek, zonder pixels ontwikkeld zou worden. Analoog bijvoorbeeld, maar dan digitaal :P
Hoe? Want we moeten nou eenmaal discretiseren want ander heb je een oneindig aantal kleurenverschillen (ook al is het maar een miljardste van een miljardste) en dat is ondoenlijk :p.

Dus dat kan je niet digitaal oplossen (want je hebt discrete sensors)
Ik snap hem niet? Sensors met mp hebben ook al kleurverschillen? Het lijkt me wel gaaf om een andere techniek te zien om een beeld vast te leggen, al zou ik zelf zo niks kunnen bedenken. Een electronische film die zichzelf wist nadat de data is we geschreven, awsom. Uiteraard gaat dit wel problemen geven in wel bestandtype het kan worden opgeslagen, even als hoe je de foto naar een beeldscherm vertaalt. Ingeven welke resolutie je wilt zal dan nodig zijn.
Ik bedoelde in de trant van dat je op de sensor de kleur weet en dan kan je het verschil berekenen als je de volgende sensor ook weet.

Echt analoog is dus echt de kleurenverschillen weten dus ook tussen de sensors.

Of iig dat bedoelde ik. Het kan zijn dat ik het fout heb wat exmatproton bedoelde met analoog.
Ik bedoelde met analoog niets anders dan een werking zonder fixed punten. Of resolutie (of het nu geluid of beeld is).

Ik kan het alleen vergelijken met geluid, omdat ik daar wat meer in thuis ben.

Natuurlijk bestaat er in analoog geluid ook een soort "resolutie". Bijvoorbeeld bij vinyl. Daar bepaald de dikte van plaat eigenlijk het dynamisch bereik. Hoe dikker de plaat, des meer details erin verwerkt kunnen worden, als je met de huidige technieken werkt. In theorie daarentegen, zou analoog geen beperking hebben. Aangezien de diepte altijd deelbaar is door twee. 2 cm diep, 1cm, 0,5 cm, 0,25 cm, 0,125 cm, 0,0675 cm...etc.....met de juiste techniek (die nu nog niet bestaat) zou een oneindigheid aan dynamisch bereik gehaald kunnen worden. Nou, en dat dan digitaal... .. . _/-\o_
Wow kortzichtig... .. .wat jij nu zegt, zeiden veel mensen in het verleden over een hoop, nu bestaande technieken.
Hoe wil je het dan doen? Want dat snap ik niet :p.

Want welke technologie is dan echt analoog (dus zonder discrete observaties)?
Ik heb geen idee, ik ben muzikant......maar ik weet wel dat er waarschijnlijk een technologie gaat komen zonder fixed beeldpunten. Ik ben alleen niet erg, euhh, gedreven in het ontwikkelen van nieuwe, baanbrekende technologie.
Heb je misschien referenties? Want het klinkt wel interessant :) .

Alleen heb ik er nog nooit van gehoord.
Referenties?? Van een technologie die nog niet bestaat? Nee....

Maar wellicht zoiets:

"Natuurlijk bestaat er in analoog geluid ook een soort "resolutie". Bijvoorbeeld bij vinyl. Daar bepaald de dikte van plaat eigenlijk het dynamisch bereik. Hoe dikker de plaat, des meer details erin verwerkt kunnen worden, als je met de huidige technieken werkt. In theorie daarentegen, zou analoog geen beperking hebben. Aangezien de diepte altijd deelbaar is door twee. 2 cm diep, 1cm, 0,5 cm, 0,25 cm, 0,125 cm, 0,0675 cm...etc.....met de juiste techniek (die nu nog niet bestaat) zou een oneindigheid aan dynamisch bereik gehaald kunnen worden. Nou, en dat dan digitaal... "

Van een eerdere post van me... ..
Nou ik dacht misschien heb je voorbeelden van wetenschappelijk onderzoek dat er naar word verricht.

Ja dat is een mogelijkheid maar dan heb je nog steeds discrete "levels". Dus dit zou eerder een soort van multilayer systeem zijn dus meer bits per oppervlakte.

Maar ik ben benieuwd want de techniek is al ver sinds de eerste foto ( http://en.wikipedia.org/wiki/View_from_the_Window_at_Le_Gras ). Dus ik ben benieuwd, al zie ik het nog niet snel gebeuren door de complexiteit van non-fixed point systemen.

Al is adaptive optics (gebruikt in astronomie zie: http://en.wikipedia.org/wiki/Adaptive_optics) denk ik nog het dichtstbij jou idee (gezien de kwaliteit van de plaatjes die die telescopen maken)
In principe is vertex based toch ook zonder discrete punten? Dat zou wellicht erin verwerkt kunnen worden. Al zie ik niet hoe... ..
Welke vertex-based bedoel je?
Grafisch: http://en.wikipedia.org/wiki/Vertex_(graph_theory)
of Geometrisch: http://en.wikipedia.org/wiki/Vertex_(geometry)

Want het lijkt er op dat vertices gewoon gebruikt worden als discrete punten. Maar ik heb niet genoeg verstand van de optica om dat te weten dus misschien heb je gelijk.

Misschien word het wel een kwantum mechanica oplossing die je niet eens voor mogelijk houd. Alles kan in dat opzicht
Nou precies...dat was ook een beetje de reden waarom ik het kortzichtig vond. Er is nog behoorlijk wat te ontdekken.

Over de vertex; mathematische vertex bedoelde ik. Alleen weet ik niet of dat toepasbaar is.....nogmaals, ik ben maar een 'simpele' muzikant }>

Over discrete levels, die zijn in mijn analoge voorbeeld oneindig. Dat is net het hele punt. Is namelijk een groot verschil met (het tegenwoordige) digitaal verwerken van gegevens.

[Reactie gewijzigd door exmatproton op 18 mei 2014 22:34]

Wellicht dat je eens hier naar moet kijken: https://www.youtube.com/watch?v=cIQ9IXSUzuM - het idee van pixels of stapjes in audio is niet correct.

Tape en vinyl geven voornamelijk een bepaald karakter aan geluid mee (dit negeert ook nog even wat er met muziek gedaan wordt voordat het op vinyl belandt.).

Als jij niet meer het verschil kunt horen tussen vinyl en een digitale kopie van datzelfde vinyl in een dubbelblinde test is de resolutie van de audio hoog genoeg.

Overigens is er wel een andere interessante techniek die niet in de klassieke zin met pixels werkt - https://www.lytro.com/
Ik heb het hier vooral niet over de praktijd, maar theorie. Zoals ik ook aangeef. Je hebt idd helemaal gelijk, maar ik beschrijf het ook niet als praktijk. Het verschil tussen analoog en digitaal geluid is erg groot en klein tegelijkertijd. Maar dat heeft meer met de werkwijze van produceren van de dragers te maken.
Groen is dubbel, zie link hieronder :)
Bij beeldsensoren is het groen. Blauw is vaak dubbel bij displays omdat de helderheid van blauwe LEDs vaak achterblijft bij die van rood en groen.
133MP is het aantal subpixels!
Een pixel is opgebouwt uit 4 subpixels, zie: Bayer filter

133 / 4 = +/- 33
Het is niet gangbaar om de eenheid "megapixels" voor subpixels te gebruiken, in ieder geval niet voor camerasensors. Mijn Canon 5D heeft bijvoorbeeld 12,8 MP en vier keer zoveel subpixels, maar niemand heeft ooit gezegd dat hij 51,2 MP heeft.

Misschien is het gewoon een slechte vertaling uit het Japans...


Edit: Meneer hieronder heeft gelijk.

[Reactie gewijzigd door Aham brahmasmi op 17 mei 2014 22:42]

En daar ga je net de mist in. De 5D heeft 12,8 miljoen subpixels die tot door interpolatie worden omgerekend naar pixels. Daarom is een foto op 1:1 vergroting nooit echt scherp. Ik heb zelf een 5D mark II. Die geeft net als de 5D enorm scherpe plaatjes, met name bij Prime objectieven, maar op 1:1 zul je altijd wat onscherpte zien die verbloemd wordt met sharpening.

Een FoveOn beeldchip heeft overigens wťl echte pixels met alle 3 kleuren. Daarvan is de resolutie vaak ook "veel lager". Terwijl de plaatjes op 1:1 overigens veel scherper zijn. Helaas verkoopt dat minder goed dan 'keiharde' 21 megapixels.

nieuws: Sigma stopt Foveon X3-sensor met 46 miljoen subpixels in SD1-dslr

http://www.nephele.nl/index.php/de-digitale-camera/ccd

Een 20 megapixel camera is in feite eigenlijk een 5 megapixel camera.

Als ik foto's van mijn 5DII exporteer vanuit lightroom heb ik ook zelden de 1 op 1 resolutie nodig. Enige uitzondering is als je het gaan printen.

[Reactie gewijzigd door Fairy op 17 mei 2014 21:11]

Je hebt idd gelijk. Niet bij stilgestaan hoe demosaicing eigenlijk werkt...
Maar ik vraag mij af hoe het dan bij deze sensor werkt, aangezien hij bijna genoeg pixels heeft voor 16K.


OT: Ik denk alleen niet dat Sigma's camera's slechter verkopen vanwege het aantal MP. Er zitten gewoon serieuze haken en ogen zowel aan Sigma's camera's als de Foveon-technologie zelf. Foveon hoeft dan wel niet meer spatiŽel de pixels te interpreteren, maar wel de kleuren zelf, wat veel lastiger blijkt te zijn, een minder berekenbare kleurreproductie oplevert, gespecialiseerde DSPs (dus langzaam) vereist en ook niet ondersteund wordt door populaire RAW software.

[Reactie gewijzigd door Aham brahmasmi op 17 mei 2014 23:00]

Per kleurkanaal zoals ik het begrijp, dus 3 keer 33MP..

maar dan heb je nog 33MP over....ik snap het ook niet
Groen komt in een Bayer filter twee keer voor.
IDD dat dacht ik ook 33 mg x4 = 16k tv maar dat is gewoon onzinnig haha. 80 tot 100 inch 8k kan ik nog inkomen maar 16k is gewoon overkill tenzij bioscopen het doek weg doen en er een 6 meter breed 16k scherm neerzetten.
Zie deze post: Balance in 'nieuws: Japans bedrijf maakt 133-megapixelsensor voor 8k-opnames'

De sensor is dus eigenlijk 16K, wat inderdaad 33*4 = ~133 MP is.
Hij produceert alleen een beeld van 8K blijkbaar...
8k. Veel mensen zien het verschil tussen 720p en 1080p niet eens. Laat staan 4k en 8k!!!
Voor cinema-toepassingen is het toch fijn dat het doorontwikkeld wordt. En als we dan toch bezig zijn dan is het ook lekker als we in de toekomst, mocht de gelegenheid zich voordoen, ongeacht de bron alsnog een haarscherp resultaat krijgen op cinema formaat.
Een andere toepassing is het naderhand croppen van video om er toch een native 4k of fullhd beeld over te houden.
Maar afgezien van de sensor staat of valt de kwaliteit natuurlijk met het gebruikte glas (lens) en de reinheid hiervan ;)
Probleem ligt meer bij de slechte contrast waarden van LED schermen. Menselijke ogen zijn veel beter in het waarnemen van micro contrast dan details. Als je eenmaal een 4k of 8k oled hebt gezien dan degradeert je HD LED tv tot het niveau CRT uit de jaren 80.
Daar ben ik het niet echt mee eens. Ik heb nu al heel wat ultra hd schermen bekenen en vanaf een normale kijk afstand zie ik het verschil echt niet. Bij tablet en computer schermen snap ik het wel want daar zit je echt met je neus op en kan je bij een normaal scherm idd nog de pixels zien. Maar bij mijn hd tv zie ik echt de pixels niet meer hoor. Dus om nou te zeggen dat na het zien van een uhd tv de rest lijkt op een crt scherm uit de jaren 80 is zwaar overtrokken. Oled valt nog wat voor te zeggen omdat daar het contrast idd een stuk mooier is, maar ook in dit geval vind ik het verschil niet gigantisch doordat moderne lcd ips panelen naast zwart, kleuren al behoorlijk mooi kunnen produceren. Vaak zelfs natuur getrouwer dan al die te blauwe oled schermen.

Wat mij betreft hoeven tv schermen ook niet een nog hogere resolutie en zie ik de innovatie liever aan de software kant met mooie smart tv systemen die lekker snel en vlot draaien.

[Reactie gewijzigd door ro8in op 17 mei 2014 13:37]

Bij tablet en computer schermen snap ik het wel want daar zit je echt met je neus op en kan je bij een normaal scherm idd nog de pixels zien.
Oh? Ik zit toch echt op ruim anderhalve meter van mijn schermen af hoor..
Grappig dat die CRT TV uit de jaren 80 op zowat elke beeldkwaliteit eigenschap, afgezien van resolutie, beter scoort dan de gemiddelde LCD TV van vandaag de dag.
Veel mensen,maar lang niet allemaal..
Het eind van de resolutie is hier. Mensen kunnen niet beter zien dan 8K. Dus alleen de framerages en contrasten kunnen alleen nog verbeterd worden. ;)
resolutie is niet de maatstaaf voor kwaliteit, anders zou elke professionele fotograaf en blockbuster film het wel met een iphone kunnen afhandelen.

de meeste bleu-raais (1k dus) zijn qua beeldkwaliteit gewoon om te huilen, alleen animatie en CGI komt goed over. laten ze eerst maar eens "full hd" eens goed onder de knie hebben voordat ze verder gaan.
de meeste bleu-raais (1k dus)
2K dus als je omlaag gaat extrapoleren vanaf de 4K en 8K standaarden. De horizontale resolutie van BluRay is 1920, oftwel bijna 2000 pixels, oftewel 2K.

Mijn oude 1024x768 monitor. Die was 1K.

* OddesE wou dat hij dat toen geweten had :P
Als het er slecht uitziet is het meestal omdat er in je keten iets slecht zit. De films worden opgenomen in 24fps en dienen zo ook afgespeeld te worden. Alleen valt 24Hz moeilijk te combineren met de 50 of 100Hz die je op de meeste panelen terugvind.
De films worden opgenomen in 24fps
Precies waar de angel zit. Dat zouden ze moeten verbeteren. Waar blijft 100Hz, zodat we eindelijk echt scherpe bewegende beelden krijgen?
Nouja had ergen gehoord dat het midden van de ogen ongeveer 80megapixel kan waarnemen. De rest veel minder. Dus we zijn er bijna.
Maar ik denk dat de framerate verhogen niet goed is voor ons omdat er meestal geen motion blur in zit. Ik heb er in ieder geval last van als iets te scherp is bij een beweging.
motion blur is gewoon expres wazig maken. als het te scherp is en je kan er lastig naar kijken is het beeld denk ik (dat is het voor veel mensen) gewoon te schokkerig door te lage framerates, dat icm met de trieste interpolatie op tv's die er nog iets soepels van proberen te breien en hopeloos falen (vooral met panning) geeft dat een zeer onrustig beeld.

ga maar eens opnames bekijken die daadwerkelijk 60fps zijn, dan is het ineens duidelijk wat het verschil is.
Is 8k ook genoeg voor de oculus rift? Ik las dat 1080p er nog lelijk uitziet en het pas bij 4k een beetje mooi begint te worden.

[Reactie gewijzigd door PC Mustard Race op 17 mei 2014 12:39]

Dus alleen de framerages en contrasten kunnen alleen nog verbeterd worden.
Er zijn meer verbeter punten:

1. High dynamic range, 12 ipv 8 bits per pixel.
2. Kleurbereik, Rec209 (huidige HD TV's) en Rec2020 (UHD) komen nog steeds niet in de buurt van wat het menselijk oog kan waarnemen.

[Reactie gewijzigd door Carbon op 17 mei 2014 14:33]

Bit depth
Compressie
Lichtintensiteit (zie dolby's 4000 nits tv)
Hoe hoger de pixeldichtheid, hoe dichter het de werkelijkheid benaderd. Wat jij in real life ziet is ook niet opgebouwd uit blokjes. Hoe hoger de pixeldichtheid hoe kleiner de blokjes tot ze oneindig klein zijn. Dan heb je dus natuurgetrouwe weergave. Dat is het uitendelijke doel!
Alleen zijn de blokjes bij Full HD voor bijna alle courante toepassingen al dermate klein dat het menselijk oog geen verschil meer ziet tussen een beeld uit blokjes en een echt. 4K is nog leuk voor heel grote TV's, waar 8K tot zijn recht gaat komen is me een raadsel.
Het is inderdaad lastiger tot niet te zien op kleine schermen. Hoe groter het scherm echter wordt, hoe beter het te zien is. Bioscopen zullen hier dus zeker nog van kunnen profiteren.
Verder geeft het een voordeel als je op een bepaald moment iets wil uitvergroten. Details die nu in de ruis verdwijnen zullen dan beternaar voren komen.
Heerlijk op een uitsnede te kunnen maken en toch kwaliteit te behouden.
Niet alles dat opgenomen wordt hoeft 1op1 doorgezet te worden.
Ik vind het nog steeds onzin dat 4k en 8k het is gewoon 2160p en 4320p. Waarom gaan we in eens van het eind cijfer naar het begin?!? Oh well sight -_-

Ik vind het natuurlijk wel mooi. Alleen zie het nog niet zo snel bij consumenten komen op dit moment gebruiken we 1080p en ik ga voorlopig nog niet over op 2160p is me allemaal veel te duur. Maar er is wel hoop natuurlijk dat het goedkoper word.

Ik denk ook dat deze technologie voorlopig nutteloos is voor de meeste nederlanders.

Nouja doe maar wat je wil ik heb mijn mening gegeven.

Fijne dag nog iedereen. :)
De 4 en 8 komen voort uit het feit dat ze 4 en 8 keer zoveel pixels hebben (verdubbeling horizontaal en verticaal). Waar de k vandaan komt, beats me.
8 keer zoveel als wat?

Kijk bijvoorbeeld eens naar dit plaatje.
Ja, 4K is 4 keer zoveel dan FullHD, maar hoe zit het dan met 8K?
Dat is namelijk niet 8 keer zoveel als FullHD, maar 16 keer zoveel. Dit is op het plaatje heel duidelijk te zien. Maar 8K is ook niet 8 keer zoveel als 4K. Het is namelijk 4 keer zoveel.
Dus die vlieger gaat niet op.

Kijken we naar de horizontale resolutie, dan is de 1920 uit FullHD, wanneer verdubbeld, dicht genoeg bij 4000 voor de marketing afdeling om hun kans te grijpen. Hoe ga je over 'full' heen? Strategisch lijkt het slim om er een numbers game van te maken. Dat is dus ook precies wat men gedaan heeft.

Later heeft men nog geprobeerd er Ultra High Definition van te maken. De uiteindelijke meest gehanteerde term door fabrikanten is een combinatie geworden: '4K Ultra High Definition'. Dit wordt vervolgens door de meeste media en consumenten toch weer afgekort tot 4K.

Oftewel de termen 4K en 8K slaan wel degelijk op de horizontale resolutie.

Waarom niet de verticale? Wederom marketing vermoedelijk. 2K klinkt gewoon niet imposant in een tijd waarin de meeste wat beter geÔnfomeerde consumenten wel weten dat FullHD bestaat uit 1920 (bijna 2000 dus) x 1080 pixels. Verder is het natuurlijk marketing-technisch niet slim om omlaag af te ronden, wat bij de verticale resolutie wel zou gebeuren. Genoeg redenen dus om het 4K te noemen.
Ik vind het nog steeds onzin dat 4k en 8k het is gewoon 2160p en 4320p. Waarom gaan we in eens van het eind cijfer naar het begin?!?
4k en 8k klinken veel mooier (denk ik?), en daarbij zeg je niet snel tegen iemand "ik heb een eenentwintighonderdzestig p Televisie gekocht" of "een drieŽnveertighonderdtwintig Televisie"
een Vier k of Acht k televisie is iets makkelijker
[/quote]
Klopt wel maar toch klinkt het als of ze je oplichten.
Ik heb liever de verticale pixels dan horizontale. Maar het is een mening natuurlijk.
En ik bedoel ook dan moeten we dus 1920x1080 2k gaan noemen anders slaat het helemaal nergens op.
Maar wel eenentwintig zestig p of drieŽnveertig twintig p. Iedereen wie ik ken zegt ook tien tachtig p en geen duizend tachtig p.
Ik vind het nog steeds onzin dat 4k en 8k het is gewoon 2160p en 4320p. Waarom gaan we in eens van het eind cijfer naar het begin?!? Oh well sight -_-
Die keuze heeft niks met mening te maken. De naamgeving 2k en 4k (en dus ook 8k) is afgeleid van de sensoren die gebruikt worden, en niet van het afspeelformaat. Professionele video-sensoren zijn bv in het geval van 2k maximum 2048x1080 pixels. Maar omdat niet alle afspeelformaten dezelfde verhouding gebruiken, gaat men bij de naamgeving uit van de constante. Dat is dan eerder ide 2048 ipv die 1080. Dus 17:9 en niet 16:9)

Veel gebruikte verhoudingen zijn dan 2,39:1 en 1,85:1 Bij video zal je eerder 16:9 tegenkomen. Daar is dus nog wat variatie mogelijk.
Ik vind het nog steeds onzin dat 4k en 8k het is gewoon 2160p en 4320p. Waarom gaan we in eens van het eind cijfer naar het begin?!?
De termen 4K en 8K worden ook een beetje 'misbruikt'. Ultra HD (wat alle consumentendisplays/cameras hebben) is eigenlijk 3.84K en niet 4K. Cinema 4K (de DCI specificatie) is 4096x2160.
De nieuwe cmos-sensor heeft een lichtopvangend oppervlakte met een diagonaal van 43,2mm. 8k-video, wat overeenkomt met een resolutie van 7680x4320 pixels, kan geschoten worden met maximaal 60 beeldjes per seconde.

60 BEELDJES????

Indrukwekkend :)
Alhoewel een video volgens mij in 24 per seconden wordt opgenomen, meer beeldjes betekende langzamer beeld (toch? :p)
Dat ligt aan de afspeelsnelheid. Als ik iets opneem met 60 beeldjes per seconden (of FPS) en afspeel met 30 dan gaat het op halve snelheid. Een high-speed camera zit meestal boven de 300. Ga even uit van 480 (makkelijk deelbaar door 60). Speel je dat af met 60FPS dan is elke frame 1/8e normale snelheid.
Nu is het helemaal duidelijk! Bedankt voor de toelichting, nu snap ik ook hoe slow motion beelden zo goed gemaakt worden :p
24 frames per seconde is de standaard voor film. (dus cinema en digitale cinema).
50 frames per seconde is de europese PAL-standaard (576i50). In principe is de europese standaard nu digitaal 1080p50, dus nog steeds 50 frames per seconde.
60 frames per seconde is iets wat eerder een amerikaanse standaard is. Maar die wordt in europa weinig gebruikt, toch zeker niet als productiestandaard.
Eigenlijk was de nadruk bedoeld op het woord "BEELDJES" en niet op 60 :)
Oh...mijn fout, sorry :p
Als je het zo bekijkt inderdaad ja! :)
Ik vind het een beetje overdreven.
Het is zeker mooi, voor grote beelden dan.
Maar zal het verschil tussen 4k en 8k even groot zijn als Full HD en 4k?
Plus, niemand gaat op enkele centimeters van het beeld zitten om pixels te zien denk ik?
Vind het natuurlijk wel mooi dat ze al zo ver zijn gekomen :)
8K is dan ook niet bedoeld voor het soort TV/Film dat je gewend bent, maar om bijvoorbeeld een compleet regenwoud op je muur te laten zien in alle detail die je zou willen zien.

Je moet denken aan een geprint OLED-scherm dat als een soort van behang op je muur is geplakt.
Inderdaad, wat ik bedoelde met "voor grote beelden".
Dat zou mooi zijn, maar hoelang voordat dat mogelijk is? Een beeld over de hele muur krijg ik alleen met mijn beamer :P.
Het zal inderdaad nog wel wat jaren duren voordat de productie van grote "vellen" OLED-schermen gaat draaien, maar de proof-of-concepts zijn al aan het publiek getoond. Het is namelijk mogelijk om OLED dmv redelijk eenvoudige inkjet-methode op een vel te printen.

Gelukkig zal het ook nog wel wat jaren duren voordat de content gemaakt gaat worden die we op die schermen kunnen laten zien.

Zolang je maar beseft dat dit soort schermen niet bedoeld zijn voor het bekijken van speelfilms of "Onderweg naar Morgen", maar voor een geheel nieuwe vorm van media waarvan we nog amper het begin kunnen vermoeden.

4K is voor een normaal scherm overkill en zelfs op enorme (reclame)schermen aan de zijkant van gebouwen is 4K meer dan ruim genoeg.

8K is alleen relevant voor een totaal andere manier van content bedenken.

[Reactie gewijzigd door Exploited op 17 mei 2014 14:27]

4K is voor een normaal scherm overkill
Ligt er aan. Als je bijvoorbeeld passieve 3D wil kijken dan wordt aan elk oog maar de helft van de beeldlijnen getoond. Met 4K heb je hele dunne beeldlijnen waardoor passieve 3D er (nog) beter uit zal zien.

Ik heb al min of meer besloten dat mijn volgende TV een 4K passive 3D systeempje gaat worden.

Ook bij systemen als de Oculus Rift, waarbij je het schermpje bijna tegen je neus aan hebt zitten, is 4K zeker geen overkill.

Bij games kun je bij een dergelijke resolutie de hele anti-aliassing gewoon achterwege laten...

En zo zijn er vast nog meer voordelen te verzinnen. De vraag zou dus niet moeten zijn hoeveel extra levert het op, maar hoeveel extra kost het. Het zit er dik in dat als de aanloopkosten eenmaal eruit zijn dat een 4K scherm niet fundamenteel veel duurder zal zijn om te maken dan een FullHD scherm.
Bedenk je dus wel dat 3D films in bioscopen ook passief op 4K projectors worden vertoond. Ik weet niet hoe groot je woonkamer en je scherm is, maar je wil dus graag scherper dan in de bioscoop zien?
Er zijn techniek verschillen tussen een bioscoopscherm waarop twee beelden (linker en rechteroog) over elkaar heen geprojecteerd worden, versus een televisie die slechts ťťn beeld tegelijk toont en dan de ene helft van de beeldlijnen voor het ene oog en de andere helft voor het andere oog reserveert.

Ik zou zeggen lees mijn blog post over dit onderwerp eens dan zul je begrijpen waarom 4K voor passieve (huiskamer) 3D echt wel zin heeft:

Active vs Passive 3D
Dat is doorgaans op 2k projectoren.3D op 4k-projectoren, dat ga je amper of niet tegenkomen. Ondertussen 'kan' het, maar dat is nieuw van ergens 3-4 maanden geleden.
Ik heb geen idee wat ze hier in de bioscopen zoal gebruiken. Ik kijk al een aantal jaren alleen naar 3D films op 4K projectoren.
Bij VR systemen als oculus rift is een hoge dpi belangrijk. Echter de resolutie van de SCHERMEN mag dan beperkter zijn (zoveel resolutie hebben je ogen ook niet).


De hoge resolutie van de CONTENT is bij VR system uiteraard wel belangrijk, zodat je veel rond kunt kijken. (grote beeldhoek+ voldoende resolutie voor de kijkhoek )
Je spreekt dus het Oculus Rift team zelf tegen. Die hebben de resolutie van de dev kit 2 verhoogd t.o.v. dev kit 1. Het is nu een FullHD scherm. Ze geven zelf aan dat die hogere resolutie belangrijk is:
The high-definition 960◊1080 per-eye display reduces the screen-door effect and improves clarity, color, and contrast.
Verder heeft de oprichter, Plamer Luckey, zelf gezegd dat hij denkt dat 8K per oog uiteindelijk nodig is om de werkelijkheid te benaderen qua resolutie.

Het hele 'zoveel resolutie hebben je ogen niet' verhaal geloof ik niet zo in. Die resoluties kun je niet vergelijken. Maar je kunt in zo'n bril om je heen kijken (ook zonder je hoofd te bewegen, puur door je ogen te draaien), dit noemen ze peripheral vision: het beeld zit overal om je heen. Vandaar dat je veel meer pixels nodig hebt, ook al kijk je maar naar een klein deel van het schem tegelijk, op dat deel wil je graag veel scherpte.
Dat zal hoe dan ook een nichemedium zijn. Weinig woningen hebben de ruimte, laat staan de kijkafstand, die nodig is om 8K tot zijn recht te laten komen.
De ideale kijkafstand bij 8K is dus 1/2 de diameter van het scherm en niet, zoals bij FullHD, 2,5x de diameter van het scherm.

Je moet 8K zien als een formaat dat de gang in je appartement zal veranderen in een tropisch regenwoud of een strand met golven en je plafond in een mooie blauwe lucht.

Er is vast wel leukere en betere content te bedenken, maar de technici stellen zich momenteel zulke content voor.

Als je eens wil zien hoe 8K eruit ziet en hoe het gebruikt kan worden, dan moet je eind van de zomer eens komen kijken in de RAI in Amsterdam waar 8K al enige jaren wordt getoond op de IBC-beurs.
De halve diameter van het scherm is genoeg om de pixels niet meer te zien, maar dat betekent niet dat het plots aangenaam wordt om een groot scherm op korte afstand te bekijken...

En met alle respect: ik heb geen behoefte aan een energievretend scherm dat cheesy slideshows op mijn muur toont. Dan heb je meer plezier aan een kamerplant. Die verbetert je luchtkwaliteit nog en warmt je kamer niet nodeloos op.

8K lijkt me leuk voor niche-applicaties zoals conferenties en evenementen, maar voor thuis?

[Reactie gewijzigd door Silmarunya op 17 mei 2014 16:14]

Voor de Oculus Rift is het ideaal.
Tegen die tijd zal er wel een beeldscherm behang zijn ofzo (gewoon rollen buigbaar oled ofzo en dat over je hele muur )
Moet altijd lachen als mensen nog zo reageren. Doet me altijd denken aan de tijd dat mijn vader tegen me zijn wat voor nut internet had. (ca. 14 jaar geleden) En hoeveel mensen mobieltjes maar onzinnig vonden. Nu zeg ik niet dat 8K net zo nuttig ofzo is als internet en mobieltjes. Maar ik wil vooruitgang en nieuwe technieken altijd toejuigen. Als het achteraf niks blijkt prima, maar nooit als begin instelling.
Als die stelling klopt, waarom dan mp3 en niet SACD? Waarom 5.1 en niet 10.2 soms stopt ontwikkeling ook voor de gewone markt.
Maar MP3 is al lang afgeschreven imho. Er zijn veel betere formaten die kleinere bestanden aanleveren met betere audio kwaliteit. Mensen noemen het vaak nog mp3, maar ga je naar de extentie kijken (of de inhoud) is het helemaal geen mp3 bestand meer. Dat SACD geflopt is hoeft niet te verbazen. Om daar het verschil te kunnen horen binnenshuis moest je niet alleen je CD speler vervangen, je kon ook zien dat heel je audio setup van enorm goede kwaliteit was. Waarom 5.1? We zitten vandaag al een stukje verder dan dat. 7/9.1/2 bestaat al en vind je al terug in de mastering van films op blu-ray schijfjes. Alleen heb je voor zo een setup opnieuw meer geld nodig alsook meer ruimte. Je moet die luidspreker nog ergens kunnen wegzetten ook op een manier dat het zinvol is.

De otnwikkeling gaat dus netjes verder, alleen gaat het op een gegeven moment trager omdat de markt er niet meer naar vraagt, omdat er geen meerwaarde meer te halen is. Dat punt hebben we bij videoresoluties imho nog niet bereikt.
De stelling klopt wel degelijk:
compressie: MP3 --> Flac -->
speakers: 5.1 --> 7.2 -->
audio: Analoog -> DTS --> DTS-HD -->
sampling: 128bps --> 320bps -->
Internet: 56bps --> 100Mbps
etc
Net als de uitspraak over geheugen,ach met 8 k heb je toch genoeg? :+
[off topic] 640K ought to be enough for anybody was de uitspraak die vriend Gates wel.niet uitgesproken heft.
Je moet lachen met mensen die niet elk hoger cijfertje kritisch benaderen? Kritisch zijn zou net altijd je begininstelling moeten zijn. Optimisme en naÔviteit hoeven niet hetzelfde te zijn.

Je pa was fout als hij zei dat internet nutteloos is. Anderzijds is een zoveelste snelheidsverhoging van internetsnelheden voor een normale consument bijvoorbeeld vrijwel nutteloos.Zelfde met TV: TV was een revolutie. HD was nog eens een grote sprong voorwaarts omdat het helder beeld op grote schermen toeliet. 8k? Geen huis is groot genoeg voor TV's die er baat bij hebben.
Ik denk dat voor TV's >50" er zeker nog progressie te boeken is. Zeker weten met de pixeldichtheid van 1080p TV's.

Maar 4K naar 8K? Dat betwijfel ik. Want hoe groter het scherm, hoe verder je er vanaf zal moeten zitten.
ik denk dat je wat creatiever met techniek om moet gaan...niet alles staat of valt rondom de tv in de sleurhut....

Dit beeld zou net als RAW formaat in fotografie gebruikt worden als een soort RAW formaat in video.
Het zou ook gebruikt kunnen worden als een nieuwe vorm van texturing in CGI.
Met dit materiaal lijkt me een nieuwe richting in post-processing mogelijk.
Er zijn vele voordelen te bedenken van zeer hoge resoluties. Zo moet het mogelijk zijn om achteraf nog in te zoomen in postproductie. Of waarom de TV kijker thuis op een panoramashot niet laten beslissen welk deel van het beeld hij/zij beter wenst te zien?
Het is al knap als je op 50" het verschil tussen 1080P en 2160P kan zien op 3-4 meter afstand.

Zie ook:
http://carltonbale.com/does-4k-resolution-matter/
http://www.cnet.com/news/...-4k-tvs-are-still-stupid/

[Reactie gewijzigd door GewoonWatSpulle op 17 mei 2014 12:18]

Chip is geproduceerd door Forza Silicon die tevens een 200mp chip @ 60 fps maakt, inclusief camera. :)

http://www.forzasilicon.com/forza-100-mp-cam-platform/

[Reactie gewijzigd door black9wolf op 17 mei 2014 13:49]

Ik weet dat filmpjes dat op 4K zijn opgenomen en worden gedownscalet naar 1080P zijn veel scherper dan normale filmpjes die geschoten zijn in 1080P. Maar als je 8K downscalet naar 1080P krijg je dan super scherp 1080P beeld?
Als je 4k cropt naar fullHD is dat niet scherper dan 'normaal' opgenomen HD beeld. De hoeveelheid pixels blijft hetzelfde. Misschien dat het in sommige gevallen verschil uit maakt in kleur correctie. Maar dat weet ik niet.
Leuk! Er zijn nog amper 4k tv's op de markt, nog maar te zwijgen van content en nu begint men alweer met 8K!

Je aantal pixels per inch kan wel veranderen(verhogen). Dan zou het ook scherper kunnen worden. Hoe groter het beeld, hoe mer pixels per inch. Je hebt sowieso minder AA nodig op een hogere resolutie. Overigens is 4k nu vaak gedownsized vanaf 8k! Dus, 1080p vaak geschoten op 4k en 4k vaak geschoten op 8k.

[Reactie gewijzigd door Tourmaline op 17 mei 2014 15:02]

Je aantal pixels per inch kan wel veranderen(verhogen).
Door of het scherm te vergroten of door een hogere resolutie te gebruiken.
Maar fullHD op twee dezelfde grootte schermen, daarvan kan de dpi(pixels per inch) niet verschillen.

Hoe groter het beeld, hoe mer pixels per inch.
Ik neem aan dat je minder bedoeld?

Je hebt sowieso minder AA nodig op een hogere resolutie.
En dat hangt natuurlijk ook af van de grootte van het scherm.
Een 72 dpi foto heeft minder dots per inch dan een 300 dpi foto heeft en een 300dpi foto is ook groter, niet kleiner! Behalve als het formaat exact gelijk blijft, dan is de 300dpi scherm of print scherper! Overigens spreken we vaker van PPI, pixels per inch.
Ik denk dat een 4k scherm met kleinere pixels scherper zal lijken dan een full hd scherm. Zoals iemand hierboven al opmerkte; een full hd geupscaled op een 4k scherm lijkt scherper dan een full hd film op een full hd scherm vanwege de grotere pixels.

Natuurlijk wel, er zijn nu al 10 inch schermen met een hoge resolutie, die hebben dus meer pixels dan een van dezelfde grootte met minder pixels. De pixels van het scherm met de grote resolutie zijn kleiner, die van het andere scherm met hetzelfde formaat zijn groter. Dat gebeurt nu al met de hoge resolutie tablet schermen, die hebben meer en kleinere pixels!
XXXHDPI: eXtra eXtra eXtra High density, ~640 dots per inch, LDPI: Low density, ~120 dots per inch.

Een 46 inch scherm die alleen full hd kan afspelen heeft minder en grotere pixels dan een 46 inch 4k scherm dat meer en kleinere pixels heeft. Zelfde formaat andere resolutie! Meer ppi!

Als je PPI hoog is heb je geen aa meer nodig, dan is alles al scherp.

[Reactie gewijzigd door Tourmaline op 18 mei 2014 00:59]

Om dit 1:1 op je tv te kunnen zien heb je 36 Megapixel scherm nodig.
En dat op een moment dat je amper nog 4K schermen kunt kopen.

Dan hebben we het nog niet eens over de processorkracht die nodig is om een 36MP beeld op 200Hz / 60Fps weer te geven....

[Reactie gewijzigd door p0pster op 17 mei 2014 12:40]

Dat kan nog wel is meevallen. Veel bedrijven (BBC. NHK) zien 4k als een nutteloze tussenstap omdat ze verschil met HD niet groot genoeg vinden en willen dus direct met 8k aan de slag.

Omdat de stap analoog > digitaal al gezet is, is het opschalen naar hogere resoluties vrij eenvoudig. Japan wil al in 2016 beginnen met het uitzenden van 8k video. Tegen die tijd zullen genoeg mensen (zeker in Japan) een snelle internet verbinding hebben om 8K te streamen. 100mbit is meer dan zat met h265 encodering.

Tevens verwacht de BBC dat de resolutie hierna niet verder verhoogd zal worden vanwege het retina effect.

[Reactie gewijzigd door black9wolf op 17 mei 2014 13:42]

Wel rekening houden dat niet alles dat in Japan hier ook zomaar kan. Een Japans kabelabbo ontvangt veel minder zenders dan een Europees of Amerikaans en kan dus veel meer bandbreedte aan elke zender geven (amper buitenlandse kanalen en een binnenlandse markt die kleiner is dan pakweg de Amerikaanse).

Het verschil is zo groot dat men in Japan nog even heeft geŽxperimenteerd met analoog HD-beeld, iets dat hier ondenkbaar is.
Wil niet veel zeggen, maar Philips had ook een analoog HD product op de planken. Was rond 1992 of iets dergelijks al. Hier een stukje uit een verslag van de Firato van 1992:

Op verschillende stands staan high definition television (hdtv)-apparaten, de tv van de toekomst. Het aantal beeldlijnen van die kasten is verdubbeld ten opzichte van de gewone tv, die zich moet behelpen met 625 beeldlijnen. Hoe je er ook tegenaan kijkt, -en ůf je er sowieso tegenaan wilt kijken-, de kwaliteit van hdtv is verbluffend. De beelden zijn haarscherp. Maar voorlopig zal hdtv de huiskamer van de liefhebber nog niet veroveren. Er moet eerst nog een strijd worden uitgevochten over een nieuwe standaard: wordt het de Japanse of de Europese?
Ik denk niet dat ze het echt als nutteloze tussenstap zien, maar dat het een slechte investering zou zijn omdat 8k simpelweg heel snel komt na 4k. Als je nu al je apparatuur gaat aanpassen voor 4k kan je tegen dat je je laatste camera vervangen hebt al opnieuw beginnen met 8k. Dat was anders met 16:9 of full HD
Die 8K schermen komen vanzelf naarmate het aanbod groeit, de distributiemogelijkheden verbeteren en bij een aanstaand massaal sportevenement als EK, WK, Olympische Spelen of Superbowl. Geduld, m'n beste..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True