Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Samsung introduceert 48- en 32-megapixelsensor voor smartphonecamera's

Samsung heeft de Isocell Bright GM1 en GD1 gepresenteerd. Dit zijn twee smartphonecamerasensoren met resoluties van respectievelijk 48 en 32 megapixel en pixels met een grootte van 0,8 micron.

Samung meldt niet welk formaat de sensoren precies hebben, maar zegt wel dat er nu veel vraag is naar zeer kleine beeldsensoren met hoge resolutie. De beide sensoren hebben een relatief kleine pixelgrootte van 0,8μm, wat volgens Samsung smartphonefabrikanten de mogelijkheid biedt om kleinere modules in hun telefoons te integreren of meer pixels in bestaande ontwerpen op te nemen. De Zuid-Koreaanse fabrikant zegt dat het met de GM1 en GD1 inspeelt op de beperkte ruimte in hedendaagse smartphones met kleine bezels.

Op basis van Samsungs zogeheten Tetracell-technologie kunnen de GM1 en GD1 samenwerken en vier pixels samenvoegen om als een enkele pixel te fungeren. Dit zou overeenkomen met de lichtgevoeligheid van respectievelijk een 12- en 8-megapixelsensor met pixels van 1,6μm. Beide sensoren ondersteunen gyro-elektronische beeldstabilisatie en daarnaast heeft de GD1 ondersteuning voor een high dynamic range-functionaliteit; bij de GM1 ontbreekt dit.

Samsung zegt te verwachten de Isocell GM1 en GD1 in massaproductie te nemen vanaf het vierde kwartaal van dit jaar. Het is nog niet duidelijk wanneer er telefoons met de beide sensoren uitkomen. Vooralsnog maken de meeste smartphonefabrikanten gebruik van IMX-sensoren van Sony. Dit Japanse bedrijf kondigde in juli ook al een nieuwe 48-megapixelsensor aan met pixels van 0,8μm, te weten de IMX586. Deze moet door een aangepast Quad Bayer-filter de lichtgevoeligheid verhogen.

Door Joris Jansen

Nieuwsredacteur

30-10-2018 • 15:15

43 Linkedin Google+

Reacties (43)

Wijzig sortering
De megapixel race is weer van start gegaan. Ik noem het: meer-is-beter-syndroom. De eerste 8K TVs (7680×4320) zijn ook al aangekondigd. Dat is zo'n 33,2 megapixel schoon aan de haak (1)

De 48 megapixel heeft een 8000 x 6000 resolutie. 32 Megapixel minimaal is dus een must voor de bovengenoemde 8K TV. Ook kan je met 48 MP afdrukken maken in posterformaat 67.7cm x 50.8cm (300 DPI) zonder kwaliteitsverlies maar ik moet toegeven dat ik dat niet zo heel vaak doe. Bovendien is de kijkafstand weer wat groter bij posters waardoor je het verschil toch niet ziet. Maar ja. Je streeft naar perfectie... of niet.

Ik snap ook dat 48 megapixels handig is voor de prof met zijn full frame camera in een fotostudio of op lokatie zodat je uitsnedes kan maken van het midden van de sensor waardoor je van de gebreken van lenzen (zijn vrijwel altijd minder goed in de hoeken dan in het centrum) geen last meer hebt.

Een 48 megapixels foto levert ook gelijk een RAW betand op van 60 Mb. Da's mooi want dan is de opslag sneller vol en kan je het dus verantwoorden een smartphone met >=512 GB opslag te kopen.

Jeetje wat ben ik weer cynisch. Dit is echt een geweldige ontwikkeling. Geloof me. Als je het eenmaal hebt kan je niet meer zonder.

(1) nieuws: LG brengt waarschijnlijk vanaf juni 2019 oled-tv's met 8k-resolutie uit
Is de megapixel-race ooit over geweest dan? Volgens mij gaat ie nog steeds door, net zo goed als z'n broertje de megahertz-race. Nog steeds worden er heel veel systemen vergeleken op basis van 1 simpel (maar inaccuraat) getalletje, gewoon omdat dat HEEL veel makkelijker is dan benchmarks nalezen, en proberen uit te vinden of cameramodule ZCV-035H beter is dan ZNV-047, en of dat dan een toevallig goede batch was, of dat er betere software-processing gebruikt wordt...

Voor Sjon met de Pet is die 'megapixel' het enige dat hij heeft om cameras te onderscheiden, en hoewel ook Sjon zal vermoeden dat een volledige spiegelreflex met peperdure lens (maar wel 'maar' 24 MP) beter is dan deze sensor, kan ie z'n vinger er amper op leggen waarom dat zo is.
Van de andere kant, dat is in deze wereld normaal. Formule 1 pompt meer pks uit die 1.6 liter dan je Pimpwagen Golf ooit doet, en een hamburger kost een bedrijf veel minder dan jou persoonlijk. That's life.

De oplossing zit hem ook niet in het vermelden van overige specs zoals sensorgrootte. Die is al jaren niet veranderd voor de APS-C-wereld, en ook mobieltjes hebben al sinds het begin een grootte van 1/3.2", met heel af en toe 1/2.7" of groter. Toch is de kwaliteit flink verbeterd.
Ook line pairs per mm (lp/mm) is niet zaligmakend, en moet netjes gemeten worden, bij gelijke ISO, en zo nog wat, en het vertelt alleen maar een deel van het plaatje.

Kortom: ondanks alle pogingen van ons techneuten gaan mensen nog altijd voor iets dat ze kunnen vergelijken. Fabrikanten zijn erbij gesprongen, en vermelden doodleuk die megapixels weer, en zo lang sensors redelijk vrij beschikbaar zijn, geeft dat aantal pixels gewoon aan hoe oud de camera ongeveer is. Iedereen stopt ongeveer dezelfde sensor in z'n camera, en alleen mensen die voor de fotos gaan, controleren nog reviews op camera-kwaliteit. Prima.
Hij was even wat vertraagd. Ik heb bijvoorbeel een Panasonic LX100 (uit 2014) met micro four thirds sensor met slechts 12,8 megapixel. Het ding maakt bijna even goeie foto's als mijn APS-C SLR ondankt de lagere resolutie. Ook levert dit een voordeel op bij weinig licht. Maar de lichtsterke lens draagt hier ook een steentje aan bij. De trend gaat nu toch > 20 megapixel. Wat mij betreft is dit niet nodig.
Ik snap je wel hoor. Maar wanneer je geen glas hebt om te zoomen in je mobieltje dan zou je natuurlijk een redelijke digitale zoom moeten kunnen doen wanneer je zo'n moloch van een 48 megapixel sensor hebt. Er is al veel software matig "op te lossen" in smartphones alleen pixels erbij verzinnen kan niet.
Digitale zoom verhoogt in principe niet de beeldkwaliteit. Maar het zou al ruim voldoende kunnen zijn voor op een "normale" 4K TV (8,29 MP). Dus dan zou je inderdaad makkelijk een 4 of 5 keer zoom kunnen implementeren. Maar een natuurwet zeg dat een sensor van dezelfde grootte met meer pixels meer ruis geeft dat dan weer weggerekend moet worden maar helaas moet je hier wel een prijs voor betalen in de vorm van minder details. De truc is het vinden van de juiste balans. Maar ik houd mijn oordeel nog even voor me totdat ik het gezien heb. En dankzij de megasnelle CPUs kan je met "digital signal processing" vrij dicht in de buurt komen van acceptabele kwaliteit. Als fotoliefhebber doe ik mijn SLR nog maar niet de deur uit.
Wat denk je van achter inzoomen als je op 48 megapixel foto's maakt :)
Mag ik even wat olie op het vuur gooien? Een 8K TV heeft 33,2 miljoen rode pixels, 33,2 miljoen groene, en 33,2 miljoen blauwe. Met een 32 MP camera ben je er dus nog lang niet. Je hebt vier keer zo veel nodig...
De DSMC2 "BRAIN" Monstro en Helium van camera fabrikant RED (1) maken opnames in 8K en die hebben een 35,4 Megapixel CMOS Sensor. Moet dus voldoende zijn.

(1) https://www.red.com/dsmc2
Omdat zij het zeggen zal het wel goed zijn? Je kan zelf toch een rekenmachine pakken?
De pixels die bedoeld worden met megapixels zijn een combi van rood, groen en blauw.

Dus nee. 33,2 MP op een camera is genoeg voor een 8K beeld. Die subpixels (want zo heten de losse kleuren) zorgen samen voor de correxte kleur van de pixels
Nee, bij camera's heeft iedere pixel één kleur. Een 32 megapixel camera heeft 8 miljoen rode, 8 miljoen blauwe, en 16 miljoen groene pixels. Er is geen enkele fabrikant die dat aantal door 4 deelt en het aantal 'full-color' pixels opgeeft. Behalve Sigma met z'n Foveon sensor uiteraard.

[Reactie gewijzigd door RSpanjaard op 30 oktober 2018 22:00]

Iedere pixel heeft geen kleur om precies te zijn. Het bayerfilter geeft elke pixel 1 kleur. De rest wordt berekend aan de hand van de omliggende pixels.

En daardoor is 1 pixel van een DSLR gelijk aan die van een monitor. De scherpte is namelijk gelijk (beide blokjes). Op een monitor kan je het truvkje van berekenen alleen niet toepassen. Je hebt toch echt (minimaal) 3 subpixels nodig om alle kleuren weer te geven.

Dus nee. 33,2 MP op een camera is hetzelfde als 8K. Gelijke scherpte.
Je spreekt jezelf nu tegen. "De pixels die bedoeld worden met megapixels zijn een combi van rood, groen en blauw", en vervolgens "Het bayerfilter geeft elke pixel 1 kleur. De rest wordt berekend aan de hand van de omliggende pixels."

En daarna ineens toch weer zeggen "33,2 MP op een camera is hetzelfde als 8K. Gelijke scherpte"...

Misschien moet je eerst maar een discussie met jezelf aangaan voor je 't hier probeert.
Misschien leg ik het niet direct helemaal uit. Excuus.

Maar zoals ik in de laatste reactie zei: elke pixel op een camera vertaald naar een pixel op tv. De pixel op tv bestaat uit 3 subpixels (RGB) om de kleur te kunnen weergeven.

Waarom de camera geen subpixels heeft, is omdat er gebruik gemaakt wordt van een speciaal filter voor de monochrome pixels. Zo wordt voor elke pixel 1 kleur geregistreerd (r, g of b) en de rest van de kleur wordt berekend aan de hand van de omliggende pixels.

Meer info over het bayer-filter
https://youtu.be/2-stCNB8jT8

De kleur worden dus per pixel berekend jij een camera. Met behulp van de omliggende pixels. En daardoor heeft ern camera niet 3x zoveel pixels nodig. En dat is weer goed voor de lichtsterkte.

Enne.... Misschien leg ik het slecht uit. Maar ik begrijp de materie wel. :+

[Reactie gewijzigd door waah op 30 oktober 2018 22:26]

Misschien leg ik het niet direct helemaal uit. Excuus.

Maar zoals ik in de laatste reactie zei: elke pixel op een camera vertaald naar een pixel op tv. De pixel op tv bestaat uit 3 subpixels (RGB) om de kleur te kunnen weergeven.

Waarom de camera geen subpixels heeft, is omdat er gebruik gemaakt wordt van een speciaal filter voor de monochrome pixels. Zo wordt voor elke pixel 1 kleur geregistreerd (r, g of b) en de rest van de kleur wordt berekend aan de hand van de omliggende pixels.

Meer info over het bayer-filter
https://youtu.be/2-stCNB8jT8

De kleur worden dus per pixel berekend jij een camera. Met behulp van de omliggende pixels. En daardoor heeft ern camera niet 3x zoveel pixels nodig. En dat is weer goed voor de lichtsterkte.
Ik snap niet waarom je nu het bayerfilter gaat uitleggen als ik zelf al duidelijk aangeef dat ik die filters ken: "Een 32 megapixel camera heeft 8 miljoen rode, 8 miljoen blauwe, en 16 miljoen groene pixels."

Dat je vervolgens zegt dat camera's niet 3x zo veel pixels nodig hebben omdat de rest van de data 'berekend' wordt is natuurlijk onzin. Je kan zulke data niet berekenen. Je kan een "educated guess" doen, maar meer ook niet. En dat is precies wat bij demosaicing gebeurt. Kijk eens naar deze pagina om te zien hoe goed dat 'berekenen' werkt. Links staan twee echte full-color sensors (de eerder genoemde Sigma Foveon), rechts twee bayersensors met een gelijk aantal pixels. Berekenen van extra scherpte is net zo effectief als "digitale zoom".
Ah dat de bayer-sensor techniek zoveel minder efficiënt is kwa scherpte wist ik niet. Weer iets geleerd.

Dat gezegd hebbende: geen enkele videocamera heeft zo'n sigma-sensor. Die gebruiken dacht ik ook het Bayer sensor? Dus dan is de scherpte die we nu gewend zijn van 4K toch ook eigenlijk 4k light?

Trouwens heb ik de ISO even verhoogd. Maar dan snap ik waarom alle andere camera-bedrijven nog niet overstappen. Vanaf ISO 200/400 is de beeldkwaliteit al gelijk of minder dan de bayer-methode..... En er is een groot verschil tussen waargenomen scherpte, en daadwerkelijk scherpte. En die eerste is voor mensen toch het belangrijkst.
Dat gezegd hebbende: geen enkele videocamera heeft zo'n sigma-sensor. Die gebruiken dacht ik ook het Bayer sensor? Dus dan is de scherpte die we nu gewend zijn van 4K toch ook eigenlijk 4k light?
Ik weet niet wat voor scherpte jij gewend bent. Er zijn wel camera's die het juiste aantal pixels gebruiken om echt scherp beeld te leveren, dus niet alle content is "4K Light". LMG is volgens mij al in een andere reactie genoemd. Dat is echt hoge kwaliteit. Maar ook zonder die peperdure camera's is het verschil duidelijk zichtbaar, bijvoorbeeld tussen een Panasonc GH5S en een Fujifilm X-T3. De Fujifilm levert zichtbaar scherpere video af op 4K.
Kijk eens naar deze pagina om te zien hoe goed dat 'berekenen' werkt. Links staan twee echte full-color sensors (de eerder genoemde Sigma Foveon), rechts twee bayersensors met een gelijk aantal pixels. Berekenen van extra scherpte is net zo effectief als "digitale zoom".
Appels en peren als je dit gaat vergelijken om een oordeel te vellen t.a.v. sensortechnologie vs scherpte, want:
  • verschillende lenzen
  • verschillende RAW converters (zie DP1)
  • geen AA filter (Foveon) vs AA filter (de gekozen camera's op rechts)
  • etc
Dat digitale zoom dus hetzelfde is als het "berekenen" van scherpte zoals bij Bayer, is een behoorlijke non sequitur. Een D800E waarbij het AA filter grotendeels ongedaan is gemaakt (niet geheel verwijderd) maar met 50% meer pixels dan de Sd Quattro H, kan zich al aardig meten met de Sigma qua detail. De Nikon heeft meer last van kleur moire, de Sigma bij gelijke uitput meer valse details (o.a. aliasing) en kleurfouten (door het ingewikkelde 3-laags filterproces en bijbehorende mathematische berekeningen). Idem als je de D800E vervangt door bijvoorbeeld de Pentax K1 mkII (in normale modus, bij gebruik van Pixel Shift neemt hij uiteraard flink afstand).

Meer ontopic, laatstgenoemde Pixel Shift technologie en vergelijkbare methodes die nu worden toegepast in steeds meer camera's en dan vooral mobiele telefoons, zorgen ervoor dat veel van de nadelen van Bayer sensoren steeds minder prominent worden. Het meermaals uitlezen en combineren van meerdere opnames gaat steeds sneller en bij enkele telefoons inmiddels bijna ongemerkt. Met het sneller worden van de processors en het geheugen, zal dat voor de in dit artikel genoemde sensoren ook niet langer het grote obstakel vormen.

[Reactie gewijzigd door Jortio op 31 oktober 2018 08:30]

Ten eerste maak ik die vergelijking niet om een oordeel te vellen, maar om een standpunt te illustreren. Je moet die link zien in de context van deze discussie, niet als bewijs op zich. Ten tweede is het wel degelijk eerlijk om een Foveon sensor zonder AA-filter te vergelijken met een Bayersensor mét filter. Foveonsensors hebben dat filter niet nodig omdat iedere pixel full color is, en de aliasing waar Bayer last van heeft (en onder andere zichtbaar wordt als moiré zoals je zelf aangeeft) niet optreedt. De aliasing die wel optreedt is eerder een bijwerking van slechte conversie in oudere ACR versies. Je ziet ook dat vooral de DP1 er last van heeft; de Quattro H (die ongetwijfeld met een nieuwere versie van ACR is omgezet) niet.

Dat digitale zoom hetzelfde is als het berekenen van extra kleurdetail is overigens gewoon waar. In beide gevallen verzin je data op de plekken waar je geen data gemeten hebt. Of je dat nou digitale zoom noemt, demosaicing, of wat dan ook, het principe is hetzelfde.

En Pixel Shift is leuk voor stilstaande beelden vanaf statief. Als jij al een manier weet om pixel shift bij video toe te passen ben je de eerste. Bij video werk je over het algemeen met lange sluitertijden (namelijk idealiter de helft van de framerate), dus er zit een groot tijdsverschil tussen de 4 opnames.

[Reactie gewijzigd door RSpanjaard op 31 oktober 2018 17:05]

Dat oordeel vellen laat je over aan de lezer aan de hand van een slecht voorbeeld met onnodig veel extra variabelen, zoals aangegeven.

Bayer heeft in elk geval visueel niet 4x (of zelfs 3x) zoveel pixels nodig om een gelijk aantal RGB TV pixels van overeenkomstige scherpte te voorzien, aangezien het menselijk brein veel gevoeliger is voor groen als het gaat om scherpte (en dat is al de helft van de pixels in Bayer, ofwel 16 miljoen vs 33,2 miljoen). Je hebt niet alle kleurinformatie maar wel alle luminance informatie. En daarmee is het dus ook niet te vergelijken met digitale zoom, waarbij beide volledig worden geinterpoleerd.
Reden waarom de Leica Type 116 zonder AA filter in termen van scherpte visueel bijzonder dicht in de buurt komt van de Quattro H, met als enige echte nadeel moire en aliasing (maar meer detail in het rode kanaal omdat Sigma daar veel ruisonderdrukking toepast, zelfs voordat de RAW wordt weggeschreven).

De dominante gevoeligheid voor groen als het gaat om scherpte is ook de reden waarom de huidige Foveon sensoren flinke concessies doen t.a.v. de resoluties van de blauwe en rode laag (ten gunste van de gevoeligheid).

Voorgaande samen met het feit dat video (ik had het in mijn vorige bericht enkel over foto's) sowieso al bestaat uit snelle sequentiele beelden (zie multi frame stacking van foto's genoemd in mijn vorige bericht), maakt het hele argument tegen Bayer al veel minder interessant voor het gros van de toepassingen. Zowel het onderwerp als camera staan immers zelden beide volledig stil, aangezien dat een nogal statisch en saai geheel oplevert...

Dat Bayer en digitale zoom beide een vorm van interpolatie gebruiken moge duidelijk zijn, maar dat maakt ze niet vergelijkbaar. Net als dat pasta en Phở niet te vergelijken zijn, ondanks het feit dat ze beide gemaakt worden met noedels.

[Reactie gewijzigd door Jortio op 31 oktober 2018 21:41]

Dat oordeel vellen laat je over aan de lezer aan de hand van een slecht voorbeeld met onnodig veel extra variabelen, zoals aangegeven.
Dat is jouw mening. Ik heb al uitgelegd waarom ik het wel een goed voorbeeld vind, dus wat dat betreft zijn we klaar.
Bayer heeft in elk geval visueel niet 4x (of zelfs 3x) zoveel pixels nodig om een gelijk aantal RGB TV pixels van overeenkomstige scherpte te voorzien, aangezien het menselijk brein veel gevoeliger is voor groen als het gaat om scherpte (en dat is al de helft van de pixels in Bayer, ofwel 16 miljoen vs 33,2 miljoen). Je hebt niet alle kleurinformatie maar wel alle luminance informatie.
Je hebt niet alle luminance informatie. Groen is niet hetzelfde als luminance, en ook het aantal groene pixels bij een 33MP sensor is slechts de helft van een 8K beeld.

Hoe het menselijk brein werkt is totaal niet relevant; het gaat erom hoeveel pixels een bayersensor moet hebben om iedere pixel op een 8K scherm van echte, gemeten data te voorzien. Dat is overeenkomstige scherpte. Als je het menselijk brein erbij betrekt wordt de discussie veel ingewikkelder en zal je per geval moeten kijken hoeveel data je nodig hebt: hoe groot is het scherm, kleurweergave, contrast, helderheid, omstandigheden, de kijkafstand, en wat wordt er op het scherm getoond. Daar kan je helemaal geen algemene uitspraken over doen, en wordt het meer discussiëren om het discussiëren. Dat mag je met een ander gaan doen.
En daarmee is het dus ook niet te vergelijken met digitale zoom, waarbij beide volledig worden geinterpoleerd.
Voor de helft van alle pixels moet de groene informatie worden 'berekend'. Datzelfde moet gebeuren voor 75% van de rode data, en 75% van de blauwe. Overigens is zo'n berekening bij demosaicing en moderne digitale zoom wel wat ingewikkelder dan een simpele interpolatie.
Reden waarom de Leica Type 116 zonder AA filter in termen van scherpte visueel bijzonder dicht in de buurt komt van de Quattro H, met als enige echte nadeel moire en aliasing (maar meer detail in het rode kanaal
Het is maar net waar je kijkt.
Voorgaande samen met het feit dat video (ik had het in mijn vorige bericht enkel over foto's) sowieso al bestaat uit snelle sequentiele beelden (zie multi frame stacking van foto's genoemd in mijn vorige bericht), maakt het hele argument tegen Bayer al veel minder interessant voor het gros van de toepassingen.
Waar lees jij een argument tegen Bayer?
Dat Bayer en digitale zoom beide een vorm van interpolatie gebruiken moge duidelijk zijn, maar dat maakt ze niet vergelijkbaar.
Jawel.

[Reactie gewijzigd door RSpanjaard op 31 oktober 2018 23:19]

33,2 miljoen is het totale aantal pixels. Niet het aantal pixels per kleur.
Ik snap ook dat 48 megapixels handig is voor de prof met zijn full frame camera in een fotostudio of op lokatie zodat je uitsnedes kan maken van het midden van de sensor waardoor je van de gebreken van lenzen (zijn vrijwel altijd minder goed in de hoeken dan in het centrum) geen last meer hebt.

Een 48 megapixels foto levert ook gelijk een RAW betand op van 60 Mb. Da's mooi want dan is de opslag sneller vol en kan je het dus verantwoorden een smartphone met >=512 GB opslag te kopen.

Jeetje wat ben ik weer cynisch. Dit is echt een geweldige ontwikkeling. Geloof me. Als je het eenmaal hebt kan je niet meer zonder.
Waarom zou je een smartphone met 512 GB intern opslag kopen, als je ook simpelweg Micro-SD kaartjes kan halen? met de kaartjes is het veel veiliger om foto's te maken, want als je telefoon kapot gaat, heb je altijd je foto's apart staan.

Eigenlijk ben ik wel benieuwd wanneer de eerste telefoons worden aangekondigd met deze nieuwe sensor. Nokia had de PureView smartphone met 42 MP sensor en ik weet dat in DLSR's sensors boven de 20 MP worden gebruikt. De hoeveelheid pixels zegt niet altijd alles, de software, diafragma, sluitertijd en ISO waardes spelen een rol. Want wat heb je aan een sensor die 48 / 32 MP heeft, maar waarbij de software ruk is en de hoeveelheid niet kan handelen?

Tot nu toe vind ik de sensoren van Samsung en Sony in smartphones wel goed, het mag dan niet pro waardig zijn, maar je kan wel mooie amateur shots maken. Ik ben wel benieuwd hoe de 18:9 formaat zou gebruikt worden, aangezien 9 op de 10 schermen 16:9 verhouding hebben. 18:9 is een stukje smaller, maar wel wat breder.

Ik wacht wel af totdat deze sensoren in smartphones zitten, dan blijft wel de vraag of ze doorgaan met dual / triple of quad camera's gaan doen.
Nice dus bij goed licht 48MP foto en bij slecht licht schakel je (automagisch) over naar 12MP.
Dat lijkt zou maar in de praktijk bij weinig licht heb je toch meer aan grotere sensor of zelfde formaat sensor maar met grotere pixelgrootte. Hoe groter die pixelgrootte des te meer licht die kan opvangen.

Dus een 12 megapixelsensor met hetzelfde formaat als 48 megapixel sensor zal bij weinig licht dus toch beter resultaat geven.

Maar goed bij smartphones moet men weer iets dus de megapixel rage zorgt dan weer voor nieuwe specs en voor de massa is meer beter.

Gaat natuurlijk ook nog om de lesn en op een smartphone niet echt ideaal.
Nee, het ligt in principe puur aan het sensoroppervlak.
Op pixelniveau krijg je inderdaad meer ruis met meer megapixels, maar als je de 48mp foto terugschaald naar 12mp is het resultaat exact hetzelfde.
Helaas exact hetzelfde gaat niet op. Het is en blijft toch net iets minder maar nooit hetzelfde.

zie deze vergelijking van sony de a7s2 met 12mp en de a7r 12 met 48 mp https://www.cinema5d.com/...vs-a7r-ii-test-which-one/

Staat een mooie foto met 25600 iso en ook crop van de 48mp waardoor ruis idd minder is maar toch niet hetzelfde is als de 12 mp.

Dus ja door terug te gaan van 48mp naar 12 zal foto beter wordne maar nooit hetzelfde resultaat geven als een 12mp sensor.

Maar goed dit is is bij weinig licht situaties en dat zal alleen bij specifieke toepassingen zijn.
Heeft dat niet dan met postprocessing en noise reduction te maken?

Bij grotere pixelaantallen zul je relatief veel noise reduction willen als je van 48 naar 12 gaat, simpelweg om het feit dat ruis die op 48MP zichtbaar is, niet magisch ineens verdwijnt als je 4 pixels uitmiddelt tot 1. Kan het niet wetenschappelijk uitleggen maar ben benieuwd naar bronnen die dit wel zouden kunnen.

Andersom is het zo dat foto's vaak ook minder scherp worden naarmate je ze kleiner resized, ook al doe je dat netjes van in een viervoud van aantal pixels. Vanuit het aspect, meer data voor een kleiner oppervlak zou je verwachten dat het omgekeerde mogelijk is.

Maw, bij drastische resizes vraag ik me af of je niet een slimme resize + sharpening + noise reduction algoritme zou willen.

[Reactie gewijzigd door A Lurker op 30 oktober 2018 17:04]

Ik snap even niet helemaal wat er vergeleken wordt in die link die je geeft.

Het idee is niet dat de sensor gecropt wordt, maar dat van de 48 mp sensor 4 pixels worden gecombineerd tot 1, wat uiteindelijk leidt tot een 12 mp plaatje.

Tenzij dat wordt bedoeld met "crop", maar dan vind ik het woord "crop" raar gekozen.

Los daarvan lijkt het me dat een native 12 mp sensor nog steeds een beter beeld geeft dan een 48 mp sensor teruggebracht naar 12 mp, maar dat heeft er meer mee te maken dat het beschikbare oppervlak om fotonen mee te meten net iets lager is bij een 48 mp sensor dan bij een 12 mp sensor.
In de link vergelijkt men 2 sony camera's 1 met 12mp en 1 met 48 mp.
met crop bedoeld met dat de 48 mp wordt gereduceerd tot 12mp om zo te vergelijken.

Conclusie is dan dat de 12mp bij weinig licht in dit voorbeeld net iets beter is.

De 48 mp is dus iets minder goed, hoewel verschil niet groot is.
Nee dat heb je niet, een sensor oppervlak is niet 100% pixels. Er zijn ook andere zaken aanwezig die je voor iedere pixel nodig hebt. Kleinere pixels hebben doorgaans een beetje minder performance dan grotere pixels per hoeveelheid ruimte.
Tuurlijk is het zo dat een moderne kleine pixel wel zal winnen van een zeer oude iets grotere pixel maar dat is niet hoe de markt op dit moment in elkaar zit. Op ieder formaat zijn er degelijke pixels.
de lensjes op een telefoon blijven natuurlijk wel een bottle neck. Op een 30mpix camera zie ik al merkbaar verschil tussen een goede professionele zoomlens (2.8) en prime lens.
En dat heeft ook veel zin met zo'n mini sensor.
Samsung wordt meer en meer een hofleverancier van onderdelen: processoren (voor de autoindustrie), sensoren, batterijen, OLED schermen, flash geheugen, DRAM geheugen, SSD's, 5G modems, volgend jaar waarschijnlijk ook een eigen GPU en nu ook al deze ISOCELL sensoren.

[Reactie gewijzigd door Campestribus op 30 oktober 2018 16:27]

TJA ze hebben de kapitaal om iets te beginnen en de fabrieken dus waarom niet zou ik zeggen.

Als bedrijf wil je van alles kunnen genieten, en geven ''service'' dus dan probeer je alles te doen.

Of het goed uitloopt achteraf is vaak nog afwachten van het eerste/tweede success..
Samsung wordt meer en meer een hofleverancier van onderdelen: processoren (voor de autoindustrie), sensoren, batterijen, OLED schermen, flash geheugen, DRAM geheugen, SSD's en volgend jaar waarschijnlijk ook een GPU en nu ook al deze ISOCELL sensoren.
Dat is Samsung altijd al geweest. Toen ik 5 jaar geleden bij een event van hun was, vertelde ze dat 25% van alle hardware wat jij omschrijft geleverd wordt door samsung. Heb nooit een bron kunnen vinden, maar gezien de omvang van Samsung is het best realistisch.
Zouden we dit al op de Galaxy S10 mogen verwachten?
Productie zou het 4e kwartaal 2018 starten, dus het zou kunnen.
Ik vrees er een beetje voor.
Lijkt mij iets te kort dag, en dit lijkt mij ook meer iets voor de note 10.
Deze bron verwacht van wel :)

"Aangezien de camerasensoren zijn bedoeld voor high-end smartphones en de configuratie duidelijk een opvolger is voor de camerasensoren die Samsung in de huidige Galaxy S9 en Galaxy S9+ gebruikt, lijkt het voor de hand te liggen dat deze camerasensoren begin volgend jaar in de verwachte Samsung Galaxy S10-serie aangetroffen kan worden. De Samsung Galaxy S10 wordt waarschijnlijk op zondag 24 februari in Barcelona gepresenteerd voorafgaand aan het Mobile World Congress."

http://www.gsmhelpdesk.nl...moedelijk-voor-galaxy-s10
Gsmhelpdesk zou ik nu niet onmiddellijk een betrouwbare bron noemen :P
Maar het kan uiteraard, we zullen het zien in 2019!
Als ex nokia 1020 gebruiker zit ik hier al even op te wachten. het is een zaligheid om gewoon foto's te trekken en nadien digitaal te kunnen zoomen zonder veel aan kwaliteit te verliezen.
had graag een opvolger van deze gsm gezien.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True