Samsung mikt op release 576Mp-camerasensor binnen vier jaar

Samsung mikt erop om voor het einde van 2025 een camerasensor met 576 miljoen pixels op de markt te brengen. De sensor van de fabrikant met de hoogste resolutie tot nu toe heeft 200 megapixels. De stap is mogelijk door pixels verder te verkleinen.

De stap komt naar voren op een slide uit een presentatie van een Samsung-topman op de SEMI Europe Summit, waar Image Sensors World over bericht. Die laat een overzicht zien van camerasensors van de afgelopen twintig jaar, waarbij bij 2025 een resolutie van 576 megapixel wordt genoemd.

Dat moet mogelijk zijn door verdere verkleining van de pixels. De kleinste pixels op een camerasensor zijn nu 0,64 micron op de pas aangekondigde 200-megapixelsensor. De slide laat verder niets zien over specificaties van de camerasensor. Als het gaat om een 4:3-verhouding, zou dat uitkomen op een resolutie van ongeveer 27.700 pixels bij 20.780 pixels. Met een pixelgrootte van 0,5 micron zou dat uitkomen op een sensor van 144 vierkante millimeter met een optisch formaat iets boven 1".

De sensor zou bijvoorbeeld 6x6 pixels kunnen gebruiken voor een enkele foto, wat resulteert in 16-megapixelfoto's. Het is onduidelijk in hoeverre de ontwikkeling van de sensor al gaande is. Samsung presenteert meerdere camerasensors per jaar.

Samsung: 576Mp-sensor in 2025. Bron: Image Sensors World
Samsung: 576Mp-sensor in 2025. Bron: Image Sensors World

Door Arnoud Wokke

Redacteur Tweakers

07-09-2021 • 11:47

99

Reacties (99)

99
98
39
7
2
51
Wijzig sortering
Ik quote even een reactie van @CaptainPanda op een ander artikel
Er lijkt een algemene consensus te zijn onder velen hier die ervan uitgaan dat meer pixels meer ruis betekent. Dit is echter gewoonweg niet waar en ik denk dat er een hele goede reden is dat de ingenieurs van Samsung deze beslissing hebben genomen. We zien ook dat in de laatste jaren het aantal megapixels in (smartphone)sensoren steeds hoger wordt en juíst de beste foto's komen van deze sensoren met hogere dichtheid. Anders zou het kinderlijk eenvoudig zijn voor een van de grotere fabrikanten om een sensor op de markt te brengen die alles wegvaagt door die uit te rusten met grotere, maar minder pixels.

Hier een van de weinige artikelen die het correct probeert uit te leggen van DPReview. https://www.dpreview.com/...d-sensor-sizes-on-noise/2

Wat is belangrijk hierbij:
Foto's moeten altijd op dezelfde fysieke grootte worden vergeleken, dus op dezelfde schermgrootte of afdrukgrootte. Wat mensen veelal fout doen, is dat ze digitale afbeeldingen op 100% niveau vergelijken, maar dat is onzin, want niemand gaat een foto groter afdrukken of op een groter scherm bekijken alleen maar omdat deze is geschoten op een sensor met hogere pixeldichtheid. Hierdoor concluderen mensen foutief dat een sensor met meer pixels ook meer ruis heeft, want natuurlijk, met meer pixels is er meer ruis....maar ze vergeten erbij te vertellen dat er ook veel meer detail en oppervlak is met bruikbaar beeldsignaal.

In principe is de 'afleesruis' (read noise) van de sensor relatief beperkt ten opzichte van de ruis veroorzaakt door het tekort aan licht in de scène zelf. Wat zelfs nóg mooier is, is dat kleinere pixels in veel gevallen zelfs een lagere afleesruis produceren en dan grotere.

De totale ruis in een plaatje geschoten met een hogeredichtheidssensor is veel fijnmaziger, omdat de ruis zelf ook kleiner is.

Onderin staat er een leuke formule, maar daarin wordt eigenlijk nog steeds niet alles uitgelegd. Er staat namelijk: Read Noise_small pixels = sqrt(N)*X, waarbij N het aantal pixels is en X de totale afleesruis van alle pixels. Echter, zoals hierboven genoemd en zoals ook in het artikel staat, is X dus zelf ook weer afhankelijk van de pixelgrootte, waarbij geldt dat hoe kleiner de pixel, hoe kleiner zijn afleesruis is. Met andere woorden, er moet eigenlijk 'X(N)' staan in plaats van 'X', omdat X een functie is van N. Hierdoor is het helaas weer net wat lastiger om dit puur theoretisch te bewijzen, omdat de verkleining van X als functie van N niet zo makkelijk te definiëren is totdat iemand hier specifiek onderzoek naar heeft gedaan.

Het beste bewijs is dan maar om toch te kijken naar praktijkfoto's ergens (middenin de pagina): kijk naar alleen de eerste twee kolommen, want daar worden twee foto's correct op dezelfde fysieke afbeeldgrootte vergeleken en nog belangrijker, in dezelfde lichtomstandigheden, dus hier wordt echt de ruis vergeleken veroorzaakt door de sensor en niet door een tekort aan licht in de scène. We zien hier dus een sensor met hoge pixeldichtheid (45 MP gedownscaled naar 12 MP) vergeleken wordt met een van native 12 MP:

Bij een hogere ISO het verschil tussen de verschillende sensoren duidelijker wordt, simpelweg omdat er ook meer afleesruis verschijnt. Bij de lagere ISO's is de afleesruis vrijwel gelijk, dus hier zorgen meer megapixels niet voor meer ruis, maar wél voor veel meer detail.

De foto van 45 MP heeft daadwerkelijk een minimale extra hoeveel ruis, maar het is echter duidelijk dat de sensor van oorspronkelijk 45 MP na downscalen nog steeds zoveel meer detail overhoudt. Daarnaast is de ruis veel fijnmaziger, dus ook al is het technisch gezien misschien meer in hoeveelheid (maar dit is niet zeker, omdat het effect van 'X(N)' dus niet duidelijk is!), toch heeft deze qua beeld de voorkeur in de praktijk. Tenminste, dat is voor mij zo en ik denk dat er weinigen zullen zijn die het tweede plaatje de voorkeur geven, omdat daar het beoogde plaatje compleet onbruikbaar is door het lage detailniveau.

Concluderend zou ik zeggen, zeker na de praktijkvergelijking, dat meer megapixels op een sensor, al dan niet met goede pixel binning en downsizing uiteindelijk een betere foto oplevert. De enige echte manier om minder ruis te krijgen, is door de sensor fysiek groter te maken, omdat deze dan ook daadwerkelijk meer totaal licht opvangt om een foto te nemen. Meer megapixels leidt tot meer detail terwijl het ruisniveau ongeveer gelijk blijft, maar zorgt ervoor dat de afleesruis misschien zelfs nog minder afleidend is omdat het fijnmaziger is en daardoor dat de plaatjes aantrekkelijker zijn om naar te kijken.
Oorspronkelijke artikel met reactie van CaptainPanda nieuws: Samsung introduceert 200Mp-sensor met 50Mp- en 12,5Mp-binning voor sm...

[Reactie gewijzigd door crepsly op 23 juli 2024 12:41]

Niet om een betweter te zijn maar vroeger was de trend wel degelijk "meer megapixels = meer beter marketing" tot Google zorgde dat iedereen kapte met de onzin- en de beste fotos maakte op een 12MP lens.

Er zal vast heel wat wetenschap achter zitten maar de huidige trend welk beter lijkt te kloppen is "grotere lens = meer beter" en het aantal pixels lijkt niet denderend veel uit te maken
tot Google zorgde dat iedereen kapte met de onzin- en de beste fotos maakte op een 12MP lens.
Die maakte ook korte mette met vrijwel elke 12MP (smartphone)camera ;)

De eindscore is dan ook een som van hardware en software, dus gebrekkige hardware kan je deels ondervangen met software en goede hardware staat daardoor niet gelijk aan goed eindresultaat.

Laat Google maar komen met een 48MP/96MP sensor ik weet zeker dat die ver boven de 12MP uit gaat steken, met meer details kan je juist ook meer verbeteren met software ;)
Het probleem blijft diffractie. Je kunt wel meer megapixel op een sensor kwakken, maar je lens moet enorm lichtsterk zijn om diffractie tegen te gaan.
Met die pixelbinning van tegenwoordig (ik heb zelf een 108MP telefoonsensor van 2/3") kunnen ze toch pochen met enorm veel megapixels, maar tegelijkertijd weten ze ook dat het oplossend vermogen van het geheel niet groter is dan 12-20MP (afhankelijk van sensorformaat en diafragma van de lens).
Je hebt gelijk dat diffractie een harde limiet is die nooit wordt overtroffen, maar bij de rest moet ik even wat kanttekeningen plaatsen.

Over diffractie: het hoogste 'detailniveau' wat haalbaar is van de lens wordt uitgedrukt in een contrastpercentage bij verschillende lijnen/mm en is proportioneel met de inverse van het F-getal, diffractielimiet ~ F-getal^-1, zie: https://www.edmundoptics....d-contrast-the-airy-disk/. Wat dit dus betekent, is dat er bij een groter diafragma (= kleiner F-getal), de limiet hoger ligt, dus bij situaties bij lager licht. Overdag wordt er juist een kleiner diafragma gebruikt en juist dan is de diffractielimiet lager en zorgt die juist voor een harde grens in theoretisch haalbaar detailniveau. Zie de tabel in de link: bij F/1.4 is de grens maar liefst 1374 lijnen/mm voor de gekozen kleur en bij F/11 maar 175 lijnen/mm. Juist bij de tweede situatie is die limiet belangrijk en zorgt voor een minder scherp plaatje. Overdag heeft men dus veel meer last van de diffractielimiet die ervoor zorgt dat de lens 'stopt' met weergeven van meer detail in vergelijking met donkere omstandigheden!

Hoe de uiteindelijke prestatie van een compleet plaatje nou werkt, is als volgt: een lens heeft een modulation transfer function (MTF) waarbij er met varierend gedetailleerde beelden op de x-as wordt getest (oplopend aantal lijnen/mm is meer detail) en de prestatie van de lens wordt dan op de y-as afgebeeld als een contrastpercentage; hoe hoger dit percentage, hoe beter de prestatie. Een andere manier om de x-as in te delen als de afstand van het midden tot aan de rand van de lens, waarbij elke lijn juist weer een ander aantal lijnen/mm voorstelt, zoals hier: https://cdn-7.nikon-cdn.c...harts/Media/2183_MTF2.jpg
Waar het op neerkomt: die MTF-lijn willen we zo hoog mogelijk, want dan is de lens beter in het weergeven van detail, wat sommigen ook wel 'oplossend vermogen' noemen en deze begint hoog aan de linkerkant, waarna die naar rechts toe lager wordt. Een goede lens zal minder verval naar rechts tonen dan een minder goede. Wat hierbij heel belangrijk is: een MTF van een lens zit altijd onder de diffractielimiet. (bijvoorbeeld hier, dat is de gestippelde lijn: https://www.researchgate....rates-compared-with-a.png).

En dan de hele crux van het verhaal waarom je niet kan zeggen 'de lens heeft een beperkt oplossingsvermogen, dus de sensor verbeteren heeft geen zin': bij het maken van foto's en video's wordt de uiteindelijke kwaliteit bepaald door de MTF van het totale systeem van lens én sensor en dit is waarom er niet die bottlenecksituatie is die wordt bepaald door de diffractielimiet van de lens: deze wordt namelijk behaald door de MTF van de lens te vermenigvuldigen met de 'MTF van de sensor'. Zie https://www.edmundoptics....lation-transfer-function/
Every component within a system has an associated modulation transfer function (MTF) and, as a result, contributes to the overall MTF of the system. This includes the imaging lens, camera sensor, image capture boards, and video cables, for instance. The resulting MTF of the system is the product of all the MTF curves of its components (Figure 7).
Heel belangrijk is om te zien dat de MTF van de sensor begint bij 100% en steeds naar rechts lager gaat dan 100%. Wat dit dus betekent: omdat de MTF van de sensor altijd een vermenigvuldigingsfactor is die lager is dan 1, zal de effectieve MTF van het systeem altijd lager zijn dan de MTF van de lens zelf, welke op zichzelf ook al altijd onder de diffractielimiet zit! Kijk hier in het plaatje:
https://www.edmundoptics....e799cdea/fig-7-mtf_lg.gif

Aan de linkerkant zit de MTF van de lens, welke dus al altijd onder de diffractielimiet zit. Dit moet worden vermenigvuldigd met het tweede plaatje, namelijk de MTF van de sensor. Omdat deze altijd op 100% of lager contrast zit, zorgt dit voor het de totale MTF van het systeem aan de rechterkant, welke altijd een verslechtering van de oorspronkelijke MTF van de lens alleen is.

De belangrijkste conclusie is hierbij: het heeft altijd zin om de MTF van de sensor te verbeteren.Het werkt niet zoals bijvoorbeeld een processor- of videokaart-bottleneck bij computers, maar de MTF's van de afzonderlijke delen dragen beide bij aan de totale kwaliteit. Een verbetering van de sensor op zichzelf heeft dus ook zin.

Hoe zit het dan met de plaatjes overdag bij bijvoorbeeld F/11, waarbij die diffractielimiet dus al eerder is bereikt? Nou, die diffractielimiet wordt dus al verdisconteerd in de MTF van de lens en ook dan heeft het weer zin om de sensor in resolutie te verbeteren, omdat de sensor-MTF altijd het beeld 'verslechtert'. Want nogmaals, de MTF van de sensor begint bij 100% en valt daarna naar beneden, dus je vermenigvuldigt iets met minder dan 1. In theorie zou je ook overdag bij F/32, waarbij de diffractielimiet al ver van toepassing is, een foto of video kunnen maken met meer detail door de sensor nog gedetailleerder te maken door bijvoorbeeld deze meer pixels te geven*, want dan 'verslechtert' de sensor-MTF het uiteindelijke resultaat minder.

*indien deze natuurlijk al niet een 'perfecte' MTF van een rechte horizontale lijn is die op 100% blijft steken, wat ook niet eens fysiek kan, want de pixels hebben een vaste grootte en daardoor zal de lijn naar rechts toe bij een hoger aantal lijnen/mm altijd vervallen.

Ik hoop dat het een beetje duidelijk is, alhoewel het volgens mij een wat warrig verhaal is geworden en ik heb het met een hoop edits geprobeerd enigszins leesbaar te maken. Het enige wat ik dus nooit meer wil zien, is dat mensen gaan zeggen dat een lens een beperkt oplossingsvermogen heeft van 'x megapixel', want dat is natuurlijk onzin, omdat de lens een fysiek beeld nog steeds fysiek afbeeldt voordat we het over megapixel hebben. We moeten het in plaats daarvan altijd over MTF-grafieken hebben. En daarnaast hoop ik dat de misconceptie over een bottleneck-situatie de wereld uit is, want de MTF van een lens vermenigvuldigd met de MTF van een sensor dragen beide bij aan de uiteindelijke foto. Ergo, een betere sensor met dezelfde lens zorgt echt voor een beter plaatje en is daardoor geen nutteloze marketing. Eenzelfde sensor met een betere lens mag ook. Of een betere sensor én een betere lens, het kan allemaal nóg beter en dat is de reden dat we naar enorme getallen gaan als 576 megapixel met binning. :9

Als laatste toevoeging: heeft het dan zin om het aantal megapixel maar te blijven vergroten tot een daadwerkelijk absurd getal zoals een miljard megapixel? Ik zou niet weten hoeveel megapixel 'genoeg' zou zijn, maar wat meer pixels op dezelfde sensorgrootte op dit moment toevoegt, is dat het MTF-verval van de sensor lager is. In theorie zou men dus maar door kunnen blijven gaan totdat de sensor-MTF misschien wel aan de rechterkant van zo'n grafiek slechts 1% vervalt: van 100% naar 99%, wat heel dichtbij perfectie is. Door het grote aantal pixels, kan het detail van een scène met heel veel lijnen/mm namelijk in dat geval bijna perfect worden opgevangen en verwerkt. Wat je dan krijgt, is dat de sensor de maximale prestatie uit de lens haalt, welke nog steeds onder de diffractielimiet zal zitten voor grote diafragma's en precies op de diffractielimiet voor kleine diafragma's.

[Reactie gewijzigd door CaptainPanda op 23 juli 2024 12:41]

Het enige wat ik dus nooit meer wil zien, is dat mensen gaan zeggen dat een lens een beperkt oplossingsvermogen heeft van 'x megapixel', want dat is natuurlijk onzin, omdat de lens een fysiek beeld nog steeds fysiek afbeeldt voordat we het over megapixel hebben.
Sorry, maar hier krijg ik toch even kromme tenen van.
Natuurlijk is het oplossend vermogen van een lens niet in harde megapixels uit te drukken, maar er is wel degelijk een verschil in oplossend vermogen oftewel de hoeveelheid detail wat een lens kan doorlaten. Of zeg jij dat iedere lens hetzelfde beeld weergeeft, of dit nou een smartphone lensje is of een enorme duizenden euro kostende DSLR-lens of zelfs een telescoop? Je kan wel een miljard pixels toepassen, maar als het glas in een telefoon uiteindelijk de beperkende factor is wat heeft het toepassen van zoveel pixels dan uiteindelijk voor nut?
Sorry, maar hier krijg ik toch even kromme tenen van.
Natuurlijk is het oplossend vermogen van een lens niet in harde megapixels uit te drukken, maar er is wel degelijk een verschil in oplossend vermogen oftewel de hoeveelheid detail wat een lens kan doorlaten. Of zeg jij dat iedere lens hetzelfde beeld weergeeft, of dit nou een smartphone lensje is of een enorme duizenden euro kostende DSLR-lens of zelfs een telescoop?
Geen woorden in mijn mond leggen, want ik zeg helemaal niets over verschillen tussen lenzen onderling, dus die kromme tenen heb je vooral aan jezelf te danken. En omdat het hier gaat om smartphones, natuurlijk, dan hebben we het over hele kleine lenzen, dus waarom je nu ineens gaat praten over DSLR-lenzen of telescopen slaat helemaal nergens op.

Citeer anders maar even waar ik zeg dat alle lenzen dezelfde kwaliteit hebben...ik wacht nog wel even een eeuw zodat die kromme tenen hopelijk weer rechttrekken. Sterker nog, ik zeg dat de kwaliteit van een lens wordt uitgedrukt door een MTF die hoort bij die lens en dat een goede lens weinig verval vertoont in die MTF ten opzichte van een slechte, waarmee ik heel duidelijk maak dat er wél verschil onderling is. Iets met leesvaardigheid..

Mijn reactie ging daar niet eens over, want het artikel gaat puur over een verbetering in de sensor zonder iets te zeggen over de kwaliteit van de gebruikte lenzen en mensen beweren foutief dat het dan ineens geen nut heeft, omdat die lens een of andere beperking zou zijn volgens hun onderbuikgevoel en er wordt zelfs complete onzin verkondigd zoals dat een lens 'x megapixel' als limiet heeft.

Ik weerleg dat, omdat een betere foto of video ook te realiseren is door een willekeurige lens te gebruiken, hoe goed of slecht deze ook is, maar wel de sensor te verbeteren. Deze betere sensor zal in staat zijn om uit het afgebeelde analoge beeld tijdens de digitaliseringsstap naar een plaatje in pixels zoveel mogelijk uit de gebruikte lens te halen, waarbij het dus voor deze discussie niet relevant is hoe goed of slecht deze lens in eerste instantie is.
Je kan wel een miljard pixels toepassen, maar als het glas in een telefoon uiteindelijk de beperkende factor is wat heeft het toepassen van zoveel pixels dan uiteindelijk voor nut?
En dit bedoel ik, dit dikgedrukte deel is dus een enorme misvatting die ik heb geprobeerd de wereld uit te helpen, dus ik zou aanraden om mijn reactie nog eens aandachtig door te lezen inclusief de bronnen, zodat je beseft dat de aanname in deze vraag niet valide is.

Het glas is niet de beperkende factor en is geen bottleneck.

Nogmaals, om een betere fotokwaliteit te krijgen, zijn dit de mogelijkheden:
- bij gebruik van de huidige smartphonelenzen zonder enige verbetering daarin, kunnen de sensoren afzonderlijk worden verbeterd, want dit zorgt ervoor dat er de uiteindelijke kwaliteit (systeem-MTF) dichter bij het theoretische maximum van de lens-MTF komt.
- als de smartphonelenzen worden verbeterd zonder de huidige sensoren te verbeteren, ook prima, dan wordt natuurlijk ook de kwaliteit beter.
- als de lenzen én de sensoren worden verbeterd, dan is het dubbel feest.

Het punt blijft gewoon staan: zelfs al worden de lenzen in de huidige telefoons niet eens verbeterd, met de nieuwere sensoren zal de fotokwaliteit omhoog gaan.

[Reactie gewijzigd door CaptainPanda op 23 juli 2024 12:41]

als ik op een dslr al zie wat een verschil een goede lens kan maken dan zal dat op een mobieltje ook niet anders zijn.
Difractie is een natuurkundig probleem, geen technisch. Net als niet sneller dan de snelheid van het licht kunnen, zeg maar.
Maar het is wel zinvol om je pixels kleiner te maken dan wat diffractie en lens nog aankunnen. Zodat je het maximum uit de lens haalt.
euuhhh. Nee, niet om die reden. Ja, wel om de ruis tegen te gaan.
Net als niet sneller dan de snelheid van het licht kunnen, zeg maar.
Einstein dacht toch echt dat je dat kon buigen en een afkorting kon nemen ;)
Je kunt natuurlijk vaststellen wat je diffractie is, en dan zijn er vast wat algoritmen te verzinnen die dat stuk weer eruit rekenen. Juist ook omdat je nu veel meer sample materiaal tot je beschikking hebt met zoveel mpix.
Nou, dat valt met diffractie wel wat tegen. De vraag is wat de limiet is en wat voor lens je nodig hebt. Het bijbehorende wikipedia-artikel: https://en.m.wikipedia.org/wiki/Super-resolution_imaging
12MP klinkt leuk, maar als je 48MP naar 12MP verkleint krijg je meer detail dan wanneer je native op 12MP schiet. Geen idee waarom.
In het signaal zit een aandeel ruis, waarvan je niet weet hoeveel dat is. Splits je die pixel nu in vieren, dan kun je met een beetje statistiek veel beter herleiden wat de meest waarschijnlijke waarde was (en dus wat de ruis is).
Diezelfde vier pixels kun je nu met wat gewogen gemiddelden en andere slimmigheden weer schalen naar 1 enkele pixel, met een grotere waarschijnlijkheid dat je de juiste kleur hebt. Zeker als je de verder omliggende pixels ook meeneemt in je beoordeling.
Als de output nog steeds 12MP is, is het meer een placebo effect.
Daar heb je zeker een punt. Megapixels zegt ook niet alles, het is maar een van de factoren, toch blijft het verhaal van @crepsly wel staan.

Neem daar ook bij mee dat toestellen tegenwoordig de informatie van vele pixels samenvoegt om ook tot photo's van ongeveer 12-24MP te komen (12MP op 4:3 moet je nogsteeds downscalen op een 4k monitor/tv, neem je de 2160 pixels van 4K in de breedte maar met een 4:3 verhouding kom je op 5120*2160=11MP, zonder geadvanceerde bewerking of veel gecrop is 12MP dus zat voor de meeste smartphone camera toepassingen). Toen de Pixel met 12MP de concurrentie wegsloeg werd dat nog iets minder gedaan geloof ik (correct me if I am wrong).

Wat ik wel weer mis in het verhaal van @crepsly is de impact van meer megapixels op het effectief sensor formaat. Je zou denken dat met meer pixels op je sensor er ook meer grensstukjes tussen de pixels zijn waar licht verloren gaat en dat je zo met een groter pixelsize meer oppervlakte op de sensor hebt waar licht op valt. Weet iemand hoe significant dit effect is?
Niet om een betweter te zijn maar vroeger was de trend wel degelijk "meer megapixels = meer beter marketing" tot Google zorgde dat iedereen kapte met de onzin- en de beste fotos maakte op een 12MP lens.
Hangt er vanaf hoever je terug gaat met 'vroeger'. Ik heb jaren geleden een van de eerste professionele DSLR's gehad, die ik van een fotograaf overnam. Een Canon 1D. De eerste digitale 1D, met 4MP CCD, toen kon men nog geen CMOS sensor maken die de hoge snelheid aankon. Hij moest nl 10 foto's per seconde kunnen maken. Dat waren dan wel 10 volledig berekende foto's, dus belichting e.d. werd per foto bepaald, en niet gewoon 10 frames achter elkaar klikken. Met die camera én de juiste lens (Canon 400MM F4 type 'L') kon je een F1 wagen die met 250kmh op je af kwam fotografen én in focus houden tot een bepaalde afstand (weet ik niet meer uit het hoofd).
Die camera maakte prachtige foto's en was slechts 4MP. Alleen één groot ruisfeest op 400ISO. Ik ben zelf dus niet zo gevoelig voor ruis als de 'verwende' generatie die opgroeide met camera's met 20MP en die makkelijk 800ISO konden wegklikken zonder noemenswaardige ruis. Nou hadden de 1D's (ik heb ook een MkII gehad) ruis die best wel te verteren was en erg veel leek op de ruis die je met analoge camera's op film had. Niet heel storend.

Maar laat maar komen, die 500+MP sensoren. Als het goede plaatjes oplevert, why not? Ik ga daar geen vooroordeel over hebben voordat ik het zie. Sowieso hebben de meeste camera's tegenwoordig zoveel electronische grapjes aan boord, dat ze de foto kunnen opkrikken qua belichting e.d. zonder dat je dat direct ziet. Dat is meestal ook het verschil tussen dure en goedkopere smartphone camera's. De software in de duurdere toestellen is vaak nét wat beter en slimmer om de vervelende artefacten weg te werken en de belichting te verbeteren. Wat je vroegâh in de nabewerking moest doen, kan de camera dat nu gewoon zelfstandig. Ik denk alleen dat specifieke situaties nog steeds lastig zijn voor de algoritmes, maar wie dat (serieus) doet, weet zelf de handmatige instellingen. Ik fotografeerde bv veel concerten en de automatische programma's weten niet goed hoe ze daarmee om moeten gaan. Vreemde belichting; een deel pikdonker en de andere uitgelicht met een spot. Veel te ingewikkeld om aan een computer uit te leggen.
Je dpreview link heeft je copy-paste niet overleefd. Bij deze de goede: https://www.dpreview.com/...d-sensor-sizes-on-noise/2

[Reactie gewijzigd door lordawesome op 23 juli 2024 12:41]

De link in je quote was niet klikbaar, hierbij de juiste:
https://www.dpreview.com/...d-sensor-sizes-on-noise/2
Er zijn aardig wat reviews over sony a7s en a7r waarbij ene 12mp pixel en de ander 35mp
Sensor even groot maar pixels van de 12mp groter.

Uiteindelijk zijn de verschillen klein. de 35mp downscalled naar 12mp weinig verschil.
dus 200mp verder downscalled blijft het de vraag of dat bij weinig licht echt zo veel beter is.

Vergeet daarbij ook niet de hoeveelheid aan data die een 200mp sensor moet verwerken. Doe het in raw en je hebt gigantische hoeveelheid data. Kan je geheugenkaartje dat bijhouden of moet je te lang wachten voor de volgende foto.
Dat kleinere pixels meer ruis opleveren (in slecht licht) blijft natuurlijk gewoon een feit, als je op pixel niveau kijkt. Kwestie van aantal fotonen per oppervlakte, en beneden een zekere feature size zal er op electronica niveau ook wel wat gebeuren, stel ik me voor.
Zelfde aantal pixels, kleinere sensor: meer (slecht licht) pixelruis. Zelfde sensor grootte, meer pixels: meer pixelruis.

Maar als ik het goed samenvat is je punt is eigenlijk: het maakt geen fluit uit want we bekijken foto's toch altijd downscaled en dan middelt die pixelruis zichzelf uit, en ik denk dat je gelijk hebt.

Een moderne smartphone heeft geen 50 Mp sensor om goede 50 Mp plaatjes te maken, hij heeft die om heel goede 4 Mp plaatjes te maken en dat is prima. Het resultaat wordt toch vrijwel uitsluitend op een beeldscherm bekeken.
Niet alleen middelt de pixelruis zich uit bij downscaling, ook de resolutie. Bottomline, een goede lens (goed ontwerp, goede zuivere soort kwaliteit glas) is naar mijn mening zinvoller.
Hoe is het probleem opgelost dat steeds meer van je oppervlakte gebuikt wordt om de cellen van elkaar te scheiden? Want dat was heel lang de rem op de MP race. Meer MP betekende kleinere cellen waarvan elke cel een stukje rand heeft dat niet lichtgevoelig is.
Mogen ze ook wel flink investeren in de opslag chips. :)
Mogen ze ook wel flink investeren in de opslag chips. :)
Hoeft niet hoor:
De sensor zou bijvoorbeeld 6x6 pixels kunnen gebruiken voor een enkele foto, wat resulteert in 16-megapixelfoto's.
Een tussenweg met 3x3px zou ook nog kunnen, dan worden ze wel ongeveer 64MP maar ook dat is te overzien met de huidige storage-technieken, laat staan wat we over 4 jaar hebben (1TB standaard?).

En zelfs als het vele storage kost is dat in het voordeel van Samsung, want dat verkopen ze (toevallig?) ook ;)

[Reactie gewijzigd door watercoolertje op 23 juli 2024 12:41]

Wat is dan precies het voordeel van 6x6 of 3x3 pixel binning tov. 16MP aan fysiek grotere pixels?

Leuk dat je 6x6 pixels kunt binnen voor bv betere beeldkwaliteit in moeilijke lichtomstandigheden maar pixels die groter zijn en dus een factor 36x meer licht vangen lijkt me natuurkundig gezien weer een stuk prettiger om te hebben.
Is het dan natuurkunde Vs. 'computational photography'?

Kan me alleen bedenken dat je bij zo'n hoge resolutie bv kunt kiezen tussen 16MP met 6x6, 64MP met 3x3 of iets als digitaal zoomen ofzo ?

Persoonlijk ben ik meer van de grotere 'kwalitatief betere' pixels icm met een goed verwerkings algoritme (Gcam of Apple's algoritme).
Je bent flexibeler, grotere pixels hebben bij genoeg licht weinig voordelen en dan is meer pixels (detail, dus meer inzoomen/croppen zonder verlies van kwaliteit) dus een voordeel en bij minder lichte settings zal dat in het voordeel zijn van grotere pixels omdat die inderdaad wat meer licht opvangen.

Dit is dus een soort middenweg, beetje vergelijkbaar met een all-season die ook niet het beste scoort in de winter OF de zomer, maar wel het beste scoort in de winter EN de zomer ;)

[Reactie gewijzigd door watercoolertje op 23 juli 2024 12:41]

Vergeet niet dat er ook nog een hoop elektronica achter zit die allemaal ruis toevoegen, Ik kan niet bedenken of dit nu doordat je het over meer pixels uit middelt op het zelfde uit komt. Maar als je noise procentueel ten opzichten van het signaal groter is zul je dus minder van het originele signaal overhoud
En meer noise toevoegen.
Moderne sensoren hebben juist erg lage read noise. Met weinig licht is het aandeel shot noise groter.
Moderne sensors kun je dus ook met grotere pixels maken en dat betekent dat je die lagere read noise niet mee mag nemen.
De signal to noise is hoger bij kleine pixels, omdat je nu eenmaal minder photonen hebt gevangen op de kleiner pixel, de vraag is of die groter signal to noise door gaat werken in het uiteindelijke plaatje ?
Ook moet je de infoematie Sneller verwerken, omdat je nu eenmaal meer pixels hebt, dus weer meer noise

Ik heb heel lang geleden mijn eerste digitale compact camera gekocht van Fuji ( FinePix 2400 Zoom ) en die had een enorme sensor ( lage resolutie ) voor die tijd en de plaatje die daar uit kwamen werd niet geëvenaard door de 2 volgende compact camera's. Veel meer resolutie maar ook veel meer ruis en de tweede camera was echt 6 jaar nieuwer.

[Reactie gewijzigd door amigob2 op 23 juli 2024 12:41]

Wat ik bedoelde was dat de read noise niet significant bijdraagt aan de totale ruis. Dus de elektronica voegt weinig ruis toe tov wat de fotonen zelf al doen.

Het interessante is nu blijkbaar dat als je de data in meerdere pixels vangt, je slimmer de ruis kunt filteren omdat je nu niet 1 maar bv 4 pixels ter beschikking hebt op hetzelfde oppervlak. Je kunt dus een betere afweging maken wat het daadwerkelijke signaal had moeten zijn.

Wat de sensoren betreft, de grootste slag kwam een paar jaar geleden met de introductie van de iso-invariant sensoren. Het verschil tussen mijn Canon EOS 40D en Fuji X-T1 was ongelooflijk groot voor alles vanaf ISO 800. De huidige sensoren zijn al gevoelig genoeg om individuele fotonen te tellen zo ongeveer, en met BSI hebben ze het lichtopvangende deel op de achterkant van de componenten gezet, zodat er meer kans is dat de fotonen geregistreerd worden.
De grap is dat het uitmiddelen dus beter werkt dan één grote pixel hebben.
Maar resulteert dat in scherpere foto's alleen, of ook betere kleurreproductie?

Want ik zou verwachten dat met kleurruis, wat inherent willekeurig is, er ook een willekeurige kleur uitkomt die totaal niet gegarandeerd de juiste kleur reproduceert... Maarja, ik ben ook geen expert.
De elektronica er achter voegt toch geen ruis toe, wel is het zo dat er tussen de pixels kleine dammetjes staan (zie dat als de muren binnen in je huis), hoe meer er zijn (wat bij meer pixels dus nodig is) hoe minder effectieve ruimte je over houd om licht op te vangen. Dus in essentie kan er meer ruis ontstaan, daartegenover staat dat er ook meer detail vastgelegd kan worden en met software kan daar dus wat mooiers uit komen :)
Het analoge signaal van de photonen op de sensor moeten gedigitaliseerd worden met AD convertor, en die voegen wel zeker ruis toe.
Die ruimte kun je gedeeltelijk compenseren met de plaatsing van de microlenzen. Met BSI sensoren plaatst men nu de elektronische componenten zoveel mogelijk aan de andere kant. Zodoende maximaliseer je de kans om fotonen te vangen.
Bij minder licht maakt het aantal pixels niet uit, het enige wat er toe doet is het formaat van de sensor.
Dat meer megapixels slechter zijn in slechte lichtomstandigheden is een mythe. Je vangt nog steeds net zoveel licht op met je sensor. Met slecht licht maakt het dus simpelweg niet uit hoeveel pixels je hebt. Het voordeel van binnen met meer pixels is scherpte. Een standaard bayer sensor is op pixel niveau niet scherp.

Was het beste is ligt vooral je use case. Wil je bijv. filmen dan heb je liever minder pixels, omdat je dat sneller kan uitlezen je rolling shutter beter kan voorkomen. Of als je sneller foto's wil maken, bijvoorbeeld voor sportverslaggeving, dan is minder data ook prettiger. Gaat het echter niet om snelheid maar om detail, dan wil je juist meer pixels hebben.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 12:41]

Volgens mij heb je ook te maken met de fysieke grenzen/overgangen tussen de extreem kleine pixels. Dat is verloren ruimte waar geen licht op valt wat gebruikt kan worden.
Dan hebben we het over photocells die zo klein zijn dat photons er niet altijd opvallen, we zijn volgens mij nog lang niet op dat punt.
En e.e.a. gecombineerd met goed glas natuurlijk.
576MP is fors voor een mobiele telefoon (waar deze sensor op lijkt te zijn gericht). Ik kan me eigenlijk niet voorstellen waar je dat voor zou willen gebruiken buiten wetenschappelijke toepassingen. Daar buiten ben je volgens mij beter af met grote "goede" pixels dan extreem kleine pixels die minder nauwkeurig zijn. Je kan wel meerdere kleine pixels combineren in een grotere, maar het aansluiten van die pixels kost ook ruimte die je ook had kunnen geberuiken om licht op te vangen.
Heeft iemand een beeld van de doelgroep of is het vooral een kwestie van meer=beter en vroeg of laat vinden we wel een toepassing? (dit is niet sarscastisch bedoelt)
Volgens de afbeelding in het artikel lijkt alle elektronica achter de 'pixels' te zien. Zo maakt de ruimte om aan te sluiten niet uit.

Ik denk dat je laatste zin wel een marketing stijl is: we vinden wel wat. Beter een voorsprong op een verkeerde feature dan achterstand.
Je hebt nu toch BSI, waarbij de lichtopvang aan de achterkant van de componenten plaatsvindt?
0.5 gigapixel, nieuw marketingsmateriaal.
De race om de eerste gigapixel telefooncamera is begonnen.
Mijn eerste telefoon met camera (Z600) had 0,1 megapixels..
Het is idd pure marketing, want het resulteert gewoon in 16MP.

HOE de sensor aan die 16MP komt, is totaal niet relevant voor de gebruiker... Maar des te meer voor marketing 8)7
Ook gaat het allemaal door hetzelfde stukje glas heen dat al aan zijn fysieke grenzen zit in telefoons. Dan kun je wel de sensor tot het oneindige verbeteren, als het glas niet "meegroeit" blijft dat toch de flessenhals.
Doe mij maar gewon een goede 12 megapixel sensor met betere kleurechtheid en stop dat ontwikkel geld in beter glas voor de sensor want dat is ook een enorm zwakke factor. Er is een reden dat een DSLR op 22 ish megapixels blijft hangen. Er zijn tests gedaan met de polijsting van het glas en hoeveel details dat kan resolven op de sensor en dat bleef hangen rond de 22-24 megapixels. alle hogere sensoren werden niets scherper.
En hoe kleiner de sensor des te meer de kleurechtheid naar beneden gaat en dit moet dan weer door software opgepoetst worden maar zal nooit echt goed worden. Net als dat meer pixels in een sensor meer pixel borders betekend en dat kost effectief sensor ruimte. Er zit namelijk altijd een gaatje tussen de pixels op de sensor en daar word geen licht opgevangen en dat gaat wederom ten koste van kleurechtheid en kan tegens ook banding veroorzaken.

Al met al zijn ze leuk voor een kliekje maar echt mooi word het wat mij betreft nooit. Als ik mijn 12. megapixel DSLR van 12 jaar oud naast mijn recente telefoon met 64 megapixels leg en de foto op een A3 formaat bekijk dan is het verschil echt duidelijk. In eerste instantie lijkt de Smartphone scherper maar daar is zoveel software voor gebruikt dat veel details compleet weg zijn of andere dingen gesloopt zijn zoals contrast, belichting, kleuren.
Voeg je dan een matige scherpte filter over een DSLR foto toe is het vele malen beter. Ook niet heel gek gezien je letterlijk een 30x zo grote sensor heb en een lens die honderden keren groter is en dus ook veel meet lucht heb om je sensor te belichten.
En dan hebben we het nog niet eens over de misvormingen van smartphone foto's. Iemand stuurde me gister een foto van iemand en het leek wel een dwergje uit de hobbit met korte beentjes door de vervorming van het beeld door slecht glas. En dat was dan een 1000 euro kostende samsung telefoon.

Wat mij betreft voegt al deze smartphone marketing praat echt niets toe en is het niets dan marketing hype waar mensen met open ogen in trappen en dus de enige reden dat ze het maken.
Er is echt wel verschil tussen een 12mp sensor van 10 jaar geleden een een 45mp sensor van nu _van hetzelfde formaat_. Naast de veel betere SNR verhoudingen zit er gewoon veel meer detail in.

Het verschil met een smartphone is inderdaad beter te zien, maar daar ligt het voor een deel aan de" verbeteringen" die de algoritmen. Met name de ruisonderdrukking is doorgaans veel te sterk. Met goede instellingen is het verschil echt een stuk moeilijker te zien.

De misvormingen zijn vooral de vertekening van je perspectief, die je krijgt omdat er een groothoeklens gebruikt is. Dat is wat anders dan een crappy lens.
De lenzen in een smartphone zijn vooral klein, niet perse crappy, maar de grootte van dat stukje glas is uiteindelijk wel de limiterende factor. Groter glasoppervlak kan nu eenmaal meer detail resolven. Niet vreemd dat de lenzen van DSLR's een stuk groter zijn en dat bijvoorbeeld telescopen met een grotere lensopening meer detail kunnen laten zien dan een kleine(re). Met software kan echt heel veel, maar uiteindelijk kan detail er niet "bijgetoverd" worden.

[Reactie gewijzigd door Tranquility op 23 juli 2024 12:41]

Ja klopt, ik fotografeer al jaren, dus die materie is me wel bekend. Ik reageerde met name op het stuk over de perspectivische vertekening dat genoemd werd. Dat is typisch wat je met een groothoeklens krijgt tov een normaal objectief.
576 Mpixel, Dat is dus bij ieder beeldje 576 Mega Byte data dat van de sensor af komt. Met 50 beeldjes per seconde is dat dus 2880 MByte per seconde. Bijna 3 Gigabyte per seconde.

Natuurlijk zullen er wel de nodige pixels worden samengevoegd en natuurlijk zal er wel wat worden weg-geoptimaliseerd. Maar van de sensor naar de eerste chip is dat toch de bandbreedte die nodig is. En dat dan die chip die gegevens moet verwerken, al is het alleen maar verdelen over meerdere sub-chips die het in delen verwerken.

Aan de andere kant, ik ging nu uit van 8 bits/pixel. Dat kunnen er ook meer zijn (en ook minder). En de gegevens hoeven helemaal niet als bit-trein seriëel van de chip af te komen. Ga uit van een spoor-breedte van 64 bits. Dat verlaagt de frequentie maar parallele verwerking moet dan wel gesynchroniseerd worden. Een hogere spoor-breedte (256 signalen parallel) is nog lastiger al verlaagt dat wel de snelheid wat de synchronisatie weer 'eenvoudiger' maakt.

Om kort te gaan: Niet alleen het opvangen van het licht is een aardige uitdaging. Ook de verwerking van de beelden vanaf de sensor naar de uitgang van de chip is een uitdaging.
De meeste DA converters op sensoren zijn 12 of 14 bits, dus je data rate kan best nog wat hoger liggen. De vraag is waar de eerste reductie al plaatsvindt, wellicht is dat al in de hardware gebakken
Misschien al in mijn opvolger van de Galaxy S20 Ultra ik ben van plan om mijn smartphone tot medio 2024/2025 te gebruiken. Hopelijk is dan de autofocus niet vergeten en snel genoeg en meteen scherp. Op mijn huidige S20 Ultra is dat soms nog weleens een issue en terwijl dit wel al wat updates heeft gekregen.

Het is heel leuk de strijd wie de meeste megapixels heeft, maar als dat ten koste gaat van autofocus heb je er niet veel aan. Bij mijn huidige smartphone heb ik 108 megapixels tot mijn beschikking, maar kan je ze nauwelijks gebruiken om hem op sociale media te plaatsen of te verzenden en moet je steeds eerste het formaat aanpassen of verkleinen.

[Reactie gewijzigd door Van der Berg op 23 juli 2024 12:41]

Vraag die ik als een "gemiddelde" midrange consument mij afvraag is: Heb ik dit wel nodig?
En in welke scenario's dan wel. Zo niet, aan wie denkt Samsung geld te verdienen met dit soort flashy nieuws.
Indien de ruis van elke pixel onafhankelijk van elkaar en normaal verdeeld is, dan neemt de ruis bij middeling van bijvoorbeeld 16 pixels een factor 4 (wortel van 16) af. Zo'n sensor met zoveel pixels heeft dan wel voordelen boven slechts 1 pixel met de grootte van die 16 pixels.

Op dit item kan niet meer gereageerd worden.