'Sony-camerasensors met gescheiden pixellagen komen volgend jaar uit'

Sony zou zijn eerder aangekondigde technologie om lagen van pixels in camerasensors voor smartphones te scheiden volgend jaar op de markt brengen. Smartphones zouden vanaf dan kunnen profiteren van meer dynamisch bereik.

De technologie komt volgend jaar in smartphones van diverse merken, waaronder Apple, zegt Nikkei. Sony heeft onlangs met Lytia een nieuwe merknaam voor camerasensors aangekondigd en de kans bestaat dat sensors met deze nieuwe technologie onder die merknaam bekend komen te staan. Details over de camerasensors zijn er nog niet.

De sensors verschillen van huidige modellen doordat de transistors en fotodiodes voor het eerst van elkaar zijn gescheiden in de laag met pixels. Daardoor is meer oppervlakte beschikbaar voor de fotodiodes zelf, waardoor een pixel met dezelfde oppervlakte meer licht kan vangen. De transistors zitten in de nieuwe opzet achter de diodes. Sony zei vorig jaar voor het eerst aan de nieuwe techniek te werken.

De nieuwe techniek moet onder meer het dynamisch bereik vergroten, ruis verminderen en de verzadiging verbeteren. Daarbij moet bijvoorbeeld meer detail behouden blijven als de camera een gezicht fotografeert met tegenlicht. Sony heeft de release van sensors met de nieuwe techniek niet bevestigd.

Sony: stacked CMOS met scheiding transistors en fotodiodesSony: stacked CMOS met scheiding transistors en fotodiodes

Door Arnoud Wokke

Redacteur Tweakers

30-11-2022 • 10:59

24

Reacties (24)

Sorteer op:

Weergave:

Jammer dat de orginele bron-artikelen niet volledig terugkomen in de tweakers samenvatting.

De truc zit hem niet alleen in het grote oppervlak voor de foto-diode, maar juist ook in het kunnen vergroten van de amplificatie transistors, nu deze zich nu in een aparte laag bevinden.
Juist daarmee word het dynamisch bereik vergroot.
allow the photodiode and pixel transistor layers to each be optimized, thereby approximately doubling saturation signal level relative to conventional image sensors and, in turn, widening dynamic range.

Additionally, because pixel transistors other than transfer gates (TRG), including reset transistors (RST), select transistors (SEL) and amp transistors (AMP), occupy a photodiode-free layer, the amp transistors can be increased in size. By increasing amp transistor size, Sony succeeded in substantially reducing the noise to which nighttime and other dark-location images are prone.
Sony schrijft dat de optimalisatie van beide lagen zorgt voor verbetering van het dynamisch bereik. Het vergroten van de amplificatie transistors zorgt voor minder ruis.
Dit is van toepassing op kleine sensors en voor de grotere camera's zit er een sensor in die al meer lagen heeft en dus geen elektronica naast de pixel.

BSI (BackSide Illumination) is een mooi voorbeeld waar een echte verbetering van de werking door de sensor zelf dichter bij de pixel te plaatsen en elektronica uit het pad van het licht te nemen.

Foveon is helaas niets geworden maar dat kan nog komen in de toekomst veranderen. Die komt het dichtst bij de de kleuren film wat betreft de werking.

https://www.coventor.com/...-cis-past-present-future/

Dit artikel gaat dan over het verbeteren van een gemaakte keuze in het verleden om de pixel zelf en elektronica naast elkaar te plaatsen i.p.v. van onder elkaar.
Foveon is in feite al lang geflopt. Alleen Sigma heeft ereen beetje mee gestoeid, en er een hoop onzin over gespuid, o.a. dat die sensors drie keer zoveel pixels zou hebben.
Idee was aardig, maar het werkte dus niet echt.
En toch is Sigma een opvolger aan het ontwikkelen en hij staat in de planning voor 2024....als die tenminste het prototype periode voorbij komt. Ik hoop dat het wat wordt want het is een betere manier en zeker nu de megapixel wedstrijd een beetje voorbij.

De levensloop van de Foveon sensor: https://petapixel.com/foveon-x3-image-sensor-explained/
Ik ben benieuwd waarom dit er nu 'pas' is. Wat is de reden dat ze tot nu toe altijd naast elkaar hebben gezeten ipv achter elkaar?
Dit is een kwestie van schaalgrootte.

Bij een full frame Canon 5D (sensor van 36 bij 24 mm, en 13,2 Mpixel) is een pixel 8,20 µm. In dat geval is het stukje pixel transistor naar verhouding klein en is het stukje lichtvangend fotodiode heel groot. Het heeft dan geen zin om die achter de fotodiode te plaatsen.

Moderne smartphone camera's hebben echter geen full frame sensor, maar iets ter grootte van 2 rijstkorrels of minder. Huidige topmodellen hebben pixel groottes van 1,6 µm of zelfs maar van 0,8 µm. En dan wordt het ineens veel belangrijker om iets dat geen fotonen vangt naar achteren te plaatsen.
Dit klopt en is waarom Sony dit nu ontwikkelt voor telefoon cameras (naast dat de readout voor enorme megapixel aantallen best ingewikkeld wordt zonder stacked sensoren). Maar het geeft geen antwoord op de vraag waarom het nu pas gebeurt, zeker omdat het voor grootformaat DSLR en mirrorless camera's al lang bestaat. Dat heeft meer te maken met de technische complexiteit.

[Reactie gewijzigd door ajsietsma op 22 juli 2024 13:39]

"zeker omdat het voor grootformaat camera's al lang bestaat. "

De nieuwe ontwikkeling gaat verder dan een stacked sensor zoals die in fotocamera's zit. Als ik me op afbeelding 2 mag baseren. Het is ook logischer dat deze techniek eerst in kleinere chips van telefoons komt.

Dus je hebt verschillende verbeter-slagen:
cmos (traditioneel)
cmos bsi
cmos stacked
cmos stacked met gescheiden pixel laag
Dat moet naast elkaar staan en stacked met gescheiden pixel laag is de traditionele CMOS. Nu ook beschikbaar voor kleine sensoren die gebruikt worden in telefoons etc.

--------------------------------------------cmos stacked
cmos (traditioneel)----------------cmos stacked met gescheiden pixel laag
cmos bsi------------------------------cmos bsi ( toekomstig? )
Ja, dat is inderdaad veel duidelijker! ;) :'(
... zeker omdat het voor grootformaat camera's al lang bestaat.
Grootformaat, je bedoelt sensors van meer dan 60×90mm? Die zijn bij mijn weten nog niet stacked of back side illuminated.
De kleinste sensoren zitten bij mijn weten in telefoons, dan heb je actioncamera's en drone cameras en het nu uitstervende ras van compactcamera's met sensoren van 1/2,5" (25mm2), 1/1.7" (43mm2, bv Pentax Q-mirrorless serie), 2/3" (58mm2), 1" (116mm2, de nu beëindigde Nikon-1 mirrorless serie).

Dan komen de Fourthirds en Microfourthirds van Panasonic en Olympus (225mm2) en Foveon (286mm2)
Dan komt Aps-c (Canon 329mm2, alle andere 370mm2)
Dan Aps-H (548mm, Leica M8, M8.2, Canon Eos 1Dmk4, 1Dmk3, 1Dmk2, 1D en Kodak DCS 460, 560, 660, 760, allen al lang beëindigd)
Tot slot heb je fullframe, 24×36mm, 864mm2. De grootste BSI en Stacked sensoren zijn deze maat. Dat alles noemt men kleinformaat.

Dan krijg je een nichemarkt voor middenformaat, Arri Alexa LF (±26×37mm), Red Monstro 8K (±22×41) Leica S (30×45mm) en op 33×44mm: Pentax 645D, Pentax 645Z, Fuji GFX-serie, Hasselblad H-serie tm 6D50c en X1D50c. Daarboven de Arri Alexa 65 (±26×54), Kodak CAF39000 CCD (±37×49), Leaf AFi 10 (36×56), Hasselblad ±40×54mm (H5D-60cm H6D-100c), Phase One ±40×54mm en de film-era echte middenformaten: 6×4.5 (42×56mm), 6×6 (56×56mm), Imax (±53×70mm), 6×7 (56×70mm), 6×8 (56×76mm) en 6×9 (56×84mm). Dat alles is middenformaat.

Grootformaat is alles boven de 56×84mm, op film dus 4×5", 5×7"en 8×10", en daarnaast deze 120×140mm sensor van Dit bedrijf maar dat is zeker niet BSI of Stacked en heel erg niche.
Mja, mijn hoofd wilde een groepsnaam voor mirrorless en DSLR in het Nederlands en kwam alleen op "groot" uit lol. Maar je hebt gelijk dat dat in dit geval verwarrend is.
Milc is Mirrorless Interchangable Lens Camera
Een andere veel gebruikte term is Systeemcamera al hebben Fuji, Canon en Ricoh diverse camera's uitgebracht met aps-c sensoren en een vaste lens (Fuji o.a. X100, X100F, X100V, Canon o.a. G1, G3, G5, G7, G9 -serie, Ricoh GR-serie, ) en met fullframe sensoren zijn er de Leica Q2 en Q, Zeiss ZX-1, Sony DSC-RX1R II en voorgangers.
Het is technisch gewoon best lastig om ze achter elkaar te zetten. De diode zit aan de transistor gekoppeld, die al dan niet een signaal moet afgeven (op de "vertical signal line" in het diagram). Als je zat als een unit maakt die je naast elkaar op het circuit "klikt", is dat makkelijker dan alles op aparte lagen zetten waarbij de lagen dan precies op elkaar moeten aansluiten. (EDIT: misschien is een jenga toren een makkelijkere vergelijking dan lego: als de tweede steen een beetje scheef ligt, wordt de derde altijd instabiel, maar stenen naast elkaar leggen is een kleiner probleem. Voor een camera sensor moeten ze jenga spelen met miljoenen stenen van nanometers groot).

Voor groot formaat DSLR en mirrorless cameras zijn stacked sensoren al een tijd beschikbaar, dus in die zin is het geen geheel nieuwe techniek, maar kan me voorstellen dat dit verkleinen tot het formaat van een smartphone sensor het productie proces erg ingewikkeld maakt. Iets uitgebreidere uitleg.

[Reactie gewijzigd door ajsietsma op 22 juli 2024 13:39]

Voor groot formaat cameras zijn stacked sensoren al een tijd beschikbaar, ...
Grootformaat, dat zijn sensoren groter dan 56×84mm, dat is heel erg niche en die hebben dat nog steeds niet hoor.

Ook middenformaat, alles groter dan 24×36mm maar kleiner dan 56×86mm heeft het ook niet. De grootste stacked sensoren zijn 24×36mm aka fullframe. Op Aps-C is het sinds dit jaar ook beschikbaar (Fuji X-H2s).
Verdubbeld hiermee het oppervlakte wat licht opvangt? Dus een nieuwe sensor met deze techniek vangt evenveel licht op als een oude sensor 2x het formaat van deze? Klinkt goed
Of het verdubbeld weet ik niet, maar grotere pixels zijn sowieso beter mbt ruis, dynamisch bereik, etc. Er zijn natuurlijk wel meer factoren die daar ook een rol in spelen.
Sony is behoorlijk hard bezig met ontwikkelingen ohgv camerasensoren.
Ik ben blij dat ze gestopt zijn met de megapixel-race.

Met de software van bv DxO PhotoLabs icm zulke sensoren kan je mooie fotos maken bij maanlicht zonder al teveel ruis.
Hoeveel % ruimte voor extra licht hebben we het over? Blokkeerden de huidige transistoren dan zoveel licht en waarom is dit idee dan al niet eerder toegepast?
Ben geen fan van het verengelsen van onze taal, maar "Stacked CMOS of Stacked Sensor" IN de titel zou direct duidelijk maken - voor velen - waar het hier over gaat.
Alleen is dat geen nieuws. Het nieuws is dat de onderdelen van de pixel-laag opgesplitst worden in verschillende lagen. Lees het artikel in plaats van de titel.
Dat is exact wat er gebeurt bij de al bekende "stacked sensors" in de systeemcamera's. Dit staat bekend als stacked cmos of stacked sensor.
Goed onderbouwde uitspraak ook! ;)
Een bronvermelding of hyperlink is blijkbaar te veel gevraagd in deze 160 tekens SMS cultuur...

Op dit item kan niet meer gereageerd worden.