Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties

Omnivision heeft, in samenwerking met Tsmc, een methode ontwikkeld om de lichtopbrengst van cmos-sensors te vergroten. Door de chips om te draaien, wordt het licht niet door de metaallagen van de sensor gehinderd.

Omnivision, een leverancier van cmos-beeldsensors, heeft de gebruikelijke opbouw van een cmos-chip voor gebruik in camera's aangepast om de efficiŽntie te vergroten. De huidige sensors bevatten elektronica die nodig zijn om licht in een elektrisch signaal om te zetten. Ook moet het signaal door de nodige transistors worden versterkt, waardoor nog minder licht daadwerkelijk op de lichtgevoelige sensor valt. Omnivision heeft met zijn 'Backside Illumination'-sensor de chip simpelweg omgedraaid, zodat het licht minder ver hoeft te reizen.

Omnivision cmos-sensorBij de courante frontside-illuminationsensors moet het licht door drie lagen elektronica reizen. De backside-illuminationtechnologie zorgt er echter voor dat het licht direct het silicium met de lichtgevoelige sensors kan bereiken. De backside illumination heeft een lichtopbrengst in sensors met pixels van 1,4 micron tot gevolg die groter is dan de lichtopbrengst van even grote frontside-illuminationsensors en die zelfs vergelijkbaar zou zijn met die van grotere 1,75-micronsensors. De grotere lichtopbrengst van backside-illuminationsensors moet volgens Omnivision onder meer de weg vrijmaken om kleinere cmos-sensors met 0,9 micron grote pixels te produceren.

Omnivision heeft een cmos-sensor van 8 megapixel met backside illumination gedemonstreerd, waarvan het verwacht in juni samples te kunnen leveren. Dankzij de nieuwe sensors kunnen camera's met minder licht toe en kunnen ook de lenzen van camera's korter worden gemaakt, omdat de hoek van invallend licht groter is. Dat maakt plattere cameramodules mogelijk, bijvoorbeeld voor gebruik in telefoons. Ook zouden de beeldsensors goedkoper dan frontside-illuminationchips kunnen worden, aangezien de productie eenvoudiger is en kleinere chips mogelijk zijn.

Omnivision backside illumination
Moderatie-faq Wijzig weergave

Reacties (41)

Grappig, in de biologische wereld is bijna hetzelfde aan de hand.

Gewervelde dieren hebben ogen met lenzen, waarbij de neurologische laag en de laag met bloedvaten (samen vergelijkbaar met de electronica laag) over de laag met licht-receptoren ligt. Je kijkt dus altijd door een netwerk met bloedvaatjes heen. Je beeldverwerkende neuronen filteren dit er weer uit. Als je heel snel een klein lichtpuntje over je netvlies laat gaan, bijvoorbeeld door een papiertje met een klein gaatje voor je oog te houden en dit snel te bewegen, kan je de adertjes wel zien liggen, omdat het filter dan niet goed werkt.

Zo is het nu eenmaal in de evolutie ontstaan en dus hebben alle gewervelden dit oog-ontwerp.

Geheel onafhankelijk hebben inktvissen precies hetzelfde type oog met lens ontwikkeld, alleen liggen bij hun de lagen van het netvlies wel op de logische volgorde, wat dus een iets efficiŽnter oog oplevert.
Wat zeer waarschijnlijk, simpelweg met een soort "threshold" te maken heeft. Voor ons is er geen voordeel te behalen uit een beter oog om te overleven, voor die inktvis wel. Overigens zou ik dit dan bij veel meer diepzee-dieren verwachten en wellicht ook nachtdieren.. schitterende beesten, inktvissen. ;) Wel een reden voor deze ingenieurs om eens goed de dierenwereld te bestuderen, wat overigens voor veel dingen geldt. De evolutie heeft toch heel wat zaken, heel efficient weten te maken.

[Reactie gewijzigd door vgroenewold op 27 mei 2008 12:01]

Dat zou je denken, maar dat is dus niet zo.
Alle gewervelden hebben dit inefficiŽnte ontwerp, inclusief diepzeevissen, katten, arenden en andere dieren met super-ogen. Als zoiets eenmaal evolutionair ontstaan is, is de opbouw niet meer zo makkelijk om te draaien.

Alleen de inktvissen hebben het andersom, maar hun oog is dus in een volledig onafhankelijke evolutie ontstaan (de gezamenlijke voorouder van gewervelden en cephalopoden hadden helemaal nog geen ogen).
Ik weet niet of het ermee te maken heeft, maar leveren die bloedvaten toevallig een soort van rood-filter op, waardoor de groentinten beter zichtbaar zijn. En daardoor beter weten wat er rijp/niet rijp is.
Lijkt mij niet, rood is een signaal voor gevaar en net zo belangrijk...zo niet belangrijker.
rood is een signaal voor gevaar en net zo belangrijk...zo niet belangrijker.
waar haal je dat nou weer vandaan?
geel is evengoed een kleur van gevaar voor heel veel dieren.

[Reactie gewijzigd door Fireshade op 27 mei 2008 14:21]

Ook ja, maar dat maakt rood toch niet minder belangrijk? Dat rood in heel veel landen wordt geassocieerd (in de hele geschiedenis en cultuur) met gevaar, hoeft niet alleen maar te betekenen dat het een afspraak is. Waarom is die afspraak uberhaupt gemaakt? Groot deel op gevoel denk ik...en laat het ervaren van gevaar nu ook een gevoel zijn. Het is natuurlijk niet heel hard te maken, maar logisch vind ik het wel klinken. En geel is niet perse weer een gevaars-signaal voor mensen.

[Reactie gewijzigd door vgroenewold op 27 mei 2008 15:41]

Dat is niet evolutionair bepaald, maar maatschappelijk. In China is groen juist een teken van gevaar (rood licht is daar doorrijden en groen stoppen).

Als je bewering waar zou zijn dan zou een ondergaande zon moeten leiden tot een paniek reactie bij dieren die kleuren zien.

Een rood filter zorgt er trouwens voor dat rood doorgelaten wordt en andere kleuren niet. Groen zou dan minder zichtbaar worden.
In china? Mmm, kan dat nergens vinden eigenlijk. Wel dit en dit artikel waar aangegeven staat dat rood stoppen is.
In het artikel waar je naar linkt staat ook dat dat nog maar net is ingevoerd ;)
Nee, doe het experiment met het stukje papier maar eens (kijk in een donkere ruimte naar een lamp, door een klein gaatje in een papiertje en beweeg het papier snel op en neer voor je oog).

Je zal dan zien dat het meer een grof net van adertjes is en niet een een rode waas of zo.
Back-illuminated CCD's zijn echt niet nieuw:
zie bijv: http://www.fairchildimaging.com/main/apps_scientific.htm
Maar dat stond ook niet in the orginele artikel. "Although backside illumination concepts have been studied for over 20 years, up until now nobody has been able to successfully develop the process for commercial, high volume CMOS sensor manufacturing,"

Het idee is dat de Fill Factor van de pixel vergroot wordt (de size van de pixel veranderd niet) wat weer ten goede komt aan de conversie efficientie van de pixel cell, er zit namelijk veel minder in de weg wat photonen tegenhoudt. De truuk zat hem conventioneel in het slijpen van de wafer van een dikke 500um tot een dikte van ~50 to 200um zodat het substraat dun genoeg was om een hoge tranmisse van het licht te bewerkstelligen. Het slijpen is blijkbaar erg kostbaar is voor commercial applications.

Wat slim is van omnivision is de omdraaien van de layers. "BSI reverses the arrangement of layers so that the metal and dielectric layers reside below the sensor array". Normaal begin je met de kritische lagen van de chip, en de grove metal layers komen het laatst. Iedere volgende laag heeft een steeds grotere overlay tov de eerste laag. Het is ook veel gemakkelijker om bondpads te maken als je eindigd met metaallagen. Ze hebben deze limitaties blijkbaar kunnen omzeilen.
Dit lijkt heel simpel en logisch, waarom is het nog niet eerder gedaan ?
Omdat lithografie op twee kanten van de silicon nogal lastig is. De problemen zitten dan vooral in het voldoende vlak maken van de wafer om lithografie stappen mogelijk te maken. Verder moet je ook nog een manier hebben om de fotosensors die op de ene kant van de wafer liggen, uit te lezen met de schakeling op de andere kant., Er moeten dan door het silicon substraat heen verbindingen tussen de twee kanten gemaakt worden. Daar heb je weer heel dunne wafers voor nodig die ook nog eens voldoende vlak zijn om lithografie mogelijk te maken.
Het is vooral een uitlijning probleem. De pixels zitten aan de ene kant met hun electronica en de kleurenfilters en microlenzen moeten ze nu op de andere kant exact op de goede plaats leggen op ca 50 nm nauwkeurig. Daarvoor moet je bijvoorbeeld heel nauwkeurige uitlijn gaten door de chip heen maken (met een tolerantie < 50n!).
Ik vermoed dat het technisch moeilijker is om die bovenste laag sillicium mooi glad over de metalen lagen hen te krijgen.
Although backside illumination concepts have been studied for over 20 years, up until now nobody has been able to successfully develop the process for commercial, high volume CMOS sensor manufacturing," said Dr. Ken Chen, Senior Director, Mainstream Technology Marketing, TSMC. "Combining OmniVision's imaging expertise with TSMC's experience in process development, we have delivered a truly advanced technology that defines the future of digital imaging."

[Reactie gewijzigd door Perceptor op 27 mei 2008 12:02]

omdat in vrijwel ieder vakgebied omgekeerd denken soms ontvangen wordt als 'absurd'.

mensen wijken niet graag af van 'zo hoort het', of 'zo ken ik het'.

een beetje een verder doorgetrokken versie van het oer-hollandse gezegde: 'wat de boer niet kent, dat vreet hij niet'.
omdat in vrijwel ieder vakgebied omgekeerd denken soms ontvangen wordt als 'absurd'.
In geen enkel vakgebied wordt omgekeerd denken op voorhand ontvangen als absurd. Als iets 'absurd' genoemd wordt, dan zijn daar vrijwel altijd goede redenen voor. Dit soort fabeltjes zijn schadelijk voor pogingen tot feitelijk inzicht in hoe wetenschap werkt.
jij kan ook alleen maar het tegenovergestelde tikken wat de persoon voor je heeft gedaan. Natuurlijk wordt er over het algemeen raar gekeken naar mensen die omgekeerd denken.

"Absurd" is misschien een beetje sterk verwoord, maar over het algemeen hebben mensen zeker wel hun bedenkingen bij iemand die tegen de vastgestelde logica ingaat.
Lekker dat mensen die niet in het vakgebied zitten, wel allerlei aannames maken, en dan gaan zitten schelden.

Back-illuminated CCD camera's zijn al lang te koop. Maar ze zijn flink duurder, en dus niet zo erg veel toegepast. Dat het op CMOS ook werkt is dus niet zo raar, maar de vraag is of het uiteindelijk wel zo nuttig is... Bij CCD is het nog steeds geen mainstream, en je kunt je dus afvragen waarom men denkt dat het bij CMOS anders zal lopen...

Er zijn wel andere methoden om de gesignaleerde problemen te omzeilen. Tegenwoordig hebben camera's bijvoorbeeld micro-lenzen voor de pixels zitten. Die zorgen er voor dat je het licht wat anders op het metaal was gevallen, nu alsnog in het detecterende deel van de pixel brengt. Dat soort systemen kan het voordeel van back-illuminated grotendeels teniet doen.


Ook die grotere hoek kun je vraagtekens bij stellen... CMOS wordt momenteel typisch gebruikt bij DSLR. Maar daarbij zijn alle wide-angle lenze retro-focus, en heb je daardoor helemaal geen grote hoeken, ongeacht de brandpuntsafstand van de lens. Voor DSLR dus totaal nutteloos. Voor mobiele telefoons met vaste wide angle lenzen zou het wel nuttig kunnen zijn.. Maar je krijgt ook dan nog steeds het probleem van licht afval, omdat je onder een hoek binnenkomt. Dat kun je met verschoven microslenzen tegengaan, maar dan komt weer de vraag of een normale sensor dan niet net zo effectief is...
Waarom hebben we 2,5miljoen jaar gewacht voor we met landbouw begonnen... Je moet er maar opkomen.
Ah, maar daar is geen solide bewijs voor, en voor dit wel :P
Omdat het productietechnisch nog niet mogelijk was, of in ieder geval niet voor een goede prijs...

[Reactie gewijzigd door knirfie244 op 27 mei 2008 13:47]

back illuminated CCD's bestaan al vele jaren, alleen de productie is duur.
Omdat je begind met een relatief dikke laag silitium en daar alle lagen op aanbrengt. Nu begint het aantal lagen er boven op zo groot te worden dat het loont om de onderkant af te schaven en de chip om te draaien.
Als ik het goed begrijp liggen de elektrische verbindingen nu achter het beeld vormend materiaal.
Slim, dat kan een hoop ruis wegwerken in de sensor bij gelijke grootte ^^
Dus als ik het goed begrijp gaat het minimale iso op deze manier omlaag?
Juist omhoog. Hoe hoger de ISO waarde, hoe lichtgevoeliger de sensor.

In hoeverre dit invloed heeft op de ruis is nog even afwachten. Met name thermische ruis zal er niet door afnemen.
Ook, maar de iso kan ook omhoog bij gelijk blijvende ruis.
Wat zeker een voordeel is, maar in het uiteindelijke plaatje nog steeds een probleem vormt. Goede stap vooruit in ieder geval! Wat echter een veel grotere stap voorwaarts zou zijn, is het verlagen van het signaal wat de sensor zowiezo maakt (dus zonder licht).
Als ik het goed begrijp, snap ik niet waarom ze eerst metaal VOOR de sensor plaatsten.
Waarschijnlijk was hier een technisch probleem mee. Het ligt voor de hand om geen metaal voor de sensor te plaatsen, dus het moet bijna wel een reden hebben.

Wist jij dat er aan jouw netvlies bloedvaatjes lopen om jouw netvlies van zuurstof te voorzien? De hersenen moeten het verkregen beeld bewerken om de inlvoed van die bloedvaatjes weg te werken. Als ik het goed heb lopen de bloedvaatjes net als het metaal gewoon voor het licht langs.

Misschien hebben ze het gewoon van de natuur af gekeken :+

[Reactie gewijzigd door RwD op 27 mei 2008 14:31]

Typisch gevalletje van "het licht hebben gezien"
:+
Dit is een uitkomst voor rangefinder camera's, omdat deze sensoren naar ik begrijp veel beter omgaan met schuin invallend licht.
Fullframe Leica M kan er dus aankomen.
Mmm als de iso's hoger worden, dan zie ik een terugkeer van density filters, omdat camera's beginnen bij 400 iso :)

Heeft iemand enig idee hoeveel lumen het scheelt? Met de specs in het artikel heb ik niets ... ik snap niet hoe ik die moet intepreteren.
De backside illumination heeft een lichtopbrengst in sensors met pixels van 1,4 micron tot gevolg die groter is dan de lichtopbrengst van even grote frontside-illuminationsensors en die zelfs vergelijkbaar zou zijn met die van grotere 1,75-micronsensors
Als ik dit goed lees, kan een CCD die (bijvoorbeeld) 1.4mm breed is, werken met de hoeveelheid licht die eerst alleen bij een 1.75mm brede CCD (met dezelfde resolutie) nodig was. Hoeveel stops dat scheelt weet ik niet, omdat hier en daar met logaritmen wordt gewerkt. Het effect zal zijn dat de CCD's in compact-camera's nog kleiner worden, en/of de resoluties nog hoger.
Want we weten allemaal dat het formaat en de hoeveelheid megapixels veel belangrijker is voor de verkopen dan de beeldkwaliteit :z

Voordeel is wel dat telefoons nu misschien een fatsoenlijke kwaliteit kunnen geven, vergelijkbaar met compact-camera's.
Het rekensommetje is veel makkelijker. De grote van het oppervlak is een maat voor de hoeveelheid licht die geabsorbeerd wordt. Is de sensor twee keer zo groot dan is de lichgevoeligheid ook twee keer zo groot, ofwel een hele stop gevoeliger. Vroeger bij analoge films werkte dat al zo, om een gevoeliger film te maken werden grotere kristallen gebruikt, althans binnen dezelfde film lijn van dezelfde fabrikant. Daarom nam de korrel ook toe bij gevoeliger films.

Wat je echter niet weet is of die 1,4 resp 1,75 micron de breedte van het lichtgevoelige oppervlak is of de breedte van de totale sensor pixel. In dat laatste geval moet je ook weten hoe breed de rand tussen de pixels is.
Niet CCD maar CMOS. Bij een CCD zit de uitlees-elektronica niet onder of boven de photosites, maar aan de zijkant van de CCD (wordt per rij afgelezen).
Wat epic 007 zei. Altijd als ik mij een ccd/cmos voorstelde zat de lichtreceptor voorop. Klinkt haast als een grapje dat dat nooit het geval was. Maar uit de reacties begrijp ik dat dat productietechnisch niet zo vanzelfsprekend was. Welnu, dan is dit een vrij mooie verbetering, hoewel Omnivision waarschijnlijk patentjes indient waardoor deze techniek niet te vinden is in camera's die we kopen.

Ik weet niet hoe (on)vergelijkbaar dit is, maar ik las dat een tft-raam een transparantie heeft van 70% waarbij de rest in-de-weg-zittende techniek is, Als bij een cmos dan ook 30% lichtverstoorders naar achter wordt gemoved klinkt dat wel netjes.
CMOS is een heel andere techniek dan CCD, bij CMOS zitten bij elke indivuele pixel transistoren, veel photonen raken nu die transistoren, inplaats van de photodiode.

Door deze te transistoren te verplaatsen, vangen de photodiode dus meer photonen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True