Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 24, views: 13.090 •

Beeldsensorfabrikant Omnivision heeft een nieuwe beeldsensor ontwikkeld met een pixelgrootte van slechts 1,1 micron. De 1/4"-cmos-sensor schiet plaatjes van acht megapixels en past in een cameramodule van 8,5x8,5x4,7mm.

Omnivision logoDe OV8550-beeldsensor maakt gebruik van Ominivisions nieuwe OmniBSI-2-pixelarchitectuur. Deze heeft een pixelgrootte van 1,1 micron, tegenover 1,4 micron voor de vorige generatie. Zowel bij OmniBSI als bij OmniBSI-2 wordt het principe van backside illumination toegepast: daarbij bevindt de bedradingslagen zich achter de fotodiodes, zodat die meer licht kunnen opvangen. Volgens Omnivision maken de nieuwe sensor en de nieuwe pixelarchitectuur het mogelijk om mobieltjes nog verder te verkleinen.

Hoewel kleinere pixels in principe minder lichtgevoelig zijn, zouden de technische verbeteringen ervoor zorgen dat de beeldkwaliteit niet achteruit is gegaan. Zo zou de OmniBSI-2-pixelarchitectuur in alle kleurkanalen twintig procent efficiënter zijn en zou de lichtgevoeligheid bij weinig licht met 35 procent zijn toegenomen. Omnivision zegt daarnaast dat het de full well-capaciteit van de pixels met 45 procent heeft weten te verhogen. Dat is een indicatie voor het dynamisch bereik van een sensor.

De sensor is voorzien van een geïntegreerde temperatuursensor. Ook kan de nieuwe chip de even en oneven pixelrijen apart laten belichten voor hdr-opnames. Verder ondersteunt de zogeheten OV8550 1080/30p-video en is het via zogeheten binning van pixels mogelijk om 720/60p-video met elektronische beeldstabilisatie op te nemen.

De eerste samples van de OV8850 komen in augustus beschikbaar en de massaproductie zal in het eerste kwartaal van 2012 van start gaan. Omnivision is onder meer de leverancier van de camera in de iPhone 4.

De concurrentie zit Omnivision overigens op de hielen: onder andere Aptina werkt ook aan sensors met 1,1-micron-pixels. Dat bedrijf toonde zijn pixeltechnologie al op het Mobile World Congress dat eerder dit jaar in Barcelona werd gehouden. Aptina zou de eerste sensorsamples op basis van deze technologie nog dit jaar beschikbaar maken.

Reacties (24)

Ik dacht dat je ruis-technisch gezien een zo groot mogelijke sensor wilde hebben?
Deze is juist kleiner...?

Wel handig voor in mobieltjes e.d. natuurlijk, maar daar is de kwaliteit nog steeds sterk afhankelijk van de lens i.p.v. de sensor naar mijn mening.

[Reactie gewijzigd door DaManiac op 4 augustus 2011 12:50]

hoe kleiner de sensor, hoe kritischer de lens wordt. Kleine oneffenheden zullen grotere gevolgen hebben, lijkt me.
Maar het is wel zo dat kleine lensjes makkelijker te produceren zijn.

Punt is wel dat je erg moeilijk compacte zoomlensjes kunt maken, dus in die zin is meer pixels wel handig, omdat je dan digitaal kunt zoomen.
Verder zijn de sensoren tegenwoordig goed in staat om allerhande technieken direct op de sensor uit te voeren zodat je zelfs met hele kleine pixels toch een goed resultaat kunt halen.

Een voorbeeld is 2x uitlezen van de sensor (of eigenlijk 2x per pixel) zodat je de systematische ruis eruit kunt halen zonder al te veel gedoe. (dat zou die 2-pixel architectuur kunnen zijn die ze noemen, elke fabrikant noemt het weer anders)
Dit doe je namelijk door de pixel uit te lezen binnen bijvoorbeeld een msec na reset en nog een keer na bijvoorbeeld 21 msec. Als je beide waarden van elkaar af trekt heb je effectief de belichtingstijd van 20 msec (1/50e sec, dus geen flikkering bij bijv TL-verlichting in 50Hz landen) en je hebt de DC-offset die voor elke pixel anders is eruit gehaald.
Dat speelt bij dergelijke kleine pixels een best wel grote rol.

Andere optie (die ook al in de tekst is genoemd) is de elektronen-well vergroten, zodat je meer electronen kunt vangen zonder verzadigd te raken. En dus kun je beter onderscheid maken en dus hoger dynamisch bereik.

Nog een optie is binning van naburige pixels. Vroeger was dat (zo'n 5 jaar geleden) beperkt tot gemiddelde nemen van naburige pixels op dezelfde rij en van dezelfde kleur. Echter dan krijg je een verschuiving van de bayer-afstand tussen de kleuren en dus hele lelijke artifacten bij het de-bayer algoritme.
Tegenwoordig kun je ze ook al binnen over meerdere rijen en een gewogen gemiddelde nemen in vooraf in te stellen verhoudingen en zodoende nagenoeg analoog schalen in vrijwel elke kleinere resolutie en toch de bayer-afstand bewaren en tegelijk de pixels middelen en dus de ruis beperken door te doen alsof de pixels groter zijn.
Ik heb al datasheets gezien van sensoren die dat in 16 stapjes kunnen doen. (Dus horizontale en/of vertikale resolutie in 16 stapjes van volledig naar halve resolutie)

En wat ze nu dus bij deze sensor ook doen, het toepassen van een andere belichting per rij, is ook een manier om het dynamisch bereik op te krikken. Voordeel is wel dat je dan nog steeds een lineair verband houd tussen belichting en signaal.
Aptina gebruikt met hun A-Pix technologie een andere manier. Die hebben 2 condensatoren per pixel parallel staan, waarbij de 2e alleen gebruikt wordt wanneer de laadstroom boven een bepaalde grens komt. Zo krijg je een veel groter dynamisch bereik, maar helaas geen lineair verband tussen belichting en signaal.

Helaas vallen veel echt gedetailleerde datasheets onder NDA, maar er zijn echt leuke sensoren te krijgen kan ik je verzekeren. Zelfs op de sensor naar Jpeg is gewoon mogelijk.
Maar voor camera's in mobieltjes betekent dit goed nieuws: de beeldkwaliteit wordt beter met een sensor van dezelfde afmetingen. De camera van de Samsung Galaxy SII bijvoorbeeld vind ik al erg goed, maar door dit soort uitvindingen wordt het schieten met je telefoon steeds aantrekkelijker.

Beeldstabilisatie is trouwens een heel goed idee: hoevaak je geen filmpjes op youtube ziet die schokken als ik weet niet wat...
Beeldstabilisatie is voor fotos.... Het is niet een magische oplossing voor mensen met onvaste handen tijdens het maken van video. Daarvoor werkt alleen oefening, of een vast punt om de telefoon op te zetten.
Als je het artikel dan ook even leest:

"Verder ondersteunt de zogeheten OV8550 1080/30p-video en is het via zogeheten binning van pixels mogelijk om 720/60p-video met elektronische beeldstabilisatie op te nemen."
In het artikel wordt verder ook aangegeven dat door pixels kleiner worden er op andere vlakken winst geboekt is kwa gevoeligheid. Resultaat hiervan is dat de kwaliteit van de foto's er niet op achteruit is gegaan.

Wat ik een betere ontwikkeling zou vinden is dat de sensors niet kleiner worden maar dat de beeldkwaliteit omhoog gaat. Bij gewoon daglicht geschoten foto's van mobieltjes zijn nog wel te doen, maar als het ook maar wat donkerder is is het vaak bedroevend slecht.
Zolang de lens niet wordt aangepast zal de kwaliteit zeker wel slechter worden. Als je ziet wat voor afwijkingen er nu al te zien zijn op een sensor waarvan de pixels groter zijn dan zal het met een kleinere pixel nog meer achteruit gaan.
voor een cameratelefoon is dit zeker het geval maar als deze tegnique verhuist met wat aanpassingen naar een DSLR heb je dat probleem niet meer zo erg.
Grootste probleem waar je met dergelijke kleine pixels tegenaan kunt lopen is dat de afmeting al aardig dicht bij de golflengte van het licht aan komt.
Dus kun je hele vervelende effecten krijgen als gevolg van de refractie-eigenschappen van het licht.

Daar staat weer tegenover dat hoe meer pixels je hebt, des te beter zou je voor de vervorming van de lens kunnen corrigeren zonder resolutie te verliezen.
Dat soort compensatie zie ik binnen niet al te lange tijd ook wel als optie op de sensor komen.
Je hebt nu al sensoren die voor vignetting kunnen corrigeren, en lokaal prima kunnen schalen, dus vervorming van de lens zie ik ook nog wel komen.
Zolang ze niet onder de 0,8 micron komen zal er geen probleem ontstaan die betrekking heeft met de golflengte van het licht. :)

Punt van compenseren is wel dat je verlies krijgt op andere vlakken. Je kunt niets lossless compenseren en dus moet men zich afvragen of het echt veel nut heeft om veel megapixels in een telefoon te stoppen. Voor onderzoeksdoeleinden kan ik mij er van alles bij voorstellen maar voor consumentenproducten?
op zich kan het nog steeds handig zijn bijvoorbeeld door 4 pixels als 1 pixel naar jpeg te schijven.
bijvoorbeeld door 4 pixels te nemen de 4 kleuren te nemen en daar het gemiddelde van te nemen en dat als 1 pixel wegschijven.
nadeel hiervaan is dat het enorm veel rekenkracht zal vereisen en je eventueel de ruis van de pixel meeneemd in het gemiddelde.
ikzelf zou wel benieuwd zijn naar hie dit uit zou pakken in zeg een 40 megapixel sensor.
@computerjunky, die ruis kan je dan ook weer proberen weg te werken door de median te nemen in plaats van het gemiddelde.
als ze de pixels kleiner kunnen maken zonder een merkbaar verschil in ruis en IQ is het over het algemeen natuurlijk een vooruitgang.
als ze deze technique gebruiken met grotere pixels betekend het dat de IQ omhoog gaat en ruis naar beneden waardoor we aan het einde van de rit een betere sensor hebben.
De enige manier om de beeldkwaliteit in het donker significant te verhogen, is een grotere lens. Maar een lens van 5 cm diameter past nou eenmaal niet in een smartphone...
Dat vooral om de licht opbrengst: meer oppervlak = meer licht op de sensor. De verbeteringen hier zijn zo dat er meer licht op hetzelfde oppervlak valt (backside illumination) en dus minder verstrekt hoeft te worden. Uiteraard is het niet béter dan eren grotere chip, maar niet slechter. En dus leuk om telefoon camera modules kleiner te maken.
De technieken die ze hier gebruiken kunnen natuurlijk ook prima ingezet worden voor grotere sensoren en er zijn echt leuke technieken beschikbaar tegenwoordig die het benodigde verschil in resolutie tussen foto- en video-opnamen kunnen overbruggen op dezelfde sensor.
Dit schalen kan dan prima op de sensor gedaan worden en tegelijk kan je het dynamisch bereik enorm opschroeven.
Tevens kun je dan ook op veel hogere frames per second opnemen doordat je output-bandbreedte vaak de beperkende factor is. Dus hoe meer je op de sensor kunt pre-processen hoe beter.
Ik dacht dat je ruis-technisch gezien een zo groot mogelijke sensor wilde hebben?
Yep, maar voor toepassingen waar deze sensor voor is bedoeld (b.v. smartphones), is ruis niet het primaire criterium. Kosten zijn over het algemeen daar toch belangrijker (in ieder geval voor de OEM), en dus is miniaturisering een pre. Als dan de kwaliteit niet te hard achteruit gaat, is het al gauw goed genoeg. Dat ligt uiteraard anders voor dSLR's, maar dat is weer een heel ander marktsegment.
Wat betreft ruis is de sensor grootte helemaal niet zo belangrijk als mensen denken...

De enige daadwerkelijke factor, is dat de electronica in de sensor ruimte afsnoept van het gevoelige oppervlak. Je krijgt dan dode stukken om je pixel. Maar tegenwoordig zitten er microlenzen bovenop de sensor, die er voor zorgen dat licht dat normaal gesproken op zo'n dood stuk zou komen, alsnog op het gevoelige deel komen. Andere truuk is de belichting van de andere kant, zodat je minder hindernissen tegenkomt. Dat alles zorgt er voor dat die dode delen een steeds minder grote rol spelen.

In de praktijk is de grootte van de sensor daarom nauwelijks van invloed op de ruis. De échte reden waarom camera's met grote sensors minder ruis vertonen, is omdat ze met grote lenzen, met grote lens openingen werken. Daarom ontvangen ze heel veel licht, en dát zorgt er voor dat ze weinig ruis hebben.
Maar binning heeft toch niets met beeldstabilisatie te maken? Wordt binning niet gebruikt om ruis te onderdrukken door een gewogen gemiddelde te nemen?
Klopt. Wat ze wel doen voor beeldstabilisatie is meer pixels samplen en het uiteindelijke beeld eruit croppen. Alleen het te croppen gebied verschuift dan tov het sensor-oppervlak.
En nu deze pixels in een DSLR stoppen met een sensor van normale afmetingen. 100 megapixels ofzo? Met de juist lens en goed licht kan dat best lekkere foto's geven.
Reken maar uit.
full-frame is 36x24mm Oppervlak = 860 mm2
APS-C is 22.2x14.8 Oppervlak = 329 mm2
deze sensor is 3.2 x 2.4 mm Oppervlak = 7.68 mm2
Bron:

Verschil tussen deze sensor en een APC-C is een factor 42,8 in oppervlak., oftewel er zouden 342 Mpixel van deze pixels passen op een APS-C sensor. (8 Mpixel per 7.68 mm2)
Op full-frame is dat bijna 900 Mpixel.

Enige probleem is het afvoeren van die hoeveelheid data.
Dan zit je al snel op 10 Gbit voor een RAW plaatje van 1 frame.
En je kunt in RAW ook maar 1 foto kwijt op een 1 GB kaartje.
Ik dacht dat het beeld beter wordt als de pixels kleiner worden (zoals bij beeldschermen). maargoed, weer wat geleerd. zorg please eerst dat de cameraphones betere sensors krijgen en niet kleiner zodat de telefoon kleiner kan worden 8)7

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013