Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 13, views: 11.686 •

Rambus heeft technologie ontwikkeld voor het verhogen van het dynamisch bereik van beeldsensors in onder meer smartphones en laptops. De Binary Pixel-technologie kan hiervoor de belichtingstijd op pixelniveau variëren. Ook maakt de technologie hdr-foto's en -video's mogelijk.

De laatste jaren hebben fabrikanten van beeldsensors voor mobiele apparatuur zich vooral gericht op het verkleinen van de pixelgrootte, het verhogen van de gevoeligheid en het sneller uitlezen van de beeldinformatie. Het beperkte dynamisch bereik van dergelijke beeldsensors is echter nog steeds een probleem.

Met zijn nieuwe Binary Pixel-technologie wil Rambus dit probleem aanpakken. Hierbij wordt volgens Rambus gebruikgemaakt van 'dezelfde beeldverwerkingsprincipes die het menselijk brein toepast'. Rambus is vooral bekend van de gelijknamige geheugentechnologie en de vele rechtszaken die het bedrijf in het verleden aanspande met betrekking tot geheugenpatenten.

Rambus gaat op zijn website niet verder in op de precieze werking van de technologie, maar uit een eerder verschenen paper van het bedrijf over dit onderwerp zou blijken dat het hogere dynamische bereik mogelijk is door de belichtingstijd op pixelniveau te variëren. Zo kan overbelichting voorkomen worden, terwijl uit schaduwen meer detail gehaald kan worden. Ook zijn hdr-opnamen, zowel voor foto's als video's, mogelijk en kan de ruis bij weinig licht verminderd worden door meerdere opnames met elkaar te vergelijken.

Een anonieme poster op Image Sensors World suggereert dat de technologie van Rambus grote overeenkomsten vertoont met dat van Pixim, maar volgens Eric Fossum, grondlegger van de huidige cmos-beeldsensortechnologie, is het onderzoek van Rambus slechts gerelateerd aan zijn werk.

De Binary Pixel-technologie omvat zowel de pixelarchitectuur voor beeldsensors als hardwareontwerpen voor de beeldverwerking. De technologie is volgens Rambus geschikt voor integratie in huidige soc-architecturen en voor de productie kan gebruikgemaakt worden van huidige cmos-procedés.

Reacties (13)

Rambus heeft technologie ontwikkeld
Dat lijkt me sterk, Rambus is een patenttrol die alleen maar patenten opkoopt.

edit: @Sanch: Correct, maar dat was in een ver verleden, nu is het alleen nog maar een kantoor die helemaal vol hangt met patenten.

edit 2:
Rambus, of course, has a well-deserved reputation not as a patent troll, but as the patent troll
bron: http://hothardware.com/Ne...pany-Share-Price-Craters/

[Reactie gewijzigd door i8086 op 26 februari 2013 18:28]

Rambus heeft eerder gewoon RDRAM ontwikkeld en is dus zeker niet alleen een patenttroll:
http://en.wikipedia.org/wiki/RDRAM
http://en.wikipedia.org/wiki/Rambus

Edit: Hiermee bedoelde ik dus dat het niet onmogelijk is dat ze nu ook wat hebben 'ontwikkeld'

[Reactie gewijzigd door Sanch op 26 februari 2013 18:32]

Ontwikkelen doe je niet out of the blue, zeker niet deze technologie. Dat ze eerst jaren patenten liepen te trollen en nu ineens een blik R&D hebben opengetrokken is dan ook niet erg geloofwaardig.
Rambus heeft RDRAM voor een belangrijk deel gejat van de andere leden van Jedec en vervolgens z'n 'patent' aan opgehangen.

Hoe dat afgelopen is weten de meeste mensen blijkbaar al niet meer, maar ik zeg voor eens en altijd negeren die club.
mogelijk dus in plaats van alleen het meten van de charge dus ook meten hoelang het duurt voor een goede charge opgebouwd is en daar dus vanuit extrapoleren hoe donker het echt is.

onze ogen werken ook met een soort buffer, waarin het vorige beeld "geoverlayd" wordt over het nieuwe om ruis te verminderen, ogen hebben ook geen ehte "framerate" de beelde lopen gewoon door elkaar heen, (ook het inbranden op de retina werkt hieraan mee)

al met al interessant idee, ben alleen bang hoe dit werkt icm het shudden van de camera, want dat kan het niet makkelijker maken (aangezien het beeld dan over de pixels schuift) al zou je de felle punten kunnen tracken om de camerashake uit te rekenen en dan zelfs potentieel volledig te elimineren.
al met al interessant idee, ben alleen bang hoe dit werkt icm het shudden van de camera, want dat kan het niet makkelijker maken (aangezien het beeld dan over de pixels schuift) al zou je de felle punten kunnen tracken om de camerashake uit te rekenen en dan zelfs potentieel volledig te elimineren.
Dat probleem heb je met HDR ook. Meerder opnamen moeten uitgelijnd worden als de camere bewogen heeft tussen de opnamen, maar hier bestaan oplossingen voor.
Lees ik nu goed dat dit alleen interessant is voor oa smrtphones?
Is dit niet ook toepasbaar in normale camera's (DSLR/compact)?
ook bij een DSLR kan het veel voordeel geven de ene pixel op 1/60 en de andere op 1/300 te belichten.
* bedenk me nu dat een spiegel misschien wel de belichtingstijd bepaald, en die kan dus nooit per pixel verschillen. Bij een compact zou dit wel weer kunnen? Wel zou je de ene pixel iso100 kunnen laten pakken, en de andere iso800. Dat gebeurd volgens mij met de hoeveelheid spanning die naar de sensor wordt gestuurd.
Maar hoe weet de camera nu welke pixel op welke ISO waarde gezet moet worden?

Beter idee lijkt me om de complete sensor tijdens de belichting meerdere keren uit te lezen (zonder de sensor te resetten!). Bijvoorbeeld bij 1/3 van de sluitingstijd, en bij 2/3.
Voor "overbelichte" pixels negeer je dan achteraf de laatste uitleesdata.
Lijkt een beetje op het maken van meerdere (heel snelle) opnames, als bij HDR, maar dan krijg je met meer ruis te maken.
Veel (de meeste?) DSLR's werken nog steeds met een fysieke sluiter, en niet met een elektronische sluiter. En dat zal vermoedelijk nodig zijn om deze technologien te gebruiken.

In weze is een dergelijke concept heel simpel.... je maakt twee foto's direct achter elkaar, n met 1/8 sluitertijd, en n met 7/8 sluitertijd. Optellen van beiden levert je de normale foto. De eerste foto opzichzelf, levert 3 stops onderbelichting, en kun je dus gebruiken om alle overbelichte pixels in te vullen. Daarmee heb je dan 3 stop extra dynamisch bereik.
Het beperkte dynamisch bereik van dergelijke beeldsensors is echter nog steeds een probleem.
Daar wordt ook hard aan gewerkt; van 5 stops in 1999 naar 11 stops anno 2012. EN het menselijk oog heeft 20 stops bereik, dus het komt al aardig in de buurt...
11 of 20 is nogal een groot verschil naar mijn mening. een DSLR heeft ongeveer 14 stops en zelfs die kan niet opslaan wat het menselijk ook ziet.

die 11 stops is de Nokia 808, andere telefoons zitten meer rond de 8 stops.

bronnen:
http://www.techradar.com/...-how-good-is-it-1087559/4
http://photographylife.com/maximizing-dynamic-range

Het artikel spreekt zelfs van 24 stops wat het menselijk oog kan waarnemen.

Ontopic:
de technologie is mooi, begrijp ook niet dat dit nooit eerder is toegepast in DSLR's of camera's. bij lage snelheden kan je problemen krijgen, maar overdag in fel zonlicht (wanneer er dus veel verschil zit in het felle zonlicht en donkere schaduwen) zou je dit probleem juist niet hebben omdat de sluitertijd zo snel is dat beweging bijna afwezig zou zijn.

ideaal voor vakantiefoto's dus, waar vaak door direct zonlicht de schaduwen erg sterk zijn.

[Reactie gewijzigd door waah op 27 februari 2013 09:14]

Onzin. Het menselijk oog heeft helemaal geen groot dynamisch bereik. Slechts zo'n 7 stops.

ECHTER, wij kijken niet zoals een camera kijkt. Wij kijken niet n n keer naar een foto, maar we 'scannen' over het beeld heen. En dat doen we met een continue varierend diafragma! Ons brein knoopt al die informatie aan elkaar, en daardoor lijkt het alsof we met een dergelijk groot dynamisch bereik kunnen kijken.
Dit lijkt wel effect te hebben op overbelichte gedeelten, maar ik zie geen verschil in de details in de schaduwen. Maar wel 'n techniek met potentie.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013