Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 54 reacties
Bron: New Scientist

Terwijl de fabrikanten over elkaar heentuimelen om maar zoveel mogelijk megapixels in hun camera's te stouwen, heeft een groep onderzoekers uit Houston, Texas een toestel ontwikkeld met welgeteld één fotodiode. Voor het vergroten van deze wel erg lage resolutie zorgt een grid van 1024 bij 768 beweegbare miniatuurspiegeltjes, die het vast te leggen beeld naar de ene pixel kaatsen. Door ongeveer duizend keer per seconde een willekeurige selectie van de spiegeltjes op de sensor te richten, ontstaat een datastroom van optische gegevens én data over de oriëntatie van de spiegeltjes, waaruit met behulp van een computer het volledige beeld opgebouwd kan worden.

Foto met door de eenpixelcamera gemaakte kopie (rechts) Deze aanpak lijkt erg omslachtig en duur, maar het tegendeel is waar: specialistische camera's, die bijvoorbeeld infrarood- of ultraviolette straling kunnen registreren, kunnen juist veel goedkoper worden omdat er op de bijzondere beeldsensoren bezuinigd kan worden. Bovendien is de data volgens de onderzoekers zeer geschikt om te comprimeren en te analyseren. De gegevens die het fototoestel levert, blijken namelijk niet eerst naar een voor mensen herkenbaar beeld te hoeven worden omgezet om er zinvolle conclusies aan te verbinden. De onderzoekers zijn er bijvoorbeeld al in geslaagd om met behulp van hun camera vast te stellen dat een bewegend object een menselijke vorm had. Met de relatief lage snelheid en de vooralsnog tamelijk slechte kleurenbeelden die de Amerikaanse uitvinding momenteel oplevert, kunnen de onderzoekers dan ook best leven.

Moderatie-faq Wijzig weergave

Reacties (54)

En het grote nadeel is erg lange sluitertijden en/of korzelige foto's vanwege te korte belichting.
in plaats van parallel miljoenen beeldpunten te verwerken moet je ze nu 1 voor 1 doen, en het moet tenslotte uit de lengte of de breedt komen.

Is dus alleen iets voor specialistische toepassingen.

edit@ jvhorst.1978: parallel in de zin van "er worden een miljoen beeldpunten tegelijk gemeten, door een miljoen fotogevoelige cellen." Daarna wordt de data pas serieel afgevoerd.
Punt is dat je een fotocel nu eenmaal een minimale tijd moet belichten om een behoorlijke kwaliteit te krijgen. Als je dan een en dezelfde fotocel een miljoen keer achter elkaar moet belichten dan duurt het wel wat langer om een foto te maken. Of je moet concessies doe aan de kwaliteit.
Het verwerken van de pixels heeft er niks mee te maken. Ook uit standaard sensoren komen de pixels serieel uit de output.
ja ze worden serieel verwerkt, maar niet serieel vastgelegd.

Ik zou me kunnen voorstellen dat zo'n camera behoorlijk minder scherp bewegend beeld vastlegt als een gewone camera
Waarom korzelige foto's?

De belichting is misschien wel kort, maar daar staat tegenover dat de cel erg groot kan zijn. Dus de hoeveelheid lichtenergie die opgevangen wordt is groot genoeg om zonder veel problemen te meten, en goed onderscheid te kunnen maken tussen verschillende levels.
En het grote nadeel is erg lange sluitertijden en/of korzelige foto's vanwege te korte belichting.
Ik zou me een soort tussen oplossing kunnen voorstellen in de vorm van een (bijvoorbeeld) 100 of 1000 pixel camera waar ze het spiegeltjes principe op toepassen.

Het sensor oppervlak per pixel kan dan beduidend groter zijn dan in de huidige "gigapix" toestellen waardoor de lichtgevoeligheid beduidend toeneemt. Dit in combinatie met de spiegeltruuk kan wellicht tot hele acceptabele resultaten leiden....
Krijg ik wel een dode pixel garantie?
'Onze policy dekt sensors met 2 of meer defecte pixels' :P
Nee joh, als die pixel kapot gaan, remappen ze hem gewoon naar euh... :P

Dit lijkt me een manier van fotograferen die niet zo geschikt is voor sportfotografie: 1 pixel moet evenlang belicht worden als al die pixels die je normaal je hele sensor belicht. Dat betekent dus dat je 1M keer (bij 1MP resolutie) zo lang moet belichten en dat het nemen van een foto dus ook ipv bijvoorbeeld 1/1000e van een seconde 1000 seconden duurt? Da's 17 minuten ofzo :X
Een kapotte spiegel-garantie zeker.
brengt dat nou ook ongeluk ??
Misschien, maar binnen 7 jaar heb je vast wel een nieuwe camera gekocht ;)
Wat ik niet snap is hoe ze een kleurenplaatje kunnen maken met maar 1 photodiode (je zou denken dat je daar toch echt minstens 3 photodiodes voor nodig zou hebben..)
Een fotocel registreert licht. Elke kleur heeft een bepaalde 'frequentie'. Objecten weerkaatsen slechts een deel van het licht. Het geen wat niet weerkaatst wordt is de kleur welke je ziet. Waarbij wit een volledige weerkaatsing van het licht is en zwart weerkaatst niets. Daartussen zit de rest van het kleurenpakket (van infrarood tot ultraviolet)

Misschien kun je nog uit je schooltijd de prisma's van natuurkunde voor je halen? Met een prisma kun je het licht 'breken' in verschillende frequenties en op die manier worden de verschillende kleuren zichtbaar.

Overgens werkt een regenboog op dezelfde manier. De druppels werken dan namelijk als een prisma. Ik denk dat je de drie 'photodiodes' verwart met het stralenkanon van een beeldbuidtv. Die hebben inderdaad 3 lichtpunten nodig om een kleur te vormen. Maar dat is de 'presentatie' van licht en niet de 'registratie' van licht.

Ik hoop dat mijn uitleg een beetje licht in de duisternis heeft kunnen brengen.
Wat dacht je van een kleuren diode?
Werkt deze methode niet op ongeveer dezelfde manier als het menselijk oog?

afaik ziet het oog ook maar 1 stuk beeld 'goed' en door de pupil snel alles af te laten gaan zie je een 'compleet' beeld.
Ja hoor .. je oog heeft maar 1 meet sensor en bewegende spiegeltje. Dacht het niet dus. Dat je ogen niet overal even goed zien ligt aan het feit dat niet overal gelijke hoeveelheid kegeltjes en staafjes zitten. Je oog beweegt weliswaar continue en daardoor zijn de hersens in staat om het beeld completer te maken. Maar dat er slechts 1 sensor in je oog zit is een beetje ver gegrepen.
Als je aardkwak nou een beetje krediet geeft dan zie je dat hij precies bedoelt wat jij zegt. Vandaar ook de aanhalingstekens in zijn tekst....
Draaiende spiegeltjes.. Dat klinkt als het omgekeerde van de DLP techniek van TexasInstruments.
Niet het omgekeerde, precies hetzelfde! Alleen het licht komt van de andere kant. Maar het was inderdaad precies het eerste waar ik aan dacht toen ik dit artikel las.
En ik geloof dat de resolutie van die DLP chips ook aardig toeneemt...

Maar wat ik niet slim vindt is dat ze één diode hebben gepakt in plaats van drie. Als je er drie pakt heb je, net als met de Foveon sensor, alle kleuren in één 'sample' te pakken en hoef je niet meer te interpoleren.
Nee, het licht komt van dezelfde kant. In beide gevallen wordt er licht gereflecteerd. Dus inderdaad exact hetzelfde.

Ik ben er vrij zeker van dat ze gewoon een DLP van Texas Instrument gebruiken.
'spiegeltje spiegeltje aan de wand, wie is het mooiste van het land?'

'ja, eh... nu ff niet, ben ff bezig hier'
Waarom zouden ze om deze camera te demonstreren een foto gemaakt hebben van een uitgestalde penis?
Als ik jou was zou ik maar niet meedoen aan de al door Dartbord genoemde Rorsach tests... Zwarte vlek: erm... plasser. Andere zwarte vlek: erm.. piemel.. Nog een zwarte vlek: erm.. 2 naakte vrouwen..
Als jouw plassertje er zo uitziet, dan zou ik geen tijd verdoen op Tweakers.....
met 1 pixel doet dit niks eigelijk..
maar,, met deze techniek zou je je 1 MP camera, via die spiegeltjes dus kunnen uitbreiden naar een 1000 MP camera?

of zeg ik nou rare dingen?
ja, je krijgt namelijk heel veel overlap...

De beeldverwerkingssoftware die daarvoor nodig zou zijn, is ook extreem complex.
Strak plan, als maar bij elke selectie van de spiegels een nieuw beeld op de sensor valt moet dat lukken lijkt me.

Is alleen mn geheugenkaartje wel na 1 foto vol.
(dit onderzoek is sponsored by Sandisk...)
net alsof er in infra-rood camera's van 'jouw' soot geheuge kaartjes liggen, - maare,

dit is idd een hele goede manier om van een 1mp chip een beeld te maken dat daad werkelijk enige betekenis heeft. voor wetenschappeljke doeleinden....
Welis gehoord van de breking van licht? Rood groen blauw breken allemaal onder een andere hoek. De hoek van een spiegeltje bepaalt dan welke kleur licht op de sensor valt en die intensiteit kun je dan meten. Met de hoekgegevens erbij weet je de kleur.

CD 24 bit naar cd 1 bit oversampling .......
als dit een reactie was op mijn bericht.....

Ik heb van breking gehoord ja en er zelfs wat over gelezen ;) En als je het hebt over een puntbron waarvan je precies de positie weet heb je gelijk maar als je al 2 puntbronnen hebt of je kent de positie niet precies, weet je niet meer welk kleur bij welke hoek hoort ;) je hebt echt een filter nodig om te weten welke kleur op een sensor valt

verder heb ik het maar niet over de tekst...

vraag me af wat je met het laatste regeltje bedoelt?
Ik zie een enorme berg flauwekul in dit artikel...

Een DLP is een stuk ingewikkelder, duurder en foutgevoeliger dan een CCD sensor, dus voor fotocamera's is het absoluut niet interessant.

Voor infrarood is het al helemaal niet interessant. CCD sensors zijn juist uitermate gevoelig in het IR. Gevoeliger dan voor zichtbaar licht!

Het is onzin dat de data beter beter te comprimeren zou zijn. De andere manier van registratie betekent slechts een herrangschikking van de data. De data opzichzelf veranderd niet. Een compressie algorithme kan dezelfde herrangschikking doorvoeren als het nuttig zou zijn. Zelfde geld voor dat 'beter te analyseren' verhaal.

Het enige zinvolle zou kunnen zijn dat je niet alle pixels uitleest. Dat kan een CCD sensor inderdaad niet. Maar een CMOS sensor kan dat wel!

Wat blijft er dan over... Nou, hoofdzakelijk de mogelijkheid voor een diep UV en terrahertz image sensor.


Het klinkt allemaal zo bijzonder... Tenzij je bekent bent met microscopy, waar je beide systemen hebt. widefield microscopen met een CCD camera, en laser scanning microscopen met een enkele sensor. Voor zaken als gevoeligheid en snelheid heb je liever widefield.
ondanks dat je een hoop flauwekul ziet is daar soms ook wat leuks mee te doen... maar moet het wel met een open instelling naar gekeken worden.

Het zijn onderzoekers... dus dat een dlp op het moment duurder en foutgevoeliger is niet een argument om het niet te onderzoeken.

Overigens staat er nergens in het artikel iets dat de plaatjes beter te comprimeren zijn maar "the researchers say. It can record more compact image files " oftewel de data van de chip is kleiner (vraag me wel af waarom en hoe maar dat is wat anders)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True