Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 37, views: 21.231 •

Onderzoekers van Princeton University hebben een manier gevonden om, in een optisch systeem, een breed blikveld te combineren met het opvangen van zeer fijne details, die normaal gesproken alleen bij ver inzoomen zichtbaar worden.

Het detail dat camera's en andere optische systemen, waaronder het menselijk oog, kunnen opvangen wordt beperkt door de hoeveelheid licht die door een lens of lenzenstelsel reist en op de detector valt, zoals een beeldsensor. Een bottleneck hierbij is volgens de onderzoekers dat veel lichtstralen te zwak zijn of te veel worden afgebogen om de sensor te bereiken. Vooral details die kleiner zijn dan de golflengte van het licht dat door het systeem reist, hebben hieronder te lijden.

Het onderzoeksteam van Princeton University heeft een nieuwe methode bedacht om het extra detailpotentieel toch te kunnen benutten. Het team heeft hiertoe een lens ontwikkeld die is gemaakt van een niet-lineair optisch materiaal. Dit materiaal, kristallijn strontium barium niobate, heeft als eigenschap dat lichtstralen die erdoor reizen elkaar kunnen beïnvloeden. Door deze eigenschap kunnen lichtstralen die de sensor niet bereiken, aan de hand van de andere lichtstralen die wel op de sensor vallen gereconstrueerd worden. "In een dergelijk beeld zullen alle delen van een scène als het ware tegelijkertijd ingezoomd zijn", aldus Jason Fleischer, universitair docent Elektrotechniek bij de Princeton University. Wel is dit beeld vervormd.

Bij de proefopstelling maakten de onderzoekers gebruik van apparatuur om een hologram op te nemen; ze combineerden dit hologram met een foto van een normale camera. Met behulp van een gesimplificeerd model van de lichtbrekingen in het kristal ontwikkelden de onderzoekers een rekenmethode om met behulp van het vervormde beeld elk punt tussen het beeld en het object te berekenen. Met de nieuwe methode waren de onderzoekers in staat om zeer fijne details met behulp van normaal licht op te vangen, waarvoor normaal gesproken ultraviolet licht of röntgenstraling nodig zou zijn. De resultaten van het onderzoek zijn gepubliceerd in het vaktijdschrift Nature Photonics van april.

De technologie kan volgens de onderzoekers onder meer gebruikt worden in microscopen en andere apparatuur waarvoor een zeer hoge resolutie nodig is, maar kan ook worden toegepast voor tomografie en voor lithografie. Bij deze laatste wordt het proces omgekeerd, zodat zeer fijne structuren geëetst kunnen worden.

Princeton University nieuwe lenstechnologie

Reacties (37)

Reactiefilter:-137032+114+212+31
Het zou leuk zijn als ze dat ook in "normale" digitale spiegelreflexcamera's konden toepassen, dan hoef ik niet meer met een enorme zoomtoeter op stap! :)
Je hebt die zoomtoeter nog steeds nodig, het gaat om lichtsterkte, niet om zoomen...
nee hoor, het gaat juist wel om zoomen. 'Zoom' = meer details laten zien door een stuk beeld groter te maken. wat ze hier doen is diezelfde details opnemen, maar dan van het hele beeld tegelijk. waarschijnlijk niet op een manier dat je een natuurlijk plaatje krijgt, dus hem voor je eos plakken heeft niet zoveel zin :-p
Het wordt juist wel een natuurlijk plaatje maar dan scherper. Details die wegvallen door verstrooiing worden weer op hun oorspronkelijke plek terug gezet waardoor je meer detail krijgt in een foto. Je kunt dan dus verder digitaal inzoomen zonder dat de foto wazig wordt.
Niet dus. Je werkt met dezelfde hoeveelheid pixels. Je data ligt vast. Digtaal zoom blijft net zo beroerd als het nu is.

Leuk onderzoekje hoor, maar zolang sensorpixels nog een biljoen keer groter zijn dan de golflengte van het licht heeft deze techniek voor min of meer gewone mensen nog niks te brengen. Maak me maar wakker als Canon een 12 exapixel camera op de markt brengt. 8)7
Vind je een gigapixel nog niet genoeg dan? :Y)
idd nu wordt het csi verhaal bijna werkelijkhied, 100x inzommen en het is nog steeds duidelijk ;-)
Volgens mij heb je eerder meer kwaliteit met dezelfde zoomtoeter.
Op een grotere schaal zie ik ook veel voordeel voor astronomie. Met dit lenstype is een enorme vergroting mogelijk... dus in theorie moet het mogelijk zijn om verre objecten in een hoge resolutie te kunnen zien.

Hubble 2.0?
Een opvolger van de Hubble zit er niet direct aan te komen, de meeste telescopen die omhoog gaan tegenwoordig maken alleen foto's in het voor de mens onzichtbare spectrum, ultraviolet en infrarood. Hubble is leuk voor de mooie plaatjes e.d., echter hebben wetenschappers veel meer aan de foto's van de andere telescopen die detail kunnen laten zien wat helaas voor de mens niet 'mooi' is, maar wel heel leerzaam.
Wellicht kan deze techniek ook daar toegepast worden, maar ik heb te weinig kennis van lichtgolven en spectra om dit te kunnen beloven.

[Reactie gewijzigd door Tielenaar op 28 april 2009 10:04]

En nou is de grap ook nog eens dat de plaatjes die de Hubble maakt niet eens zo heel mooi zijn (meestal slecht een paar pixels), maar dat daarna via computerbewerkingen een mooier plaatje wordt gemaakt. Dit plaatje zou overigens wel heel erg moeten lijken op het daadwerkelijke object, maar ergens kan je je dan toch afvragen hoe nuttig het is.
Met de telescopen die jij noemt (onzichtbare spectrum etc.) is dit namelijk ook mogelijk, en krijg je dus ongeveer hetzelfde plaatje als met de Hubble, maar dan dus inderdaad met veel meer informatie die ook echt nuttig is voor wetenschappers :)
ik denk persoonlijk dat je niets moet beloven maar een beetje beter lezen is soms al voldoende.

Met behulp van een gesimplificeerd model van de lichtbrekingen in het kristal ontwikkelden de onderzoekers een rekenmethode om met behulp van het vervormde beeld elk punt tussen het beeld en het object te berekenen. Met de nieuwe methode waren de onderzoekers in staat om zeer fijne details met behulp van normaal licht op te vangen, waarvoor normaal gesproken ultraviolet licht of röntgenstraling nodig zou zijn

Een deel van de nodige toepassing voor telescopen zit al in de berekende softwarematige oplossing. De lens vangt licht dat voor onze ogen niet zichtbaar is. Laat ze hier maar aan verder werken en dan komt dat wel in orde in die toepassingen waar ze het nodig hebben
Je hebt het volkomen verkeerd begrepen...

De resolutie van een optisch systeem wordt bepaald door de golflengte, en door de numerieke aperture. Dat laatste is de conus van lichtstralen die je opvangt.

Beiden zitten in microscopie aan hun maximum. Voor tal van redenen kun je vaak niet naar lagere golflengtes.. en bij olie immersie objectieven zit je al met een enorme hoek, die niet meer groter te maken is.

Door nu deze niet-lineaire lens te gebruiken, kun je een grotere hoek opvangen, en tot beeld verwerken. Daarmee krijg je dus hogere resolutie. En dat komt dan overeen met dezelfde hoek, maar dan met een kleinere golflengte.

Voor telescopen is deze technologie niet toepasbaar.
Ik denk de wetenschap zeer veel te danken heeft aan Hubble Telescope
en dan niet bedoel ik niet alleen de "leuke plaatjes":
http://news.nationalgeographic.co.uk/news/2005/04/photogalleries/hubble/
http://hubblesite.org/hubble_discoveries/

En de opvolger van Hubble zit er dus wel aan te komen dat is de James Webb Space Telescope (JWST).
Als ik het zo zie, dan moet je je non-lineaire materiaal op 1 lightjaar van je voorwerp zetten, en dan kun je het daarna op 100 lichtjaar afstand bekijken...

Lijkt me dus niet zo geschikt voor Hubble...


De clou is immers dat je non-lineaire materiaal lichtstralen met een grote hoek opvangt, en het omzet in een kleinere hoek. (En effectiever dan een lens dat zou doen.) Maar dat kan dus alleen maar, wanneer die non-lineaire lens relatief dicht bij je voorwerp staat. Bij een telescoop heb je die mogelijkheid niet, en zijn alle stralen vrijwel parrallel, zelfs al is je lens zo groot als de hele aarde.

Daarom dat de toepassings mogelijkheden typisch bij microscopie e.d. gezocht worden.
wellicht ook iets voor HDRI?
Als ze die vervorming tegen kunnen gaan klinkt het wel heel interessant voor de fotografie wereld. Ik kan nu alleen nog niet echt voorstellen wat voor een beeld dit (in de huidige staat) oplevert. Een paar afbeeldingen met de verschillen met een gewone groothoeklens zouden wel handig zijn geweest..

Pics, or it didn't happen.
Dit lijkt mij niet erg geschikt voor fotografie. Daar ben je volgens mij niet geïnteresseerd in zaken die je niet waar kunt nemen met het menselijk oog.

Tevens is er waarschijnlijk een hoop rekenkracht nodig om de onderliggende gegevens naar voren te brengen. Dit zou dan opgelost kunnen worden door de berekeningen later thuis uit te voeren op een pc door als het ware RAW op te slaan, en dan thuis via berekening enorme files te genereren.

Voor de wetenschap is dit een stuk interessanter omdat je daar wel de rekenkracht bij de sensor kan plaatsen.

Ik heb het nature artikel al opgevraagd aan een vriend op de universiteit, want mocht de hoeveelheid rekenkracht mee vallen, dan is dit een perfecte manier om meer detail te verkijgen bij nachtzicht. Ik heb er echter een hard hoofd in dat dit toepasbaar gaat worden in een realtime portable omgeving.
Een paar misvattingen...

Deze techniek heeft niets te maken met golflengtes die je met het menselijk oog niet kunt waarnemen. Die golflengte afhankelijkheid wordt alleen genoemd, omdat dat in microscopie nog de enige mogelijkheid is om de resolutie te verhogen.

Verder werkt dit niet voor fotografie, nachtkijkers, telescopen e.d., omdat je niet-lineaire kristal heel dicht bij je onderwerp moet staan. (Anders kun je die grote hoeken niet opvangen)

Als laatste zal bij een nachtkijker je voornamelijk door de ruis beperkt worden, en niet door de resolutie. Wellicht dat deze techniek effectief gezien een grotere aperture heeft, maar dat zal dus alleen voor microscopen interessant zijn, aangezien alleen daar je je kristal dicht genoeg bij je onderwerp krijgt.
Het ging mij er ook niet om dat je de golflengtes niet met het menselijk oog kunt waarnemen, maar dat je de resolutie niet waar kan nemen. Zo hou je alleen macrofotografie over als doelgroep omdat je daar dingen met meer detail probeert vast te leggen, dan je oog zelf kan (zonder hulpmiddelen).

Nu ik het een tweede keer lees kan dit inderdaad alleen voor korte afstand bedoeld zijn. Hoewel nachtzicht wel toegepast wordt in microscopen voor het volgen van lichtarme zeer snelle processen, dus daar zou het nog steeds uitkomst kunnen bieden.

EDIT:
Zie hier voor het effect: non-linear imaging
Bron: het artikel uit nature photonics.

Offtopic:
Nachtkijkers worden, afhankelijk van het type, pas gelimiteerd door de ruis bij een zeer laag lichtniveau, bijvoorbeeld een maanloze nacht met bewolking. Daarboven zal de MTF afhangen van zowel de ruis als de resolutie en dit is het meest interessante gebied voor verbeteringen. Als het echt donker is zal nachtzicht slechts een slechte vorm van detectie zijn, en kun je beter met thermisch beeld aan te gang.

[Reactie gewijzigd door FireAge op 28 april 2009 12:43]

Tevens is er waarschijnlijk een hoop rekenkracht nodig om de onderliggende gegevens naar voren te brengen. Dit zou dan opgelost kunnen worden door de berekeningen later thuis uit te voeren op een pc door als het ware RAW op te slaan, en dan thuis via berekening enorme files te genereren.
Dit hangt er echt 100% van af wat voor berekeningen het zijn. In het geval het masaal parelliseerbaar is, zou je allicht met het zelfde stroomverbruik als een laptop 3D kaart het real-time kunnen doen.
Als het niet paralelliseerbaar is (lekker veel crossreference) dan zal je het 'renderen' thuis op je pc moeten doen, gok ik zo.
Als ik het goed begrijp is dit een soort super apochromatische lens, die een zeer breed gebied van golflengtes opvangt, met name korte golflengtes, en die op 1 punt kan samenbrengen, waardoor fijnere structuren afgebeeld kunnen worden.
Nee. Het heeft niets met de golflengte te maken. Het gaat om de hoek van de lichtstralen. In termen van fotografie is het meer iets als een f/1 lens, die zich gedraagt als een f/0.5 lens.

Bij microscopie is het f-nummer direct gekoppeld aan de resolutie, en daardoor krijg je met een snellere lens, een hogere resolutie.

In de microscopie ben je diffractie gelimiteerd, en daardoor dat het f-nummer belangrijk is. Bij fotografie ben je alleen bij hoge f-nummers ( > f/8) diffractie gelimiteerd, maar daaronder wordt je beperkt door lens abberaties.
Betekent dit dat je atomen zichtbaar kunt maken?
denk het niet, hoewel het als ik het goed begrepen heb mogelijk zou zijn om details te "visualizeren" die kleiner zijn dan de golflengte van licht, atomen zijn pakweg 50000x kleiner dan de kleinste golflengte die we kunnen waarnemen en ik vermoed dat deze techniek niet zo klein zou kunnen gaan, wat wel mogelijk is om "randeffecten" te gaan meten (zoals ze nu al doen) om zo tot een beeld van een atoom te komen, dat doen ze ook bij telescopen trouwens
Misschien kan door deze evolutie de ik-heb-een-cameratelefoon-met-25-megapixel-en-prut-lens-hype een nuttige toepassing krijgen. Zo kunnen de xx-megapixels van moderne beeldchips op termijn ook zinnig worden opgevuld. (al is het in een microscoop)

[Reactie gewijzigd door deleenheir op 28 april 2009 10:47]

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013