Nieuwe 3d-scanner werkt op duizend meter afstand

Onderzoekers hebben een techniek ontwikkeld waarbij laserpulsen gebruikt worden om 3d-modellen van objecten te reconstrueren. Door van infrarood licht gebruik te maken, kunnen de pulsen op afstanden tot een kilometer gebruikt worden.

Een team Schotse onderzoekers van de Heriot-Watt University in Edinburgh ontwikkelde de 3d-camera. De techniek is gebaseerd op het welbekende principe van time-of-flight, waarbij een lichtpuls naar een object wordt gestuurd en gemeten wordt hoe lang het duurt tot gereflecteerd licht wordt opgevangen. Die 'tof'-techniek wordt onder meer in machine vision-toepassingen gebruikt. Het bereik van dergelijke toepassingen is echter beperkt door de golflengte van het gebruikte laserlicht. De Schotten gebruiken licht met een golflengte van 1580nm, dat beter door de atmosfeer penetreert dan licht met kortere golflengtes.

Het systeem van de Schotten moet beelden kunnen opleveren met een diepteresolutie van één millimeter. Vooralsnog werd het systeem getest op afstanden tot één kilometer, maar volgens projectleider Gerald Buller moet ook tien kilometer haalbaar zijn. De 3d-scanner is nu nog zeer langzaam: de fotondetector, die individuele fotonen kan waarnemen, levert een grote hoeveelheid data aan de computer. Die vergt nu nog een minuut of zes om de data te verwerken tot een driedimensionaal beeld. Dat moet in de toekomst sneller kunnen, zegt Buller.

Het systeem zou ingezet kunnen worden om doelwitten te identificeren, waarbij vooral voertuigen zich zouden lenen als object. Het herkennen van mensen is lastig, omdat huid het laserlicht nauwelijks reflecteert. Naast mogelijke militaire toepassingen, zou de 3d-scanner ook gebruikt kunnen worden voor wetenschappelijke doelen, zoals het in kaart brengen van vegetatie. Ook kleine bewegingen van gesteente zouden gedetecteerd kunnen worden en met deze informatie zouden waarschuwen voor mogelijke lawines afgegeven kunnen worden.

3D-beelden gemaakt op 325 meter afstandHet 'gezicht' van de paspop bevat 3d-informatie: het menselijke gezicht reflecteert te weinig fotonen om een 3d-reconstructie mogelijk te maken.

Door Willem de Moor

Redacteur

05-04-2013 • 12:04

38

Reacties (38)

38
34
19
5
1
9
Wijzig sortering
e 3d-scanner is nu nog zeer langzaam: de fotondetector, die individuele fotonen kan waarnemen, levert een grote hoeveelheid data aan de computer. Die vergt nu nog een minuut of zes om de data te verwerken tot een driedimensionaal beeld. Dat moet in de toekomst sneller kunnen, zegt Buller.
De processing is misschien langzaam, maar ik neem aan dat het scannen zelf enorm snel kan. Zou het al mogelijk zijn om bijvoorbeeld met een vliegtuigje/helicopter (afhankelijk van de snelheid van de techniek) de hoogte van de bebouwing gedetailleerd in kaart te brengen voor Maps diensten?
Ik zou zeggen bij het zien van de afbeelding, dat IR uitgestraald door het lichaam interfereert met de IR laserpulsen
Dat lijkt me niet waarschijnlijk. De laser werkt met een golflengte van 1560 nm. Beinvloeding door warmtestraling gaat pas een rol spelen bij een veelvoud hiervan (pakweg 5000 nm).

Overigens wordt hetgene jij beweert ook niet ondersteunt door de afbeeldingingen rechtsboven en rechtsonder. Deze beelden geven een indicatie van de hoeveelheid fotonen die terugkomen bij de detector. Indien hetgene wat jij zegt waar is dan zou het gezicht in afbeelding (f) helder oplichten.
Het gaat om een ToF camera en niet om normale camera waarbij meer exposure, danwel een fellere bron, een hogere sensorwaarde geven. Nee, bij een ToF gaat het zoals de naam al zegt om time of flight en dus de vertraging van een uitgestuurd signaal, simpel gesteld pulsje uit, wachten en pulsje terug. De helft van de tijd die het duurt (heen en terug immers) maal de snelheid van licht geeft de afstand (natuurkunde weet je nog: v=s/t). Omdat de snelheid van het licht heel hoog is, is de wachttijd erg kort. Als de IR uitgestraald door het lichaam wel dezelfde golflengte zou hebben, dan zou je het, vanwege de korte tijd, als constant kunnen beschouwen en dus alsnog de tijd van de piek kunnen bepalen.

Wat veel vervelende is, is dat je wel last hebt van de absorptie van het materiaal, zo meet je een diepteverschil tussen een zwart en wit vlak op hetzelfde vel papier (meer hierover kun je vinden in "Noise Characteristics of 3D Time-of-Flight Cameras" van Dragos Falie en Vasile Buzuloiu). Hetzelfde verschijnsel treed op bij porositeit van een materiaal of structuur (een snor of haar bijv), poreuze delen worden als verder weg geobserveerd dan ze daadwerkelijk zijn.

[Reactie gewijzigd door Zartok op 1 augustus 2024 12:47]

Er wordt volgens mij alleen de tijd tussen verzenden en ontvangen gemeten, niet de intensiteit? Hoe helderder het oplicht, hoe verder het gemeten object is?

Als het gezicht continue infrarood uitstraalt, dan zou de ontvanger direct infrarood detecteren, en nagenoeg 0 meten. Laat dat nou net wel overeen komen met het plaatje.

Maar misschien zit ik er wel helemaal naast :p

[Reactie gewijzigd door KompjoeFriek op 1 augustus 2024 12:47]

Ik zou mij eerder zorgen maken over de zon/het zonlicht

Zo is de kinect (die overigens via totaal ander principe werkt) erg beperkt buiten vanwege gebruik van infrarood:
http://www.youtube.com/watch?v=9e4lYzTK6Mo
over beter de beperking weergegeven:
http://www.youtube.com/watch?v=rI6CU9aRDIo

Er zijn niet heel veel gebouwen die een kilometer of meer aan ruimte binnen hebben. Voor de rest ben je dan beperkt tot bewolkte dagen en schemer. Overigens zie ik in fig 5 van de paper dat het op een beest wel zonnige dag gedaan is dus misschien sturen ze gewoon zo'n sterke puls dat de 'storing' door de zon er uit te filteren is.

[Reactie gewijzigd door Mr_Light op 1 augustus 2024 12:47]

Ik vroeg me al af wanneer zoiets zou gaan gebeuren. Over een paar jaar rijden de Google-auto's weer door de straat met een 3d-scanner erop. Ook leuk voor het inscannen van echt bestaande locaties om bijv. in games te gebruiken. Heeft wel potentie, dit.
Gebeurt al door Nokia (dankzij dochter Earth Mine). Daar gebruiken ze stereoscopische fotografie.
http://vimeo.com/60855585

Maar extreem nauwkeurigere 3D maps zoals deze techniek oplevert is natuurlijk weer een stap verder.

[Reactie gewijzigd door Relief2009 op 1 augustus 2024 12:47]

Hadden die google auto's niet al een laserscanner erbij hangen? Als je in streetview op maps kijkt dan krijg je iig zo'n vierkant vlak als je met je muis over gebouwen heen gaat. Enige diepte informatie is dus echt al aanwezig (al zullen ze dat misschien eerder met analyse van de gemaakte foto's doen op dit moment).
In principe is een laserscanner niet nodig, al kan het natuurlijk wel een goede aanvulling zijn. Als je een reeks foto's uit verschillende hoeken "aan elkaar plakt" dan kun je daar al een hoop diepteinformatie uit verkrijgen. Een tijdje geleden ben ik al eens bezig geweest met software om met foto's van mijn camera een 3D-foto te maken van een object. In verband met tijdgebrek ben ik er niet echt uitgekomen, maar op Youtube staan er hele mooie videootjes over.

Ook zijn er diverse projecten die met behulp van MS Kinect 3D-foto's genereren, vaak met echt verbluffend resultaat. (en ja, dat is in feite dan wel weer met laser-scanner)

[Reactie gewijzigd door tERRiON op 1 augustus 2024 12:47]

Dit werkt met behulp van structure from motion. Het is inderdaad goed mogelijk dat Google dit ook gebruikt om wat diepte informatie voor streetview te bepalen.

http://en.wikipedia.org/wiki/Structure_from_motion

Probeer het eens met het gratis 123D catch, dat maakt het erg simpel om met een set foto's een 3D model te construeren.

http://www.123dapp.com/catch


Laser scanner (LIDAR) op een auto werkt trouwens ook. Een van mijn collega's gebruikt dat om gedetailleerde modellen van wegen te maken voor overstromings modellen.
Hoeven ze in ieder geval de gezichten niet meer te blurren.

ontopic: Dit is een moiie ontwikkeling en ik zie hier zeker nut van in. Ook voor het controleren van gebouwen op eventuele gebreken kan hiermee versimpeld worden.
Voor games zal je altijd nog moeten retopoligizen, en dingen in games zien er vaak veel beter uit dan in de echte wereld. Daarnaast zou je dan alle belichting er eerst uit moeten halen om er ook nog dynamische belichting in te krijgen.

Een fotorealistische game zou er maar saai uit zien.
Anoniem: 126717 5 april 2013 12:13
Nu hebben we het over DOF! (Depth of field.) :)

Maar vegetatie.... Dan moeten die fotonen erg veel botsen om dat in 3D te laten zien? Een bosje achter een bosje lijkt me al moeilijk, maar dan nog een paar bosjes er achter...
Een bosje achter een bosje lijkt me al moeilijk, maar dan nog een paar bosjes er achter...
Je kan er ook niet 'achter' kijken. als het gereflecteerde licht de sensor niet kan bereiken, omdat er bv. een bosje voor staat, kan je het dus ook niet waarnemen en ook de diepte niet van inschatten.
MIT heeft een laser-camera gemaakt die om een hoek kan 'kijken'. Maar de afstand is wel erg beperkt want je krijgt veel minder fotonen terug dan direct zoals in dit artikel.
afhankelijk van resolutie & snelheid, lijkt me dit wel handig voor beveiliging.
Software zou verschillen in omgeving kunnen opsporen zodat camouflage minder goed werkt.
of in een scan kunnen laten zien of er ook een raam open staat.

ben wel benieuwd hoe goed er gericht moet worden en wat de resolutie is: pasten de paspop en die vent in het voorbeeld in een 'scan' of bestaat het beeld uit meerdere scans?
Een potentieel gevaar van 3D foto's is dat het kopiëren van bijvoorbeeld een zichtbare sleutel een stuk eenvoudiger wordt. Dit is overigens al een probleem met klassieke camera's (waarvan de resolutie steeds hoger wordt). Met een diepte resolutie van 1 mm is dit echter veel accurater dan met 'ouderwetse' foto's, zeker over dit soort afstanden.

Hiermee wil ik niet zeggen dat dit soort technieken niet doorontwikkeld moeten worden. Elke techniek heeft goede en slechte toepassingen. ;)

[Reactie gewijzigd door The Zep Man op 1 augustus 2024 12:47]

Dat is dan mooi fout :). Want 1000MB is volgens de SI standaarden toch echt 1GB.

Jij hebt het over GiB, maar zelf dat klopt niet want een GiB is 230: 1073,741824 MB :).

Een standaard waarbij 1 GB, 1024MB is bestaat niet. Wel dat 1 KiB, 1024 Bytes zijn.

Edit:
Of je bedoeld zoals The_Fes zegt: 1GiB === 1024MiB (dit klopt wel).

[Reactie gewijzigd door esak op 1 augustus 2024 12:47]

Is 1 GiB dan niet 1024 MiB?
Ja, 1 GiB is 1024MiB.
En nog even en we hebben van die omgevingsscanners zoals in de film Prometheus
Bij afstanden van 10km (of meer) krijg je toch echt te maken met de kromming van de aardbol, je zal dus sowieso moeten corrigeren (geldt ook voor kortere afstanden) en je zal een stuk hoger moeten staan om nog op 10km waar te kunnen nemen.
De aarde is relatief groot en 10km merk je niet echt. Een object dat 10km verderop staat, staat 0.09 graden anders gedraaid ten opziche van het scan apparaat. En het maximale hoogte verschil voor een Line of sight zal slecht enkele meters bevatten
Toch wel eng. Zo kunnen legers of kwaadwillend een gebied scannen, nabouwen en oefenen tot ze het op hun duimpje kennen met alle mogelijke situaties

Op dit item kan niet meer gereageerd worden.