Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties, 18.867 views •

Amerikaanse wetenschappers hebben een sensor ontwikkeld die automatisch zijn directe omgeving in kaart brengt. De onderzoekers hopen dat de sensor in de toekomst gebruikt kan worden om rampgebieden in kaart te brengen.

De sensor, die voorop een lichaam kan worden geplaatst, maakt gebruik van een laser die heen en weer zwiept en continu de tijd van weerkaatsing meet. Aan de hand van die informatie kan de afstand tot de muren en andere objecten worden vastgesteld. Om de bewegingen van de gebruiker te meten beschikt de sensor over gyroscopen en een acceleratiemeter.

Tijdens een experiment in het Computer Science and Artificial Intelligence Laboratory van het Massachusetts Institute of Technology lukte het de wetenschappers om een deel van hun kantoor met behulp van de sensor in kaart te brengen. Tijdens het experiment werd de sensor gedragen door een student die door het gebouw liep. De sensor stuurde de data naar een computer, die de plattegrond vervolgens realtime tekende.

De onderzoekers willen in de toekomst de sensor gaan inzetten bij grote rampen. Reddingswerkers die het rampgebied betreden moeten de sensor dan dragen en zo kan de omgeving automatisch in kaart worden gebracht. De onderzoekers willen bij volgende versies ook de mogelijkheid implementeren om bepaalde locaties met een knop te taggen en gesproken of tekstuele informatie bij te voegen. Nu kan met een knop alleen een positie worden aangeduid die interessant is. Daarnaast is de techniek ook toepasbaar in robots, met behulp van deze sensor kunnen zij hun positie ten opzichte van hun omgeving beter bepalen.

Reacties (43)

Reactiefilter:-143043+133+210+31
Moderatie-faq Wijzig weergave
Het enige nieuwe in dit prototype is het mooie buideltje die je kan omhangen. Ze gebruiken namelijk een gestripte Kinect sensor in combinatie met een LiDAR (laser range unit die ronddraait) eronder. Het algoritme dat ze gebruiken wordt uitgelegd alsof ze het zelf bedacht hebben en innovatief is. Ze gebruiken SLAM, dit is textbook - Simultainous Localizaiton And Mapping-, al meer dan 10 jaar oud. Ik snap ook niet dat dit nieuws is. Veel indrukwekkender is de 2 jaar oude quadcopter van Pennsylvania Tech met daaronder een lidar, die ook SLAM gebruikt. Die vliegt ook nog eens autonoom rond, dus is eigenlijk nog geavanceerder dan dit onderzoek. MIT heeft in iedergeval een prima mediabereik.

Video van Penn Tech van de quadcopters die gebouwen automatisch mappen:
http://www.youtube.com/watch?v=IMSozUpFFkU

Meer over SLAM algoritme:
http://en.wikipedia.org/w..._localization_and_mapping
Zelf aan de gang met SLAM? OpenSLAM: http://openslam.org/

[Reactie gewijzigd door tzaman op 26 september 2012 16:07]

SLAM is geen algoritme, maar een toepassing waarvoor meerdere algoritmes gebruikt kunnen worden. SLAM is niet nieuw, maar zeker ook geen 'opgelost' probleem waarvoor je slechts een tekstboek hoeft open te slaan. Integendeel, jaarlijks worden er in robotica conferenties als ICRA en IROS tientallen wetenschappelijke artikelen gepresenteerd met SLAM als onderwerp.

Als je de door jezelf gelinkte wikipedia pagina over SLAM had doorgelezen, dan had je kunnen lezen:
Before a robot can contribute to answering the question of what the environment looks like, given a set of observations, it needs to know e.g.:
- the robot's own kinematics,
Het grote probleem met SLAM i.c.m. een sensor gedragen door een mens is juist dat deze kinematica niet direct beschikbaar is en hoe dan ook erg rommelig is (cf. lopen t.o.v. rijden/vliegen). Zoals ook duidelijk is uit de quote van TheOmen hierboven, is dat nou juist de contributie van dit onderzoek aan MIT. Anders gezegd, het SLAM gedeelte is juist eenvoudiger voor de Pennsylvania Tech quadracopters.

PS: Overigens moet ik toegeven dat dit ook weer geen baanbrekend onderzoek is, er worden dagelijks meerdere vergelijkbare wetenschappelijke resultaten gepresenteerd.
"SLAM is geen algoritme". Semantics. Technisch gezien is SLAM een onoplogelost probleem. Maar als ik zeg "SLAM-algoritme" dan bedoel ik de algoritmen die SLAM toepassen. Ik vind je een beetje een wijsneus, ik probeerde gewoon wat achtergrond te geven.

Overigens heb ik zelf SLAM geïmplementeerd, en vind het hoogst opmerkelijk dat je meteen aanneemt dat ik zomaar wat uit mijn mouw schud, we zitten hier niet op dumpert.nl. Dus het enige verschil is dat de sensoren jostle-en (in de woorden van TheOmen)? Hooguit zal je error-ellips wat groter worden, maar dat maakt niet probleem echt niet veel moeilijker.
Het enige nieuwe in dit prototype is het mooie buideltje die je kan omhangen. ... Ze gebruiken SLAM, dit is textbook ... Ik snap ook niet dat dit nieuws is. ... Hooguit zal je error-ellips wat groter worden, maar dat maakt niet probleem echt niet veel moeilijker.
Ik reageerde simpelweg op dit soort opmerkingen. Het is altijd makkelijk vanaf de zijlijn te roepen dat het allemaal simpel is, maar in de praktijk blijken deze problemen altijd een stuk lastiger als je ze daadwerkelijk moet oplossen. Niet voor niets dat de huidige staat van vooruitgang in robotica nog altijd ver achterloopt bij de vooruitzichten van enkele decennia geleden.
Wat leuk is om te vermelden is dat er o.a. gebruik word gemaakt van een Kinect Camera (al zij het een gestripte versie hiervan). Een erg interessante toepassing en misschien later nog bruikbaar in een nieuwere versie van google maps, met een 3d bril op door een virtueel gebouw heen lopen.
Ik moest ook meteen aan deze denken (Kinect):
http://youtu.be/T3fd4SFOKX4
Dit is een stap verder dan de reguliere LMS (Laser Measurement Systems) zoals deze in de industriële automatisering vaak worden ingezet. Deze meten ook met een heen en weer zwiepende laser het horizontale vlak.
Het verschil lijkt me voornamelijk te zitten in de software die achter de sensor zit, die door de gegevens van de gyro's en de LMS te combineren een plattegrond van de omgeving kan tekenen. Zit er ook GPS op misschien, om een nauwkeuriger positiebepaling mogelijk te maken?
Probleem met GPS is dat het indoor (over het algemeen) niet werkt. De doeleinden waarvoor dit is ontwikkelt lijken mij beperkt tot indoor, dus denk dat ze in dit geval geen GPS hebben toegevoegd.
En hier een filmpje van de student die rondloopt met bijbehorende plattegrond die gemaakt wordt:

http://youtu.be/SY7rScDd5h8
Zoals ook bij het bron-artikel te zien is.
Voor de old-school folks onder ons;
u herkent de manier van map tekenen, en zelfs het "avatar" dat hierin wordt gebruikt,
van de kaart die ooit in het spelletje Doom getekend werd.. ;-)
Oeh, ik zat laatst al te denken bij het zien van de film Prometheus "Damn, zou wel koel zijn als die scanning orbs daadwerkelijk zouden bestaan".

En prompt, dit artikel. Nice!
In principe kan het al, natuurlijk niet zo mooi als in de film, maar een quadcopter drone met deze sensor is in principe hetzelfde.
Dit bestaat al een tijdje er zijn een flink aantal bedrijfjes die op allerlei manieren veel al vliegende quad of octocopters gebruiken om een omgeving in kaart te brengen ik vermoed dat MIT de sensor een stuk kleiner en handzamer heeft gemaakt maar ook zonder dat zijn er al genoeg systemen die op een zelfde manier de omgeving vaak zelfs vol automatisch in kaart brengen om bijvoorbeeld instortingsgevaar in een beschadigd gebouw te analyseren voor er daadwerkelijk iemand naar binnen stapt.
Idd, daar gooiden ze gewoon scannende ballen omhoog. Echt sjieke dinges! Zou vet zijn! :)
3D model van de pharmacie tussen 1 x met de kasten open en 1 x met de kasten toe.

En dan het 3D model aanpassen, zodanig dat de medicijnen erin geplaatst worden + een zoekfunctionaliteit. Dan kan ik eindelijk eens (als mijn ouders zouden weg zijn) de klanten helpen zonder mijn ouders op te bellen :P

*noot: ik vind soms de medicijnen wel ^^

[Reactie gewijzigd door NicoJuicy op 26 september 2012 16:53]

hahah jij ook al!
toevallig die film gisteren opnieuw gezien :)

Ik kan me dan ook geen betere voorstelling maken dan gebruik voor grotten en andere onbekende gebieden.
Prachtig, dat was ook meteen wat ik dacht toen ik de kop las..... Je kunt zo'n ding dus ook monteren op een radiografische helicopter. Als je die dan crashbestendig maakt...
Is dat niet al mogelijk? Er zijn tal van vliegende drones. Bij de speelgoedwinkel kun je al een mini-helo kopen. Hang daar deze techniek onder en je hebt al een soort drone.
Ook handig voor de zelf rijdende auto's waar Google mee bezig is :)
Ik geloof dat Google wel al bezig is met een 3D versie van streetview. Ze rijden op dit moment rond met auto's met lasers die de hele omgeving meten.
Ik dacht eerder aan indoor GPS, daar waren een tijdje terug enkele artikels over. Als ik het me goed herinner was de grootste of meest tijdrovende taak het in kaart brengen van de binnenkant van de winkels/kantoorgebouwen/... . Dit zou het wel heel wat kunnen vergemakkelijken.
Hoe precies zijn deze sensoren dan. Mocht je 360 graden om je heen willen meten en verwerken dan zal je toch een behoorlijke sensor nodig hebben.

Wel een mooie techniek (zat er al een tijdje aan te komen..), ben zeer benieuwd hoe dit in de robotica toegepast gaat worden.
Ik neem aan dat de lasers continu draaien, maar dan nog kunnen ze niet door een lichaam heen scannen. Dus je neemt twee scanners, of je accepteert een incomplete scan. Mensen bewegen, draaien, lopen, en al doende ontstaat er toch een compleet beeld. Ze zullen vast testen wat bruikbare informatie oplevert, en een kantoor is natuurlijk geen rampgebied.
Wat is het verschil tussen dit en een standaard 3D laser scanner, bijvoorbeeld die in de autonome google auto's zitten? Prijs, kwaliteit, omvang?

Zo een 3D laser scanner die al bestaat kan ook gewoon een realtime 3D beeld genereren tot afstanden van meer dan 10 meter.
Uit het artikel:

The new work builds on previous research on systems that enable robots to map their environments. But adapting the system so that a human could wear it required a number of modifications.
One of the sensors that the system uses is a laser rangefinder, which sweeps a laser beam around a 270-degree arc and measures the time that it takes the light pulses to return. If the rangefinder is level, it can provide very accurate information about the distance of the nearest walls, but a walking human jostles it much more than a rolling robot does. Similarly, sensors in a robot’s wheels can provide accurate information about its physical orientation and the distances it covers, but that’s missing with humans. And as emergency workers responding to a disaster might have to move among several floors of a building, the system also has to recognize changes in altitude, so it doesn’t inadvertently overlay the map of one floor with information about a different one.
Volgens mij is dit niet echt iets nieuws. Het wordt inderdaad al heel lang op dergelijke "Google" auto's en soortgelijke autonome voertuigen toegepast.

LIDAR

Dat het nu op het lichaam gedragen kan worden is wellicht nieuw en een bijbehorende app die een nette kaart maakt had ik ook zo niet gezien, maar de techniek is niet nieuw.

[edit] Zie nu idd dat tzaman ^^ ongeveer hetzelfde zei... stond verborgen op dit niveau.. :)

[Reactie gewijzigd door GeeEs op 26 september 2012 16:14]

Precies! Haha, dat Google Car project, dat is pas gaaf! Als je dat vet vind moet je zeker dit kijken, de video is een beetje shabby maar het laat echt zien wat de staat van de techniek is op dat gebied, echt cutting edge: https://www.youtube.com/watch?v=YXylqtEQ0tk .
Verder deed Google hetzelfde in het Google Art Project, reed met een karretje rond de musea met allerlei sensoren erop die ook de omgeving mapte.
Hang die aan een draadloze helicopter of drone en hop :)

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True