Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel kondigt compacte lidarcamera voor indoorgebruik aan

Intel heeft het eerste product in de RealSense LiDAR-reeks aangekondigd. De RealSense LiDAR L515 heeft een diameter van 61mm en is onder andere in te zetten om indoor-robots diepteinformatie over de directe omgeving te bieden.

Lidars, of light detection and ranging, gebruiken laserpulsjes om afstanden tot objecten te meten en ze worden onder andere voor autonoom rijdende voertuigen ingezet. Ze waren lange tijd relatief groot en ze verbruikten veel energie, maar steeds vaker gebruiken fabrikanten micro-elektromechanische systemen, of mems-spiegels voor de onderdelen, zoals Intel ook doet bij de RealSense LiDAR L515. Door minuscule spiegeltjes te gebruiken voor het scannen, kan de omvang en het energieverbruik van de lasers flink teruggebracht worden. Zo gebruikt Intel een 860nm-laserdiode en verbruikt de L515 minder dan 3,5W.

De L515 combineert zijn diameter van 61mm met een hoogte van 26mm en een gewicht van minder dan 100 gram. De lidar registreert meer dan 23 miljoen dieptepixels per seconde en heeft een bereik van 25 centimeter tot 9 meter. De diepteresolutie betreft 1024x768 pixels op 30 fps.

Intel combineert de informatie van de lidar met beelden van een rgb-camera en ook is een accelerometer en een gyroscoop aanwezig. Daarnaast bevat het RealSense-product een eigen processor om beelden te verwerken, zodat de processor van een hostsysteem ontlast kan worden.

Intel richt zich met de RealSense LiDAR L515 op onder andere toepassingen in de gezondheidszorg, retail, logistiek en robotica. De lidar kan zo onder andere helpen bij objectherkenning en het meten van de omvang van en afstand tot objecten. De prijs van de L515 is 349 dollar. Gebruikers kunnen de bestaande RealSense SDK 2.0 inzetten om toepassingen te ontwikkelen.

Door Olaf van Miltenburg

Nieuwscoördinator

13-12-2019 • 16:11

30 Linkedin Google+

Reacties (30)

Wijzig sortering
Wat ik mij al een tijd afvraag. De omgeving wordt gescand door de reflectie van de uitgestuurde laser te interpreteren.
Krijg je dan geen problemen als er tientallen lidars op een druk kruispunt samen komen?
Geen idee of het al standaard is (en of het praktisch nodig is gezien de kleine oppervlakte) maar een oplossing waar ik al over gelezen heb is de laser een willekeurige code laten pulsen. Alleen als de reflecties met de juiste pulsen terugkomen weet je dat het een puls is die je zelf hebt uitgestuurd en geen interferentie met een andere lidar.
Ah ja dat klinkt logisch.
Dan kun je dat ook gebruiken om een inschatting te maken hoe veel (autonome) voertuigen er om je heen zijn als diagnose referentie oid. Of misschien nog mooier als je een beetje informatie in die code mee stuurt. Niveau van autonomie, richting, snelheid, Etc.
Maar misschien is dat wat veel gevraagd.
Krijg je dan geen problemen als er tientallen lidars op een druk kruispunt samen komen?
Nee, elke lichtpuls heeft een eigen unieke codering, waaraan het te identificeren valt.
Door minuscule spiegeltjes te gebruiken voor het scannen, kan de omvang en het energieverbruik van de lasers flink teruggebracht worden. Zo gebruikt Intel een 860nm-laserdiode en verbruikt de L515 minder dan 3,5W
Hoeveel van die 3,5 watt zou van de laser komen? Want 3 watt is al wel heel erg veel voor een laser, en ben benieuwd of dat niet schadelijk is of kan zijn. 860nm zit in het infrarood spectrum, dus is niet zichtbaar. Maar met bijvoorbeeld 3 watt 532nm ( groen ) kun je al een behoorlijk lasershow neer zetten kan ik je vertellen..
De laser zal vermoedelijk als een sterk diverente bundel (of set bundels) uit het apparaat komen - hij moet immers een hele scene belichten, en dat maakt 'm vanzelf minder schadelijk.

Een enkele 2mm diameter 1.5mW continu bundel (laserpointer) wordt als veilig beschouwd. Dit is een vermogensdichtheid van ongeveer 500W per vierkante meter.

Als de laser zelf (zeg) 3W is, dan zou hij dit vermogen (kort door de bocht) over slechts 3/500=0,006 m2 moeten verspreiden om veilig te zijn.
Dit is ongeveer 1/10 A4tje - een cirkel met een diameter van 87mm. Bij een openingshoek van de camera-lens van 53 graden (een 'normale' lens https://en.wikipedia.org/wiki/Normal_lens ) betekent dit dat de vermogensdictheid op 87mm al als 'veilig' kan worden beschouwd.

Vermoedelijk zit er bij de camera (net zoals bij de SoftKinetic Depthsense) een waarschuwing dat je 'm niet dicht bij je ogen mag gebruiken.

1/(r^2) doet wonderen
als dit laserlicht naar buiten schijnt en mogelijk in de ogen van mensen kan komen zal het nooit zo veel zijn nee...

denk max 5mW
Volgens Intel is het een class 1 laser:
emits beam less than 0.39 milliwatts
source.
Zolang de microspiegels blijven bewegen wordt het vermogen van de laser over een groot oppervlakte verdeeld. Het zou een probleem kunnen worden als de spiegels defect raken en 1 richting op blijven staan. Dan kan de laserbundel misschien schade aan ogen geven. Ik hoop dat daar een beveiliging voor zit ingebouwd als de laserbundel schadelijk kan zijn...
De eigenschap van een laser is net dat het gefocuste lichtbundel is.
Met andere woorden je kan hem niet op een grote oppervlakte verdelen.
Een laser zal altijd schade aanbrengen aan weefsels, maar hoe langer het op een specifieke plaats gericht blijft, hoe dieper de lichtbundel geraakt (zoals een boor)
Theoretisch klopt het wel wat Swerfer zegt. Het vermogen van de laser wordt uitgesmeerd over een groter oppervlak door die snel te bewegen. De hoeveelheid energie (joule/sec) zakt over een gegeven oppervlakte. De laser is dan effectief onschadelijk.

Het zelfde principe paste men bijv toe op een CRT monitor. Gefocuste elektronen werden door magneten (fotonen in de laser lidar zijn enkel met spiegels van richting te veranderen) afgebogen en zo kon men het scherm (fosforlaag) egaal belichten. (Althans voor ons oog)

Bovendien is max range vrij laag wat duid op een erg laag vermogen van de lidar. En die 9meter range is waarschijnlijk enkel indoor haalbaar en niet buiten in de zon.

In vele autonome auto’s (Tesla niet) gebruikt men ook Lidars maar die kunnen meer dan 200meter objecten met laser dots belichten, in vol zonlicht. Zo’n lidars verbruiken meer dan 100watt en zijn ook onschadelijk omdat die lidars rond hun as draaien en maar een fractie van een seconde een object belichten.

[Reactie gewijzigd door Coolstart op 13 december 2019 22:28]

> diepteresolutie betreft 1024x768 pixels op 30 fps

betekent dat hij 30 keer per seconde in je oog kan schijnen, maar wel gedurende minder dan 1/23 592 960 (seconde) iedere keer?
Jawel, de laser word dmv spiegels blijkbaar de hele kamer door gedirigeerd, en zo dus over een hele oppervlakte verdeeld.

Wat hem ook minder schadelijk zou maken, als tie dat al zou zijn. Hij vroeg zich dus af of het kwaad kon zo gauw die spiegels in een stuip schieten.
Ik moest bij de kop meteen aan dit artikel denken:
https://www.bbc.com/news/technology-46875947

Ik heb er nooit weer wat van gehoord, dus wellicht niet helemaal waar. Maar mocht een voor een mensenoog 'onschadelijke' straal een camera chip weten te beschadigen word ik toch erg voorzichtig...

Ik snap dat het menselijk oog anders opgebouwd is dan een chip, maar gerust ben ik er toch niet op:
https://arstechnica.com/c...-wrecked-his-1998-camera/

[Reactie gewijzigd door MN-Power op 13 december 2019 16:42]

Precies mijn gedachte; zelfde artikel ook :) . En met de snelheid waarmee deze camera stuk ging houd ik mijn camera's ver uit de buurt van laserstralen.
Grappig, er was toevallig vandaag een filmpje van YouTube op een niet nader te noemen site gezet over een Tattoo removal laser gekocht op eBay.
Ook deze vlogger had 2 camera’s geruïneerd en dat zonder de laser zelfs direct op de camera te richten.
Ooh die zat ook in mijn feed.
Maar omdat er 1 miljoen watt stond had mijn clickbait filter hem al in de 'never watch' lijst gezet.
Er zit ook een FPGA in om onboard processing te doen, dat zal ook relatief veel energie slurpen
Ik vind dat het een Light Radar is en dat je er o.a. '(light) detection and ranging' mee kunt doen.
Voor mij is het dus nog steeds een LI(ght)(ra)DAR omdat dat de essentie van het ding is.
Onsfhankelijk van hoe de Amerikanen met hun verwarrende taalgebruik erover denken.

[Reactie gewijzigd door ajolla op 13 december 2019 16:28]

Het isee LIDAR (wat inderdaad betekent wat je zegt) en die camera-toevoging komt volgens mij omdat er ook daadwerkelijk een RGB kleuren camera bij zit. Dus diepte+kleur, net als een Kinect, die ook bestaat uit een 3D-deel (structured light resp. time-of-flight in v1 en v2) en een 2D-kleuren deel.
Zit dit al niet op een Xiaomi vacuüm robot?
Vrijwel elke moderne stofzuigrobot heeft een lidar... Zoals die van ons :D
Inzetbaar als navigatie voor blinden?
Kun je zo'n ding gebruiken als periferie bewaker? Je zet 'm bovenpp je vrijstaand huis en met patroonherkenning kun je zien of er binnendringers opaf komen.
Ik vind vooral de realtime onboard processing interessant, voor zover mijn kennis rijkt genereert LIDAR een ontzettende bak aan data om te verwerken.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True