Bosch ontwikkelt 'betaalbare' lidar voor zelfrijdende auto's

Bosch is naar eigen zeggen klaar voor de productie van 'betaalbare' lidarsensoren voor zelfrijdende auto's. De techniek wordt gebruikt om de omgeving van de auto in kaart te brengen. Bosch geeft volgende week meer details.

De door Bosch ontwikkelde lidarsensor zou op grote schaal kunnen worden geproduceerd, waardoor de kosten van het onderdeel zouden dalen. Ook zou de lidar geschikt zijn voor korte en lange afstanden. Het bedrijf stelt zijn nieuwe technologie voor op de CES-beurs in Las Vegas die op 7 januari de deuren opent. De nieuwe lidarsensor van Bosch werkt volgens de fabrikant naadloos samen met de camera- en radartechnologie van het bedrijf.

Volgens Reuters schommelt de prijs van een lidarsensor momenteel nog rond de negenduizend euro. Analisten menen echter dat de prijs uiteindelijk zal moeten dalen tot zo’n 180 euro voordat het onderdeel gecommercialiseerd kan worden op de grote markt. Voor welk bedrag Bosch lidarsensoren kan leveren, heeft het bedrijf nog niet bekend gemaakt. Het is ook nog niet duidelijk wanneer de technologie op de markt komt en in welke auto's.

Lidar staat voor laser imaging detection and ranging. Het is een technologie om via laserpulsen de afstand tot een object of oppervlak te bepalen. Bij zelfrijdende auto's worden lidarsensoren gebruikt om de directe omgeving van het voertuig driedimensionaal in beeld te brengen. Voorstanders van lidar beschouwen de technologie als de noodzakelijke derde sensor, naast camera en radar, om volledig autonoom te kunnen rijden op SAE Level 3 tot en met 5. Tot nu toe waren lidarsensoren echter te duur voor de grote markt.

Tot de bedrijven die zich achter de technologie scharen, behoren – naast Bosch – onder meer Ford, General Motors, Apple en Alphabet. Fabrikanten als Tesla en Nissan zijn dan weer minder enthousiast, onder meer vanwege de hoge kostprijs. Tweakers publiceerde begin vorig jaar een achtergrondartikel over lidar in auto's.

Bosch lidar
Illustratie: Bosch

Door Michel van der Ven

Nieuwsredacteur

02-01-2020 • 12:08

103

Reacties (103)

103
101
57
7
0
43
Wijzig sortering
Geen idee welk lidar onderdeel de huidige prijs van 9000 euro kan rechtvaardigen. De laser zelf iig niet. Waarschijnlijk iets in de detectie. Lijkt me dat de massaproductie hier wel eens een klein wonder kan doen.

Tevens heeft Bosch ruime ervaring met z.g.n. "graceful decay", iets wat er voor zorgt dat systemen bij een storing op een doordachte manier teruggevallen op andere systemen en/of de menselijke bestuurder wordt gewaarschuwd dat de auto niet alleen verder kan.

Het "lezen" van de beelden is en blijft een issue omdat "artificial intelligence" nu eenmaal alles kan en heeft, behalve gezond verstand.

Ik zie bij verschillende AI projecten de meest briljante oplossingen verschijnen, waar geen mens toe instaat is, maar er komen ook telkens "oplossingen" uit, waarvan een leek kan zien dat het niet gaat, maar die simpelweg voldoen aan de criteria waarmee de AI op pad is gestuurd.

Bosch levert de sensor maar gaat zich schijnbaar (volgens artikel) niet bemoeien met de, voor het rijden, te nemen beslissingen.

[Reactie gewijzigd door papa_san op 23 juli 2024 17:33]

Detectie valt nog wel mee, het is de mechanica die niet schaalt. Het 'scannen' van de omgeving betekent dat de laser continue van positie veranderd moet worden, gevoelig is voor vibraties, slijtage etc. Allemaal dingen waar je voor moet gaan compenseren. Neem het tijdgevoeligheid van het systeem mee en het wordt helemaal vervelend, lees duur.

Dit in vergelijking met een een Image sensor waar je simpelweg alles opvangt en grofweg de rest in de software oplost. Beide zijn al lang beschikbaar de ene heeft meewind van twee kanten, cpu's worden sneller / efficiënter (Moore's law) en Image sensors zitten in die apparaatjes die iedereen meezeult. Laser scanner is alleen goedkoper geworden omdat de onderdelen betere yields hebben.

Er zijn nog wat richtingen die je op kan maar dan convergeert de oplossing het een beetje (arrays). Dan word de vraag meer actief vs passieve sensor.

De Lidar moet ook nog een stuk kleiner wat het dan ook weer nog duurder maakt. Gezien je aan 1 sensor (per richting) niet genoeg hebt is de prijs van zo'n ding nog al een issue ook gezien de sensoren aan de buitenkant zitten.
Het "lezen" van de beelden is en blijft een issue omdat "artificial intelligence" nu eenmaal alles kan en heeft, behalve gezond verstand.
Laat ik nou twijfelen aan dat laatste bij een hoop weggebruikers. }>
wij mensen noemen het intuïtie maar in wezen is het vaak nauwelijk meer dan dom geluk.

ik zou een goed geprogrammeerde computerchip te allen tijden meer vertrouwen dan een opgefokte bestuurder (of piloot). het probleem zit vaak in onvoorziene en dus ongereguleerde situaties. een computer kan welliswaar 100én keren sneller waarnemen, inschatten en belissen maar als het erop aankomt zal de menselijke bestuurder in zijn blinde paniek iets randoms doen wat soms zeer toevallig heel goed uitpakt en door stom geluk een oplossing bied die er volgens alle logica niet had moeten zijn.
intuïtie is geen dom geluk, het is een onbewuste reactie gebaseerd op ervaringen. Intuïtie kan je dan ook ontwikkelen door meer auto te rijden b.v. Een f1 rijder heeft waarschijnlijk een betere intuïtie bij slecht wegdek dan een reguliere bestuurder, maar zal zijn intuïtie bij vrouwen mogelijk net zo hard falen als dat bij mij gebeurd :+

Dat AI faalt is simpelweg omdat hij de informatie mist die wij onze hele leven verzamelt hebben (en misschien niet relevant lijkt voor de beslissing). Dat is meteen de reden waarom tesla's en andere systemen beter worden, door alle gereden km's en de systemen die daar van leren.

[Reactie gewijzigd door D0gtag op 23 juli 2024 17:33]

Mensen zijn, algemeen genomen, niet gemaakt om auto te rijden. Langdurig bewust de aandacht erbij houden, het loopt continu fout. Daarom zijn ze ook opgefokt omdat ze continu geprikkeld worden.
De grootste reden dat mensen zich niet massaal dood rijden is omdat de hersenen/het onbewust zijn continu op zoek is naar gevaar, ook al is het bewustzijn zelf totaal niet aan het opletten. De meeste beschouwen dit als iets "dom" of primitief, het "vecht of vlucht" systeem maar het is alles behalve primitief. Als je aan de radio aan het prutsen bent en plots knijp je de billen dicht, de rechtervoet is op de rem aan het duwen omdat er blijkbaar een file staat, het is niet het bewustzijn dat die voet op die rem gezet heeft, hetzelfde systeem dat je hartslag bepaald heeft die voet daar gezet zonder je iets te vragen. Als je even nadenkt hoe vaak je de billen knijpt in het verkeer, laat ons zeggen dat mechanisme continu in actie moet schieten om al die "net niet" ongelukken te krijgen. Zoiets kan je intuïtie noemen, de hersenen moeten in staat zijn de juiste actie te koppelen aan de situatie, training en herhaling is daarbij cruciaal, je wilt niet iemand hebben die in blinde paniek slaagt of bevriest omdat de hersenen geen automatische actie kunnen koppelen.
Overigens zelfs als je slaapt zijn je hersenen op zoek naar gevaar, daarom word je ook wakker van een wekker, het gehoor blijft actief (maar de neus niet). Dat is ook de reden dat men doorgaan slechter slaapt als je niet thuis bent, het onbewust zijn is in een hogere staat van paraatheid, (geen veilige of gekende omgeving). Als er echter ingebroken is geweest kan je maanden, soms jaren last hebben omdat iets wat veilig was het blijkbaar toch niet was. Het onbewust zijn dacht dat iets veilig was maar het bleek dat toch niet te zijn, niet iets wat het leuk vind en waar het zwaar op wil corrigeren. Dan word je plots wakker stijf van de adrenaline omdat je denkt iets gehoord te hebben, soms meermaals per nacht. Ga je naar zwaardere trauma's kijken dan kan het zijn dat dit systeem begint te flippen, dan zit je met PTSD.

[Reactie gewijzigd door sprankel op 23 juli 2024 17:33]

Mensen zijn, algemeen genomen, niet gemaakt om auto te rijden. Langdurig bewust de aandacht erbij houden, het loopt continu fout. Daarom zijn ze ook opgefokt omdat ze continu geprikkeld worden.
Mensen zijn ook niet gemaakt om op computers berichtjes naar elkaar te sturen. Maar zowel auto rijden alsook berichtjes typen gaat mensen desalniettemin prima af. Ik zou zeggen dat mensen doorgaans vrij ontspannen auto kunnen rijden. Zeker niet altijd, zeker niet overal en inderdaad zeker ook niet oneindig lang, maar voor de meeste ritten die ik maak heb ik niet de indruk dat ik of andere weggebruikers op het randje staan los te gaan in/met hun auto.

Een beetje vertrouwen in de flexibiliteit van de hersenen (en de mensen die ze hebben) is altijd goed. ;)
ik zou een goed geprogrammeerde computerchip te allen tijden meer vertrouwen dan een opgefokte bestuurder (of piloot).
Als je specifiek inzoomt op het opgefokte, kan het zijn dat je gelijk hebt. Maar in principe ga ik mee met @papa_san dat AI geen gezond verstand heeft. Hoe je het ook wendt of keert, een computer weet gewoon niet waar ie mee bezig is. Een mens is van nature in bepaalde mate irrationeel, maar wij snappen bijvoorbeeld dat een fiets die achterop een auto gebonden is, geen medeweggebruiker is. En dat was dus iets dat ze de AI bij Tesla moesten leren. Geen idee hoe de computer reageerde op die situatie, maar het kan kolderieker reacties tot gevolg hebben. Mensen herkennen zoiets direct, en snappen dat ze er niet op hoeven reageren. Zo zijn er meer rare dingen te bedenken, waar een computer grote moeite mee zou hebben.

Punt is dat als het 'fout' gaat met AI, je de gekste dingen krijgt. Dat merk je bijvoorbeeld met IBM's Watson die Jeopardy kon spelen. Toen ze een paar vragen stelden op een iets andere manier dan ie geleerd had, ging ie de mist in en komt met antwoorden die nergens op slaan. Een mens zou zo'n antwoord niet geven omdat we altijd wel een idee hebben in welke context het antwoord zit, en ook zeker weten dat het geen salami is bijvoorbeeld. Een computer niet. Als uit zijn lijstje van waarschijnlijke antwoorden 'salami' bovenaan staat, komt dat er als antwoord uit.

Ik ben het ermee eens dat een AI bestuurde auto in de meeste gevallen beter is dan een mens. De mens is makkelijk afgeleid en kan slecht snel beslissen in een panieksituatie. Dus meestal gaat het met AI beter. Maar niet altijd. Wat voor ons geen gekke situatie is, kan voor de computer juist weer een onoplosbaar probleem vormen, of totaal verkeerd ingeschat worden. En dat moet men zich goed realiseren.
Een mooi voorbeeld hiervan zijn ook de Abrahams in de voortuin met een bordje 50 erbij. In een woonerf zou ai kunnen denken dat hij kan optrekken naar 50. Hoeft dit natuurlijk niet meteen een ramp te zijn, maar het zegt wel iets..
AI in zelfrijdende auto's neemt natuurlijk geen belangrijke, potentieel levensgevaarlijke beslissingen op basis van één input, in dit geval verkeersbordherkenning. :)
Een van de dingen die we dus meestal niet weten bij AI, is op basis waarvan hij zijn beslissingen neemt.
Soms kan één input essentieel zijn.
Maar welke waarde, op welk moment, aan die input wordt gegeven is bepaald door de ontwikkelaar/de "kilometers ervaring" van het systeem, in eerste, en in tweede instantie.

Waarschijnlijk gaat de AI nu al, veel levens redden en veel schade voorkomen, maar dat wil zeker niet zeggen dat er geen ongelukken gaan gebeuren die een mens had kunnen voorkomen.
Ik denk niet dat het gaat om één onderdeel wat zeer duur is, maar om hoge R&D kosten. Vooral ook aan de software kant. De hardware is bij zoiets als dit echt niets zonder goede en betrouwbare software.
De vraag is of Lidar nog wel zo goed werkt als er (te)veel auto's op de weg komen met deze techniek, de kans is groot dat ze elkaar gaan storen.

Zelf geloof ik meer in het pad dat Tesla nu aan het bewandelen is.

@RoofTurkey
De onderzoeken zijn nog gaande, ik hoop dat de wetenschappers iets kunnen bedenken, maar de antwoorden zijn er nu nog niet. De Lidars die nu gemaakt worden zullen elkaar storen omdat ze nog niet met een pulse patroon aan het zenden zijn. en de vraag is ook hoeveel van deze patronen kunnen er bedacht worden zodat de efficiëntie niet ten onder gaat.

[Reactie gewijzigd door Madcat op 23 juli 2024 17:33]

Tesla bewandelt dat pad om economische redenen. Waymo staat veel verder dan Tesla met hun dure Lidar wagens. Tesla heeft al eens een hardware upgrade uitgevoerd voor hun autonome auto's. De vraag is of Musk zijn woorden zal inslikken en toegeven dat Lidar wel degelijk iets kan bijdragen. Het probleem is dat hij Level 5 autonomie beloofd heeft aan de huidige eigenaren.

Die ongevallen waarbij een aantal mensen onthoofd werden omdat er een vrachtwagen dwars over de weg stond zal je niet hebben met Lidar. Het is gewoon de combinatie van veiligheidssystemen die een auto veiliger maakt. Ik vermoed dat je je vandaag ook nog weinig vragen stelt over ABS en dergelijke. Dat waren dingen die vroeger ook ontzettend duur waren.

Radar, kaarten, GPS, info van andere auto's en Lidar moet je gewoon combineren om Level 5 autonomie te halen. Het resultaat is dat het nog een tijdje te duur zal blijven voor de gewone man.

@supersnathan94 Reden te meer om meerdere informatiebronnen te gebruiken om een zo accuraat mogelijk beeld van de omgeving te maken. Sneeuw is ook niet echt bevorderlijk voor het gebruik van Lidar. Ik pleit voor het gebruik van een waaier aan hulpmiddelen en er niet eentje uit te sluiten op basis van prijs. Dit artikel gaat er net over dat de prijzen enorm aan het zakken zijn voor die dingen.

@Robinvdh5
https://www.fierceelectronics.com/components/lidar-vs-radar
Lidar is gewoon veel accurater in het opbouwen van een beeld. Je kan zien in welke richting een voetganger kijkt. Er staat een tabel welke technologie goed is voor welke omstandigheden. Radar is beter in slechte weersomstandigheden dan Lidar. Ik ben dus helemaal niet tegen radar. Een camera is beter voor het detecteren van lane switches. Gebruik gewoon alles.

Zelf heb ik geen Tesla, maar ga ik er waarschijnlijk wel 1 kopen omwille van andere redenen. Ik heb alleen schrik dat ik een dag teveel ga vertrouwen op technologie en in slaap ga vallen of andere dingen beginnen doen. Als je ziet hoeveel mensen er nu al andere dingen in het verkeer doen dan bezig zijn met wat er op de weg gaande is, hou ik mijn hart vast voor auto's die verkocht worden als een mirakel oplossing. Pas op, ik wou dat die oplossing er nu al was. Het zou perfect zijn voor mijn bejaarde ouders.

[Reactie gewijzigd door bbc op 23 juli 2024 17:33]

Waymo en Tesla bewandelen beide een ander pad met hetzelfde doel; namelijk het level 5 autonomie. Waar Waymo dit doet door middel van Laser Bear Honeycomb™ (LiDAR), radar en camera's doet Tesla dit 'alleen' maar met een frontale radar, camera's, sonar en GPS (zie Tesla's site).
Die ongevallen waarbij een aantal mensen onthoofd werden omdat er een vrachtwagen dwars over de weg stond zal je niet hebben met Lidar.
Ik ben heel benieuwd naar de bron de hierbij hoort, want ongelukken kunnen nu eenmaal gebeuren. Ook bij Waymo, waar ze helaas geen raporten meer over schrijven (BusinessInsider). Eerst kon je dat lezen, erg interessant. Nu zijn deze helaas offline gehaald.

Ik rij zelf niet in een Tesla, of andere vorm van autonome wagen, maar ik denk daar toch een heel stuk veiliger in te zijn dan wagens zonder deze technologie. Ja het gaat nog even duren tot level 5, maar LiDAR is ook maar één van de vele middelen die je hiervoor kunt gebruiken.

[Reactie gewijzigd door TweakOverflow op 23 juli 2024 17:33]

Het probleem met die vrachtwagen was onder andere de hoge lichtintensiteit van de zon. Daardoor werd de trailer niet gezien. Dit zal je met lidar ook hebben doordat de signaalsterkte van het licht wat de laser uitzend veel lager is dan de zon. De hoeveelheid background noise is dan zo hoog dat ook een lidar sensor over zijn nek kan gaan en de pulsen ook niet meer terug ziet komen.

Vergeet niet dat de zon in het gehele spectrum echt enorm veel energie uitzend. Ook in UV en IR banden.

Zelfs patroonpulsing werkt dan niet doordat de sensor oververzadigd raakt. Het signaal wordt gewoon overstemt op zo’n moment.

[Reactie gewijzigd door supersnathan94 op 23 juli 2024 17:33]

Nee dat zal je met lidar wel degelijk te voorkomen zijn, zie deze research paper. Er zijn nog meer technieken maar een camera is veel gevoeliger voor fel licht dat een lidar systeem. En meeste systemen gebruiken licht van een bepaalde golflengte die minder veel afgegeven word door de zon (zie hier).
Er zijn nog meer filter systemen om noise te verwijderen. Wat met een optisch systeem minder goed mogelijk is (of heel duur b.v. combinatie IR en V.S. met overduidelijk andere negatieve kanten)

[Reactie gewijzigd door D0gtag op 23 juli 2024 17:33]

die golflengtes die daar "minder veel"worden afgegeven door de zon is op gemeten op zeelevel en komt niet doordat de zon geen energie uitstraalt op die frquenties, maar doordat alle energie in de frequenties al is geabsorbeerd door gassen in de atmosfeer. Als de spectral irradiance daar aangeeft 0 te zijn komt dat niet doordat de zon dat niet uitgeeft, maar doordat de atmosfeer dit dan volledig absorbeert. De grootste dalen in die grafiek worden dan ook veroorzaakt door iets wat we allemaal kennen als H2O.

Laat dat nou net de grootste beperkende factor zijn voor zicht in het verkeer.

als we dan kijken naar het absorptie spectrum dan zien we iets heel frapants: https://en.wikipedia.org/...ctrum_of_liquid_water.png

Water absorbeert het minste in het zichtbare licht spectrum. Precies daar waar een camera ook opereert. Lidar zal al met al dus veel sneller last hebben van regen dan je op het eerste gezicht zou denken.
Uiteraard is het bereik van de zon hoger, wat niet relevant is want het resultaat is dus de gegeven grafiek.
Je ben nu aan het vertellen hoe camera's beter werken dan lidar met o.a. regen.

Het punt is dat een lidar systeem ook camera's heeft en gebruikt voor wereld herkenning (zie de eerste paar beelden van dit filmpje), en o.a. tesla ervoor kiest om deze juist alleen de lidar weg te laten, je hebt met lidar simpelweg meer informatie om beslissingen uit te maken, tesla zegt alleen, wij kunnen het prima zonder die extra informatie. Een lidar systeem heeft ook alle voordelen van een puur op camera gebaseerd systeem, bijna alle hardware is identiek behalve de lidar. De software doet exact de zelfde berekeningen alleen met meer informatie (betrouwbare diepte informatie).

[Reactie gewijzigd door D0gtag op 23 juli 2024 17:33]

Tesla zegt ook: de bestuurder moet te allen tijde alert blijven.
Waymo laat de bestuurder weg in zijn taxi's.
Een vrij essentieel verschil wat toch wel pleit voor lidar zoals de zaken er nu voor staan.
Waymo laat absoluut de bestuurder niet weg. Er is nog geen enkele Waymo taxi waar geen bestuurder meer in zit.
De locaties waar Waymo opereert zijn ook extreem gedetailleerd in kaart gebracht in een neperkte gefenced regio.
In het normale verkeer op een willekeurige plaats zijn de Waymo autos momenteel kansloos.
hetzelfde voor Cruise van GM, werkt ook alleen maar op bepaalde goed in kaart gebrachte autosnelwegen

[Reactie gewijzigd door dobber_s op 23 juli 2024 17:33]

Waar veiligheid in het geding is, dient software de betrouwbaarheid van de gegevens van zijn sensoren in de gaten te houden, alvorens de software op basis daarvan beslissingen mag nemen. Als er een lidar is, dan zal de software zich dus een beeld moeten vormen van de betrouwbaarheid van de gegevens die uit de lidar komen.

Zijn de gegevens niet betrouwbaar, dan zal de software moeten concluderen dat hij de auto in dat geval niet kan besturen, ofwel de bestuurder moet zelf verder rijden (daar gaat je level 5), of de computer zet de auto gewoon stil. Je kunt eventueel nog tussenvormen bedenken waarbij de computer de auto met veel meer voorzichtigheid bestuurt.
Net zoals in de winter met een laag zonnetje veel automobilisten niets zien, en toch doorrijden.
Ik heb een vrij dure zonnebril die goed werkt, maar dan nog is het best wel fel en soms gewoon gevaarlijk.
Prijs heeft er niet heel veel mee te maken, dure zonnebrillen zijn niet per definitie beter (zeker de 'merk' brillen niet -versaci, gucci etc). Ik heb een aantal gepolariseerde brillen (rayban) voor afstanden en cheapies voor korte tripjes & strand (vanwege zand en krassen) een vrij donkere bril doet wonderen samen met de zonneklep in de auto.
Haha ja true. Nee gaat om een serengeti met gepolariseerd glas en “HDR”. Ik heb overigens wel vrij gevoelige ogen. Ik rij helaas ‘s ochtends naar het oosten en ‘s avonds naar het westen dus gebruik hem bijna dagelijks.
Een paar keer per jaar kom ik een tunnel uit en krijg de volle laag van de laagstaande zon.
Wat zou u doen in dat geval?
1) op de rem tot een verantwoorde snelheid van, zeg, 50.
2) snelheid er inhouden, het is tenslotte snelweg en je moet daar 100.
3) gas los, voet bij de rem, zonneklep omlaag en het beste er van hopen.

Ongeacht welk antwoord je kiest: wees je ervan bewust dat er voor en achter je mensen uit de andere twee categorieën rijden. Elke seconde weer een.
Onzin, er zijn infra rood golflengten van de zon die niet doorkomen op grond niveau (rood in de grafiek):

https://upload.wikimedia....Solar_spectrum_en.svg.png
hohi. Ik weet niet hoe jij die grafiek interpreteert, maar het is juist het rode deel wat wel doorkomt. Het gele deel wordt geabsorbeert door de atmosfeer

deze afbeelding is iets beter te lezen https://geologycafe.com/oceans/images/insolation_curve.jpg.

uiteindelijk is IR straling zelfs nog meer aanwezig dan zichtbaar licht. Alleen is het veel weiderverspreid over de verschillende golflengtes tussen 700-2500 nm.
Exact, en er zijn een paar punten waar een rood dal zit. Daar zitten de absorptie-spectra van broeikasgassen kennelijk, en die heb je doorgaans een paar km in dunne concentratie boven je. Bijv 1300 nm, al lees ik dat >1000nm extra duur is om de sensor data te verwerken.

Dus als je die golflengte(n) kiest, zou je toch weinig last van de zon moeten hebben?

Tenzij natuurlijk net die vrachtwagen op de Mt Everest rijdt op een zonnige dag, maar daar rijden gelukkig (nog?) niet zoveel auto's met Lidar.
Maar dat zijn juist de plekken waar water dik 90% van de boel absorbeert. En dat is in vorm van waterdamp. Dat is dan weer exact het punt waar regen of mist heel veel roet in het eten gooit. Op een normale dag is er maar heel weinig water in de oucht aanwezig in verhouding met een goede regenbui. Op dergelijke dagen kan Lidar een aanvulling zijn, maar dan moet je dus wel op de juiste golflengtes zitten en in het geval van regen zijn die golflengten dus weer niet handig.
Ook dat klopt (hoewel ik 90% absorptie niet per se kan terugvinden), dus het geheel is best nog wel complex.

Hoe het volgens mij werkt:
  • Kies een frequentie die bijna niet in zonlicht op het aardoppervlak zit, favoriet zijn 905nm en 1550nm lees ik bij Yole,
  • Maak een filter, die al het andere - dus ook het zichtbare licht - eruit filtert (hier vind je Bosch patenten op terug)
  • Kies de frequentie die niet schadelijk voor menselijke ogen is, 1550nm,
  • Kies de juiste dosis: 1550nm wordt 3x zo goed door water geabsorbeerd als 905nm, dus schijn gewoon met 3x zoveel vermogen*.
  • Kies de juise puls-duur: Omdat bij een hogere dosis het systeem meer energie verbruikt (ongewenst), schiet je de energie in zeer korte pulsen.
  • Kies de juiste 'minimale resolutie' die nodig is voor object-herkenning: Op 4K-foto's van wegen kunnen we fietsers herkennen. Misschien gaat het aantal LIDAR-punten, dus de prestatie door regen terug naar 480p, maar dat is nog steeds meer dan genoeg voor object-herkenning! Captcha's werken immers ook niet met 4K. Waarom is dit een goed voorbeeld: Als je van 4K 90% van de punten weglaat omdat er 90% geabsorbeerd wordt, heb je nog altijd 3x zoveel beeldpunten als 480p.
  • Vul het object-model aan, en dat is de belangrijke boodschap van Bosch, met radar en camera!
  • Bepaal maximum afstand op welke objecten nog herkend kunnen worden. In typische gevallen gaat die afstand terug met 25%.***
  • Bepaal de veilige snelheid die nog gereden kan worden**. Omdat de remweg kwadratisch afhankelijk is van de snelheid, gaat bij een max object-herkennings afstand van 25% minder, de snelheid maar met 14% naar beneden.
*___Mensen doen dit ook: Als het mistig is zetten ze mistlampen aan.
**__Mensen doen dit (hopelijk) ook: Bij zware regen zie je ze vaak langzamer gaan rijden.
***_Zie paragraaf 3.2: https://www.mdpi.com/2079-9292/8/1/89/htm
Anoniem: 310408 @bbc2 januari 2020 14:25
Tesla bewandelt dat pad om economische redenen. Waymo staat veel verder dan Tesla met hun dure Lidar wagens. Tesla heeft al eens een hardware upgrade uitgevoerd voor hun autonome auto's. De vraag is of Musk zijn woorden zal inslikken en toegeven dat Lidar wel degelijk iets kan bijdragen. .
Wel, zowel Renault, Toyota en BMW hebben recentelijk laten weten dat ze Tesla gaan volgen. Hun redenatie is net als die van Tesla, tot we onze wegen herinrichten zijn ze gemaakt met uitsluitend visuele hulpmiddelen. Een lidar kan niet zien of het licht op rood staat, of er gele tijdelijke strepen op de weg getekend zijn. Je zal ALTIJD camera systemen moeten gebruiken en als je die toch al hebt 'zou' lidar overbodig kunnen zijn.

In 2019 heb ik 23.900 km gereden in mijn Tesla Model S. Daarvan 21.100 op de autopilot dus in een situatie waar ik uitsluitend controleer en geen acties doe (okay, richtingaanwijzer om de auto zelf te laten inhalen). Ik denk dat ik drie maal streng heb moeten ingrijpen omdat de auto het niet snapte. Ik denk dat dat goed bewijs is dat lidar gewoon niet noodzakelijk is maar een keuze. Ook bewijs dat hoever we ok zijn, je bestuurder gewoon de bestuurder blijft. Mij maakt het niets uit. Of ik mijn handen nu op schoot hebt of aan het stuur, je moet ze toch ergens laten.

Overigens heeft Tesla geen autonome auto's en heeft Waymo nog niet een enkel exemplaar verkocht.
Wie heeft het over verkopen van auto's? Waymo zit aan level 4 autonomie in real life.
https://www.theverge.com/...passenger-feedback-review
In theorie zit Tesla daar ook met hun summon, maar die is vrij beperkt in gebruik, ook in de VS.

Als je leest wat ik geschreven heb, staat daar ook dat je alles nodig hebt, waaronder camera's. Ik zeg net dat Lidar de oplossing is. Ik beweer enkel dat je level 5 autonomie veel sneller en veiliger zal halen door ook Lidar te integreren.

Zullen er geen dode meer vallen met Lidar? Toch wel, maar waarschijnlijk een pak minder dan zonder Lidar.

Mijn probleem met de huidige stand van zaken bij Tesla is dat ik waarschijnlijk te afgeleid ga zijn en misschien in slaap zal vallen. Ik neig naar de Model Y of eventueel het eerste model dat Maxwell batterijen zal hebben. Het kind in mij wil autopilot, maar ik twijfel of ik het erbij zal nemen.
In nederland heeft full self driving ook weinig toegevoegde waarde, maar de normale autopliot zit er eigenlijk standaard al in.

Navigate on autopilot is in de eu niet zomaar mogelijk wegens wet en regelgeving.
Anoniem: 1322 @bbc2 januari 2020 16:11
Ik denk dat @Anoniem: 310408 bedoelt dat niemand nog gebruik kan maken van L4-5 autonomy. Waymo kan wel een auto hebben rijden ergens maar dat zegt niets, in een pretpark rijden ook wel autonome attracties.

Zolang het niet op grote schaal werkt dan hebben we er niets aan. En dan heeft Tesla zelfs effectief nog de grootste ‘autonome’ vloot.

Zullen er geen dode meer vallen met Lidar? Toch wel, maar waarschijnlijk een pak minder dan zonder Lidar.
Dat is helaas een foute gedachte, meer data staat niet gelijk aan een betere oplossing. Sterker nog, meer data is meestal overweldigend en zorgt voor langzamere ontwikkeling en moeilijkere beslissingen. In mensen komt dit ook voor en heet sensory overload: https://en.wikipedia.org/wiki/Sensory_overload

Mijn probleem met de huidige stand van zaken bij Tesla is dat ik waarschijnlijk te afgeleid ga zijn en misschien in slaap zal vallen.
Ik hoop dit argument veel maar in de praktijk is het niet een groot probleem. Je bent bestuurder en doet je bestuurders ding (rondkijken naar het verkeer, vooruitkijken naar mogelijke situaties). Als je moe bent en in slaap valt heb je echt een ander probleem en dien je te stopen met rijden.

Ik neig naar de Model Y of eventueel het eerste model dat Maxwell batterijen zal hebben. Het kind in mij wil autopilot, maar ik twijfel of ik het erbij zal nemen.
Maxwell maakt voornamelijk capacitors maar het zal nog lang duren voordat Tesla de nieuwe batterijen in productie zal hebben. Ze zijn wel slim en kondigen alleen zaken aan (zoals HW3) wanneer het bijna in productie is. Wat autopilot betreft, dat zit standaard in iedere Tesla. Alleen Full Self Driving is apart en is momenteel niet de moeite waard, zeker niet in Europa. Met de huidige en toekomstige regels van de EU is het niet eens mogelijk om je auto naar je toe te laten rijden want je moet dan eerst naast de auto staan (6m) van de Europese fun politie. Pas als VW of een andere grote Europese organisatie iets met L4 gaat doen zullen de politici betaald aangemoedigd worden om dit te veranderen.
L4 wil net zeggen dat het binnen een afgebakend gebied is. L5 is overal. Waymo heeft dus een dienst zonder chauffeur binnen afgebakend gebied.

Naargelang de berichten denk ik dat Maxwell batterijen er in 2020 ingaan. De nieuwe roadster en cyber truck zijn niet haalbaar zonder die Maxwell batterijen. Ik vermoed dat de Model S plaid ook wel een met Maxwell batterijen zou kunnen zijn.
Dat vind ik zo'n verschrikkelijk slechte redenatie, Lidar kan niet zien dat het licht rood staat maar de camera ernaast wel, want een lidar systeem werkt niet uitsluitend op zich zelf.

Want denk je dat de PR afdeling van zulke bedrijven gaat zeggen als een ING. de statement schrijft: "We gaan geen lidar gebruiken uit kosten overweging" (PR herschrijft het naar: wegen zijn uitsluitend gemaakt met visuele hulpmiddelen)
Lidar is in veel opzichten duurder, het is een systeem waarbij meerdere sensoren moeten geplaatst worden die hoog op de auto staan. Dit maakt het model van de auto( grotere a/b/c pilaren), de subsystemen moeten vervangbaar zijn en snel in elkaar te zetten zijn etc etc etc. Ze doen het echt niet uit veiligheids- overweging.... maar puur uit kosten. Zeggen dat de wegen gebaseerd zijn op visuele hulpmiddelen en daarom een systeem ook daar op gebaseerd moet zijn is lekker makkelijk. Systemen voor het herkennen van borden zit al in veel (niet zelf rijdende) moderne auto's en is niet erg ingewikkeld (lukt jou waarschijnlijk ook met tensorflow of openAI, arduino en wat tijd)

Waar heb jij gereden met autopilot? binnenstad Amsterdam of snelweg, niemand twijfelt aan het gebruik van camera's systemen (tesla) op snelwegen, maar moeilijk verkeer (fietsers voetgangers etc) zijn nog erg moeilijk voor tesla's en optische systemen in het algemeen. Snelweg km's zijn eerlijk gezegd niet zo heel relevant in zelfstandig rijdende auto's.
[...]Daarvan 21.100 op de autopilot dus in een situatie waar ik uitsluitend controleer en geen acties doe (okay, richtingaanwijzer om de auto zelf te laten inhalen). Ik denk dat ik drie maal streng heb moeten ingrijpen omdat de auto het niet snapte.
Exact, en die 1 ingreep per 7000 km is het verschil tussen L3 en L5 autonomie.

Verder: Hoe vaak in die 23 000 km was uw camera precies kapot gegaan? Een 737 Max had vooralsnog 1 stall-sensor die weleens verkeerde waarden doorgaf, wat gebeurde er dan ook alweer? Ook slechts 1 ingreep per zoveel mijl heeft de 737 Max nodig. Heeft u training gehad, hoe u moet reageren op slechte sensor-data van de camera?

Sensor-Fusion is duur, maar heeft zeker ook een reden.

Ed: In de pers kit staat een specifiek scenario dat Bosch onderzocht heeft, waar radar en camera alleen (samen) niet goed werken: Een smalle motorfiets met veel plastic die hard op een kruising af komt rijden. Kennelijk detecteert alleen Lidar (samen met de andere twee!) die goed. Wie weet of u dat een keer wil testen (maar graag als er bij beiden geen personen in / opzitten)??

[Reactie gewijzigd door kidde op 23 juli 2024 17:33]

Dus meer km's betekent beter? Tesla's autopilot heeft een classificatie tussen 2 en 3 gekregen van de instanties in de VS, waymo werkt met lvl 4. (mogelijk dat hw 3.0 van tesla 4 aankan maar dat weten wij nog niet)
Aantal km's zeggen weinig zie b.v. aantal km zonder interventie (de benchmark voor zelfstandig rijden en dat is bij waymo aanzienlijk hoger)
"The progress of automated vehicles can be assessed by computing the average distance driven between "disengagements", when the automated system is switched off, typically by the intervention of a human driver."
Aantal kilmeters kan wel deglijk iets zeggen.
Het gaat uiteindelijk om de AI die iedereen voorzich zelf aan het bouwen is.

Dit doe je door ontzettend veel data te verzamelen en zoveel mogelijk aparte scenarios te analyseren. Hierdoor train je je AI mee om te weten wat er moet gedaan worden in elke situatie mogelijk.

Waymo is maar in een aantal steden actief waardoor je data enigszins beperkt is. Per maand rijd de tesla fleet 650x meer dan Waymo.

Dat Waymo een level 4 classificatie krijgt zegt mij vrij weining waarschijnlijk komt dit door dat ze Lidar hebben 8)7
Ik zeg niet dat meer km niet iets te zeggen heeft, maar meer km's zonder context hoeft niet beter te zijn, misschien zijn lvl 4 km's 1000x meer waard dan een level 1/2/3 in km's (aan data).
Veel van de data van tesla komt van lvl 1/2 en hardware versies 1/2, aangezien die voorlopig in de meerderheid zijn.
Ik heb letterlijk ge-copy-paste waar op beoordeeld word met betrekking op vooruitgang autonoom rijden.
The progress of automated vehicles can be assessed by computing the average distance driven between "disengagements" deze is dus hoger bij waymo. (aanzienlijk hoger en als dan gesteld is dat dat de benchmark is van vooruitgang, staat waymo dus ver voor tesla)

Level 4 classificatie 'krijgen' doe je niet door de hardware maar door aan de eisen te voldoen van lvl 4 rijden.
Level 4 ("mind off"): As level 3, but no driver attention is ever required for safety, e.g. the driver may safely go to sleep or leave the driver's seat. Self-driving is supported only in limited spatial areas (geofenced) or under special circumstances. Outside of these areas or circumstances, the vehicle must be able to safely abort the trip, e.g. park the car, if the driver does not retake control.

[Reactie gewijzigd door D0gtag op 23 juli 2024 17:33]

Oke, het gaat als volgt. Tesla en Waymo gebruiken neural netwerks om hun data te verwerken. Dit is een computer systeem die beelden verwerkt. Het systeem leert door zoveel mogelijk unieke situaties te uploaden en te verwerken. Tesla rijd 360x meer per maand dan Waymo over de hele wereld. Waymo rijd in specifieke gebieden waar ze “misschien” een beteren Ingreep ratio hebben maar ze rijden in een vast rondje.

kilometers = Data
Meer data = een beter systeem
Een beter systeem = een voorsprong

Het maakt niet uit als Waymo level 4 of 10.000 zijn op dit moment kunnen ze dit maar beperkt uitvoeren.

[Reactie gewijzigd door NikolaTesla op 23 juli 2024 17:33]

Oke, het gaat als volgt. Waymo heeft een taxi dienst zonder chauffeur. Dat is level 4, punt aan de lijn.
Nope, er is geen dienst er is nog steeds een chauffeur die om de zoveel tijd ingrijpt.

Het is een soort zelf rijdende botsauto in één van kaart gebrachten digitale kader.

https://twitter.com/nvidia/status/817418715285200897?s=21
De meeste machine learning systemen krnn asymptotische leercurves. Na een zekere tijd levert meer data nauwelijks nog verbetering op.
Het is géén lineair systeem dat braaf doorsukkelt naar 100%.
Of de asymptoot bij Tesla (of Waymo) bij level 2.4 of bij 4.95 ligt kan ik niet onderbouwen, maar het lijkt er op dat Tesla niet veel verder dan 3 gaat komen terwijl Waymo richting 4 zit.
Zoveel kilometers en basic dingen als (A)CC (phantom breaks anyone)en automatische ruitenwissers werken nog steeds niet correct }:O
AI en ML worden nogal overrated. De hype probeert ons wijs te maken dat zo ongeveer alles opgelost kan worden met machine learning. De wet van Moore is géén natuurwet.
Ik merk dat mijn camera's vaak niet beschikbaar zijn. Condens, sneeuw, tegenlicht, ... geven vaak een melding dat een aantal (semi-autonome) functies zijn uitgeschakeld. Een lidar is daar veel minder gevoelig voor, dus ik denk dat lidar zeker een goede uitbreiding kan zijn op camera's.
Lidar werkt nog steeds met "zichtbaar" licht. Mist, sneeuw, regen en andere auto's met dezelfde golflengte lidar kunnen als nog de sensordata beïnvloeden. Het apparaat stuurt een lichtpuls uit die terugkaatst op het moment dat er een niet-lichtdoorlatend object zich in het pad bevindt. Op basis van de tijd tussen versturen en ontvangen en de snelheid van de lichtpuls, kan de afstand bepaald worden. Met sneeuw, regen of mist kan het dus zijn dat er een hele hoop aan ruis binnenkomt omdat de posities van, en de afstanden tot die objecten zo willekeurig zijn dat een algoritme er waarschijnlijk zijn nek over breekt.

Verder heeft lidar nog een vervelend nadeel, hoe groter de afstand tot het object, hoe minder detail er binnenkomt over het object. Lidar straalt vanaf één punt omnidirectioneel wat betekent dat als de straal groter wordt, de meetpunten een grotere spreiding krijgen en de objecten dus in lagere "resolutie" gescand worden. Dit zorgt er dus voor dat lidar alleen effectief is op relatief korte afstand. Hoe kort deze afstand is hangt af van hoeveel pulsen er per graadhoek per seconde uitgestuurd worden en zal waarschijnlijk met en goedkopere module minder kunnen scannen dan een duurder model. Ook als het voertuig op hogere snelheid zich voortbeweegt dan zullen de meetpunten ook verder uit elkaar liggen.

Daarmee komt de volgende vraag, heb je die data nodig? Als de auto voor de korte afstanden ultrasone sensoren kan gebruiken, en daarmee een 360 graden detectieveld om de auto heeft, dan zal lidar alleen nog voor de middelgrote afstanden gebruikt kunnen worden. Het is inderdaad een goede backup voor de camera's (als ze uitvallen bijvoorbeeld) maar is het cruciaal om de auto daarmee duizenden Euro's duurder te maken? Want als de weersomstandigheden de camera's belemmert, dan zal lidar ook moeite ondervinden. Persoonlijk zou ik dan investeren in een systeem dat auto's met elkaar laat communiceren zodat er een gedeelde scan van de omgeving beschikbaar is (5G?).
Wikipedia is wat optimistischer over LIDAR

Lidar uses ultraviolet, visible, or near infrared light to image objects. It can target a wide range of materials, including non-metallic objects, rocks, rain, chemical compounds, aerosols, clouds and even single molecules.[4] A narrow laser beam can map physical features with very high resolutions; for example, an aircraft can map terrain at 30-centimetre (12 in) resolution or better.[15]
https://en.wikipedia.org/wiki/Lidar#General_description

het zal ook wel niet voor niets zijn dat LIDAR wordt gebruikt in gevechtsvliegtuigen.
Ik neem aan dat u hier refereert naar de resolutie/nauwkeurigheid? Aangezien LIDAR inderdaad heel nauwkeurig -kan- zijn, maar men spreekt hier over een goedkoop systeem dat klein genoeg moet zijn om verwerkt te worden in een auto. Er moeten dan concessies gedaan worden. Daar komt ook nog bij dat het enorm uit maakt hoe groot het te scannen gebied is. e.g. het is eenvoudiger om bijvoorbeeld een conus met een hoek van 45 graden te scannen (scanner onder het vliegtuig en de conus op de grond mikken) t.o.v. volledig 360 graden.

Nou weet ik niet wat de specificaties zijn van het genoemde Bosch model, maar er is een goede reden waarom LIDAR duur is en ook voornamelijk in de high-end sector gebruikt wordt (vlieg- en ruimtevaarttechniek).

Het 'non-metallic' deel van de quote is ook zorgelijk, aangezien alles dat licht kan reflecteren, dus voor LIDAR niet te detecteren is. Voertuigen hebben bijna altijd een reflecterende lak, ramen op gebouwen zijn dan ook een zorg en wat gebeurd er als het regent en er overal plassen liggen? Het voertuig moet kunnen vertrouwen op alle sensoren. Als sensoren elkaar tegen gaan spreken dan heeft het vrij weinig zin om een systeem te installeren wat wellicht meer false positives kan genereren dan dat het de overige sensoren assisteert.
Het 'non-metallic' deel van de quote is ook zorgelijk, aangezien alles dat licht kan reflecteren, dus voor LIDAR niet te detecteren is.
Het artikel zegt nota bene "It can target a wide range of materials, including non-metallic", en "can target" betekent echt wat anders dan "niet te detecteren". Ik denk dat je maar wat verzint.
Het ging mij met name om het feit dat ze specifiek waren over het 'non-metallic' deel en dus niet 'metallic' opnamen in het lijstje. Als ik een laser pointer, onder een hoek, op een spiegel mik, hoeveel van het licht zal dan daadwerkelijk terugkaatsen naar de laser pointer zelf? Het is en blijft licht en een reflecterend materiaal zal dus ervoor zorgen dat het licht waarschijnlijk niet juist terugkaatst naar de bron. Ik verzin niet zomaar iets, ik probeer duidelijk te maken dat LIDAR toch best wel wat kanttekeningen heeft als het gaat om goedkope inzetbaarheid bij massa geproduceerde voertuigen.
Als ik een laser pointer, onder een hoek, op een spiegel mik, hoeveel van het licht zal dan daadwerkelijk terugkaatsen naar de laser pointer zelf?
Lidar werk dmv backscatter, niet directe reflectie.
ik probeer duidelijk te maken dat LIDAR toch best wel wat kanttekeningen heeft als het gaat om goedkope inzetbaarheid bij massa geproduceerde voertuigen.
Vooralsnog allemaal kanttekeningen die geen hout snijden. Typisch geval van 'tweaker weet t beter dan ervaren bedrijf'.
Lidar werk dmv backscatter, niet directe reflectie.
Goed punt, dat was ik even vergeten. Maar het basisprincipe is wel dat er licht terug moet komen naar de bron, diffuus of direct.
Vooralsnog allemaal kanttekeningen die geen hout snijden. Typisch geval van 'tweaker weet t beter dan ervaren bedrijf'.
Wellicht niet volledig maar het valt niet te ontkennen dat er toch wel flinke hordes overwonnen dienen te worden voordat LIDAR effectief ingezet kan worden in deze use-case. Verder ben ik bang dat u mijn comments verkeerd interpreteert, ik weet het niet beter dan een ervaren bedrijf, ik wilde alleen de bewering van BugBoy ter discussie stellen.

Als Bosch het voor elkaar heeft gekregen om een goedkoop systeem te produceren wat snel en nauwkeurig genoeg is voor autonome voertuigen dan ben ik zeer onder de indruk! Maar we weten op dit moment gewoon nog niet of dit de heilige graal zal zijn. Google gebruikt high-end LIDAR technologie en is nog lang niet op level 5 autonomie, wat zou dat dan betekenen voor een massaproduct dat wellicht concessies heeft moeten ondergaan? Het is gewoon een feit dat high-end LIDAR technologie erg kostbaar is en, met de argumenten die ik in deze discussie gegeven heb, met gegronde redenen vermeden wordt door andere partijen die een autonoom voertuig willen produceren.
Lidar is daar misschien zelfs gevoeliger voor (kortere golflengte)
Anoniem: 1322 @BugBoy2 januari 2020 16:14
Dat is meestal enkel tijdelijk als je wegrijdt in dit specifieke weer. De meeste autopilot zaken werken dan nog wel prima maar enkel NoA wordt dan uitgeschakeld.
Of ze elkaar gaan storen is de vraag.
Neemt niet weg dat meer verschillende sensoren een beter totaalbeeld kunnen geven. Werkt 1 sensor niet optimaal heb je altijd nog anderen achter de hand.

Waar ik bijv ook naar zou kijken is thermisch infrarood als sensor toevoegen. Een hittebeeld geeft je ook info of dat wat je ziet een levend of niet levend object is. Voor thermisch infrarood is hetzelfde van toepassing als lidar, het is nu nog gewoon te duur.

Het Tesla pad is leuk maar waarom vasthouden aan iets terwijl de techniek van verschillende andere sensoren pas aan het begin staat.
Zou erg gaaf zijn als dit goedkoper wordt om te implementeren. Van wat ik begrijp (uit oa de antwoorden bij https://electronics.stack...car-is-equipped-with-them) lijkt de impact en kans op interference tussen LIDARs niet heel groot te zijn. Daardoor denk ik dat dat het perfect zou maken voor het voorkomen van botsingen bij slecht zicht (wanneer een camera sensor belemmerd wordt bijvoorbeeld door mist).

[Reactie gewijzigd door RoofTurkey op 23 juli 2024 17:33]

Van de site van Velodyne (huidige marktleider)
Current state-of-the-art LiDAR systems are largely based on sensors using one of two wavelengths: 905 nanometers (nm) and 1550 nm.
Vergeleken met het menselijk ook (Wikipedia):
A typical human eye will respond to wavelengths from about 380 to 740 nanometers.
Lidar gebruikt dus nog kortere golflengtes dan visueel licht, die sneller uitdempen door waterdamp. Bij mist heeft lidar dus een nog korter bereik dan onze eigen ogen of cameras.

De Radar die bijvoorbeeld Tesla gebruikt heeft een golflengte van 3.9 mm (Elon Musk), ongeveer 10000 keer langer dan visueel light en 30000 keer langer dan Lidar. Sonar (wat niet gebruikt maakt van radio golven maar ultrasound) heeft een golflengte van ongeveer 1 cm. Beide kunnen daarmee ook perfect door mist, regen en sneeuw heen objecten detecteren.

[Reactie gewijzigd door Balance op 23 juli 2024 17:33]

Eh. Langere golflengtes?...
(meer infra rood)...

Het zou ook interressant zijn hoe "gewone" camera's etc. omgaan met Lidar. De beeldsensor wil het nog al een begeven.
Het antwoord is niet. Über heeft dat first hand mogen ervaren bij de presentatie van hun nieuwe XC90’s. Een aantal journalisten klaagden daarna direct over kapotte camera sensoren (paarse strepen en defecte pixel clusters).
Even je getallen aanpassen
Golflengte van Lidar is langer dan van zichbaar licht en dan betekent dat de volgende statement ook niet klopt
> ongeveer 10000 keer langer dan visueel light en 30000 keer langer dan Lidar.

Het is ongeveer 4000 keer langer

[Reactie gewijzigd door amigob2 op 23 juli 2024 17:33]

Gebruikt de Model 3 niet exclusief camera's?

Elon Musk:
Anyone relying on lidar is doomed.
Bron

[Reactie gewijzigd door Sando op 23 juli 2024 17:33]

Lidar gebruikt dus nog kortere golflengtes dan visueel licht, die sneller uitdempen door waterdamp. Bij mist heeft lidar dus een nog korter bereik dan onze eigen ogen of cameras.
De Lidar die je noemt werkt juist met langere golflenges (1550 vs 740), en kan daarom beter door stof/mist e.d heen kijken.
Aangezien Lidar op basis van licht werkt, lijkt het mij wel dat die ook gehinderd zal worden door mist ea.
Aan de andere kant kunnen ze deze wel onderaan op een heli bevestigen, een gebied scannen en daarna alle begroeiing verwijderen zodat ze enkel het terrein zien.

Ik vraag me eerder af hoe nauwkeuring lidar is, maar dan eerder voor een totaal andere toepassing.
Grootste probleem van mist is volgens mij dat het licht alle kanten op verstrooit. Het is dan ook niet donker in de mist, alleen redelijk egaal grijs.
Maar zo'n laser zal er deels toch wel doorheen kunnen schijnen, hij zal alleen met iets minder intensiteit terug komen. Zolang de mist niet zo dicht wordt dat het terugkaatsende signaal echt te zwak wordt om te detecteren zal het weinig uitmaken.

Ik weet niet exact hoe zo'n lidar werkt, maar ik kan me voorstellen dat je als de exacte licht frequentie niet al genoeg is om het signaal als van jou te identificeren, je ook nog bv de laser op een bepaalde hoogfrequente manier kunt laten pulseren zodat het zeker te onderscheiden is van ander licht (een id code inbouwen als het ware). Dan kun je dus prima het terugkerende signaal onderscheiden van door de mist verstrooide licht (en van andere lidars) en door de mist heen kijken.
Lidar en Radar werken met bepaalde puls treintjes, zolang die herkenbaar zijn is er iets mee te doen.
Als er onvoldoende herkenbaar signaal terug komt is er geen bepaling meer mogelijk.

[Reactie gewijzigd door tweaknico op 23 juli 2024 17:33]

The LiDAR system can readily detect objects located in the range of 30 meters to 200 meters. But, when it comes to identifying objects in the vicinity, the system is a big letdown. It works well in all light conditions, but the performance starts to dwindle in the snow, fog, rain, and dusty weather conditions.
Lidar gaat botsingen bij slecht zicht dus niet oplossen...
Nee, maar daar heb je dan weer radar voor. Zoals ook in het artikel staat moet je lidar zien als derde sensor, naast camera's en radar. Samen vormen ze een totaaloplossing, individueel heeft elke oplossing echter zijn voor- en nadelen.
Tuurlijk wel een auto pilot is veel verstandiger dan een chauffeur en die gaat dus langzamer rijden als het zicht slechter wordt, waar door het weer wel werkt.
Lidar kijkt niet door regen! Door mist of rook kijken kan eigenlijk enkel met een RADAR. = Geluidsgolven. LIDAR = Laser licht en dat weerkaatst op regen of druppels waardoor je de mist in kaart brengt ipv objecten. Al hangt alles af van de hoeveelheid regen in mm/h.
Radar = geluidsgolven, waar haalt u dat vandaan? RA = radio ( Detection And Ranging)
Ik had perongeluk sonar/radar verwisselt.
Dus voor de duidelijkheid:

Sonar: hoogfrequente geluidsgolven
Radar: radiogolf (Continuous-wave radar in dit geval)
Lidar: laser stralen/licht.

Alle bovenstaande systemen meten de reflectie op objecten van het signaal dat ze zelf uitsturen, de ‘echo‘ dus. En ze meten het tijdsverschil tussen verzenden en ontvangen om de afstand te bepalen.

Radar wordt nu al op elke moderne auto toegepast bij de adaptieve cruise controle. Dat systeem kan de auto voor u volgen en zelfstandig remmen/gasgeven.

Ook sonar wordt ook al toegepast in parkeerhulp systemen. (Ultrasoon).

[Reactie gewijzigd door Coolstart op 23 juli 2024 17:33]

en dat weerkaatst op regen of druppels waardoor je de mist in kaart brengt ipv objecten. Al hangt alles af van de hoeveelheid regen in mm/h.
En dat doet RADAR ook.
Het is niet voor niets dat de KNMI een regenradar heeft...
Daarnaast, de adaptieve cruise control van mijn auto schakelt zichzelf uit bij te veel regen.
(Dit heb ik ook eenmaal daadwerkelijk meegemaakt).
Ik snap niet waarom men overtuigd is dat LIDAR noodzakelijk is voor zelfrijdende auto's terwijl wij mensen het al een eeuw doen met 2 beweegbare camera's (onze ogen) en 2 of 3 spiegels.

LIDAR is supercool maar op het moment kan het geen toegevoegde waarde bieden tov een auto met een camera opstelling die hetzelfde kan zien als een menselijke bestuurder. Nu alleen nog de software en rekenkracht fixen.
Ik snap niet waarom men overtuigd is dat LIDAR noodzakelijk is voor zelfrijdende auto's terwijl wij mensen het al een eeuw doen met 2 beweegbare camera's (onze ogen) en 2 of 3 spiegels.
Een Lidar in een wagen kijkt 100% naar de omgeving. De ogen van een mens zijn wel eens op die mooie blonde gericht oa nutteloze objecten.

Komt er nog bij dat een lidar geen licht behoeft ..(en ook geen bril )

[Reactie gewijzigd door OxWax op 23 juli 2024 17:33]

En ondanks de afleidingen doen we het harstikke goed. Om hetzelfde niveau als een goede bestuurder te bereiken die niet afgeleid wordt door een blondine, ben je het dus eens dat een cameraopstelling voldoende is :)
"hartstikke goed" = Vage definitie en gezien het aantal verkeersdoden beetje rare stelling...
Het enorm lage aantal verkeersdoden bedoel je? Volgens mij al 10-15 jaar stabiel/dalende op 1 jaar na (2017 of 2018 dacht ik) en behorende tot de laagste van de wereld? Nogmaals, koppel dat eens aan de oorzaken. Dat ligt niet aan onze ogen.

[Reactie gewijzigd door Jazco2nd op 23 juli 2024 17:33]

Neen, het ligt aan het ding waar de ogen inzitten en de CPU van dat 'ding'.

oh en "In 2018 vielen er 678 doden in het verkeer in Nederland; dit is het hoogste aantal sinds 2010."

[Reactie gewijzigd door OxWax op 23 juli 2024 17:16]

Vergeet niet hoe slecht wij mensen het doen; en hoe geavanceerd onze neurale netwerken zijn.
De cijfers zeggen toch echt wat anders. We doen het harstikke goed juist. Hoeveel ongelukken zijn veroorzaakt afgelopen jaar doordat we slecht zicht hadden? Iets over het hoofd zagen? Zeer, zeer weinig. Ongelukken worden vnl veroorzaakt door afleiding (mobiele telefoon) of onverwacht gedrag van een idioot.
Maar kunstmatige neurale netwerken zijn nog maar een schim van de onze en er is geen bewijs dat ze ooit gelijkwaardig zullen worden (en ook geen bewijs dat dat niet zo zal zijn).
Het gebruik van een lidar is vrij eenvoudig. Een lidar kan de afstand van alle objecten in zijn omgeving gewoon exact meten.
Wij kunnen met beelden prima inschatten hoe ver iets bij je vandaan is, daarbij herkennen we ook objecten en weten wij van nature hoe groot deze zijn. Maar dit is super ingewikkeld in software te doen. waar vaak ook een flinke dosis ai voor wordt gebruikt. En de kans op "meet" fouten is aanzienlijk groter dan de afstand gewoonweg exact meten.
Voordeel van de software oplossing is, dat de hardware vrij goedkoop is.
Alle objecten die voldoende van het laserlicht reflecteren...
Hoe herkent een tesla auto of hij naar de reflecties van zijn radar aan het kijken is ?
Hoe ik het zie
Lidar heeft een redelijk korte golflengte waar je dus makkelijk nog identificatie data in kwijt kunt
Radar daar en tegen heeft een golflengte waar je bijna geen data in kwijt kunt, anders wordt de sampling frequentie te lang.
Auto’s gebruiken Continuous-wave radar systemen op 70Ghz(!) indentificatie lijkt geen probleem. Het probleem is eerder de reflecties van eigen signaal van bijvoorbeed een reflectie op de baan maar dat hebben ze met algoritmes opgelost.

[Reactie gewijzigd door Coolstart op 23 juli 2024 11:12]

Anoniem: 951889 2 januari 2020 12:40
Goed geimplementeerde computer vision is toch vele malen beter dan lidar? Je hoeft helemaal niet op de millimeter nauwkeurig te weten waar alles zich bevind, en je hebt sowieso al camera's nodig voor de stoplichten, wegmarkeringen en verkeersborden. Dan heb je ook nog het probleem dat als er veel lidars rondrijden er allerlei lichtgevoelige systemen van slag raken, bijvoorbeeld bewegingsdetectors, infraroodcamera's, groenlichtsensors voor bussen en hulpdiensten, en menselijke ogen als iemand dom genoeg is om precies op ooghoogte vlak naast zo'n ding te gaan staan.

Lidars hebben bewegende delen, dus het gaat makkelijker stuk en is eerder versleten.

Je zou het kunnen gebruiken als sanity check of de interpretatie van de camerabeelden inderdaad correct is, maar daar kan je veel beter radar voor gebruiken omdat je de resolutie van lidar daar niet voor nodig hebt en radar in tegenstelling tot lidar door mist en ongevaarlijke dingen (rondvliegend papier en plastic zakjes) heen kan kijken.

Het enige voordeel is dat je geen ingewikkelde machine learning software hoeft te gebruiken om de data te interpreteren, maar daar ontkom je uiteindelijk toch niet aan omdat de echte wereld te onvoorspelbaar is om op de ouderwetse manier voor te programmeren.
De techniek zal waarschijnlijk mede door toepassing van MEMS technologie flink in prijs gereduceerd kunnen worden. Infineon heeft daarvoor een tijdje geleden Innoluce gekocht, wat weer een start-up was, voortgekomen uit Philips. Meer info over MEMS Lidar:
https://www.infineon.com/...ge-sensors/lidar-sensors/
Dat wordt nog een "leuke" ontwikkeling voor foto en video -grafen. Er zijn diverse reports dat een lidar de camerasensor van een fotocamera hebben gesloopt door de laser. Nu is het nog zeldzaam als een lidar over de weg gaat. Maar moet je eens voorstellen dat met de tijd bijna alle auto's zijn uitgerust met een lidar. Dan wordt het lastig buiten te filmen zonder dat er een auto in beeld is.
https://arstechnica.com/c...-wrecked-his-1998-camera/
Vage 'analisten' zeg. 'Pas bij 180 euro commercieel op de grote markt'. Is dat gewoon een berekening in de trend van 'autonomie mag x kosten (uit marktonderzoek) gedeeld door y aantal sensoren - z overhead per sensor, maakt 180 per stuk'? Of zit er iets serieus achter die uitspraak? Ben wel benieuwd.

Overigens wtf 9k? Bedoelen ze heel specifieke Lidar sensoren met bepaalde high end specs?

Reuters:
Initially using bulky spinning devices placed on the roof of cars, lidar developers have transitioned to more compact solid-state devices that can be mounted on other parts of a car, such as near the headlights. These now sell for less than $10,000 in limited quantities, but analysts say they must sell for as little as $200 in mass production to become commercially viable.

Ps. Autonoom voertuig: Follow Da Lidar Lidar Lidar 8)7

[Reactie gewijzigd door TWeaKLeGeND op 23 juli 2024 17:33]

Waarom kosten de lidar op de robotstofzuigers geen 9k dan?
Ik vermoed een kwaliteitsverschil. Bijvoorbeeld Ford gebruikte op de vorige generatie Focus ook al een lidar voor obstakeldetectie vóór de auto bij lage snelheden. Die modules vind je op eBay voor 80 euro.
De lidars voor volledig autonoom moeten echter overal om de auto kunnen kijken en blijven werken op hoge snelheden. Dan nog klinkt 9000 dollar als een overdreven bedrag.
Een Intel L515 is ook geen 9k. Misschien verschil tussen indoor of outdoor gebruik. Maar alsnog groot prijsverschil.

https://store.intelrealse...se-lidar-camera-l515.html

[Reactie gewijzigd door 12345j op 23 juli 2024 17:33]

"Maximum Range Approx. 9 meters at VGA resolution, with a maximum Z‑error of 15.5 mm at that distance"
Oké, dat verklaard het verschil...

Op dit item kan niet meer gereageerd worden.