Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Mercedes gaat Luminars lidar-systemen gebruiken in auto's

Luminar gaat lidar-systemen leveren aan Mercedes, die Mercedes waarschijnlijk in onder meer de EQS en de S-Klasse wil gebruiken om level 3-autonoom rijden aan te bieden. De autofabrikant gaat Luminar weer van data voorzien, dat het bedrijf moet helpen met de ontwikkeling van lidar.

De twee bedrijven noemen geen financiële details en zeggen ook niet in welke auto's de lidar-systemen moeten verschijnen, naast dat de systemen voor massaproductie en passagiersauto's bedoeld zijn. Vermoedelijk gaat het om de EQS en de S-Klasse. Mercedes kondigde eind vorig jaar aan goedkeuring te hebben gekregen van het Duitse equivalent van de RDW om met deze auto's op level 3 autonoom te mogen rijden. Deze goedkeuring geldt onder meer in de gehele EU, maar mag in de praktijk alleen op de Duitse snelweg worden gebruikt als er maximaal 60km/u wordt gereden.

Dit autonoom rijden is onderdeel van Mercedes' Drive Pilot-pakket. Auto's met dit pakket hebben in de voorbumper een lidar-sensor zitten, die de omgeving voor de auto in kaart brengt om autonoom rijden mogelijk te maken. Waarschijnlijk gaat Luminar deze sensor leveren. Eind dit jaar moeten de twee Mercedes-modellen te koop zijn met Drive Pilot. Als onderdeel van de overeenkomst krijgt Luminar data van Drive Pilot-auto's, zodat Luminar zijn lidar-systemen kan verbeteren en van updates kan voorzien.

Luminar werkt naast Mercedes ook met Volvo, Audi, Nvidia en Intel samen voor passagierauto's, en met Daimler voor het ontwikkelen van autonome vrachtwagens. Autofabrikanten gebruiken niet alleen lidar voor het autonoom rijden, maar combineren deze data met bijvoorbeeld camera's, radar en ultrasone sensoren. Niet alle autofabrikanten zijn overtuigd van de noodzaak van lidar; Tesla denkt dat het ook met alleen camera's kan.

Lidar in een Mercedes S-Klasse

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Hayte Hugo

Redacteur

21-01-2022 • 16:33

158 Linkedin

Reacties (158)

Wijzig sortering
Tesla denkt dat het ook met alleen camera's kan. Daar ben ik het als chauffeur wel mee eens: Ik doe het immers ook alleen maar met wat ik zie. Als ik op mijn gevoel af moet gaan, dan is het te ver.
Die opmerking van Tesla vind in altijd wat lachwekkend. Vliegtuigen zitten bomvol electronica en sensoren, moet dat er allemaal weer uit? Want de gebroeders Wright hadden dat ook niet en vlogen puur op zicht. GPS ook maar weg doen? We navigeerden duizenden jaren op basis van de stand van de zon en sterren.

[Reactie gewijzigd door Moortn op 21 januari 2022 18:23]

Sorry dat zijn echt lachwekkende argumenten van aan de toog.

1. Lidar is in alle opzichten slechter dan vision. Duurder, werkt minder goed in mist, regen en kan geen gezichten, objecten, lijnen of verkeersborden herkennen.

Hoe ga je met lidar herkennen of het een zak is of een betonblok? Gaat simpelweg niet. Daarom enkel level 3.

2.De enige reden waarom lidar bestaat is omdat het 20jaar terug redelijk makkelijk een 3D beeld kon genereren van de omgeving. Met vision kan dat ook maar is veel complexer en heb je ML nodig. Veel bedrijven hebben die boot gemist of lopen nog wat achter.

3.Lidar is een passage zoals de diskette een passage was. De tech is met vele miljarden ontwikkeld en voor level 3 kan het effectief helpen. Mercedes heeft ook niet veel keuze.

4. Heel ons openbaar domein is ontwikkeld rond vision. Wegenwerken, politiesignalen, fietsers die hun arm uitsteken. Rara welke sensor hier het beste werkt.

5. Het passieve Vision spectrum kan breder zijn dan het menselijke oog. Nachtzicht of near infrared zijn mogelijk.

[Reactie gewijzigd door Coolstart op 22 januari 2022 11:41]

Het is en en hè. Niet alleen lidar of alleen camera's. Het is een combinatie van.
Dat maakt het alleen complexer, niet beter. Zie het voorbeeld van de fietser die zijn hand opsteekt.

Een camera kan de intentie zien, een LiDAR systeem niet. Ga je dan de LiDAR overrulen? Wie is de baas?

Tevens zijn ze ondertussen zo ver dat volledige 3D point clouds gebouwd kunnen worden uit camera beelden. Je kunt dus al LiDAR nabootsen met enkel camera’s. Dus waarom dan nog extra complexiteit?
Deze Mercedes heeft zelfs 3 systemen die potentieel ruzie kunnen krijgen...namelijk:
- Camera's
- Lidar
- Diverse Radars

We weten van Tesla dat je met radar en camera's al een goed resultaat kunt krijgen. Alleen hebben zij toch veel issues gezien wanneer radar en de camera's het oneens zijn met elkaar.

Ik denk dat alleen camera's prima kan werken. Alleen wordt het lastiger als 1 of meerdere niet bruikbaar zijn tijdens het rijden door neerslag en lichtinval (zon). Het is een mooie tech race...hoe meer ontwikkeling, hoe sneller het gaat.
Om diepte en grote te kunnen inschatten heb je Lidar nodig. Dus het is een samenwerking tussen de systemen. En niet wie overruled wie.
Want het lukt jou niet om met jouw ogen diepte en omvang in te schatten?
Bij 2 samenwerkende systemen zal het altijd zijn dat in situatie X het ene systeem overruled wordt, in situatie y het andere.
Bij 2 samenwerkende systemen zal het altijd zijn dat in situatie X het ene systeem overruled wordt, in situatie y het andere.
Hoezo? Je zou in theorie toch de diepte-informatie van de lidar kunnen combineren met een 2D camerabeeld om te kunnen helpen met interpreteren van dat camerabeeld? Hoe nodig/nuttig dat is weet ik niet.

@mikee368: Interessant, en indrukwekkend. Dank voor de youtube-link.

[Reactie gewijzigd door ChillinR op 24 januari 2022 10:16]

Dus je hebt 2 bronnen die je samenvoegt. En het systeem tracht dat te interpreteren. Dus er ligt een plastic zak op de weg. De Lidar zegt, let op, gevaar, er ligt een object op de weg met een formaat dat gevaarlijk kan zijn. De camerabeelden zeggen het is een plastic zak. Dus geen probleem. Dan moet je dus voor alle situaties bepalen welke bron leidend is.
Indien de lidar informatie duidelijk aanvullende informatie zou bieden, boven wat huidige camera's kunnen, zou je dat nog wel kunnen uitwerken. Maar wanneer de voordelen van Lidar maar beperkt waarde toevoegen, maakt het de interpretatie veelal lastiger dan eenvoudiger.
Indien de lidar informatie duidelijk aanvullende informatie zou bieden, boven wat huidige camera's kunnen, zou je dat nog wel kunnen uitwerken. Maar wanneer de voordelen van Lidar maar beperkt waarde toevoegen, maakt het de interpretatie veelal lastiger dan eenvoudiger.
Dit was ongeveer mijn punt inderdaad. Zolang het informatie is over een andere 'as' van je informatiemodel, waar de andere sensor niet over beschikt, dan heeft het meerwaarde zonder conflicten. Als alle informatie uit je lidar ook al uit je camera's gehaald kan worden, dan zit je op dezelfde assen te werken en heb je inderaad alleen maar conflicten.
En wat als die plastic zak gevuld is met beton en even daarvoor van een slecht geladen aanhanger is gekukkeld.
Die camera ziet een plastic zak, ragt erover en kabam auto totalloss en alle inzittenden dood.

Wat je ook op de weg ziet, een auto mag nooit de keuze maken er maar overheen te rijden.
Ook een mens moet niet zomaar over "iets" op de weg heenrijden.

Als mens kun je wel inschatten of een zak leeg is of niet, ik twijfel of een computer dit wel kan.
Een plastic zak die leg is en opvliegt door diverse verkeer zal visueel voor camera's anders geinterpreteerd kunnen worden dan een zware, dikke gevulde zak. Belangrijkste daarbij is zeker dat een systeem op dat moment de juiste keuzes maakt. Wat zie ik, wat zijn de risico's, kan ik uitwijken, kan ik remmen etc.

Want als er alleen maar een stuk plastic op de weg ligt en het lidar systeem ziet dat als een groot gevaar, wijkt uit, raakt de daarnaast rijdende auto, nog 2 achterliggende auto's raggen daar met volle snelheid bovenop en kabam 4 auto's totalloss en alle inzittende dood, nog 3 auto's beschadigd, bestuurders met lichte klachten.....

We kunnen het allemaal makkelijk beschrijven hier. we zullen zien welke technologie het beste zal blijken. Daarbij mikken verschillende partijen en mensen op verschillende oplossingen.
Ik ben totaal niet overtuigt of lidar of een camera systeem uberhaubt de "juiste" keuze kan maken.
De auto moet van de worst case uitgaan. Dus dat voorwerp op de weg moet altijd ontweken worden. Je kunt niet "gokken" dat het wel een zak vol beton is.
Die auto is ook bewust van de omgeving en "weet" natuurlijk al lang of er iets naast rijdt en welke kant uitwijken de meest "veilige" optie is.

Als straks zelfstandig rijdende auto's
de normaal wordt zullen deze auto's een 5G verbinding hebben kunnen ze ook razendsnel onderling data uitwisselen.
Oftewel de auto die een object ziet schreeuwt dat rond en alle auto's op weg naar het object kunnen meedoen in het uitwijken.
Ze remmen allemaal tegelijk af of versnellen juist zodat er ruimte ontstaat om het object te omzeilen.
Vervolgens wordt ook direct een melding naar de wegbeheerder gestuurd zodat de betreffende rijstrook ter hoogte van het object kan worden veiliggesteld en onderzocht.
Hoe nodig/nuttig dat is weet ik niet.
Niet, ze kunnen al prima diepte en snelheid bepalen met 2D camera beelden door middel van bv 2 camera's te gebruiken en doormiddel van verschillende frames kunnen bekijken van een enkele camera, tijd tussen de frames weten, eigen snelheid weten en nog wat zaken.

Zo kunnen ze bv al accurater de afstand bepalen tot iets dan dat Tesla voorheen kon met Radar. Dat houdt dus in dat ze vooral geen drop hebben in het signaal die de diepte bepaald.
https://youtu.be/NSDTZQdo6H8

Hier wordt er meer over besproken.
Het ene systeem wordt niet overruled, maar de beide inputs worden gecombineerd uitgelezen.
Als u niet ziet dat de pan heet is, maar het wel voelt, dan worden uw ogen niet overruled, maar maken uw hersenen er van dat de pan toch heet is.
Dus toch wel wordt het visuele overruled door de hersenen. Indien dat niet zou zijn, zouden de hersenen niet weten wat te doen, waarbij het erg goed is te realiseren, dat jouw hersenen hebben geleerd dat dit zo is.
Bij kinderen functioneert dat nog niet goed, dus kinderen zien niet dat iets heel heet is, de sensoren in de hand voelen wel dat het warm is, maar nog niet goed dat het heet zou kunnen zijn en hebben nog niet geleerd daarop te anticiperen en het visuele signaal te overrulen, dus de handjes pakken pakken alsnog de te hete theekop vast en verbranden zich lelijk.

En in jouw voorbeeld zijn het nog geen tegenstrijdige berichten die vanuit sensoren komen. Jouw voorbeeld geeft een situatie waarbij de hersenen hebben geleerd dat de ogen niet de ideale sensoren zijn voor het detecteren van hitte, dus automatisch worden andere sensoren geprioriteerd.
Nee, hoor. Zoals @prammers zie je zelf ook diepte. Zie hier hoe Tesla dat doet:
https://cleantechnica.com...esla-neural-network-data/

Bij 2 samenwerkende systemen zal het altijd zijn dat in situatie X het ene systeem overruled wordt, in situatie y het andere.
Dat klopt helemaal. Onze ogen doen dat ook als we knipperen en we zien uiteraard niet 2x de 'overlappende' beelden van onze ogen.
6. Als er meerdere leveranciers verschillende Lidar systemen deployen op auto's, is de kans dat ze elkaar gaan storen zeer groot!
4. Heel ons openbaar domein is ontwikkeld rond vision. Wegenwerken, politiesignalen, fietsers die hun arm uitsteken. Rara welke sensor hier het beste werkt.
Kijk, dat is het perfecte argument waarom alleen vision niet tot veilig autonoom rijden kan lijden: Bijna alle ongelukken komen dus ook door het falen van 'Vision'. Stel u rijdt op een donkere verlaten Duitse snelweg en het vriest (geen IR), u rijdt 59km/u en alle verlichting van uw auto valt uit.

Hartstikke leuk dat mensen dan ongelukken krijgen, de Tesla maakt een noodstop en parkeert op goed geluk; want daar is het geavanceerdste visie systeem ooit gemaakt slechts hulp voor de mens (ADAS L2), de auto rijdt niet autonoom.

Maar voor autonomie moeten er backup systemen zijn, zonder backup systeem is er geen L3. De Mercedes heeft een kaart aan boord van de snelweg, LIDAR wordt samen met gyro / inertie-sensoren gebruikt om middels SLAM 'in het blind' door te kunnen rijden.

Maw; Tesla biedt de meest geavanceerde, voor de bestuurder nuttigste en voor Tesla meest winstgevende L2 ADAS aan, daar is iedereen het over eens denk ik. Tesla moet immers winst maken op hun ADAS systeem, en de sensoren zijn bij alle modellen gelijk want anders moeten ze heel hun AI model overnieuw bouwen. Dus liever 1 duur AI-model met 3 triljard variabelen van een dure supercomputer en dat 3 miljoen keer verkopen met auto's met goedkope sensoren.

Mercedes biedt een veel minder geavanceerde ADAS L2 aan, maar meer 'backup systemen'. Dat is de voorbereiding naar fail-over, dus autonomie; en kennelijk nodig om bij L3 te komen, op dezelfde manier dat een vliegveld grondradar heeft om een back-up te hebben als de mensen in de verkeerstoren niets meer zien. Want als uw vliegtuig een landingsbaan moet oversteken in dichte mist waar de wegmarkering ook nog eens niet klopt (Linate 2001), interesseert het u geen bal hoeveel dat vliegveld voorop loopt met AI en ML 100% gebaseerd op vision.

En hoe komt het dat Mercedes dure sensoren kan kiezen: Zelfrijdende auto's zijn niet hun melkkoe en hoeven niet winstgevend te zijn. En ook niet de allerbeste ADAS; want dat is niet hun gimmick om bekend te worden of reden dat mensen hun merk kiezen. Ze calculeren in dat slechts 1% of zo van de kopers die optie gaat kiezen. Dus die sensoren mogen peperduur zijn en de L2 beperkt; het is niet dat hun winst er vanaf hangt zoals bij Tesla. Zelfde verhaal voor Waymo.

[Reactie gewijzigd door kidde op 23 januari 2022 00:39]

Sorry maar dat is onzin - als je verlichting uitvalt dan parkeert je Mercedes ook want je mag niet rijden zonder verlichting. Heel simpel. En als er een regenbui bij komt werkt die LiDAR niet meer - terwijl infrarood gewoon werkt als het vriest, dat is geen probleem.

Daarbij rijd elke fabrikant met sensor fusion - niet vertrouwen op 1 enkele sensor. En dat breng de discussie terug naar tesla die dus problemen heeft gehad met sensoren die conflicterende informatie geven waar door ze geconcludeerd hebben dat alleen camera’s beter is. Daar ze de meeste ervaring hebben denk ik dat de kans groot is dat andere fabrikanten dit ook wel gaan uitvinden.

LiDAR gebruik je als je de kennis en rekenkracht niet hebt om het met camera’s te doen.
LiDAR gebruik je als je de kennis en rekenkracht niet hebt om het met camera’s te doen
Lachwekkend partijdig standpunt, de redenatie " Lidar gebruikt je niet als je de kennis en rekenkracht niet hebt om het met sensor fusion te doen" is net zo goed waar.

Recent hebben twee Tesla's op het misleidend genaamde autopilot door rood gereden en meerdere mensen gedood. Om die reden werkt de rest van de industrie aan het gebruik van Lidar, Haas en V2X, behalve Tesla. Die kan nog geeneens hulpdiensten bellen bij een ongeval buiten de EU als ik het goed heb begrepen.

Daar de rest van de Industrie de meeste ervaring heeft met aansprakelijkheid denk ik dat de kans groot is dat Tesla ook gaat uitvinden dat bezuinigingen op veiligheid geen goed standpunt is.

Aansprakelijkheid werkt met 'state of the art', zodra anderen die systemen wel aanbieden heeft Tesla in de rechtbank een probleem. Tot nu toe waren ze eenoog, ze waren 'state of the art'.
Nuttige post! Bijna helemaal mee eens!

Sidenote:
Ik vind overigens niet dat Teslas systeem het meest nuttig is. Het best werkend standalone(zonder input van user) wel, maar is dat echt wat je wilt van een l2 adas? Voor mij werken dehuidige systemen van een audi a8 of bmw x5 veel beter.

Duidelijke winnaar was voor mij de adas van de kona, die is niet getuned op zelfstandig rijden, maar op user integratie. Het systeem werkt als een soort 6de sense en is heel prettig en verlichtend om mee te rijden.
Oef, de Kona vond ik echt zeer problematisch, 90% van de tijd dat ik er een paar dagen mee reed kon ik geen adaptive CC aan zetten omdat de belijning niet goed genoeg was. Terwijl dit toch echt wel duidelijk normaal te zien was. Bij de proefritten die ik met Tesla's heb gehad konden de systemen zelfs ADAS rijden zonder belijning en alleen op de polder weg.
Klinkt als een slecht gecalibreerd systeem, had ik in het begin op mijn audi ook. Ooit ermee terug geweest naar de dealer?

Film maken van de issues en ze kunnen het in 99% van de gevallen perfect verhelpen.
? De lichtbron van lidar laser kan toch ook falen? Lidar is complexer van aard en heeft een backup nodig. Dat is de reden waarom lidar voertuigen zoveel spreken over fail over. Ze bewegen meestal en regen, sneeuw en mist zijn show stoppers. Een vision sensor is passief (!) klein, weinig onderdelen en faalt amper.

Elke auto-gps heeft die wiel/stuur calculator om bijvoorbeeld in een tunnel te weten hoe ver je bent. Zit zelfs in een iphone aan de hand van een stappenteller. Ook Tesla heeft dat. Ik vermoed dat elke speler wel zo zijn failover heeft.

Dat is trouwens geen backup voor autonoom rijden, je kan hoogstens even lane assist nabootsen en afremmen op autopilot of parkeren.

Failover maken nooit deel uit van het primaire autopilot systeem. Dat staat los van elkaar. Sensor fusion is tevens iets dat niemand echt wil, nog meer kans op falen.

Als nvidia of weet ik wie die van sensor wil veranderen hebben ze toch het zelfde probleem als Tesla? Ik begrijp dat vergelijk niet.

Je moet appelen met appelen vergelijken. Een vliegtuig is iets anders dan een auto. Dus die vergelijking gaat niet op. Landen kan al decenia automatisch met radar en en radiosignalen van de langdingsbaan.

This eenvoudig: Mercedes kiest gewoon wat er op de markt voor handen is en zal dat implementeren. Doen ze al jaren zo. Jij lapt er wat merkbeleving bij. Mij maak je niet wijs dat ze geen winst willen maken of het enkel in de S-klasse willen steken of niet willen concurreren met Telsa. Maak het niet gekker.

Ik zie echt niet in hoe lidar ooit level 3-4 kan ondersteunen. Je mist alle vitale data. Lidar leek heel erg leuk 10-20 jaar geleden. Ze hadden mijlen voorspong op vision, je had minder computerkracht nodig en je had in no time een 3D map.


Nu heeft het geen echte toekomst meer als primaire sensor. Na 10-15jaar is lidar uitgefaseerd. Uiteindelijk wil je simpelweg gewoon zien wat er voor u gebeurd en dat komt gratis tot bij u door electromagnetische straling. De enige uitdaging was 3D mapping, maar dan kan ondertussen ook met vision.

Waymo is al 70% van zijn waarde kwijt net omdat de technologie moeilijk schaalbaar is en Lidar beperkingen heeft zonder vision. Ben er zeker van dat ook Waymo ooit gaat overschakelen op vision als ze nog verder gaan.

Sensor fusion voor de komende decenia ook een dood einde. Wat schiet er over? Wat mij betreft Vision (visueel,dag/nacht) met een camera sensor als fail over. Ik zie echt geen nut nut om nog actieve systemen zoals radar of lidar in te bouwen.

[Reactie gewijzigd door Coolstart op 24 januari 2022 19:40]

Nou, ik denk dat we gehele R&D van Mercedes de prullenbak in kunnen gooien na het lezen van je punten? Want al die R&D en productie mensen bij alle bedrijven die wel lidar willen gebruiken zullen het wel verkeerd hebben omdat oppergod Musk zegt dat hij het alleen met cameras kan doen.. of zou het iets met geld/data te maken hebben die Musk niet aan Luminar wil geven?
SpaceX heeft zijn eigen Lidar ontwikkeld om met het ISS aan te meren. Dit project is geleid door Musk....

Dus als u denkt dat Tesla geen toegang heeft on Lidar te gebruiken en Musk geen idee heeft wat Lidar kan... lol oke zal wel haha.

Het feit dat een Tesla op FSD beta het beter doet dan een Waymo terwijl die Waymo zogenaamd geweldig zou moeten zijn want lidar en alles...

https://youtu.be/sibfRCgMiFE

8 min for de Wayno waar de Tesla er 5 mij over doet...
SpaceX heeft zijn eigen Lidar ontwikkeld om met het ISS aan te meren. Dit project is geleid door Musk....
Het feit dat ze lidar hebben betekent niet dat deze ook voor de auto gebruik bedoeld is...?
Het feit dat een Tesla op FSD beta het beter doet dan een Waymo terwijl die Waymo zogenaamd geweldig zou moeten zijn want lidar en alles...
Hier is een betere vergelijking: https://youtu.be/1BsWFzgUBQY?t=340 - Tesla die snelweg opkomt en niet kan invoegen.. :| Waymo die wel een ongeluk herkent en om de politieauto heen rijdt 8)7

Of deze: https://www.youtube.com/watch?v=4hAomhCJ_Qw&t=147 - Tesla FSD beta, letterlijk 5 meter nadat ie wegrijdt moet die gast al het stuur overnemen

En als je toch de vergelijking doet met Waymo en Tesla, in welke van de twee zit er geen bestuurder achter het stuur? Exactly. O-)
Het feit dat ze lidar hebben betekent niet dat deze ook voor de auto gebruik bedoeld is...?
Niemand die zegt dat dit het geval is. Het gaat er om dat ze de kennis hebben om een Lidar te produceren. Net zoals SpaceX al met meerdere onderdelen heeft gedaan voor bv de Model 3.
Waymo die wel een ongeluk herkent en om de politieauto heen rijdt 8)7
Iets wat de Waymo wel al zou moeten kunnen inderdaad en een Tesla AP niet. Verder wel mooi dat die Tesla alsnog eerder op plaats van bestemming aan komt. En dat voor een L2 systeem tegen een L5 systeem.
Tesla FSD beta, letterlijk 5 meter nadat ie wegrijdt moet die gast al het stuur
Uhm, waar dan? Ik zie hem niet overnemen in de eerste 2 minuten. Laat staan in de eerste 5 meter 🤔

Het gaat er meer om dat een Level 2 systeem waar een bestuurder ten alle tijden moet opletten blijkbaar afstanden efficiënter/sneller kan afleggen dan de Waymo terwijl die Waymo al zo veel verder zou moeten zijn.

Maar ondertussen kan die Waymo niet buiten het gebied gaan rijden dat in kaart is gebracht.
Het gaat er meer om dat een Level 2 systeem waar een bestuurder ten alle tijden moet opletten blijkbaar afstanden efficiënter/sneller kan afleggen dan de Waymo terwijl die Waymo al zo veel verder zou moeten zijn.
Tesla kiest voor de snelweg omdat het een makkelijke omgeving is om te navigeren, en ja dan kom je inderdaad sneller aan.. maar is dat de wedstrijd? Ik dacht de hele race ging om FULL SELF Driving niet om FAST Self Driving
Uhm, waar dan? Ik zie hem niet overnemen in de eerste 2 minuten. Laat staan in de eerste 5 meter 🤔
Even kijken of je kan spotten wanneer deze gast het stuur overneemt :P https://www.youtube.com/watch?v=2PMu7MD9GvI
Maar ondertussen kan die Waymo niet buiten het gebied gaan rijden dat in kaart is gebracht.
Ondertussen heeft Tesla een paar miljoen auto's verkocht over de hele wereld, in Amerika alleen al een paar miljoen en toch kan dat ding niet invoegen op de snelweg.
Geef me 1 killer voordeel van Lidar tegen over vision. Khoor het graag komen maar ze zijn er niet.

Mercedes gaat gewoon in zee met supplyers. Zoals bosh etc. Dus Mercedes kan zo switchen als blijkt dat lidar te duur/complex is.
Geen voordeel, wel een groot nadeel:
Als ik mijn 3 ecovacs t9 robotstofzuigers (met lidar) tegelijkertijd laat werken in dezelfde ruimte worden ze helemaal wappie. Het word nog erger als ik een spiegel introduceer(nat wegdek?).

Ik stel me dan voor.... 50 auto's vlak naast elkaar allemaal laserlicht lopen uitstralen.... gaat leuk worden.
Geef me 1 killer voordeel van Lidar tegen over vision. Khoor het graag komen maar ze zijn er niet.
"killer voordeel" is kunnen zien in slechte weersomstandigheden en nauwkeurig afstand kunnen bepalen. :)

Trouwens, over je 'killer voordeel' gesproken, was het niet een Tesla die een vrachtwagen niet had herkend omdat de camera's geen onderscheid konden maken tussen de vrachtwagen en felle achtergrond?… https://www.theguardian.c...elf-driving-car-elon-musk
Dat is juist een nadeel - sneew, mist en regen blokkeren Lidar, dus slechte weersomstandigheden werken niet. De enige situatie waar Lidar het beter doet dan camera's is... duisternis. En laten de meeste autos nu koplampen hebben... ;-)
Je moet het andersom zien: Tesla ziet het als een uitdaging om autonoom rijden alleen met zichtbaar licht te doen, net zoals wij mensen dat al jaren doen.
Waarom zou je je beperken tot alleen zichtbaar licht als je het beter kan doen dan het menselijk oog?
Omdat dat qua hardware goedkoper is misschien?

Makkelijker en goedkoper in elke auto te zetten, zodat je het als optie aan kunt bieden.
Goedkoper lijkt het ook niet echt gezien de prijzen die Tesla vraagt voor 'full self driving'
Je betaalt niet alleen voor de hardware, maar ook voor alle ontwikkelkosten. Dat vergeten veel mensen.

Het is net als in de horeca klagen dat een pilsje zo duur is. Je vergeet dan voor het gemak dat je in de kroeg ook moet betalen voor: het pand; de inrichting; de tapinstallatie; onderhoud; personeel; gas, water, licht, en ook nog een beetje winst voor de uitbater zodat hij zijn hypotheek en de boodschappen kan betalen.
Goedkoper is een kwestie van massaproductie en veel zaken hebben tijd nodig om massa te worden.

Kijk naar alle systemen op een auto, airbag, abs het begon in het dure segment langzaam naar beneden. Sensors die nu nog "te duur" zijn worden in massa goedkoper.

Als je nu dus al stop met alleen een camera omdat het de goedkoopste optie is en alle andere nu nog te dure technieken overboord gooit dan beperk je jezelf gewoon in de mogelijkheden.

Daarnaast heb je ook software nodig die beslissingen kan nemen. We horen Musk als 3 jaar op een rij dat autonoom rijden er dit jaar gaat komen. Feit is het zal gewoon nog enkele jaren duren. Laat ik dan gokken dat tegen de tijd dat de software ook klaar is voor autonoom level 5 die andere nu nog durer sensoren stukken goedkoper geworden zijn.

Afgezien van het feit dat een camera goedkoper is heeft het technische beperkingen die andere sensoren niet hebben. Die sensoren kunnen je veel meer informatie geven waarmee jou software betere beslissingen kan nemen.

Simpel voorbeeld, thermisch infrarood laat een warmtebeeld van een object zien. Een camera ziet een object en moet in donker raden is het levend of niet. Weet jou software dat er "levende" mensen ergens staan kan deze daar al op anticiperen. Ze zouden kunnen oversteken, of dieren in een bos wil je niet tegen je auto aan hebben. Simpel voorbeeld wat een normale camera nooit zal kunnen.

Het type sensoren en de data die ze afgeven kunnen jou software een veel beter beeld geven.

Maar ook daar hoor je dan weer het zwakke excuus, zo veel data dat kan de hardware niet aan. Misschien nu niet maar we weten allemaal hardware wordt alleen maar sneller en sneller. Dus tegen de tijd dat de software klaar is is de hardware ook weer sneller en goedkoper geworden.

De tesla oplossing is een goedkope hardware maar hun software is nog lang niet klaar.
Simpel voorbeeld, thermisch infrarood laat een warmtebeeld van een object zien. Een camera ziet een object en moet in donker raden is het levend of niet. Weet jou software dat er "levende" mensen ergens staan kan deze daar al op anticiperen. Ze zouden kunnen oversteken, of dieren in een bos wil je niet tegen je auto aan hebben. Simpel voorbeeld wat een normale camera nooit zal kunnen.
Bijna elke camera op aarde kan IR zien. De meeste cameras met auto-focus of range-finding maken er zelfs expliciet gebruik van.
Het enige beperking wat redelijk wijs aanwezig is bij veel huis tuin en keuken camera's is het gebrek aan opslag van de IR data. Gezien wij het toch niet zien is er ook geen reden voor extra bandbreedte en opslag van dat data. Zo kan de consument voor een prikkie een camera kopen.
Als jij bezig gaat met rauwe camera sensors voor een auto dan is het gewoon een kwestie van voldoende bandbreedte en je kan zoveel meer zien dan het menselijke oog.
Ik heb het over thermisch infrarood dat is iets ander dan waar jij het over hebt.
Zoek dan eens op de prijzen en je zal begrijpen waarom je het niet veel ziet. Op dure auto's s-klasse is het een optie en ja daarmee zie je dus een warmtebeeld ook verder dan je lampen of buiten het bereik links rechts van je lampen.
Een FLIR camera zoals jij bedoelt heeft een vrij speciale combinatie van hardware om 3 overlay lagen video/photo's over elkaar te gooien en daar bij gekalibreerd temperaturen te weer geven.
De camera sensor die erin zit is niet anders als reguliere camera's.
Je betaalt voor de meet functie en dat is volledig software.
Of die camera sensor gelijk is aan regulier betwijfel ik. Als je naar resolutie kijkt van dit soort camera's dan is 1024x768 cm al extreem duur. 320x240 cm is eerder standaard of 640x480
Je ziet bij sommige telefoons flir systemen dat men dit idd over elkaar heen legt waardoor de resolutie hoger lijkt.

https://www.flir.com/disc...-the-ultimate-resolution/
Met software kan men resolutie verhogen.

De camera sensor d.w.z de sensor die temperatuur meet is toch echt totaal iets anders dan een reguliere sensor van jou camera. Zou het zo eenvoudig zijn zoals stelt dan zouden deze systemen een heel stuk goedkoper zijn, dat zijn de echter niet.
Gecalibreerde meet instrumenten zijn altijd duur.
De overlays hebben niks te maken met resolutie.
Laag 1 is een visueel contour laag zodat jij als gebruiker vormen kan zien op je display.
Laag 2 is een IR heatmap wat vertaald wordt naar kleuren die wij kunnen zien op je display.
Laag 3 is een text laag om temperaturen te koppelen aan de heatmap.
Dat specifieke combinatie is waar FLIR een patent op heeft.
Je betaalt voor de software dat dit voor jouw uitvoert.
De sensor zelf heeft niks speciaals. Het is hoe je de sensor gebruikt dat het prijs bepaalt.
Dat is nou juist het punt van Tesla. Je hoeft de data niet om te vormen voor menselijk zicht.
Je kan de rauwe data gelijk in de AI dumpen en die doet zijn eigen ding. Geen dure FLIR licenties nodig want je gebruikt hun constructie niet.
Er zijn vele thermisch infrarood patenten flir is er eentje van. Thermisch infrarood bestaat ook al vrij lang en patenten verlopen na 20 jaar. geen idee wanneer flir.

Dus volgens jou gebruikt tesla dan ook het niet zichtbare en thermisch infrarood deel van hun camera. Klinkt mooi maar ik betwijfel of dat zo is.
De heatmap wat iedereen kent dat van donkerblauw naar wit licht kleurt naar mate iets warmer wordt is 100% alleen van FLIR.
Zij hebben bepaald naar welke kleuren zij dat vertalen.
Simpelweg een IR heatmap is niet nieuw en daarom kan iedereen er mee doen wat ze willen zolang het niet de kleuren gebruikt dat FLIR bepaald heeft.
Laten we het zo stellen een AI heeft geen ogen met een beperkt visueel spectrum. Een AI is daarom ook niet gelimiteerd tot dergelijk variabelen.
Het heeft ook te maken met het feit dat je dan maar één software stack hoeft te ontwikkelen. Alsook het feit dat PointClouds via Lidar over het algemeen wat lastiger zijn om objecten mee te classificeren en het zijn significant duurdere sensoren.
Een uitdaging klinkt mooi. Feit is gewoon een camera heeft qua zich beperkingen in bepaalde omstandigheden. Daar kun je weinig aan veranderen.

Voeg thermisch infrarood toe aan een camera en je krijgt een andere dimensie. Je ziet ook daar waar het donker is, objecten die leven stralen warmte af en dus kun je ze definiëren als levens iets en niet dood object. Die informatie kan al handig zijn voor de software in het nemen van een beslissing.

Hoe mooi je het ook denkt op te lossen een camera heeft beperkingen die je uiteindelijk moet accepteren.
Tesla gebruikt niet alleen zichtbaar licht. Ze gebruiken de volledige raw output van de camera-sensors. Dus ook de ir-data die de sensor opvangt + de data die in het donker binnenkomt.
"zichtbaar licht" is een vage definitie. Zelfs dieren hebben een andere range in frequentie.
Bijen zien meer UV, net als roofvogels, ...
Dat kan natuurlijk prima als je goed zicht hebt. Vanaf 200m zicht moet het dan wel uit. Met camera's en radar zou je dat tot 50m zicht (mistlicht grens, wat geen kip begrijpt :( ) kunnen doen met snelheids beperking tot 80km/h.
correctie mistlicht aan bij 50m zicht ipv 25m zicht, bedankt Troetelbeer.

[Reactie gewijzigd door BobJung op 22 januari 2022 20:02]

Mistlicht grens is 50m, niet 25m :)
maar als Tesla slim zijn, kunnen ze die andere technologie combinere (camera+lidar+radar) maar goed dan wordt het auto duurder, maar mens blijf betalen (dus erg is het ook niet)

redundancy is altijd goed
Het verschil is dat jouw camera’s veel beter zijn in het onderscheiden van objecten, diepte en er een betere AI achter hangt.

Er zijn gewoon situaties (bekend) waarin camera’s tekort schieten. En de gehele industrie (incl Tesla) is daar van overtuigd.
Die betere AI wordt in de weg gezeten door andere delen van ons brein, getuige het flinke aantal ongelukken met mensen achter het stuur.
Dat is het idee ook achter het ontwikkelen van autonome auto's: AI wordt niet moe, ziet meer, reageert sneller, wordt niet boos en is ook nooit afgeleid. "Ziet meer" als in: 360 graden en binnenkort ook in zeer slechte lichtomstandigheden. De sensor-technologie ontwikkelt zich razendsnel en er zijn al consumentencamera's die veel beter in het donker zien dan het menselijk oog.
Dat klopt, maar daarmee haal je het argument van de OP onderuit namelijk dat wij het maar doen met alleen ogen.
Dat was ook mijn bedoeling: de menselijke ogen zijn technisch misschien nog wat beter, maar ze zitten in het verkeerde hoofd :)
Juist niet.
Als een mens het met "2 camera's" kan dan zou een AI het zeker moeten kunnen met 8 camera's.

Het zich is veel groter en raakt niet afgeleid.
Een mens kan het ook niet met twee camera's dat wordt iedere dag duidelijk. Echter verlangen we van AI dat het foutloos is en van een mens niet. Wij met onze twee camera's lopen ook vast in zware mist, regen of in het donker.
Ja mensen verlangen zoveel van computers. Maar het moet wel realistisch blijven vind ik.

Als een AI over 1 miljard kilometer 80-90% minder ongelukken heeft dan het gemiddelde op de weg heb ik eerder zoiets van, oke top. ik zal veel liever in die autonome auto rijden die tot wel 90% minder ongelukken heeft dan bij een random persoon in de auto (carpoolen, taxi, uber etc)
Tesla *denkt* maar kan het nu nog niet fatsoenlijk. Afgelopen weken al meerdere keren gehad dat je zelfs geen cruise control kan gebruiken omdat de laagstaande zon (van schuin links) de front camera totaal satureert terwijl ik zelfs zonder zonnebril kilometers ver kan kijken. En geen beeld is geen autopilot, en dus ook geen adaptive cruise control. Mijn grote ergernis is dat je vervolgens niet eens een “domme” cruise control krijgt die gewoon de snelheid constant houdt, zoals Tesla’s zonder AutoPilot pakket wel hebben. Bizar. Zelfde met mist, sneeuw..
Dit is volstrekte onzin. Ik rij Tesla en hij doet het met volle zon op je bak en hij doet het in dichte mist of flinke storm. Heb eerder last gehad van phantom brakes tot een jaar geleden ongeveer die ze nu flink met software updates hebben weg gepoetst. Als je AP3.0 in de auto hebt merk je hoe geweldig autopilot werkt. Wellicht dat jij nog met AP1.0 zit of 2.0 en dus niet het verschil merkt. Maar zelfs op AP2.0 werkt laagstaande zon vrijwel perfect. De camera's hebben nooit last gehad van zon en vindt het ook een beetje storend als men dat online beweert wanneer er simpelweg wat mis kan zijn met hun auto specifiek. Rij je Model 3? Ik heb 180.000 km op de teller en vrijwel 2/3e hiervan met AutoPilot gereden.

Heb absoluut nog nooit meegemaakt dat mijn auto dat met laagstaande zon niet kon en ik rij iedere ochtend. Heb het wel eens met hele zware stormen mee gemaakt dat de auto wilt dat ik zelf stuur maar dat zijn dan ook echt flink heftige buien waar men flink moet afremmen.

Het enige wat ik niet goed vind aan auto pilot is auto lane change. Maar dat komt door Europese wetgeving ook deels.

[Reactie gewijzigd door Nimac91 op 21 januari 2022 20:39]

Dat is een wel heel stellige bewering. Ik rij Model 3 met HW 2.5 en de laatste updates, maar heb niet betaald voor Enhanced Autopilot of FSD. Welke AP versie heb ik dan volgens jou? Na twee jaar en 45 dkm ervaar ik bij elke heldere winterdag in de ochtend dat de cruisecontrol uitgeschakeld wordt door een verblinde camera aan de voorkant. Ik rij dan vanuit het midden van het land over de A2 naar het zuiden.

Ik snap dit verder wel want ook als bestuurder moet ik op die momenten goed inspelen op het licht om voldoende te kunnen blijven zien, maar ik ben het met eerdere posts eens dat het irritant is dat je geen domme cc krijgt in zo'n geval.

Overigens heb ik nog nooit meegemaakt dat mist of regen een probleem vormde. Wel een beslagen stuk voorruit in de ruimte waar de camera zit. Dat laatste los je dan weer op door de voorruitverwarming aan te zetten. Er gaat dan ook een verwarmingselement aan de slag om de camera weer zicht te geven. Moet je wel net weten want de auto wijst je niet op de reden van verblinding / geen zicht.
Lol, mijn goedkope Ssangyong Korando 2020 laat zelfs weten waarom mijn camera geen zicht heeft en mijn Ford Nugget campervan overigens ook...
Wel een beslagen stuk voorruit in de ruimte waar de camera zit. Dat laatste los je dan weer op door de voorruitverwarming aan te zetten. Er gaat dan ook een verwarmingselement aan de slag om de camera weer zicht te geven.
Apart is zou toch verwachten dat de hardware ook de beeldkwaliteit bekijkt, analyseert en dan automatisch een verwarming aanzet zal er vochtig de ruimte van de camera zit. Sterker nog een goedkope luchtvochtigheidsmeter kan dat automatiseren.
Het feit dat jij handmatig moet ingrijpen laat in die situatie dan al zien dat er nog veel problemen in het systeem zitten en je hiermee level 5 nooit kan bereiken. Level 5 geen handmatig ingrijpen van iemand meer nodig.
Want dit zal natuurlijk nooit opgelost kunnen worden doordat er even een lijntje code er voor wordt aangemaakt.
Schijnbaar op dit moment niet als ik verschillende gebruikers hier lees die er last van hebben.
Dus schijnbaar dit moment niet betekend dat ze L5 nooit kunnen bereiken? Rare gedachtegang.
Geen onzin. Ik rij in in hardware 2.5 (helaas, een van de eerste M3’s en kort erna werd 3.0 uitgeleverd) maar dat maakt denk ik niet uit want ook anderen die ik ken hebben last van het “lage zon, geen cruise control” probleem.

Helemaal leuk is als je rijdt en de zon verblind de camera. Direct alle toeters en bellen af. Ik heb altijd mijn handen op het stuur en ogen op de weg - maar schrik me een hoedje als dat alarm afgaat omdat autopilot offline gaat wegens beperkt zicht van de camera. En dan gebruik ik autosteer niet eens, hij kan ook het disengage geluidje laten horen dat de adaptive cruise control uit gaat.
Je kan Joe mode aanzetten. Schrik je minder van de alarmen.
Ik dacht dat joe mode alleen de Ping van AP aan/uitzetten zachter maakte? De alarmen (groot rood stuur op je scherm) gaan iig nog heel hard bij mij😬
Nee Joe mode zal alle alerts zachter maken maar ze zijn nog heel goed hoorbaar. Je schrikt er alleen niet langer van! Ik heb mijn collision warning sws op early gezet (better safe than sorry) maar krijg dus soms wel een warning als ik wat laat op de rem trap. Maar ik schrik er niet van al houd het me wel scherp.
Vreemd, ik heb AP3 en de autopilot werkt nog op stukken waar ik bijna niets meer zie door de laaghangende zon.
Is de phantom breaking bij jou helemaal weg? Ik heb er nog af en toe last van bij laagstaande zon wanneer ik onder een viaduct door rijd. Het lijkt er op dat de auto niet snapt dat het een schaduw is in plaats van een tegenligger. Iets wat met lidar makkelijk op te lossen is.
Musk gaf aan dat het een probleem van sensor combinatie is. Radar zegt muur dus stop en vision niet. Daardoor zou het opgelost moeten zijn met de overschakeling naar vision. Maar ik denk dat we dan wel weer andere problemen zien (gebaseerd op de beta video’s op YouTube).
Ik vind dit ook wel stellig. Rijd inmiddels ook al een tijdje in een m3 en daar is het elke keer weer raak met laaghangend zon.

Inwateren van de B pillar is ook zo iets. Na flinke regen of een wasbeurt in combinatie met zonneschijn beslaan de camera’s compleet. Blijft maar gebeuren, ook na een revisie waar ze ontwateringsgaten hebben toegevoegd. Auto is gewoon blind en AP valt uit totdat condens wegtrekt.
Gaf hierboven al commentaar. Als je sensoren hebt die beslaan lijkt me dat al een grove ontwerpfout. Zonder betrouwbare sensoren zul je never nooit level 5 kunnen bereiken. Dus lijkt er op dat voor veel tesla's het echt autonoom level 5 rijden gewoon niet mogelijk zal zijn door dit soort hardwarefouten.
Het beste zou natuurlijk een combinatie zijn van meerdere systemen, waar de camera word gebruikt voor identificatie van voertuigen, borden, mensen etc etc en lidar en andere technieken worden gebruikt voor de echte informatie zoals afstand, snelheid etc etc. Ik snap niet hoe Tesla dat niet aan ziet komen, een combinatie is toch altijd beter dan een 100% camera systeem? Zodra je de camera's niet meer kan gebruiken krijg je zo een situatie waar jij tegen aan loopt, zien de camera's het niet? Dan kan het niet.
Een combinatie kan juist voor verwarring zorgen tussen de input van beide sensoren. Welke van de 2 is dan juist
Een combinatie kan dat doen maar als de ene sensor beperkingen heeft in bepaalde situaties en de ander niet dan leg je beide beelden over elkaar heen. Maar dat zul je een systeem moeten aanleren.

In het donker zal een normale camera alleen daar kunnen zien waar jou licht schijnt.
Andere systemen kunnen verder kijken, naast het licht en die data kan bijv aangeven dat er een object staat.
|voeg daar thermisch infrarood bij en je zie levend of dood object.Op basis daarvan kan de software al veel meer beslissingen nemen.

Laaghangende zon zal een afwijking in 1 of meerdere camera's kunnen geven. De missende data kun je met lidar of andere sensoren aanvullen.

De sleutel is de systemen laten leren welke data de juiste is.

Probleem van alleen camera's is dat ze technische beperkingen hebben waar je niet omheen kan. Als je alleen met camera's wil werken heb je een punt waar je niet verder zal komen. Geef aan aan in het donker zal een camera nooit dat kunnen zien wat andere systemen zien. De laaghangende zon ook een probleem. Als is het maar 0,00x % voor autonoom level 5 moet je nog veel verder achter de komma voor betrouwbaarheid.
De meest veilige optie
afstand, snelheid
Top, kan prima dit bepalen aan de hand van camera beelden.
Verder hebben ze bij Tesla het inmiddels zo voor elkaar dat het in zeer donkere locaties nog steeds genoeg kan zien om rond te rijden en dit blijft beter worden.

Ik snap niet dat mensen niet even kunnen zoeken naar bronnen waarom Tesla deze weg heeft gekozen, is toch best makkelijk tegenwoordig met het internet...

https://youtu.be/NSDTZQdo6H8
Vooral dat laatste is echt irritant. Rij je tegen de zon in, kun je niet eens gewoon de snelheid vasthouden... Wie heeft dat nou weer bedacht!?
Wie heeft dat nou weer bedacht!?
Stuur musk een berichtje, soms reageert hij op mensen en wie weet heb je geluk. Vraag het wel netjes ander scheld hij je de huid vol.
Klopt, klein beetje natte sneeuw, geen cruise control meer. Back to the dark ages.
Dark ages, dark side, mmm use the force :)
Daarom gebeuren er nog steeds ongelukken met Tesla voertuigen, omdat camera's alleen niet genoeg zijn. Aandat jaar geleden met de tesla die op een truck in reed ondat de zijkant van de truck beschilderd was met een landschap, of dat Tesla afremmen onder viaducten... Dingen die niet gebeuren met een lidar... Ik werk zelf in de techniek en ik zal nooit volledig automatisch iets 100% vertrouwen, teveel dingen verkeerd zien gaan .. met sensoren die falen door water sneeuw ijs of mist!
Oh man.... dat ongeluk met die truck wordt elke keer weer aangehaald... Zo zijn er nog een paar flinke klappers geweest in de afgelopen paar jaar. Jammer dat je niet vermeld dat Tesla ondertussen al een paar versies verder is. En ook jammer dat je niet vermeld dat uit cijfers blijkt dat de kans dat er een ongeluk gebeurt dramatisch veel lager is als Autopilot is ingeschakeld.

LIDAR is geen radar. LIDAR heeft net zoveel last van sneeuw en mist als een camera. Zelfs radar heeft last van sneeuw, getuige het feit dat heel veel Adaptive Cruise Control systemen uitschakelen als de sensor wordt bedekt met ijs...

Ik werk ook in de techniek... Het heeft niet zo heel veel zin om dat ter ondersteuning aan te voeren.

[Reactie gewijzigd door multikoe op 23 januari 2022 09:15]

Aandat jaar geleden met de tesla die op een truck in reed ondat de zijkant van de truck beschilderd was met een landschap
Ja als je een systeem hebt dat niet specifiek ontworpen is om voor alles te remmen omdat het een level 2 systeem is en de BESTUURDER had moeten remmen.... Ja dat is de fout van de bestuurder niet van Tesla.

Het afremmen onder viaducten was een probleem met het feit dat de Radar verstoortde signalen af gaf wat in conflict was met het camera beeld waardoor deze dan wel of niet ging afremmen.

Zaken die NET ZO HARD kunnen gebeuren met Lidar. Want het gaat niet om wat er gezin wordt maar hoe de data wordt verwerkt.

Ik werk zelf ook in de techniek met automatisatie. En ik ben het met u eens dat niks 100% altijd te vertrouwen is. Maar dat zijn mensen ook niet.

Verder is de AI die draait om de auto te besturen bij Tesla zo ontworpen dat deze op 2 chips draait die elk een kleinere kans hebben om te falen dan een gemiddeld mens heeft om een herseninfarct te krijgen.
Ik ben het daar niet mee eens, immers, bij een mistbank kijkt radar daar door heen, een camera niet!
Nee, Tesla gebruikt naast camera’s ook radar en die gaat wel door de mistbank heen.
Nope. Bij te dichte mist gaat autopilot uit en heb je geen adaptive cruise control meer. Sterker: je hebt helemaal geen cruise control meer. Het zelfde bij een laagstaande zon: als mens kan ik de weg prima zien, maar de Model 3 begint dood leuk “front camera blocked” alerts te spuwen en vervolgens heb je een hele dure Kia Picanto kwa rijhulpsystemen.
Ik had Musk eens over radar gehoord dat toen nog in hun auto’s zat. Ik heb even gegoogled. Ze stappen er van af. Zie hier.
Het ligt er aan welke Tesla je hebt uit welk jaar en waar je die gekocht hebt of je Tesla radar heeft.
Mijn model 3 heeft een radar (volgens mij verplicht in Europa om adaptive cruise control te mogen doen). Maar bij slecht zicht op de camera ben je de functie gewoon kwijt; hij schakelt dan niet “over” naar radar. Sterker nog: volgens een engineer van Tesla waarmee ik in contact kwam wegens vele phantom brakes komen die deels voort uit het feit dat de radar denkt dat er iets voor de auto is; radar wordt als extra zekerheid gebruikt en niet primair.
Conclusie jij zal never nooit level 5 autonoom kunnen gaan rijden met dat systeem. Dus full self driving als dat level 5 is zal een sprookje blijven.
Klopt. En ik zie eerlijk gezegd die functie niet uitkomen in Europa voor de auto afgeschreven is.
Best lullig als je al dik betaald hebt voor iets dat er waarschijnlijk nooit zal komen. Zie de schadeclaims over een paar jaar al weer komen richting tesla.
Ja en nee. Er zijn aantal soorten AutoPilot die je kunt kopen. Mijn versie zal nooit Self Driving worden. Je kan die versie wel al aanschaffen en je krijgt dan wat extra features en de belofte die ik inderdaad niet waargemaakt zie worden. Is vooral iets van Musk om omzet te krijgen, want hij roept al de hele tijd dat het er bijna is en dat dan de prijs omhoog zal gaan.
Zie daar mensen die het nu wel betaald hebben, maar nooit in een goede vorm zullen krijgen of vergeten zijn de kleine lettertjes te krijgen. Daar komen dan rechtszaken van.
De Suzuki Swift van mijn vrouw heeft adaptive cruise control, die prima werkt. 20k kostte het ding.
Als het om veiligheid gaat is het prima dat een Tesla bepaalde functies uitschakelt als een goede werking niet meer gegarandeerd kan worden, maar dan heb ik liever een duurdere auto met lidar (al zou Mercedes het ook in goedkopere modellen kunnen gaan verwerken). Of gewoon een goed werkende radar zoals in de Swift van mijn vrouw.
Aan de andere kant, mensen doen het al jaren alleen op zicht en maken ook brokken aan de lopende band...
Dat jij het doet met wat je ziet lijkt me nu niet de maatstaf.

Het gaat er eerder om wat jij niet ziet.
Jij ziet in de nacht heel beperkt, the radar, lidar, thermisch infrarood kun je veel meer zien in verschillende omstandigheden. Het voorbeeld laaghangende zon, je camera kan een probleem hebben, andere sensoren niet. Combineer ze en je hebt een optimaal beeld om daar de software een beslissing mee te laten nemen.
Dat is ook exact waar het om gaat. Een camera zoals tesla heeft beperkingen in wat het kan zien.
Het doel lijkt me juist dat een systeem meer kan als de mens nu om nog minder ongelukken te maken.

Je gevoel zegt je totaal niets, je kan beter naar je verstand luisteren en bovenstaande goed lezen. Je wil meer data met meer type sensoren om meer te kunnen zien.
U hebt toch benen? Waarom rijdt u dan in een gevaarlijk snelle metalen bak?
Waarom gebruikt u GSM? U hebt toch een stem?

Een LIDAR kijkt door de mist. Uw ogen zijn daar quasi nutteloos.
@Jhonny44 Alleen radar kan dit (voorlopig)

[Reactie gewijzigd door OxWax op 21 januari 2022 20:31]

LIDAR kan over het algemeen niet door dichte mist kijken. Misschien verwart u het met RADAR?
U hebt natuurlijk 100% gelijk maar ... er wordt aan gewerkt 8-)
https://www.autovision-ne...y/lidar-systems-rain-fog/
Tesla denkt dat het ook met alleen camera's kan. Daar ben ik het als chauffeur wel mee eens: Ik doe het immers ook alleen maar met wat ik zie. Als ik op mijn gevoel af moet gaan, dan is het te ver.
https://www.vrt.be/vrtnws...tsing-op-e17-in-nazareth/

Deze mensen deden het ook allemaal op zicht.

Ik heb ook al 1 keer een situatie meegemaakt waarbij ik compleet verblind werd door het zonlicht op de snelweg. Ik ben gaan vertragen, maar eigenlijk moet je ook een minimum snelheid aanhouden. Ik was zo blij dat er een uitrit was na enkele kilometers. Daar ben ik dan een half uurtje gaan staan tot zonsondergang.

Ik ga een Duitse Tesla Model Y bestellen, zodra die in Berlijn van de band beginnen te rollen, maar ik heb toch wel meer vertrouwen in Mercedes wat betreft autonoom rijden.

Vroeger was ABS en dergelijke ook een dure optie. Alles wat de veiligheid kan verbeteren moet je gewoon doen.
Maar jij hebt meteen door wanneer er wat in je oog zit.
Bij auto's weet ik nog niet of het gedetecteerd wordt wanneer er modder op de lens zit.
Als we prestaties beter dan mensen verwachten, dan moet misschien ook de sensoriek beter dan die van mensen zijn.

Superhuman performance requires superhuman sensing?
8 cameras en 12 ultrasone sensoren wat draait op een AI met hogere cloksnelheden dan een mens.

Klinkt best super human hoor.
Mercedes kondigde eind vorig jaar aan goedkeuring te hebben gekregen van het Duitse equivalent van de RDW om met deze auto's op Level 3 autonoom te mogen rijden. Deze goedkeuring geldt onder meer in de gehele EU, maar mag in de praktijk alleen op de Duitse snelweg worden gebruikt als er maximaal 60km/u wordt gereden.
Lijkt me extreem gevaarlijk, met 60 km/h op de (Duitse) snelweg rijden...
Die functie is voor filerijden, Audi heeft dezelfde beperking op hun level 3 autonomie. De reden dat Audi aangaf was het juridisch kader, waarbij hogere snelheden goedkeuren nog te moeilijk was. Eenmaal de technologie bewezen heeft veilig aan 60km/u te kunnen rijden, zal het makkelijker zijn hogere snelheden te keuren. De reden dat Tesla deze beperking niet heeft, is omdat het level 2 autonomie is en dus een anders juridisch kader heeft.
Voor filerijden heb je toch adaptieve cruisecontrol, of is dat minder slim of zo?
Het belangrijkste praktische verschil tussen level 2 (bijvoorbeeld adaptive cruisecontrol + lane assist) en level 3 autonomie is dat de chauffeur bij level 3 in principe niet meer op de weg moet letten. Hij mag bij wijze van spreken zijn krant lezen. Ik ken de regelgeving niet volledig, maar mogelijk mag hij dat ook echt. Hij moet echter wel achter het stuur blijven zitten om over te nemen als de auto het om één of andere reden niet meer kan (sensoren te vuil bijvoorbeeld, of te veel mist). De auto zal echter een waarschuwing op voorhand geven (een aantal seconden, ik dacht aan een tiental of iets in die grootte orde), terwijl dat bij level 2 zonder waarschuwing kan gebeuren.

Vandaar ook dat Mercedes waarschijnlijk de lidar inbouwt: ze hebben een backup systeem nodig voor het geval het normale systeem plots niet meer werkt. Door de backup heeft de auto tijd om de bestuurder tijdig te waarschuwen zodat die zijn krant aan de kant kan leggen.
Wat geeft je het idee dat de lidar niet het 'normale systeem' is?
Dat zal dus de krant lezen bij level 3 max 60km op de snelweg.

Pas bij level 5 heeft een auto geen stuur en dus bestuurder meer nodig en mag je alles doen wat je wil.
Bij level 3 mag de bestuurder al zijn handen van het stuur halen en iets anders gaan doen. Althans dat is juist wat Level 3 in houd. Echter is het niet in alle gevallen zo dat je dit kan dien en zijn er nog best wat beperkingen en moet je ook direct kunnen overnemen. Level 4 gaat nog een stap verder en bij level 5 kan je het stuur weghalen.
https://autojosh.com/no-h...el-3-autonomous-vehicles/

level 3 handen niet aan het stuur tot 60km per uur

https://www.jdpower.com/c...onomous-driving-explained
Audi developed a Level 3 traffic jam assistance technology for its 2019 A8 flagship sedan, but it never received regulatory approval for the system in Germany and has since shelved the effort. That opened the door for Honda to become the first automaker in the world to sell an approved Level 3 traffic jam assistance system to consumers.
Dus level 3 bij file rijden, traffic jam. Dat komt weer overeen met hierboven 60km per uur max.
Adaptieve cruise control is minder slim. Dat past enkel je snelheid aan aan de voorligger. Het kan zelf geen rijstrookwissel doen of anticiperen op iemand die wilt invoegen. Allemaal zaken die bij level 3 autonomie wel gedekt moeten zijn om aan de garantie te voldoen dat de bestuurder niet zelf moet opletten tot de auto waarschuwt dat hij moet opletten.
Rijstrook wisselen veroorzaakt juist extra file.
Maar is noodzakelijk om je afrit te halen, of daar waar autostrades kruisen zich goed voorsorteren. Het grootste verschil tussen level 2 file assistent en level 3 file assistent is dat je bij level 3 niet op de weg moet letten maar wel binnen de 15s kunnen reageren als de wagen dit aangeeft. Bij level 2 moet men altijd nog zelf rijden. De levels gaan puur over die juridische kwestie en niet over wat de wagen allemaal kan.
Rijstrook verwisselen en anticiperen op ander verkeer kan bij Tesla ook en dat is een L2 systeem.

Adaptive cruise control is 1 van de vele level 2 zaken die er zijn
Jep dat kan tesla, maar mijn golf met level 2 rij assistentie kan dat niet. Tesla keurt het als level 2 assistent zodanig dat ze niet de verantwoordelijkheid moeten afleggen van level 3 of 4 rij assistentie. Dat wilt tesla pas doen als de wagen daadwerkelijk betrouwbaar zelf kan rijden. De aanpak van Audi enzo is omgekeer: zo snel mogelijk beperkte taken volgens level 3 laten automatiseren in de hoop zo ooit voldoende te hebben om naar level 4 te gaan. Maar voor level 3 autonomie is het dus wel haast noodzakelijk dat de wagen meer kan dan enkel rechtdoor in zijn rijstrook rijden. Bij level 2 kan dat perfect ook, maar daar is de auto juridisch niet zelf aan het rijden maar onder jouw supervisie, dus helemaal niet belangrijk welke taken hij al autonoom kan.
Als file-assistent is dat niet zo gevaarlijk
Klopt, ze pronken met level 3 maar in realiteit is het nutteloos. Ook in regen en mist werkt het systeem niet. En het is nog eens geofenced ook, werkt enkel op goedgekeurde autostrades waat ze hd maps voor hebben.

[Reactie gewijzigd door tradax op 22 januari 2022 12:49]

Ik rij zelf Tesla, en ik heb me een beetje verdiept in de auto pilot. Hier een artikel hoe 't werkt https://www.google.com/am...cars-dont-need-lidar/amp/

Hier wordt ook verteld waarom lidar 't niet gaat worden. Ik heb een aantal tech presentaties van Tesla op YT zitten kijken en alle merken lopen minimaal 3jr achter.

In een Tesla zit een neurale chip met een paar honderd regels code, elke rit leert de auto van de omgeving, alles wordt doorgegeven aan 't neurale netwerk van Tesla wereldwijd. De auto leert weer van andere autos door object herkenning. Ook als de auto pilot niet gebruikt wordt blijft het systeem alle objecten bestuderen en analyseren.

Wat complex is voor een computer en niet voor een mens is een fiets op een fietsendrager achter op de auto, is dit een fiets of is dit een auto, engineers corrigeren dit soort fouten handmatig door een duidelijk classificatie te geven van 't object met als doel dat de auto een juiste keuze maakt hoe er mee om te gaan.

Mercedes en bmw gaan dit de komende jaren never nooit niet inhalen, ik rij honderden kilometers per week op de autopilot van Tesla. (met een stuur magneetgewicht om de Nederlandse wetgeving te omzeilen zodat ik niet elke twintig sec m'n handen aan 't stuur moet doen)

Op noodrem acties tijdens de spits is de auto sneller in handelen als ik zelf ondanks dat ik mee kijk tijdens de rit. Ik denk ah 't kan nog wel ff, auto remt al...

Positie kiezen bij een verdrijvingsvlak van 3 naar tweebaans, auto schuift gewoon een baantje op. Aanrijden op een rotonde auto remt en stuurt netjes de rotonde in ook al kom je met 100 op de AP aanrijden. Je moet 't alleen leren vertrouwen, in 't begin is 't eng... Nu rij ik half Nederland door (op de snelweg) en kan gewoon op m'n mobiel mails maken, versturen, belletjes plegen, en 't nieuws checken, de auto doet 't werk. 't boerenland weg snapt de auto nog niet maar alles op de rijksweg is perfect.
maximaal 60km/u op de snelweg...
dat is knap onveilig dan, moet dat niet 160 zijn?
Nee, de eerste goedkeuring is dus vooral voor het rijden op een snelweg in de spits met wat files enzo. Volgende stappen zal vast met hogere snelheid zijn.
Neen, de eerste level 3 autonomie is beperkt tot 60km/u op autostrade omdat het bedoeld is om veilig te rijden tijdens file. Audi heeft dezelfde beperking en gaven het wetgevend kader aan als reden, sneller dan 60km/u was zogezegd te moeilijk voor hen om gekeurd te krijgen. Pas als de systemen zich hebben bewezen dat ze veilig 60km/u file kunnen rijden op autostrade, gaat het makkelijker worden om hogere snelheden gekeurd te krijgen. De reden waarom Tesla die beperking niet heeft, is omdat het level 2 autonomie is en niet level 3.
Ik vind het wel oké om met een EU auto (level2?) de handen vrij te hebben met 110 km/h op de autosnelweg. Remmen gaat ook vanzelf en werkt solide en soepel. De kaartenupdates en positie bepaling gaat via satelliet en online, ook plaatselijke werkzaamheden worden aangegeven. Geen idee wat er aan tech aan boord zit maar het voelt wel behoorlijk safe.
Met level 2 moet men 100% van de tijd de handen aan het stuur houden. Misschien kunnen mensen denken dat dat niet hoeft maar dat is simpelweg niet waar en zo ver ik weet zelfs strafbaar.

Net zonder achterlicht rijden, je weet misschien niet dat die het niet doet of je denkt o komt wel goed. Maar is nog steeds strafbaar.
En toch neemt de toekomstige auto de functie om te rijden “ooit” over. ‘By the way’ ik rij altijd met achterlichten.

T3sla kan het maar onderschat de ‘EU cars’ niet.
Klopt.

En als je wilt dat je echt een veilig systeem hebt die de auto "over" neemt en de bestuurder niet meer hoeft op te letten heb je toch zeker minimaal een level 4 systeem nodig.

Level 3 zit er maar een beetje tussen in waar je 95% van de tijd je geen aandacht er aan hoeft te besteden.
Ik denk eerder dat als 50% auto’s, voertuigen, level 3 hebben het er een stuk veiliger aan toe gaat op de weg. Motoren buiten beschouwing gelaten net als de passie voor oldtimers.

Inderdaad level 4 is de volgende move forward.

[Reactie gewijzigd door DefaultError op 26 januari 2022 21:41]

Het gaat over de juridische aspecten vooral. Level 3 moet de wagen het zeker kunnen want het is de fabrikant zijn verantwoordelijkheid, bij level 2 blijf jij als bestuurder verantwoordelijk.
Ik weet niet welke level het is en er wordt weinig informatie over gegeven. Het is ook precair omdat het nieuwe rijden met tech-features het rijden stukken veiliger kan worden. Mits we de juiste techniek inzetten/aanleren en vooral niet korten als het om veiligheid gast. Mensen doen rare dingen in het verkeer en zijn onvoorspelbaar, vooral als je vermoeid bent.
<nitpicking>
in de voorbumper een lidar-sensor zitten
Dat ding zit niet in de voorbumper. Deze zit in de gril/neus van de auto. De bumper zit eronder. Is ook wel verstandig - anders is zo'n ding nog sneller kapot.
[nitpicking aan]
De bumpers van de auto's tegenwoordig zijn niet meer wat ze geweest zijn. De tijd van stalen springveren die aan het chassis vast zitten is lang voorbij. De tijd van botsauto-rubber is ook voorbij. Bij veel auto's is de bumper praktisch gewoon het voorste deel van de carrosserie. Bedenk dat ze ook niet meer van een gril kunnen/durven spreken, dat hebben de elektrische auto's soms ook niet meer.
Er zit praktisch nog een hoop plastic en subframe spul vóór het metaal van de werkelijke carrosserie. Voetganger veiligheid etc.
Er zijn auto's waarbij het kunststof van voorbumper tot achterbumper loopt...
Niet veel vermoed ik - dat 'willen' verzekeraars niet. Ooit verhaal gelezen dat TVR dat had gemaakt. Is bijna niet te verzekeren omdat een kleine bumper schade dan de complete auto 'raakt'.
inderdaad. sorry verward ik zat aan chassis te denken, maar je had het over de carrosserie
[nitpicking uit]
</nitpicking>
Ik dacht dat lidar juist achter de spiegel zat. Daar zit het iig bij Volvo wel zviw. Radar zit in de grill en is vaak te herkennen aan dat er een plastic kap zit.
<nitpicking 2>
Zelfs dan niet, de paar auto's waarvan de radar niet achter of naast het logo zit, is het sowieso nooit onderdeel van bumper, maar zit het altijd rechtstreeks aan de carrosserie bevestigd. Vast aan een bumper of grill zou teveel trillen, en hierdoor de radar minder betrouwbaar maken.
Dan rijdt de auto altijd in de rechter rijstrook en dat zal waarschijnlijk veiliger zijn dan met 160 links rijden.
niet mercedessen hoor, die krijgen gewoon links waar ze vinden dat ze horen. ;)
Met een Audi bijna bovenop de trekhaak, want die vinden dat ook 8-)
Lidar is middels laser, dus ook via licht. Alleen voordeel van lidar is dat dit door de kieren en gaatjes heen 'kan kijken' en wellicht meer en eerder iets ziet, dan een camera.
Waarom zou een camera niet door kieren en gaatjes kunnen kijken?
Lidar is actief, de camera passief. Lidar zendt laserstralen uit en vangt weerkaatst licht op. camera vangt alleen licht op.
Ik heb een paar camera's en die kunnen allemaal prima door gaatjes en kieren kijken.
Alle geëxperimenteer op een stokje, daar ontkom je als autobouwer niet aan om het ‘nieuwe rijden’ veiliger te maken. De keus voor alleen camera’s of toch meer tech zoals lidar ‘terrestrial’ om 3d toe te passen, en mogelijk te verwerken in de cloud, is denk ik behoorlijk nodig om ook bomen en objecten te scannen. Dus level3 buiten de snelwegen. Voor vrachtwagens is het nodig om een viaduct te scannen hoe hoog deze is. Buiten beschouwing gelaten radar, ultrasone sensors, gps glonas galileo , 5g, en camera’s met ‘automotive cpu’.

Als 50% verkeer op level 3 gaat rijden wordt het wel een stuk veiliger op de weg. Complexe scrum ai voor autobouwers lijkt me.
Ik vraag me toch af hoe goed dat allemaal zal werken met die camera's die Tesla wil gebruiken. Ik krijg bijv bij mijn auto als er dichte mist of hevige regenval is soms plots een melding op mijn display dat mijn camera systeem niet meer functioneert. Ook benieuwd hoe zo zelfrijdende auto's elkaar gaan kruisen op zo een plattelandweg waar amper 1 wagen op past, met links en rechts een gracht, en dat dan nog liefst 's nachts in de mist zonder straatverlichting. Volgens mij zal Lidar wel net iets effectiever zijn dan de doorsnee camera dan
Als dat autonoom rijden echt goed werkt komt het nog eens zover dat je zelf niet eens meer mee hoeft als je ergens op visite wilt.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True