Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Tesla levert Model 3 en Model Y in Verenigde Staten zonder radar

Tesla Model 3's en Model Y's worden in de Verenigde Staten vanaf mei zonder radar geleverd. Voor Autopilot, Full-Self Driving en 'bepaalde veiligheidsfuncties' gebruiken de auto's alleen camerabeelden. Bepaalde functies werken daardoor tijdelijk niet.

Op dit moment gebruiken Tesla-auto's een combinatie van radarbeelden en camerabeelden om bijvoorbeeld de positie op de weg en afstand tot andere objecten of weggebruikers te kunnen bepalen. Tesla-ceo Elon Musk heeft al eerder aangegeven met radar te willen stoppen en alleen gebruik te gaan maken van camerabeelden. Nu zet Tesla daar de eerste stap in, door de Model 3 en Model Y voor de Noord-Amerikaanse markt zonder radar te leveren.

In plaats van radar gebruiken de auto's alleen nog camerabeelden voor bijvoorbeeld Autopilot. Tesla's worden geleverd met meerdere camera's aan de voor-, zij- en achterkanten. Deze beelden worden door het neurale netwerk van een Tesla-auto verwerkt.

Tesla zegt met de twee goedkoopste modellen te beginnen, omdat deze het meest worden verkocht. Daardoor kan Tesla naar eigen zeggen over een korte periode veel data binnenkrijgen. Dit zorgt ervoor dat het bedrijf de uitrol van functies kan versnellen. De autofabrikant noemt het systeem waarbij alleen camera's gebruikt worden Tesla Vision.

Tesla Vision is nog in ontwikkeling; bepaalde functies zullen daarom minder of niet werken. Autosteer, waarbij de auto zelf stuurt, wordt beperkt tot maximaal 120km/u. Daarnaast is er een langere volgafstand nodig, al zegt Tesla niet hoe groot deze volgafstand dan moet zijn. Smart Summon, om de auto op bijvoorbeeld parkeerplaatsen op afstand te laten rijden, en Emergency Lane Departure Avoidance werken mogelijk nog niet. Deze functies worden via over-the-air-updates in de komende weken naar deze Tesla-modellen gebracht.

De Tesla Model S- en Model X-modellen worden nog geleverd met radarhardware. Ook auto's die niet voor de Noord-Amerikaanse markt zijn bestemd, blijven radars krijgen. Tesla wil uiteindelijk alleen nog maar Tesla Vision-auto's maken. Dat Tesla naar een systeem dat exclusief camera's gebruikt stapt is opvallend; de meeste andere autofabrikanten gebruiken voor rij-assistenten en veiligheidsfuncties juist een combinatie van radar, camera's en soms ook lidar.

Tesla Model Y

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Hayte Hugo

Nieuwsredacteur

26-05-2021 • 09:24

265 Linkedin

Lees meer

Reacties (265)

Wijzig sortering
Goede aanvulling op dit artikel is het volgende filmpje, en ik start hem vanaf 2:23 omdat daar gelijk een demonstratie gegeven word van hoe Tesla camerabeelden omzet naar een 3D kaart van de omgeving:

https://youtu.be/HM23sjhtk4Q?t=143

Het hele filmpje is verder erg interessant. Ik ben dan ook benieuwd naar hoe dit gaat uitpakken. Het is weer lekker tegen de stroom in, vergeleken met andere fabrikanten, maar de logica snap ik. Wij gebruiken ook alleen maar beeld om te rijden. En als er bvb veel mist of veel sneeuw is (veel gehoord argument) dan zou het systeem uberhaubt niet moeten werken en moet je zelf rijden...of juist niet rijden als er geen zicht is.

Idem met een vuile camera, veel is natuurlijk wel technisch op te lossen maar als de beelden niet meer bruikbaar zijn dan moet het systeem zich gewoon uitschakelen. Ik zie daar niet een heel groot probleem in.

[Reactie gewijzigd door Devian op 26 mei 2021 16:45]

De vraag is wat er in deze situatie zou gebeuren zonder radar:
https://www.youtube.com/watch?v=APnN2mClkmk
1 van de eerste dodelijke ongelukken met een wagen op AP kwam net door een combinatie van laagstaande zon en het te hard vertrouwen op videobeelden. De wagen kon onder de lading van een vrachtwagen doorkijken, wer daarbij ook verblind door de zon en ging er daarom van uit dat het kruispunt vrij was en kon doorgereden worden. De radar op die Tesla had het wel gezien, maar door de hogere waardering van de camerabeelden gaf de computer voorrang aan de conclusie van het vision systeem.

Ook dat ongeval enkele jaren terug met een test van Uber's FSD technologie was dit het geval. Uber had het systeem dat Volvo in de wagen had ingebouwd volledig lam gemaakt omdat het niet wenste dat het zou ingrijpen en dus de eigen, experimentele systemen in zouden staan voor alles. Achteraf bleek uit de gegevens van de event data recorder in de wagen dat de originele radar wel op tijd had kunnen ingrijpen.

Hiermee wil ik vooral aangeven dat systemen complementair kunnen en moeten zijn. Het hoeft geen of/of verhaal te zijn zoals Tesla er nu van maakt.
Radar is enorm beperkend. Het grote probleem is dat radar enkel kan zeggen of 'iets is' maar kan het object niet definiëren. Dat camera's verblinden worden door de zon is een technisch te verhelpen issue. Radar kan plots geen kleuren zijn of objecten identificeren zoals dat met vision wel kan. Vision wordt ook elk jaar beter en beter. De interpretatie wordt beter maar ook de sensoren worden beter. Beter nachtzicht, IR zicht hybride, hogere resolution, beter dynamisch bereik, beter zicht in rook of mist etc.

Indien je niet weet wat voor object het is kan je moeilijk overwogen beslissingen nemen zoals een menselijke brein dat zou doen. Mensen regeren anders op een afvalzak op de weg vs een kinderwagen of een gevallen fietser op de rijbaan. Dus je zit op een dood einde met radar.

Het complementaire zit hem op een ander niveau. Radar zou vision wel kunnen waarschuwen maar mag niet op zichzelf een uitwijk manoeuvre begeleiden. Als er twee 'masters' zijn krijg je te pas en te onpas false positives puur omdat context mist. Net zoals uw perkeersensoren dezelfde geluid maken bij lang gras of bij een stenen muur. Vision ziet ongevaarlijk gras en Radar zegt 'STOP'. Wat doe je?

Uiteindelijk kan je met vision alles wat radar kan. En als vision het laat afweten door de meteorologische omstandigheden dan wil dat zeggen dat je met radar ook niet mag rijden want die mist gewoon een hele hoop context om nog autonoom verder te gaan.

Ik denk iedereen het potentieel van vision heel hard onderschat.
Maar ik denk ook dat mensen de technologie die nodig is voor echte vision onderschat. Het menselijk oog en de computer daar achter kunnen we nog niet repliceren in techniek om vergelijkbare vision neer te zetten. Lens en sensor techniek alleen al; focus, diepte, lichtintensiteit, periferie (of hoek) en de snelheid om daar in te kunnen wisselen met daarna ook nog "begrijpend" kijken. Volgens mij zijn we allemaal nog lang niet zo ver om FSD daadwerkelijk te kunnen vertrouwen, laat staan puur op zicht.
Vision is het heer en meester als het gaat over objecten in high res vastleggen en identificeren. De interpretatie ervan staat wel al redelijk ver. Daar een gevolg aangeven en een route beredeneren is natuurlijk moeilijker maar alles start met een goede bewegende 3d map in groot detail.

Heel onze wegeninfrastructuur is visueel uitgedacht dus het is logisch dat FSD ook die weg inslaat om het menselijke oog na te bootsen.

Ik zie geen toekomst in radar voor level5 omdat het detail mist. Dat FSD nog niet voor morgen is weet iedereen ondertussen. Maar puur wat sensoren betreft zie ik niet in waarom radar of lidar zoveel beter zou zijn in de long run.
Radar zou dan ook voornamelijk een toevoeging zijn op de camera's. In dat geval zouden de camera's de belangrijkste input zijn en als ze alles wat in beeld is met een bepaalde zekerheid kunnen identificeren is de radar input verder niet nodig.

Ik kan me echter situaties indenken waar de camera's moeite hebben om het beeld correct te identificeren, zoals het voorbeeld van de vrachtwagen dat @Blokker_1999 gaf. Als de identificatie een te hoge onzekerheid heeft wordt de radar ingeschakeld. Dan kun je met radar kunnen bevestigen dat er wel degelijk een obstakel is, of juist dat de weg vrij is. Stil gaan staan als er niets is en doorrijden als er wel een obstakel is kunnen allebei tot problemen leiden, en zoals in het voorbeeld van de vrachtwagen zelfs levensgevaarlijk zijn.
Maar als de ene een obstakel ziet, en de andere ziet het niet moet de andere niet zomaar gaan zeggen: ik heb gelijk. En laat dat nou net zijn wat daar gebeurd is. Als je complementair wil zijn, moet je elkaar vertrouwen. Als de radar een obstakel ziet en vision ziet het niet, moet vision kunnen verklaren waarom er niets te zien valt, indien dat niet kan moet vision op de radar vertrouwen.

En nee, met vision kan je niet alles wat met radar kan. Dat is net mijn punt. Radar ziet dingen die vision niet kan zien en vision ziet dingen die met radar niet gedetecteerd kunnen worden. Ze vullen elkaar aan, zijn complementair. En als vision niets ziet wil dat nog niet zeggen dat je alle functionaliteit moet uitschakelen. Adaptive cruise control werkt nog altijd met radar bijvoorbeeld. En dat zie je nu ook in deze press release. Radar weg en je ACC moet meer afstand houden, en bedenk dan even dat menig Tesla bezitter nu al klaagt over het enorme gat dat AP voor zich wenst te zien bij een lane change.
Volvo gebruikt allebei en als het om reputatie gaat zijn ze de beste met veiligheid.
Probleem is dat je hier de aanname doet dat de verhouding tussen radar en vision verkeerd was. Die verhouding was echter niet zomaar gekozen. Radar heeft veel meer ruis in de data stream waardoor er meer false positives en false negatives zijn. Had Tesla de verhouding radar vs vision dus anders gekozen, dan waren deze specifieke ongelukken wellicht voorkomen. Maar in heel veel andere situaties juist ongelukken veroorzaken!
Ja dat zijn goede opmerkingen, en het sluit een beetje aan wat hier nog meer genoemd word...want zou het juist niet fijn zijn als autopilot het beter kan dan de mens door gebruik van bvb radar en lidar?

Maar zou dat dan niet een volgende itteratie kunnen zijn in het plan van Tesla?

Stap 1) We doen alles met camera...en doordat we alles met camera doen verzamelen we een huge amount aan data en kunnen wij het punt veel sneller bereiken om hetgeen wat de mens zelf kan te vervangen (en dat is dan al volwaardig zelf rijden). Sneller omdat het goedkoper is en daardoor meer in te zetten waardoor je meer data ontvangt.

Stap 2) Nu gaan we radar/lidar toevoegen om het systeem beter te maken dan de mens. Dit moment komt dan ook later, maar de technieken zijn dan ondertussen ook verder ontwikkeld, kleiner geworden en goedkoper gemaakt. En dat is het moment dat het beyond "mens" gaat.

Wellicht dat je het, door het op deze manier te doen, uiteindelijk een veel beter, en goedkoper, FSD systeem kunt opzetten.
Nou, radar zit er al in, dus dan gaan we eerst een stap terug voordat we weer een stap vooruit gaan?

De dingen die je noemt zijn ook allemaal te doen door de auto's met alle hw te blijven leveren, maar met software ervoor te kiezen om bepaalde hw wel en bepaalde hw niet te gebruiken. Je kunt zelfs een model zonder radar schaduw laten draaien op voertuigen, om te zien of je daarmee onverhoopt toch extra ongevallen zou krijgen.

Dus ik vraag me toch af of leverbaarheid van de radar een rol speelt bij het weglaten nu. Ook omdat de radar in Europa er toch op blijft zitten; wordt er in Europa toch een ander neuraal netwerk gebruikt dan, waar radar wel deel van blijft uitmaken en wat minder "full" is dan Amerikaanse full self-driving?
Wat bedoel je met "zonder radar schaduw"? Voor zover ik weet wordt "radar schaduw" veroorzaakt door obstakels waar de radar niet of slechts gedeeltelijk overheen kan kijken.

De "radar schaduw" kan gevonden worden door een rechte lijn te trekken vanaf de radar z/o over de top van een obstakel. Alles, na het obstakel, dat onder deze lijn valt is de "radar schaduw". Bij zeer lage radar frequenties (hier niet aan de orde) is de lijn enigszins gebogen.
Met schaduw draaien bedoelt hij dat je 1 software met radar laat draaien, en 1 zonder radar, en dan kijkt waar het model zonder radar foute of andere beslissingen gemaakt zou hebben.
Geen radar-schaduw.
Sorcerer8472 het niet over ‘radar schaduw’, maar over het parallel laten draaien van een algoritme dat alleen de camerabeelden gebruikt in een auto die wel radar heeft: schaduwdraaien.
En dat zou inderdaad prima moeten kunnen. Sterker nog: machine learning laten leren houdt in dat je van de output van het algoritme moet kunnen vertellen of het goed of fout is. Als je een radar aan boord hebt kun je de radardata gebruiken om de camera-interpretatie te trainen. Hoe werkt dat zonder radar: alleen door middel van menselijke interventies? Dat is toch incompleet?

[Reactie gewijzigd door Concept8 op 26 mei 2021 12:40]

Gaat de tesla hier in de remmen op basis van Radar, of de remlichten die worden gedetecteerd door de camera. Op het moment dat je de remlichten ziet waarschuwt de tesla. Geen idee hoe het allemaal werkt.
In allerlei video's over AP op YouTube blijkt dat het systeem weinig tot niets doet op basis van signalering met remlichten, richtingaanwijzers etc. omdat het lang niet altijd klopt hoe mensen signaleren. Bovendien kan een computer vision systeem in theorie vrij snel zien wanneer een auto daadwerkelijk afremt. Als iemand keihard op de rem trapt ziet het systeem na een paar frames (tientallen milliseconden) al dat er wordt geremd, vs dat iemand zachtjes op de rem trapt wat de remlichten wel triggert terwijl die bestuurder nauwelijks remt.

Deze video is intussen wel al wat ouder. Maar het blijft gissen hoe Tesla zou performen in deze situatie zonder radar.
Wij gebruiken ook alleen maar beeld om te rijden.
Wat een heel goed argument is waarom je meer dan alleen cameras wil hebben ;) . Het is niet alsof de mens het lichtende voorbeeld is van hoe je moet rijden. Nu heeft een Tesla natuurlijk meer camera's, maar ze blijven beperkingen hebben.
En als er bvb veel mist of veel sneeuw is (veel gehoord argument) dan zou het systeem uberhaubt niet moeten werken en moet je zelf rijden
Waarom zou het systeem dan niet moeten werken? Ipv gewoon extra input te krijgen van bijvoorbeeld radar systemen?
Waarom zou het systeem dan niet moeten werken? Ipv gewoon extra input te krijgen van bijvoorbeeld radar systemen?

Meer input betekent niet betere beslissingen of betere data. Sterker nog, je krijgt enkel meer problemen omdat je meer conflicten krijgt en wat ga je dan doen? Geloof je de radar of de camera's? De informatie (resolutie) van de camera's is veel hoger dan radar en gezien er meerdere camera's zijn krijg je juist meer betrouwbare data. Zo moet blijkbaar 'ghost braking' opgelost zijn met de pure vision oplossing.

We gaan het zien..
Meer input betekent niet betere beslissingen of betere data.
Dat betekent het juist wel. Je argument klinkt een beetje als een niet-ironische variant op Segal's law:
A man with a watch knows what time it is. A man with two watches is never sure.
Het probleem wat jij omschrijft is niet nieuw, integendeel: robotica en informatica hebben hier al decennia lang aan gewerkt, in de vorm van sensor fusion en information integration. Er zijn robuuste manieren om meerdere bronnen van informatie te combineren, zoals bijvoorbeeld een Kalman filter, wat @DaveDave976 al aangeeft.

Aangaande de hoeveelheid informatie: een hogere resolutie van een camera betekent helemaal niet dat er meer informatie uit komt. Als ik een 4K camera op een egaal wit vlak richt, krijg ik daar slechts 1 effectief data-punt uit: de kleur wit. Als ik een 4-pixel radar op datzelfde witte vlak richt, krijg ik daar 3 data-punten uit: de afstand, hoek van links naar rechts, en de hoek van boven naar beneden. Informatie meet je niet in pixels, maar in entropie. Afhankelijk van de situatie kan een lage-resolutie radar veel meer informatie geven dan een dozijn hoge-resolutie cameras.

Iedereen die hier ook maar enig verstand van heeft weet dat het weglaten van radar een nadeel is. Alleen al het feit dat meerdere systemen niet meer (goed) functioneren bewijst dat wel. Tesla werkt al vanaf het begin aan een systeem wat puur met cameras een accuraat beeld kan vormen van de omgeving, en als dat systeem goed zou werken, zouden ze niet de radar weglaten voordat hun camera systeem die functies over kan nemen. Dit is puur een kostenbesparende functie, en waarschijnlijk gaat het nog lang duren voordat deze functies weer terugkomen.
Dat betekent het juist wel
Ik snap niet dat iemand kan concluderen dat meer data=betere data is. Zonder inhoudelijk precies te weten hoe het systeem werkt kan niemand dat zomaar concluderen. Ik denk ook dat niemand hier weet hoe Tesla beslissingen maakt uit deze data (ik ook niet, ik wil enkel aangeven dat zulke aannames niet zomaar gemaakt kunnen worden...)

Je argument klinkt een beetje als een niet-ironische variant op Segal's law:
Maar we vergelijken hier geen appels met appels. We vergelijken radar met camera's... Jouw argument gaat enkel op als je meerdere inputs van dezelfde soort hebt. Dan gaat die vergelijking wel op, sterker nog. Tesla gebruikt nu al meerdere camera inputs om betrouwbaardere data te behalen.

een hogere resolutie van een camera betekent helemaal niet dat er meer informatie uit komt.
Ik was hier niet helemaal duidelijk maar ik praat niet over cameraresolutie maar over de geëxtrapoleerde data (waarden).

Afhankelijk van de situatie kan een lage-resolutie radar veel meer informatie geven dan een dozijn hoge-resolutie cameras.
Is dat zo? Kan een radar bepalen wat een object precies is? Naar welke kant een mens kijkt? Je vergeet volgens mij dat een cruise control radar zeer laag van resolutie is. Hoeveel data kun je hieruit halen ten opzichte van een camera frame?

Iedereen die hier ook maar enig verstand van heeft weet dat het weglaten van radar een nadeel is.
Hoe kun je zo'n uitspraak maken zonder inhoudelijk te weten hoe Tesla's systeem werkt? Phantom breaking is bijvoorbeeld iets dat bij meer radarsystemen voor komt:
https://www.reuters.com/a...ssan-safety-idUSKCN1VX2CP

In February, Nissan recalled 75,358 2017-2018 Rogue and Qashqai vehicles in Canada, warning that a metal structure like a railroad crossing or overhead sign could cause the automatic emergency braking system to unnecessarily activate and informing owners that a software update was available.
Radar systemen zijn helemaal niet zo betrouwbaar als mensen denken. Daarom activeren deze systemen zich vaak enkel boven of onder een bepaalde snelheid. Zo heeft radar grote moeite om stilstaande objecten te herkennen. Hierdoor zie je dat autofabrikanten allemaal systemen ontwikkelen om om deze beperkingen heen te werken. Volvo heeft bijvoorbeeld City Safety, een lasersysteem... Ga je nu aangeven dat Volvo er geen verstand van heeft omdat ze daar de radar niet voor gebruiken?

Alleen al het feit dat meerdere systemen niet meer (goed) functioneren bewijst dat wel.
Dat bewijst enkel dat ze die onderdelen niet af hebben. Niets meer, niets minder. Ik snap niet waarom je steeds maar aannames maakt...

en waarschijnlijk gaat het nog lang duren voordat deze functies weer terugkomen.
Dat gaan we dus zien. De update moet over een aantal weken worden uitgebracht...
Een camera is een andere sensor, met andere eigenschappen. Bij slecht zicht biedt een radar meerwaarde, en bij het waarborgen van de privacy van je medeweggebruikers ook. Ook kan een radar sneller en nauwkeuriger snelheidsveranderingen meten van auto's die voor of achter je rijden. Gegeven de diversiteit van verkeerssituaties denk ik dus inderdaad dat het weglaten van deze sensor nadelig is voor de situational awareness.
Ik vond deze uitleg op Reddit wel duidelijk.

I happen to work a lot with radar and I'm actually very, very happy with this decision. It would possibly be nice to have the ability to switch modes during inclimate weather events where radar actually has some strengths, but overall it is poorly suited for most driving tasks and trying to jive with visual information has to be a huge headache. It's kind of like trying to correlate smells and colors. Sure, you can smell how close you are to a butt or you could just use your eyes instead. And you certainly don't need both, especially when other things smell like butts too.
I'm hopeful that they've done enough validation to prove that they have reached some level of parity with vision based distance-ranging and relative velocities of different moving objects.
Vision is hands-down superior with respect to stationary objects and also object recognition, and I think with some work the difference in ranging can be brought down to a point where it just doesn't matter which you use, practically speaking.
In short, radar is really only good for reduced visibility situations where lane keeping will probably also be degraded enough to not be worth it. Then there's the "two car ahead" thing. I don't think that's much of an issue, honestly. Vision can be fast enough to still avoid the crash. Your real danger is the car behind you.


Kort door de bocht: ze moeten toch grotendeels van visuele indicaties gebruik maken. De radar maakt dit nu complexer en als je hetzelfde kunt bereiken met enkel de camera’s, waarom dan nog de radar gebruiken? Maar uiteraard zal kostenbesparing ook een grote factor zijn.
Mee inputs leid theoretisch zeker tot betere data! en dus betere beslissingen. Tuurlijk zal er in situaties een verschil zijn tussen camera's en radar, maar de "ground truth" is onbekend, en dat is het geen wat je wil achterhalen. Door slim om te gaan en dynamisch estimations te doen van nauwkeurigheid van sensoren kan je slim kiezen welke sensor je vertrouwd en dus in je state-estimation mee nemen.

Een implementatie hiervan is bijvoorbeeld een kalmen-filter.
Met je voorbeeld moet je natuurlijk wel meerdere radar systemen hebben. Het is niet zo dat visuele data en radar data direct te vergelijken zijn. Het punt van "ground truth" is daarom precies waarom Tesla nu enkel nog maar kiest voor camera's. Daarmee kun je wel met een kalmen-filter werken om de data van alle camera's (die overlappen) te gebruiken om hogere 'resolutie' te krijgen.

Ik ben het echter nog steeds niet eens met de uitspraak 'Meer inputs leidt theoretisch zeker tot betere data! en dus betere beslissingen.' Het lijdt enkel gegarandeerd tot meer data. Die data moet verwerkt en vergeleken worden. Gezien er ook nog eens verschillende datatypen vergeleken moeten worden, is het enkel te zeggen dat het complexer is.
Je kan inderdaad niet zomaar zeggen dat met meer data zo'n systeem beter wordt.

Je kan ook niet zeggen dat met meer data een systeem perse complexer wordt, dat hangt af van de verwerking van de data. Tesla kan er voor kiezen om met radar systemen toch enkel de videobeelden te gebruiken voor de beslissingen die het systeem neemt.

Maar je kan wel zeggen dat door minder sensoren het systeem aan de basis in theorie slechter wordt.
De vraag of dat theoretische verschil uiteindelijke praktische gevolgen heeft is puur afhankelijk van de manier van de verwerking die Tesla en de andere autofabrikanten gebruiken.
Qua verschillende inputs, zie ik drie opties:
1. Radar en camera's geven zelfde resultaat --> geen probleem
2. Radar en camera's geven verschillende resultaten, maar de oorzaak is duidelijk en er wordt bepaald welke leidend is (eg als er mist is).
3. Radar en camera's geven verschillende resultaten, als die gelijk moeten zijn --> probleem!

En als optie 3 gebeurd, dan heb ik liever een zelfrijdende auto die het veilige resultaat aanhoudt, en als het probleem blijft bestaan zich op een veilige plaats uitschakelt, dan een systeem met maar één optie, en die gewoon blindelings als juist aanneemt.
en die gewoon blindelings als juist aanneemt.
Men werkt helaas niet met 0 of 1 maar met waarschijnlijkheden (probability). Je input is namelijk nooit 100% correct. Een radar pakt allerlei zaken op en de computer bepaald of het een probleem is. Neem bijvoorbeeld een paaltje langs de weg, de radar 'ziet' een stilstaand object. Moeten we dan vol op de rem? Waar gaat dat paaltje heen? Is het een voetganger, voertuig of dier? Welke regels gelden voor welke locaties?

Radar is niet een of ander magisch apparaat dat alles kan zien... Daarom waarschuwen fabrikanten hier ook voor:

Collision Warning werkt niet in alle rijsituaties, verkeers-, weers- en wegomstandigheden. Collision Warning reageert niet op naderende tegenliggers of fietsers noch op dieren.
Er wordt alleen gewaarschuwd, wanneer het risico van een botsing groot is. In het onderdeel "Functie" en "Beperkingen" wordt geïnformeerd over de beperkingen die u als bestuurder moet kennen, voordat u de Collision Warning met Auto Brake gebruikt.
Er wordt niet gewaarschuwd noch geremd voor voetgangers en fietsers bij een rijsnelheid hoger dan 80 km/h (50 mph).
Ik zie veel in mesh. Waarbij beeld/radar van meerdere auto's gecombineerd wordt. Het lijkt me dat een fundamenteel issue bij welke techniek ook wordt toegepast, is dat het altjjd alleen maar vanuit de auto gebeurd.
[...]

Wat een heel goed argument is waarom je meer dan alleen cameras wil hebben ;) . Het is niet alsof de mens het lichtende voorbeeld is van hoe je moet rijden. Nu heeft een Tesla natuurlijk meer camera's, maar ze blijven beperkingen hebben.
Gaat het in eerste instantie er niet om, om tenminste dezelfde veiligheid te creëren, de volgende stap is deze te verbeteren. Maar als een AI even "goed" werkt als de mens dan hebben we er toch al veel baat bij.
Het zou juist veiliger moeten worden, bij mist zijn de omstandigheden vaak erg wisselend en dan is het wel zo veilig als het systeem kan remmen.
Precies; Mist kan zeer verraderlijk optreden en daardoor veroorzaakt het ook zoveel ongelukken.
Mensen komen plotseling in een zeer dichte misbank en kunnen niets meer zien. Wat doe je dan? Je hebt geen zicht meer en moet op de gok door. (op de rem gaan staan betekend dat je onmiddellijk een ongeluk veroorzaakt dus dat is geen optie)
Een Tesla komt dan voor hetzelfde probleem, het moet op de gok door. Leuk dat Devian dan zegt dat het systeem in zo'n situatie niet moet werken, maar je komt onverwacht in zo'n situatie terecht. Dus die argumenten heb je dan niks aan.

Terwijl de rest van de wereld een radar gebruikt, waardoor zo'n plotselinge mistbank veel minder gevaarlijk is en veel dodelijke ongelukken dan vermeden kunnen worden.
Hoewel het filmpje zeker interessant is (net als meerdere filmpjes van de Autopilot afdeling) ben ik het niet helemaal met je eens. Tesla verkoopt hun pakket als 'Full Self Driving' en of het werkt of niet (dat is een andere discussie) mag je daarbij aannemen dat de auto in ieder geval bij de meeste weersomstandigheden ook doet wat 'ie volgens Full Self Driving zou moeten doen. En dat is nu dus niet het geval, zoals ik ook in een post hieronder van mezelf aangeef komt het te vaak voor dat de auto compleet onvoorspelbaar wordt zodra de zon al een beetje schijnt, het mistig wordt of het hard begint te regenen. Het voordeel van een sensor + camera is dat ze hun taken kunnen combineren, een sensor kan namelijk z'n werk nog wel doen als er wat vuil voor zit of als de zon fel schijnt.
Het voordeel van een sensor + camera is dat ze hun taken kunnen combineren, een sensor kan namelijk z'n werk nog wel doen als er wat vuil voor zit of als de zon fel schijnt.
Kleine toevoeging:
Een camera is ook gewoon een sensor die een bepaald bereik van het elektromagnetisch spectrum waar kan nemen. Afhankelijk het materiaal waaruit de objecten die het meet gemaakt zijn en de golflengte die het meet zal licht objecten/materie beïnvloed doordat het gereflecteerd of geabsorbeerd worden.

De meeste golflengte die nu voor bijvoorbeeld lidar gebruikt worden, worden ook beïnvloed door water:
https://www.laserfocuswor...aised-about-1550-nm-lidar

Uiteindelijk denk ik dat een auto prima te besturen zal zijn met alleen RGB camera's, wij kunnen met onze ogen ook prima rijden en dan missen we als mens continue een hoop informatie omdat wij geen 360 graden view om de auto hebben.

[Reactie gewijzigd door jdh009 op 26 mei 2021 10:20]

Als kritiekpuntje op het laatste. Wellicht dat je wel kan rijden met simpele camera's, maar als je de techniek hebt om betere en/of meer inputs te krijgen, waarom zou je hier geen gebruik van maken? Het kost natuurlijk meer in hardware maar dit bespaar je dan weer in software. Camera's hebben gewoon hun limieten wat weer niet in software op te lossen is. Een overbelicht of onderbelicht beeld kun je nog zo veel processing power tegenaan gooien, je gaat geen informatie winnen die er niet is.
Stel: Een fabrikant maakt een superveilige auto met alle sensoren die ze maar kunnen vinden, en een andere fabrikant maakt een auto die 0,01% minder veilig is maar die slechts de helft van de prijs kost. Dan gaat die eerste auto gewoon commercieel geen succes worden.

Uiteindelijk is zelfs veiligheid voor het bedrijfsleven helaas een kosten/baten analyse.
Daar heb je groot gelijk in. Ik doelde er meer op dat als wij kunnen rijden met onze zintuigen, dit ook zou moeten kunnen met een computer met vergelijkbare sensoren. Een computer heeft namelijk het voordeel dat ie zijn hoofd niet moet bewegen (field of view) of knippert met de ogen. Hoe veiliger het systeem hoe beter, echter denk ik dat een systeem dat beter is dan de mens al goed genoeg is om in te zetten (los van welke technieken er gebruikt wordt). De vraag is daarna hoeveel je extra wilt uitgeven aan een nog veiliger systeem. Het juridische aspect (aansprakelijkheid) is echter nog een punt wat bekeken moet worden.

[Reactie gewijzigd door jdh009 op 26 mei 2021 13:17]

een sensor kan namelijk z'n werk nog wel doen als er wat vuil voor zit of als de zon fel schijnt.
Vreemde uitspraak, zoals je hier in de reacties kunt lezen is dit helemaal niet het geval. Radar wordt zeker beïnvloed door weersomstandigheden en Lidar heeft ook zijn problemen met weersomstandigheden.

Ik herken ook jouw verhaal niet. Ja, FSD schakelt uit wanneer er 'slecht weer' gedetecteerd wordt maar hij rijd dan nog prima door. Hij wisselt enkel niet meer van rijbaan en pakt afslagen niet meer automatisch.

Je doet het voor alsof sensor + camera helemaal geen nadelen heeft maar dit is ook niet zo. Musk heeft bijvoorbeeld belooft dat het 'ghost breaking' opgelost moet zijn met Tesla Vision. Of het inderdaad zo is moeten we natuurlijk afwachten maar meer sensoren (data) wil zeker niet zeggen dat het beter is. Daar is dit probleem veel te complex voor.
Ik herken ook jouw verhaal niet. Ja, FSD schakelt uit wanneer er 'slecht weer' gedetecteerd wordt maar hij rijd dan nog prima door. Hij wisselt enkel niet meer van rijbaan en pakt afslagen niet meer automatisch.
Maar hiermee bevestig je mijn verhaal toch juist? FSD staat voor het zelf rijden en dus zelf van rijbaan wisselen en afslagen pakken. Als 'ie dit niet meer doet door 'slecht weer', dan doet 'ie niet meer wat ie belooft te doen, dus werkt het niet goed? Of zie ik dat nu verkeerd.

Ik had zelf inderdaad enkel het 'autopilot' pakket en geen FSD. Wellicht dat het met FSD dus beter werkt maar bij mijn Autopilot was ie geregeld compleet 'de weg kwijt' tijdens slecht weer. Op een gegeven moment werd het zo vervelend dat ik het uberhaupt maar niet meer aan heb gezet tijdens bepaalde weersomstandigheden omdat ik wist dat het niet zou werken.
Als 'ie dit niet meer doet door 'slecht weer', dan doet 'ie niet meer wat ie belooft te doen, dus werkt het niet goed? Of zie ik dat nu verkeerd.
Niet echt want hij mag hier toch al niet zelf van rijbaan wisselen. Hij geeft het enkel aan.

Op een gegeven moment werd het zo vervelend dat ik het überhaupt maar niet meer aan heb gezet tijdens bepaalde weersomstandigheden omdat ik wist dat het niet zou werken.
Zowel FSD als autopilot is in europa extreem streng gereguleerd. Zo streng dat autopilot in het buitenland een heel andere rijervaring oplevert. Als voorbeeld, in een bocht mag autopilot maar 0,3G uitoefenen op een bestuurder. Dit is veel te weinig voor veel bochten maar Tesla moet zich aan deze regels houden. Dit resulteert in raar remgedrag midden in de bocht en meldingen op het scherm dat de bestuurder klaar moet staan het stuur over te nemen. De auto moet namelijk direct het stuur vrijgeven als deze limiet overschreden wordt, ook al vlieg jij mogelijk de bocht uit. Dit is al uitgebreid gedemonstreerd door Tesla bij de europese committees maar ze doen er niets aan.

Het is dus moeilijk voor ons om hier een oordeel over te vellen.
Niet echt want hij mag hier toch al niet zelf van rijbaan wisselen. Hij geeft het enkel aan.

Hoe bedoel je dit? Mijn Tesla model 3 wisselt zelf van rijbaan?

[Reactie gewijzigd door ro4sho op 26 mei 2021 14:10]

Neem aan dat je Model 3 bedoelt.

In de VS wisselt FSD volledig zelfstandig van rijbaan zonder enige bevestiging van de bestuurder. Je kunt daar dus letterlijk vanaf oprit tot afrit rijden zonder interactie. In Nederland moet de bestuurder het knipperlicht aanzetten én het stuur een duwtje geven om aan te geven dat het een bewuste handeling van de bestuurder is.
Dit is inderdaad wat ik bedoel ;)
typo inderdaad. Ging om de 3. Dan snap ik wat je bedoelt.
Ze beweren/verkopen het toch niet als FSD in alle (weers)omstandigheden?
Uitschakelen en toch doorrijden zijn 2 dingen die volgens mij niet echt samengaan. Ofwel heeft het systeem voldoende informatie om zelf de rijbaan te kunnen volgen en zou er bijgevolg ook geen probleem mogen zijn om van rijstrook te wisselen, ofwel is er gewoon onvoldoende informatie om zelfstandig te rijden voor het systeem en moet alles uitschakelen. Ik zie niet direct een middenweg.
Ofwel heeft het systeem voldoende informatie om zelf de rijbaan te kunnen volgen en zou er bijgevolg ook geen probleem mogen zijn om van rijstrook te wisselen,
Dat is een aanname die zonder interne kennis niet gemaakt kan worden. Ik weet helaas ook niet waarom hij omschakelt naar autopilot tijdens slecht weer.
Check het filmpje even iets verder daar heeft Musk het ook nog over , regen, zandstormen, mist. Ze hebben nog altijd een lagere kwaliteit radar erop zitten om hier in bij te staan. Dus de volledige radar lijkt niet er af te gaan.
En laat Tesla nu net met dit bericht aankondigen dat die radar dus verdwijnt in Noord Amerika.
Je moet de video bekijken en dan kom je er achter dat de "dure" radar eruit gaat maar dat een goedkope radar juist wel nodig is. 7:47 in de video

Waarom Revres een -1 moderatie krijgt is mij overigens een raadsel. Van mij krijg je een +2

Edit: -1 moderatie? Serieus?. Zo heb ik er natuurlijk ook weinig zin in om inhoudelijk te bespreken wat wel of niet bedoeld wordt met verwijderen van de lidar of andere radars/sensoren in de auto. Maar blijkbaar krijg je een -1 als iemand het met je oneens is. Vreemd.

[Reactie gewijzigd door david-v op 26 mei 2021 16:17]

In het bericht staat dat de radar verdwijnt.
Het filmpje is uit 2019. Lezen jullie het bericht wel?
Zeker, maar ik denk dat we het anders interpreteren. Dat waar Musk en Tesla het over (dure) lidar hebben voor de auto pilot, geven wij aan dat er andere sensoren (goedkope radar voorin) die niet voor de auto pilot functie wordt gebruikt maar voor occlusion (dat is volgens mij de term die Musk gebruikt).

Dus ja, (dure) lidar voor autopilot gaat eruit, maar andere sensoren, inclusief een front facing radar, niet.

"Yesterday, he even told an analyst that Tesla wouldn’t use lidar sensors. Early ones were known to be expensive but have come down in price in recent years, even if they were free:

I mean totally free, well, I think even if it was free, we wouldn’t put it on.

Instead, Tesla is using eight surround cameras around its vehicles complemented by 12 ultrasonic sensors and a front-facing radar.

Bron

Dus ja, ik lees niet alleen het artikel, maar ook alle informatie er om heen.
Die 3D reconstructie is nog niet eens zo impressive vind ik, met alleen een RGB camera en goede IMU kun je zelfs hele3D modellen genereren op basis van een normale camera feed (in het Tesla voorbeeld is het meer een point cloud?)
Check dit filmpje voor de gein eens, dit is op een iPhone X (dus zonder LiDAR) 2 jaar geleden.
Er is natuurlijk wel een verschil tussen een statische kamer scannen met een iphone, versus tijdens het rijden in een mum van tijd een accuraat beeld van een bewegende wereld verkrijgen
De techniek is niet ingewikkelder je hebt alleen meer processing power nodig om het op video te doen. En processing power neemt nog steeds snel toe dus dat moet totaal geen probleem zijn.
Let wel even op dat je filmpje geen 3D reconstructie doet. Het gebruikt de camera om vision te 'mappen' op een bestaand 3D model. Dit staat ook in de beschrijving:
The magic is that the 3D model IS the SLAM map.
Die SLAM map komt ook van de camera, op hetzelfde moment (in realtime) en daarna plakken ze er een texture overheen idd. Maar het is wel degelijk reconstructie

[Reactie gewijzigd door Menesis op 26 mei 2021 15:46]

Het hele filmpje is verder erg interessant. Ik ben dan ook benieuwd naar hoe dit gaat uitpakken. Het is weer lekker tegen de stroom in, vergeleken met andere fabrikanten, maar de logica snap ik. Wij gebruiken ook alleen maar beeld om te rijden. En als er bvb veel mist of veel sneeuw is (veel gehoord argument) dan zou het systeem uberhaubt niet moeten werken en moet je zelf rijden...of juist niet rijden als er geen zicht is.
Logisch gezien hoeft een computer niet zoals een mens te zijn, en zou die prima van meer en gevarieerdere sensoren tegelijkertijd gebruik kunnen maken om veiliger te zijn dan een mens. Ook met mist of veel sneeuw.

De ontwikkeling gebaseerd op enkel camerabeelden is goed, maar het één hoeft het ander niet uit te sluiten.

[Reactie gewijzigd door The Zep Man op 26 mei 2021 09:44]

Ook radar wordt verstoord door regen (buienradar!) en sneeuw; Bij sneeuw gebeurt het bij alle autos zelfs regelmatig dat plakkende sneeuw op de grille/voorbumper de radar volledig blokkeert, wat nu bij Tesla en andere merken ook de ACC disactiveert.

Ik vraag me af of het lichtspectrum wat Tesla camera's gebruiken misschien meer kunnen zien bij bv mist dan mensenogen - bv door UV of IR te zien. In elk geval zijn het geen gewone "RGB" camera's, dit kun je duidelijk zien als je de dashcambeelden van deze camera's bekijkt, heel rare kleuren!
Ook radar wordt verstoord door regen (buienradar!) en sneeuw;
Nergens claim ik iets anders. Toch kan ik mij voorstellen dat er situaties zijn waarin een radar meer/verder kan zien dan camera's.
Ook radar wordt verstoord door regen (buienradar!
De buienradar is een radar die specifiek een golflengte gebruikt die weerkaatst word op regendruppels. Anders zou een radar er dwars doorheen kijken.
Voor een radar voor autos ga je natuurlijk juist niet die golfllengte gebruiken.
Diepte perceptie (of eigenlijk depth estimation) met monoscopisch zicht is goed mogelijk, maar voor zover ik weet nu alleen praktisch haalbaar waarbij gebruik gemaakt wordt van neurale netwerken met labeled/annotated data. Het probleem: alles wat niet geclassificeerd is, kent een piek in onzekerheid.

Als dat klopt, en Tesla dus niet feitelijke computation depth perception heeft bereikt met een enkele camera, dan rekenen zij vrijwel exclusief op neurale netwerken. Ik ben nog niet overtuigd dat overheden, vooral in de EU, daar wel comfortabel genoeg mee zijn voor zo’n belangrijk veiligheidssysteem.

In ieder geval erg spannende tijden!
Ik ga iets heel engs zeggen: ik sluit niet uit dat echte level 5 in veel landen pas toegestaan gaat worden op punt dat auto's onderling in soort local grid met elkaar praten, zowel over hun eigen posities als over de omgeving. Ik denk dat dit eigenlijk ook nodig is om dat echt betrouwbaar en veilig te maken, juist omdat je van een (non-)bestuurder dan niet meer kan verwachten dat die in plotselinge rare situatie de boel wel even rechttrekt.

Daarvoor gaan de verschillende automakers wel eerst een communicatiestandaard moeten afspreken, moet dat worden afgestemd op de privacyvereisten en moeten mensen dat systeem beter vertrouwen dan ze zichzelf vertrouwen. Ik denk dat die drie uitdagingen misschien wel groter zijn dan de puur technische uitwerking :+
in theorie hoeven de auto's natuurlijk niet 100% foutloos te zijn. Zolang ze maar vergelijkbaar zijn aan mensen... er zouden prima in een wereld met alleen autonome auto's ongelukken mogen gebeuren met vergelijkbaar aantal letsel en doden zoals nu... waarom eigenlijk niet? Ik denk dat we het niet accepteren dat een auto die volledig autonoom rijdt tegen een boom knalt ;-) maar dat is een kwestie van gevoel niet iets van rationale keuzes ;-)
Omdat ongelukken meestal door de chauffeur veroorzaakt worden gaan we er vanuit dat we zelf de veiligheid onder controle hebben als we in een auto stappen. Dat klopt deels, maar het probleem bij ongelukken met autonome auto's is dat ze nogal abrupt vage dingen kunnen doen in situaties die een menselijke chauffeur nooit zou doen. (als oplettende chauffeur stuur je niet zomaar in een betonnen middengeleider of probeer je dwars door een witte vrachtwagentrailer heen te rijden). Dat werkt vertrouwen een beetje tegen.
Het hele idee dat je in een 100km/u bewegend blikje zit wat ieder moment door een software bug van de weg geslingerd kan worden is iets waar veel mensen (terecht?) wat oncomfortabel van worden.
Ik denk dat het onhaalbaar is alle verkeersdeelnemers van communicatiemiddelen te voorzien. Bij auto's kun je je zoiets voorstellen, maar fieters, voetgangers waaronder kinderen die naar school gaan, ondenkbaar. Daarmee betekent niveau 5 haast per definitie dat het zonder speciale communicatiemiddelen moet. Dat is eerder niveau 4: Een gecontroleerde situatie waarbij iedereen op dat moment aan een communicatiesystemen deelneemt is denkbaar.
Daarom zeg ik dat die auto's ook met elkaar moeten praten over hun omgeving. Als je systeem opzet waarin info uit verschillende perspectieven wordt samengevoegd, kan je dus wel die voetganger voorzien die de eigen camera nog niet kan zien, puur omdat je van je tegenliggers al weet dat die daar ergens tussen die geparkeerde auto's loopt, zodat je er toch beetje rekening mee kan houden (iets inhouden, iets meer richting de middenlijn, bijvoorbeeld). Zoiets is eigenlijk vergelijkbaar met wat nu gebeurt, maar dan met veel meer camera's, deels op andere plekken/auto's. Je hoeft niet elk kind van Bluetooth te voorzien, je moet alleen weten dat het er is voordat het onder die auto ligt.

Laten we wel wezen, autopilot op de snelweg is relatief makkelijk, de uitdagingen zijn juist in gebieden met slechte zichtlijnen en veel onvoorspelbare elementen (en zelfs op snelweg zou je met smart grid-achtige oplossing meer auto's op zelfde kilometer asfalt kunnen passen, vermoed ik). Als je niveau 5 in de stad wil, gaat of de techniek nog heel fors moeten ontwikkelen, of de stad zelf radicaal aangepast moeten worden, dat auto's meer gescheiden van de rest van het verkeer blijven. Ik zie allebei als opties, hoor, daar niet van - stadscentra zijn voor menselijke bestuurders nu ook nogal uitdaging.
Ze gebruiken inderdaad heel veel neurale netwerken. Maar ze breiden deze uit over hun eerdere (oude) software. Ze vervangen dus steeds meer oude code voor 'neural nets'. Een simpel voorbeeld hiervan is de aansturing van de ruitenwissers (zowel geliefd als gehaat).

Als je dit interessant vindt, volg dan Green op Twitter. Die post hier veel over en debugged de Tesla firmware bij iedere release.
De vraag is niet of het kan, maar kan het technisch, en geeft het een beter effect. Kan Tesla vergeleken met de concurrentie betere techniek leveren, zelfs op dit moment hebben ze een achterstand op bedrijven zoals VW, dus om vervolgens hun techniek verder uit te kleden tov andere merken is op z'n zachtst gezegd opmerkelijk.

Wat mij verbaast (wellicht kan iemand dit corrigeren) dat regeltechnisch niet bepaalde minimale eisen zijn. Hoewel de techniek steeds volwassener wordt, zou het mooi zijn als er een bepaalde "factor" is die vergelijkbaar is met andere leveranciers. Laat Tesla maar aantonen dat ze net zo goed zijn op een bepaald niveau als de concurrentie. Het strippen van functionaliteit, toevaligerwijs in de entry market waar ze toch al zwak zijn, komt mij eerder over als het bezuinigen om betaalbaar te zijn voor de consument in plaats van een vooruitgang in techniek.
Ik vind het niet raar dat er nog geen regels zijn. De industrie kiest nog voor allerlei verschillende richtingen, om daar een algemene regel overheen te leggen is vrij lastig. Hoe hoog leg je dan de lat?

Daarbij, het is allemaal extra, optioneel, niet nodig voor de basale veiligheid van een auto. Climate control is ook heel fijn voor de inzittenden, maar daarvoor zijn ook geen regels vastgelegd. Niet over de functionaliteit tenminste.

Daarbij, zodra er regels zijn begint "iedereen" te blaten dat de innovatie en de vrije markt beknot worden en wordt bij een ongeluk de schuld afgeschoven; "ons systeem voldoet aan de regels".
De vraag is niet of het kan, maar kan het technisch, en geeft het een beter effect. Kan Tesla vergeleken met de concurrentie betere techniek leveren, zelfs op dit moment hebben ze een achterstand op bedrijven zoals VW, dus om vervolgens hun techniek verder uit te kleden tov andere merken is op z'n zachtst gezegd opmerkelijk.
Volkswagen maakt toch gebruik van Mobileye (Intel)? Daar is geen “achterstand” als je de techniek zo kan inkopen. In hoeverre Mobileye verder is dan Tesla durf ik niet te zeggen. Mobileye is actief in de schaduw.
Ik mis eigenlijk overal de uitleg 'waarom', waarom levert het een voordeel op om de radar te droppen? (kostenbesparing?)
Zou het toch wel prettig vinden als opspattende modder mijn camera blokkeert en de radar toch nog even opvangt dat de auto voor mij vrijwel stil staat...

Ben het met je eens dat bij slechte camera's het systeem gewoon moet stoppen hoor, maar het lijkt mij dat twee systemen nog altijd meer 'zien' dan één.
Kostenbesparing, dat is de belangrijkste motivator voor Tesla om te kiezen voor een systeem dat enkel met camerabeelden werkt. Zowat alle andere fabrikanten zetten in op radar en lidar wat meer kost.
Er is nog steeds een front facing radar aanwezig voor dergelijke gevallen. Ik lees nergens dat deze front facing radar eraf gaat, alleen de Lidar voor de autopilot. Dus ja, ook als je voorruit onder de modder komt zal de noodrem afgaan door de frontfacing radar, maar dat is een aanname van mij, ik weet niet hoe Tesla de gegevens van de front facing radar gebruiken.
Ik vond deze uitleg op Reddit wel duidelijk.

I happen to work a lot with radar and I'm actually very, very happy with this decision. It would possibly be nice to have the ability to switch modes during inclimate weather events where radar actually has some strengths, but overall it is poorly suited for most driving tasks and trying to jive with visual information has to be a huge headache. It's kind of like trying to correlate smells and colors. Sure, you can smell how close you are to a butt or you could just use your eyes instead. And you certainly don't need both, especially when other things smell like butts too.
I'm hopeful that they've done enough validation to prove that they have reached some level of parity with vision based distance-ranging and relative velocities of different moving objects.
Vision is hands-down superior with respect to stationary objects and also object recognition, and I think with some work the difference in ranging can be brought down to a point where it just doesn't matter which you use, practically speaking.
In short, radar is really only good for reduced visibility situations where lane keeping will probably also be degraded enough to not be worth it. Then there's the "two car ahead" thing. I don't think that's much of an issue, honestly. Vision can be fast enough to still avoid the crash. Your real danger is the car behind you.


Kort door de bocht: ze moeten toch grotendeels van visuele indicaties gebruik maken. De radar maakt dit nu complexer en als je hetzelfde kunt bereiken met enkel de camera’s, waarom dan nog de radar gebruiken? Maar uiteraard zal kostenbesparing ook een grote factor zijn.
Wij gebruiken ook alleen maar beeld om te rijden
Wij gebruiken allerlei zintuigen om te rijden, niet alleen zicht/beeld. Een radar zie ik dus ook gewoon als een extra zintuig die waardevol kan zijn op momenten dat het zicht belemmerd is, immers; de auto ziet dan wel degelijk meer dan jijzelf. Een "normale" camera ziet min of meer wat jij ook ziet. Er zijn namelijk genoeg situaties dat je zicht ineens belemmerd kan zijn. Of dat je tóch door die sneeuwstorm moet rijden om wat voor reden dan ook. Normale beeldcamera's zullen daar dus ook moeite mee hebben.

Maargoed, verder heb ik hier allemaal geen kaas van gegeten. Ze zullen er vast wel goede redenen voor hebben.

[Reactie gewijzigd door JorzoR op 26 mei 2021 11:22]

Wat ik er van begrijp (ook weinig kaas van gegeten) is dat je bij een sneeuwstorm eigenlijk niet kan of zou moeten rijden. Dat doe je als bestuurder ook niet. Bij een sneeuwstorm zou je dus alleen rijden op lidar en dat moet je dan niet willen is de stelling, of daar wordt niet voor gekozen door Tesla, laat ik het zo verwoorden. Als je niks kan zien door de storm kan je als bestuurder ook niet ingrijpen mocht het mis gaan.
Dat je niet zou moeten rijden doet er niet toe. Er zijn zat situaties te bedenken dat je tóch op pad moet in niet ideale omstandigheden. Of dat je onverwachts, of onderweg, overvallen wordt door zo’n storm. Of een enorme wolkbreuk dat je nog maar een paar meter vooruit kan kijken. Of hele dichte mist. Dan heb je niet echt veel “hulp” aan al die beeldcamera’s. Dan was iets van radar juist enorm handig (lijkt mij).

[Reactie gewijzigd door JorzoR op 26 mei 2021 19:47]

Ik snap wel dat het ideaal lijkt om puur op radar te rijden, maar wat ik ervan begrijp is dat je dat nu niet voor elkaar gaat krijgen in een auto die ook nog betaalbaar moet zijn. Om een auto "blind" te laten rijden puur op lidar is op dit moment een doodspoor. Het wordt (prijs)technisch heel lastig. Het betoog van Tesla is dat je daar met hoog resolutie camera's veel verder mee gaat komen in de nabije toekomst. Op zich is dat geen slecht idee, als het inderdaad goed werkt. Dat je over 20 of 30 jaar een radar systeem hebt (een bijbehorende tig sensoren) die net zo goed en betrouwbaar zijn als die van een vliegtuig, dat geloof ik ook wel. Maar daar zijn we nu nog niet een Tesla ziet meer in een systeem zonder lidar. Ik ben benieuwd of het net zo goed/beter/goedkoper is dan de huidige architectuur.
https://youtu.be/HM23sjhtk4Q?t=143

Het hele filmpje is verder erg interessant. Ik ben dan ook benieuwd naar hoe dit gaat uitpakken. Het is weer lekker tegen de stroom in, vergeleken met andere fabrikanten, maar de logica snap ik. Wij gebruiken ook alleen maar beeld om te rijden. En als er bvb veel mist of veel sneeuw is (veel gehoord argument) dan zou het systeem uberhaubt niet moeten werken en moet je zelf rijden...of juist niet rijden als er geen zicht is.
Dan start ik datzelfde filmpje graag op 7:48 (https://youtu.be/HM23sjhtk4Q?t=468), het punt waar Musk zelf aangeeft dat een radar handig is voor mist, stof en sneeuw. Deze video uit 2019 was ook vooral tegen LiDAR, zeer zeker niet tegen radar.

Wat dat betreft ben ik ook wel enigszins verbaasd dat ze de radar nu schrappen. Uiteindelijk wil je toch een systeem dat ook in de mist, stof en sneeuw kan rijden? En een extra sensor op andere golflengtes, die kan helpen als 'normale' camera's het lastig hebben, lijkt me dan toch niet overbodig? Het argument dat wij als mensen ook kunnen rijden met alleen onze ogen is ook niet echt een sterke, wij hebben nou eenmaal niets beters tot onze beschikking dan ogen en we maken met die ogen ook nog eens regelmatig fouten. Je kunt bij het ontwerpen van een machine juist de vorm, actuatoren en sensoren kiezen die aansluiten bij de beoogde functie; een robot langs de lopende band in een fabriek geven we ook niet twee armen en benen omdat fabrieksmedewerkers dat altijd hadden.

Het enige wat ik kan bedenken is dat Tesla niet verwacht in de komende 10-15 jaar volledig autonoom te kunnen rijden (level 5), waardoor de mens in lastige situatie's hoe dan ook zelf moet blijven rijden. Dan is voor nu een onderdeel weglaten om kosten te besparen geen vreemde keuze.
Ik lees dit bericht anders, dat ze van de lidar af willen voor de autopilot, maar dat er nog steeds wel een front facing radar aanwezig is, niet voor de autopilot maar voor noodsituaties. Uit alle referenties en informatiebronnen is dat wat ik eruit destilleer: Geen lidar meer voor de autopilot. Maar goed, het kan ook betekenen dat ze ook afzien van de front facing radar, wat gek zou zijn gezien eerdere uitspraken van Musk.
Zo werkt het niet meer (dacht ik, ben aan het zoeken)

De 3D reconstructie wordt nu helemaal gedaan door het neural netwerk, waarbij het ook tijd-informatie meeneemt.

https://www.youtube.com/watch?v=oBklltKXtDE

"The stitching up in time and space no longer runs in c++, but in the neural net"

[Reactie gewijzigd door 12_0_13 op 26 mei 2021 10:12]

Beetje teleurstellend/gevaarlijk als je door een plas rijd op de snelweg en je autopilot stopt er ineens mee.
Misschien jammer dar de radar eruitgaat en misschien ook niet. We gaan het wel meemaken.

Wat het mij wel verteld eigenlijk is dat we toch nog best ver afstaan van daadwerkelijk autonoom rijdende auto's. Ik heb zelf geen Tesla maar rij er wel geregeld in. Fantoom remmen is wel een dingetje af en toe. Vooral op de snelweg en al helemaal in Duitsland waar je ook net iets harder kunt rijden als het verkeer het toelaat. Ik bedoel dan 140 op een bijna lege snelweg, geen absurde snelheden.

Ik hoop dat het systeem er daadwerkelijk mee verbeterd. Voorlopig lijkt het een teruggang, behalve misschien als het fantoom remmen daardoor ophoudt. Bovendien voorlopig alleen in de US dus hier zullen ze geleverd blijven worden met radar, voor nu dan.

Laatst ook in een nieuwe VW gereden met adaptive cruise control onder vrij slechte omstandigheden. Het systeem is minder uitgebreid maar wat het doet doet ie wel betrouwbaar. Dat is natuurlijk ook nog ver weg van autonoom. Ik denk dat autonoom nog vele jaren gaat duren voordat we zover zijn.
Ik vind de Autopilot van de Model 3 (nu dus nog met radar) op de snelweg eigenlijk slechter werken dan het radar cruise control systeem van de BMW 5 serie. Vooral inderdaad op hogere snelheid, bij BMW werkt het tot 180 en is het met 140 ook echt prima comfortabel te gebruiken. De Tesla gaat dan echt veel vaker totaal random in de remmen zonder dat ik daar als bestuurder een oorzaak voor kan vinden.

De marketing van Musk is wel een stuk beter, mooie filmpjes, hoop getwitter en nu dus zelfs een achteruitgang in hardware verkopen als een pluspunt. Mooie vent...

[Reactie gewijzigd door NTS op 26 mei 2021 10:41]

Zelfs een Toyota van 25k doet het op de snelweg soms beter dan een Tesla. Daar hoef je geen BMW voor te hebben. Ookal delen ze (BMW/Toyota) die techniek met o.a. Peugeot onderling. Tesla's zijn erg Amerikaans afgesteld en dat merk je soms iets te goed in Europa.
er gaat een gerucht de ronde dat fantoomremmen door de radar komt. Soms reflecteert er iets zodanig dat hij niet zeker weet of er nou iets groots aan de hand is of er iets op een bepaalde manier reflecteert. Op de zelfde manier dat als je met grootlicht rijd je soms niet precies ziet of er nou een grote witte vrachtwagen half op de weg staat of een extreem reflecterend bord je verblind, zeg maar. Nou zie jij wel dat het gewoon een flinke reflectie is maar mensen zijn nog steeds veel beter in object en patroon herkenning dan computers.
Wat het mij wel verteld eigenlijk is dat we toch nog best ver afstaan van daadwerkelijk autonoom rijdende auto's. Ik heb zelf geen Tesla maar rij er wel geregeld in. Fantoom remmen is wel een dingetje af en toe.
Echter is dit totaal geen voorbeeld in de zin of Tesla wel of niet dicht bij volledig autonoom rijden is.
Het gaat om een compleet andere software architectuur die totaal anders is dan die van de huidige autopiloot.

U heeft gelijk dat er veel zaken zijn bij AP die verbeterd moeten worden. Maar veel zijn al "opgelost" bij de FSD software. En de ~70 gebruikers die nu al ruim een halfjaar continu filmpjes maken over hun FSD ervaringen laten ook duidelijk zien dat er helaas 0 vergelijking getrokken kan worden zowat tussen FSD en AP software.

https://twitter.com/elonmusk/status/1397623469739692036

Ook nog wel even interesant om te lezen wat deze reddit gebruiker te vertellen heeft. Veel mensen die ik de afgelopen maanden heb gesproken hier over die toch wel enig sinds verstand hier van (kunnen) hebben gaven in veel lijnen het zelfde aan.

Kort samengevat, Radar zorgt voor veel meer ruis in alle data waardoor het eerder nadelig dan voordelig werkt in veel gevallen.
En als dat echt correct is snap ik wel dat ze het eruit willen hebben.
Deze functies worden via over-the-air-updates in de komende weken naar deze Tesla-modellen gebracht.
Ter verdere informatie:
Deze wijziging is, hoewel vroeg, onderdeel van een grote software update die over twee weken verwacht wordt (FSD Beta V9.0). Daarmee brengen ze ook de self-driving functionaliteit naar de grote massa (in de USA). Er zal een knop komen waarmee je de FSD in kunt schakelen (met uiteraard een zeer uitgebreide disclaimer) waarna deze functionaliteit geactiveerd wordt. Deze software blijft de komende tijd gewoon nog in Beta en moet als zo beschouwd worden. FSD zal zeker niet op korte termijn naar europa komen gezien autonoom rijden extreem gereguleerd wordt en Tesla hier geen centimeter vooruitgang kan maken.

Hierna zal de prijs van FSD ook weer stijgen naar 14.000 dollar van 10.000 dollar. Verwacht wordt dat ook het FSD abonnement rond deze tijd zal worden geïntroduceerd. Voor de mensen die geen FSD hebben aangeschaft kunnen dan maandelijks? de dienst activeren.

Bron:
https://twitter.com/elonmusk/status/1397347380874203136

Verder wordt hier veel gediscussieerd over het punt dat meerdere sensoren of meer data (door deze sensoren) beter zou zijn. Dit wordt direct door Musk tegen gesproken. Pure Vision moet autopilot juist sterk verbeteren in slecht weer. 'Ghost breaking' zou hiermee ook eindelijk mee opgelost zijn. Dit zijn de reacties van Musk:

When radar and vision disagree, which one do you believe? Vision has much more precision, so better to double down on vision than do sensor fusion.
Sensors are a bitstream and cameras have several orders of magnitude more bits/sec than radar (or lidar). Radar must meaningfully increase signal/noise of bitstream to be worth complexity of integrating it. As vision processing gets better, it just leaves radar far behind.


Ook wordt het argument tegengesproken dat de auto zonder radar niet meer meerdere auto's voor zich kan 'zien':
These things are best thought of as probabilities. There are 5 forward-facing cameras. It is highly likely that at least one of them will see multiple cars ahead.

TLDR: Autopilot wordt weer duurder maar er komt een abonnement. Musk geeft aan dat 'Vision' veel preciezer is dan een radar ooit kan dus dat dit het meest logische pad is voor de toekomst.

[Reactie gewijzigd door dycell op 26 mei 2021 10:25]

We gaan eerder de vliegende auto zien dan dat Musk z'n voorspellingen voor "dit jaar komt er echt self driving" uit komen. Hij is fantastisch in marketing, maar dit is nu het 5e jaar op rij dat hij claimt dat self driving er komt.

Ondertussen zijn de driving assist (want dat zijn het) systemen van Tesla in de praktijk slechter dan die van veel andere merken. Ghost braking in de Model 3 is echt veel irritanter dan andere systemen waar ik veel mee rij. Hij komt nu met een verhaal dat minder sensoren dat op gaat lossen (ik geloof er niks van), maar tot die tijd gaat het systeem eerst nog verder achteruit.

Het remmen komt nu ook veel voor als je van licht naar donker rijdt, precies het moment dat de camera's niks zien en de radar wel. Dat wordt echt niet beter als je de radar er uit sloopt.
Het remmen komt nu ook veel voor als je van licht naar donker rijdt, precies het moment dat de camera's niks zien en de radar wel. Dat wordt echt niet beter als je de radar er uit sloopt.

Ik snap dat je zo denkt maar meer sensoren brengt ook meer complexiteit. Wat ga je doen als twee sensoren conflicterende resultaten geven? Geloof je de radar met zijn lage resolutie of 5 front camera's met hoge resolutie? Ik ben het wel met hem eens dat het beter is om op 1 systeem te focussen en daarmee een complex probleem te vermijden.

Over Musk deadlines heb ik geen mening. Hij haalt ze soms wel, soms niet maar wordt meestal totaal verkeerd begrepen of gequote.
Geen van beiden natuurlijk, als sensoren tegenstrijdige resulaten geven, dan dient de conlusie van de computer te zijn dat hij niet veilig kan rijden en een procedure op te starten om ofwel op menselijke besturing over te stappen, ofwel de auto zo veilig als mogelijk tot stilstand brengen.

Veel sensoren veroorzaken beslist complexiteit, maar ze zijn essentieel om de computer in staat te stellen zichzelf te controleren. Ik ben het dan ook niet met hem eens.
Ik ben het met je eens dat meer sensoren beter zouden zijn om controles van elkaar over te nemen en om beslissingen daarop gebaseerd te nemen, maar complexiteit neemt ook exponentieel toe bij meerdere sensoren. Wat te doen als twee sensoren aangeven dat de weg vrij is maar één sensor geeft aan dat er een persoon zich voor de auto bevindt? en wat doe je als 10 sensoren niks zien en één wel een object voor de auto ziet? Wanneer moet het systeem de beslissing nemen om wel of niet te acteren? (10 sensoren zeggen dat het prima is, dus die enen sensor zal wel kapot zijn....doorrijden is een prima optie...of toch niet)
Voor de automobielindustrie is deze complexiteit nieuw en men zal er in de loop van jaren expertise mee op moeten doen. Je zou naar andere industrietakken kunnen kijken waar met zeer betrouwbare systemen gewerkt wordt zoals bijvoorbeeld de luchtvaart. Wat je vaak leest is dat een systeem wordt toegepast dat een afwijking in een enkele sensor in beginsel reden tot alarm is, tenzij de sensor over een langere periode afwijkingen geeft en dan verder genegeerd wordt voor beslissingen.
De vergelijking met luchtvaart wordt wel vaker gemaakt, maar dan vergelijken we een spiegel reflex camera van 5000 euro met de camera module van 20 euro in een mobieltje. Het systeem moet wel betaalbaar blijven om het in massa te kunnen produceren. Dat er geweldige systemen zijn in de luchtvaart die veel accurater en beter zijn klopt, maar dat hangt ook een heel ander prijskaartje aan (en benodigde fysieke ruimte). Ik denk wel dat er veel expertise wordt gebruikt van bestaande systemen en andere industrietakken, nu nog het betaalbaar kunnen toepassen in een massa product zoals de auto. Als ze maar klaar zijn voordat ik niet meer zelfstandig kan/mag rijden vindt ik het prima :D
Wat er in de luchtvaart is gebeurd dat de industrie gezamenlijk heeft vastgesteld wat nodig is voor veiligheid en waar niet op bezuinigd mag worden. Dat wordt afgedwongen voor iedereen. Zo moet het ook gaan met auto's: De industrie moet het erover eens worden of een radar noodzakelijk is voor de veiligheid of niet en als dat nodig wordt geacht, dan zal ook Tesla die moeten implementeren. Het is niet wenselijke dat fabrikanten individueel gaan bepalen of zoiets noodzakelijk is, want dan krijg je dat veiligheid opgeofferd wordt vanwege financiële belangen.

Het kan overigens best zo zijn dat technologische ontwikkeling veiligheidvoorzieningen overbodig maken. Zo is het bijvoorbeeld jarenlang zo geweest dat het verboden was met minder dan twee drie motoren oceanen over te vliegen, maar doordat vliegtuigmotoren steeds betrouwbaarder werden is dat op een bepaald moment geschrapt. Belangrijk voor de veiligheid is dat dat door de combinatie van industrie en veiligheidswaakhonden besloten is en niet door Airbus of Boeing individueel, want als de één het doet moet de ander om economische redenen direct volgen, ook al is het gevaarlijk.

[Reactie gewijzigd door dmantione op 26 mei 2021 21:08]

Mee eens. Ik denk wel dat de huidige implementatie met lidar in auto's nogal wat te wensen overlaat. De technologie is nog lang niet zo ver of doorontwikkeld voor de auto-industrie. Kijken naar alternatieven is dan ook wel een optie, een dat is wat Tesla hier doet blijkbaar. Uiteindelijk zal er ook voor auto's regels gaan gelden voor wat betreft autopilot en sensoren (die heb je al voor een deel) al weet ik niet of dat zo diep zal gaan dat er ook specifieke hardware geëist zal worden. We zullen het zien.
Het is inderdaad wel jammer dat FSD vooralsnog weinig functionaliteit heeft in de EU. Ook navigate on autopilot, summon en smart summon zijn in de EU iets minder of niet bruikbaar.
De EU zou misschien iets vooruitstrevender moeten zijn, aan de andere kant snap ik ook wel dat ze het niet helemaal los willen laten. Tesla gaat nu auto's de weg opsturen zonder radar, zonder dat de auto qua functionaliteit hetzelfde kan als met radar. Komt bij mij over als live test en hope for the best. Dus, ik ben wel blij met wat regulatie en eerst zien en dan geloven. En Elon roept wel meer, veel zaken maakt ie waar. Maar veel zaken niet, of veel later. En dat Musk tegenspreekt dat meerdere sensoren, of een combinatie beter is dat lijkt me logisch. Wij van WC eend.
De EU zou misschien iets vooruitstrevender moeten zijn, aan de andere kant snap ik ook wel dat ze het niet helemaal los willen laten.
Ook al komt mogelijk de gezondheid van de bestuurder in gevaar? Als ze het volledig verbieden dan zou ik het snappen maar ze forceren regels die enkel tot gevaarlijkere situaties leiden. En ze doen er niets aan, ook niet na duidelijke aanwijzingen van Tesla over hoe deze regels met een paar kleine aanpassingen veel veiliger worden.

Tesla gaat nu auto's de weg opsturen zonder radar, zonder dat de auto qua functionaliteit hetzelfde kan als met radar. Komt bij mij over als live test en hope for the best.
Ik denk dat je het bericht nogmaals moet lezen. De functionaliteit is nagenoeg hetzelfde en over een paar weken komt een update die de functionaliteit op hetzelfde niveau brengt. Ik zie daar geen echte problemen in zolang ze die update maar uitbrengen.

En dat Musk tegenspreekt dat meerdere sensoren, of een combinatie beter is dat lijkt me logisch. Wij van WC eend.
Hij geeft daar ook duidelijke en logische verklaringen voor. Maar uiteindelijk is het simpel: we gaan het zien...
Ik zie toch een lijstje met beperkingen. Daar komt bij dat de planning van Tesla doorgaans iets aan de positieve kant is. Maar we gaan het inderdaad zien. Ik ben blij dat ik niet nog meer een beta tester ben dan dat al het geval is. :)
En als ik zie hoe in de VS mensen omgaan met hun FSD en advanced summon ben ik helemaal niet zo slecht gezind dat het hier allemaal strenger gereglementeerd is.

En ik heb liever niet dat duizenden voertuigen gebruikt worden om functionaliteit zoals FSD te laten testen op de openbare weg door mensen die amper begrijpen wat het inhoudt om zulke dingen te testen. Dan is het ineens: kijk, ik heb FSD, ik moet zelf niet meer opletten. Terwijl dat in beta fase nu net niet het geval is, je moet net wel waakzaam blijven omdat het systeem nog altijd niet af is.
Tja, op een gegeven ogenblik zal je moeten testen in de echte wereld. Dat is met alles wat nieuw is zo, of het nu om vaccinaties gaat (MRNA) of zelfrijdende auto's. Er zijn meerdere manieren om dat te doen, zie Waymo met zijn langzaam, stad voor stad uitbreiden werkwijze. Of Tesla die zijn klanten de optie geven om dit te doen. Voor beide valt wat te zeggen.
Misschien moet je ook eens bedenken dat het weggennet, verkeersregels en vooral de drukte en variatie aan wegen in Nederland en Europa heel anders is. De VS is een heel jong land waarbij er veel ruimte voor wegen is ingebakken op de meeste plekken. De wegen zijn breder, de regels simpeler en beperkter en er zijn véél minder mensen op dezelfde vierkante centimeter weg. De wegen in Europa zijn veel smaller, kortere bochten, grotere variatie aan snelheden, veel kortere stukken simpele snelweg, veel dorpjes die helemaal niet voorbereid zijn op auto's omdat de wegen aangelegd zijn in de tijd dat er geen auto's waren en er is veel meer verkeer van fietsers, voetgangers en ander loslopend wild. Alles bij elkaar maakt het logisch dat men in Europa wat huiveriger is met zelfrijdende auto's. Er is simpelweg meer complexiteit. De wegen en staten waar in de VS zelfrijden toegestaan is, zijn ook beperkt uiteindelijk.

Wat het grote leerpunt is geweest is niet of Tesla autopilot wel of niet slecht is, maar dat mensen er niet mee om kunnen gaan. Dat gaat op voor de bestuurders van de Tesla en ook voor andere bestuurders rondom een Tesla. Uiteindelijk ontkom je niet aan wegen waarbij de auto verplicht zelf moet rijden in de toekomst. Dan weet je zeker dat ze allemaal op dezelfde manier reageren. Dat dat uitgeschakeld wordt in de stedelijke gebieden die nog niet geschikt zijn is dan een tijdelijke oplossing.

Maar ook Tesla is kortzichtig bezig, al lijkt dat niet zo. Tesla maakt een hoop herrie als ze hun zin niet krijgen, als een stampvoetend kind. Maar de zaken zijn meestal wat genuanceerder.

[Reactie gewijzigd door fapkonijntje op 26 mei 2021 23:49]

Ja daar gaat het inderdaad fout, ik denk dat de wereld veel veiliger wordt als alle auto's dit gaan kunnen en met elkaar kunnen communiceren, maar daar zijn we nog lang niet. Je moet ergens beginnen natuurlijk en er zijn zeker ook al veel dodelijke ongelukken voorkomen juist door deze systemen (dat komt echter nooit in het nieuws). Helaas denken bedrijven en instanties dat een waarschuwing voldoende is om mensen verantwoordelijk ermee om te laten gaan (dat denkt men natuurlijk niet, maar daarmee dekken ze zich in), mensen zijn gewoon niet so slim en gevoelens nemen snel de overhand, wat dan resulteert in "kijken wat dit systeem allemaal kan als ik gewoon een filmpje ga kijken" etc.
Ik heb FSD gekregen als goedmakertje omdat de prijs van mijn 3 flink gedaald was net na bestellen. Opties waren opnieuw bestellen tegen lagere prijs of gratis FSD en Early Access. Lijkt erop dat die eerste vrij weinig gaat brengen bovenop de EAP die ik al had aangevinkt en van die Early Access heb ik nooit meer iets vernomen.
Tesla zit gewoon in de rats omdat ze autopilots verkocht hebben die de beloftes niet waar maken. Dat kan ze in principe erg veel gaan kosten dus is het wel handig om vast wat vage beschuldigingen neer te leggen bij lobbygroepen...
Tja, waarom is Europa dan het enige continent wat deze beperkingen oplegt? Terwijl deze regels praktisch de systemen juist onveiliger maken. Ik leg ook niet veel waarde bij de lobbygroep beschuldigingen maar het is wel vaak heel vaag.
Europa heeft minder belang bij het succesvol zijn van een Amerikaanse fabrikant? En is misschien over het algemeen kritischer qua echte veiligheid (meer dan alleen juridisch indekken) dan de US?
Europa heeft daar inderdaad een andere aanpak in. Natuurlijk is Duitsland wat protectionistischer vanwege hun autoindustrie, maar het is ook het land waarbij je als eerst gaat zien dat touchscreens verboden of beperkt gaan worden in auto's vanwege de praktische veiligheidsproblemen, ondanks dat de Duitse merken het allemaal inbouwen.
En hoog tijd ook. Het is al jaren bekend dat veel attentie trekkende schempjes om je heen je aandacht afleidt. En dat knoppen makkelijker werken dan touch screens.
En vergeleken met andere veiligheidsmaatregelen (auto braking, automatisch 112 bellen bij ongelukken, airbags, stability control) zijn een paar knoppen technisch triviaal en een afrondingsfout in de kosten.
Het lijkt mij niet meer logisch dat de EU de hele industrie hoort. Probleem voor Tesla is dat de rest van de industrie het niet met ze eens is wat betreft de merites van lidar en kennelijk nu ook radar. Daarmee is de kans groot dat Tesla nu nog meer weerstand zal ondervinden in de gesprekken over de regelgeving en met deze stap dan ook de kans kleiner wordt dat de regels ten gunste van Tesla aangepast worden.
Het zijn geen domme jongens daar bij Tesla dus dit zal waarschijnlijk goed werken.
Vraag me dan wel of of de accurate afstand indicaties (in CM) nog beschikbaar blijven bij inparkeren?

Gelukkig weten we dat we die in de EU nog wel blijven krijgen, voorlopig..
Het werkt nu al niet altijd betrouwbaar met radar laat staan zonder. Ik lees de andere reacties van Model 3 rijders die net als ik voortdurend meldingen krijgen dat een camera (ook een schone) niet werkt omdat de zon er op schijnt, er een vliegepoepje op zit of dat ze nat zijn. Nu helpt de radar nog om mijn auto tijdig te laten stoppen of af te laten remmen, dat kan dus dan niet meer. En zelfs dan nog remt mijn auto soms opeens af als ik een tunnel inrijd of onder een matrixbord door, dan schrik je jezelf dood maar ook andere automobilisten zie ik dan reageren door uit te wijken, je schaamt je rot.

Na de laatste update vorige week is het niet meer gebeurd maar met grijze luchten is het erger dan met veel zon. Maar ook dat komt door de camera's en de analyse van de beelden, het is te bizar voor woorden. Nieuw sinds deze update is dat de auto zodra een vrachtwagen maar net de middenstrepen raakt gaat afremmen.... leuk ook die camera en het zal wellicht mijn leven ooit redden maar nu is het vooral kommer en kwel.
Wat veel mensen ook vergeten is dat, vergeleken met het menselijke oog, digitale camera’s ook behoorlijk belabberde gevoeligheid hebben voor contrast en veranderende licht intensiteit. Een digitale camera mag het oog dan ‘verslaan’ op sommige aspecten (resolutie, uithoudingsvermogen), maar het is zeker niet objectief beter onder elke omstandigheid. Daarom gaat het argument ‘radar is niet nodig want mensen rijden ook alleen met 2 camera’s’ niet op. Dat Tesla sensoren weghaalt in plaats van toevoegt lijkt me dan ook zeer onverstandig.
Juist. Onze ogen kunnen teveel licht compenseren - al dan niet met een zonnebril of de zonneklep. Ook komen regendruppels niet direct op onze lenzen (want dan zouden wij ook niet zoveel meer zien). Daarom hebben we een voorruit / helm / bril op. En afhankelijk van de afstand van die regenbescherming tot onze ogen, kunnen we bepaalde vervuilingen van dat scherm compenseren.

Ook kunnen we onze ogen aardig van plaats laten veranderen als we de situatie niet goed kunnen overzien.

Daarbij komt dat we ruitenwissers hebben en een was-installatie om de voorruit te reinigen. En een helmvizier veeg je met de hand schoon.

Dat moet dus allemaal worden geregeld door een veelvoud van statische gemonteerde camera's.

[Reactie gewijzigd door Tintel op 26 mei 2021 10:52]

Het is ook gewoon een verkeerde voorstelling van zaken. Mensen gebruiken voornamelijk hun ogen om te rijden, maar niet uitsluitend: Als een menselijke bestuurder vreemde geluiden waarneemt, of de auto opeens anders voelt trillen, dan alarmeert hem dat direct dat er iets niet klopt.
Echt heel slim zijn ze ook niet op alle vlakken bij Tesla. Heb sinds 2017 een Tesla (AP 2.5) en tot de dag van vandaag kunnen de zij-camera's nog geen inschatting maken van auto's op rijbanen ernaast. Als ik een auto die 2 banen verderop inhaal dan 'ziet' de Tesla deze ineens een baan naar mij toe schuiven. Als ik op dat moment naar rechts van baan verwissel op de autopilot, denk hij dat die auto een baan verderop ook naar mijn baan schiet, dan schrikt hij en stuurt hij weer terug. Dat is gewoon calibratie van de camera maar iedereen die ik ken met een Tesla heeft hetzelfde. Ik snap niet dat ze dat nog steeds niet opgelost hebben. Wel heel fijn dat backgammon beter is geworden...
Ik denk dat de afstand in centimeters van de parkeersensoren komt en die blijven wel vermoed ik.
Nou ja volgens mij is het vooral de visie van Elon die erachter zit (in het kader van mensen hebben ook alleen ogen). Elon geloof volledig in het feit dat camera's en AI genoeg zijn. Op zich zal dat ook best kunnen maar ik vraag mij af of meerdere input sensoren niet beter zijn.
De vraag komt of economische overwegingen hier een belangrijke motivatie achter zijn: Tesla staat onder grote druk om meer winst te maken, dus kostenbesparingen zijn meer dan welkom. Mensen hebben inderdaad ook alleen ogen, maar kunnen vanwege hun intelligentie veel met soms hele beperkte signalen. De computer kan zijn beperktere intelligentie deels compenseren door betere sensoren en radar is daar onderdeel van. Een belangrijke kwestie als een computer beslissingen moet nemen is detecteren of de gegevens van de sensoren betrouwbaar zijn. Onafhankelijke meting van radar en camera is beslist een nuttig hulpmiddel voor de computer om zelf te kunnen toetsen of zijn analyse van de wegsituatie juist is.
Exact, dit is een belangrijk aspect voor de veiligheid. Problemen met dit soort mechanismen hebben ook geleid tot het neerstorten van vliegtuigen, ik dacht het toestel dat bij de A9 is neergestort van Turkish Airlines.
Winst maken is op zich niet fout maar andersom zouden ze ook iets meer geld kunnen vragen voor een bepaalde feature. Maar dat kan dan weer niet omdat andere partijen het goedkoper aanbieden - al dan niet onder kostprijs omdat ze liever eerst marktaandeel veroveren.

De vraag is of de sensoren van de computer zoveel beter zijn. Ze zijn wel duidelijk meer absoluut en worden niet moe maar vooralsnog zijn onze ogen toch wel erg goede sensoren.
Afstandsmeting is geen issue met meerdere cameras. Waar ik me meer zorgen om maak is wat er gebeurd bij slechte zichtbaarheid. Een combinatie van radar en camera lijkt mij nog altijd een stuk betrouwbaarder.
Probleem is dat er soms inconsistenties zijn tussen verschillende systemen. Als radar en cameras tegenstrijdige informatie geven, welke ga je dan als waarheid aannemen? Dat is de reden van phantom breaking en dat wil Musk voorkomen door 100% in te zetten op cameras.
Maar dan doen ze nu toch hetzelfde?
Er zijn tegenstrijdige gegevens van de sensoren. Hoe gaan we dit oplossen:
a) de gebruiker vragen in te grijpen
b) Een van de sensoren voorrang geven (geloof dat een vliegtuigbouwer dit eens gedaan heeft)
c) Gewoon een van de sensoren niet meer aanbieden.
d) Een 3de sensor introduceren en eens stemming van de sensoren moeten hebben bij tegenstrijdigheden. De 2 sensoren die hetzelfde melden winnen.

Wat mij betreft is B en C gewoon gelijkwaardig, waarbij C misschien nog wel de minst goede optie is.
Eigenlijk zou je in dat geval gewoon terug moeten vallen op A en in de toekomst voor optie D.
Je mist nog een optie E; elke sensor rapporteert z'n eigen betrouwbaarheid. Camera's hebben last van mist en felle zon, ja, maar dat zien ze zelf ook.
D zou het beste zijn denk ik, dit wordt namelijk al jaren in de raket-industrie gebruikt. 3 onafhankelijke systemen, 2 rapporteren het een, 1 het ander, dan is de kans zeer groot dat die 2 het goed hebben. Gaat het bij alle 3 mis, dan dient het systeem meteen in een nood-stand te gaan waarbij het scenario voor de auto dan niet "meteen volop remmen" is oid, wat nu enigzins gebeurt.
Ja, wellicht is het makkelijker rekenen met alleen 1 soort data. Met alleen zichtbaar licht camera's kun je overigens veel met computational imaging. Ik weet dat bijvoorbeeld al bijna 20 jaar geleden bij TNO werd gewerkt aan door objecten bosjes, geen muren) heen kijken met alleen zichtbaar licht camera's.

En momenteel wordt er bijvoorbeeld onderzoek gedaan naar 'Non Line-of-Sight' imaging. Oftewel, om hoeken kijken met camera's... Bizar wat er allemaal mogelijk is.

Maar in hoeverre dit al wordt toegepast in Tesla's algoritmes weet ik uiteraar niet...
Bij slechte zichtbaarheid zal het systeem niet activeren.
De camera's in mijn model 3 hebben ook veel ruis in situaties met weinig licht. Eigenlijk bar slecht.
Deze zullen dan ook wel een upgrade krijgen?
Die afstandsindicaties werken niet met de radar. Deze werken op basis van elektromagnetische or ultrasone sensoren. Dit zijn de rondjes die je doorgaans ziet in de carrosserie.
Ooh ik dacht dat die rondjes de radar zijn... Thanks!
Radar zit voorin bij een auto. Te herkennen aan een zwart vlak bij veel auto's. Veel proberen het weg te werken in het design sommige wat succesvoller dan anderen.

Voorbeeld:
Audi
Mercedes
Die sensoren hebben een bereik van ~50cm.
Afstandsindicatie tot je voorganger is meerdere meters. Dus met radar of met meerdere camera's
De opmerking van @procyon gaat specifiek over het inparkeren, niet over afstandsindicatie tijdens het rijden.
Het zijn geen domme jongens daar bij Tesla dus dit zal waarschijnlijk goed werken.
Dat is wel een gevaarlijke aanname, want bedrijven doen natuurlijk nooit iets uit economische redenen...
Het zijn geen domme jongens bij Tesla, dus testen ze gewoon in de echte wereld...
Tesla zegt met de twee goedkoopste modellen te beginnen, omdat deze het meest worden verkocht. Daardoor kan Tesla naar eigen zeggen over een korte periode veel data binnenkrijgen. Daardoor kan het bedrijf de uitrol van functies versnellen. De autofabrikant noemt het systeem waarbij alleen camera's gebruikt worden Tesla Vision.
Opmerkelijke redenering, aangezien die modellen sowieso al die camera's hebben. Wat houdt ze tegen om nu al die camera's te gebruiken voor het vergaren van de benodigde data? Ze zouden ook de sensoren kunnen weghalen zodra het alternatief werkt. Het komt nu over als een manier om kosten te besparen en klanten als proefkonijnen in te zetten.
Maar het zal ook gewoon grotendeels een kostenbesparing zijn.
Helemaal mee eens dat het zo klinkt.

Het enige wat ik kan bedenken is dat ze extra camera's zullen plaatsen of hun posities op de auto zullen optimaliseren voor hun uitgebreide taken. Daar geven ze niet echt informatie over.
Dit ja. En anders is het wellicht toch een kostenbesparing óf een gevolg van levertekorten (ook omdat radar in Europa wel geleverd blijft worden).
Lijk mij dat dit niet een hele goede stap is.
Er was een keer een dodelijk ongeluk doordat een auto onder een witte trailer kwam bij een lage zon.
Zie : https://nos.nl/artikel/21...de-door-zelfrijdende-auto
Lijk mij dat met een radar (of lidar, die ze niet gebruiken) zulke ongelukken kunnen voorkomen worden. Met alleen maar een camera en die wordt verblind dan heb je geen andere techniek waarop de auto de omgeving kan waarnemen.
Ik kan mij ook echt niet voorstellen hoe zo'n auto zonder fallback op radarr/lidarr/etc. kan opereren als een camera om wat voor reden dan ook bedekt raakt. Dat kan mist zijn, maar ook een vlek of zelfs vogelpoep op de lens. De camera kan niet opzij bewegen zoals een bestuurder wel om het obstakel op een voorruit heen kan kijken.

Het lijkt wel alsof ze zelfrijden deels opgeven op deze manier of het is een bezuiniging met een smoes. Ik zou zelf een auto zonder fallback op radarr/lidarr/whatever niet vertrouwen op de weg als 'ie zelfrijdend moet zijn. Het lijkt bijna alsof ze hun zelfrijdende plannen uitstellen of deels in de ijskast zetten.
"Een" camera? Weet je hoeveel camera's een Tesla heeft? Als jij een vogelpoepje in je oog krijgt, heb je nog altijd een tweede oog dat werkt. Een Tesla (en elke andere auto met camera's als sensoren) hebben meerdere camera's die samen een beeld van de omgeving opleveren.

En dat het werkt is al aangetoond, er zijn ondertussen al miljoenen, zo niet miljarden kilometers gereden met deze systemen en het aantal ongelukken neemt in ieder geval niet toe.
In al die miljoenen, zo niet miljarden kilometers was er wél een radarfeature aanwezig en waren de auto's erg beperkt zelfrijdend. De auto's moeten nu met minder sensoren nóg meer zelf gaan rijden? Lijkt mij niet handig.

Er zitten maximaal 8 camera's op, exclusief die in je interieur. Die overlappen wel een beetje, maar als er één uitvalt mis je alsnog een stukje. 8 is niet veel. Juist de radar kon op momenten met mist, regen, laaghangende zon, enzovoorts zaken zien die de camera's technisch simpelweg niet kunnen zien.
In al die miljoenen, zo niet miljarden kilometers was er wél een radarfeature aanwezig en waren de auto's erg beperkt zelfrijdend. De auto's moeten nu met minder sensoren nóg meer zelf gaan rijden? Lijkt mij niet handig.
En uit die tientallen miljarden kilometers kunnen ze bepalen in hoeverre ze wel of niet zonder radar hadden kunnen rijden en of ze de camera's zo zouden kunnen gebruiken zodat ze bepaalde functies van de radar overnemen of zelfs beter doen.

https://twitter.com/elonmusk/status/1397623469739692036

Misschien ook nog een interessante take van iemand die claimt zelf met radar systemen te werken.
[quote]
Er was een keer
[quote]
Op basis van één voorbeeld?

Er zijn ook meer dan genoeg filmpjes te vinden op Youtube waarin de Autopilot dankzij zijn camera's een ongeluk weet te vermijden.
Weet niet helemaal goed hoe het zat bij dit voorbeeld, maar wat ik van weet is dat toen Tesla op de camera focus en dat radar niet meegenomen was in de autopilot. Volgens de log had de radar het wel had gezien, maar door het systeem werd daar niks meegedaan. En dat lijk mij niet een goed is als er maar van 1 type bron de omgeving wordt waargenomen. Elke type bron heeft wel zijn plussen en minnen. En het is alleen maar beter als ze elkaar aanvullen.

En ken ook wel filmpjes dat het erg goed werkt. bv. deze in Nederland, Tesla remt al af, andere auto die klap op een auto in de file : https://www.youtube.com/watch?v=wB8HnXMepdA
Het ging mij er meer om dat het aanvoeren van één voorbeeld onvoldoende onderbouwing is. Er zijn meer voorbeelden van situaties waarbij autopolit obstakels op de weg niet zag. Dat waren (voor zover ik weet) allemaal stilstaande objecten. En het geeft aan dat het systeem nog niet "af" is.
Ik persoonlijk ben er van overtuigd dat we midden in een ontwikkeling zitten die nog lang niet af is en dat we dus over een tijdje (jaren) echt wel een systeem krijgen dat beter rijdt dan de mens (dat is ook helemaal niet moeilijk...)
Het klinkt hard, Maar als de bestuurder gewoon zijn taak had gedaan als bestuurder was hij er ook niet tegen aan gebotst.

Ze claimen ook niet dat de auto alles aan zou moeten kunnen. Vandaar ook dat ze aangeven dat het systeem level 2 is en niet level 4 of 5.

Hoe ze dit zouden oplossen eventueel zou ik geen antwoord op geven.
Maar je gaat mij niet wijs maken dat een bedrijf met tientallen miljarden kilometers aan data hier niet over heeft nagedacht hoe ze dat kunnen oplossen.
Grappig, die langere volgafstand is nodig omdat camera's niet door auto's heen kunnen kijken. In principe zou je een derde remlicht oid van de auto voor de auto direct voor je moeten kunnen herkennen (dat doe je zelf namelijk ook, om te anticiperen).

(Radar "scant" via reflecties wel naar de auto's voor je, en kan dus sneller anticiperen.)
Maar jij hebt een andere postie dan die camera's, mede daardoor kan jij dat derde remlicht of andere remlichten verdop goed waarnemen, je bent ook flexibel in je zicht, je kan je hoofd wat verplaatsen, je focus verleggenm, ... . In dat opzicht is een computer nog altijd zeer beperkt.
In 2015 ben ik afgestudeerd op het onderwerp 'practical cyber-attacks on autonomous vehicles', waar ik in een lab-opstelling gekeken heb wat er nodig was om sensoren moedwillig te beïnvloeden. Tweakers heeft hier nog een artikel over geschreven.

Een van mijn conclusies was dat veel systemen (destijds) vertrouwden op een enkele (type) sensor, en dat een combinatie van sensoren (en sensor fusion) voor een veel robuuster systeem kan zorgen. Geen enkele sensor is perfect, maar het combineren van meerdere type sensoren zorgt er nu eenmaal voor dat je meer van de fysieke wereld kan waarnemen. Dat Tesla er voor kiest om nu radar te laten vallen, vind ik dan ook een interessante keus.

Op Twitter is er @greentheonly die regelmatig filmpjes post van de camera's van Tesla's, waarin debug-overlay zichtbaar is. Zo heeft hij bijvoorbeeld dit filmpje waarin je ziet hoe de radar 'blips' gevisualiseerd worden.
https://twitter.com/elonmusk/status/1397623469739692036

Misschien verklaard wat te lezen is ij deze post waarom ze het doen.

Als zaken zoals phantom breaking echt verminderd kunnen worden en de toegevoegde waarde negatief blijkt in de meeste gevallen dan snap ik het wel.

Maar moet het zelf ook nog maar zien dat het een goede keuze is. Echter als het team van Tesla hier achter staat, ja dan neem ik het grotendeels aan dat ze weten waar ze het over hebben. Ookal zou ik toch graag zien dat ze rader behouden voor dichte mist of zware regen gevallen etc.
Vraag me dan af hoe dat zit met regen/sneeuw/vuil op de camera's.
Dan is radar misschien juist wel een goede backup.
Radar wordt ook geblocked door o.a. sneeuw en modder op de voorgril waar de radar zit. Zelfs bij hevige regenval kan dit voorkomen. Water is een enorme barrière voor HF energie, zeker op de hoge frequenties waarop dit type radar werkt.
Euh... We hebben verschillende auto's met iets banaal als Adaptive Cruise Control. Onze Tesla's zijn de enige voertuigen waar bij lichte sneeuwval en harde regen de Cruise Control helemaal niet meer werkt.
Onze andere voertuigen hebben nog nooit problemen gehad hiermee (BMW X5, Q7, XC90).
Ik geloof niet dat Tesla er in gaat slagen om dit enkel met camera's te doen. Zelfs een regensensor zit al 4 jaar in beta op onze MX omdat ze dit via camera willen doen (en werkt ook niet geweldig).
Bij zeer harde regen of sneeuw geeft mijn Volvo het ook op... zowel mijn vorige v40 als mijn nieuwe v60. Maar dan regent het ook echt heel erg hard.
Uiteindelijk is de reden dan de AP van Tesla een enorme voorkeur voor 'safety' heeft - bij twijfel inhouden (phantom breaking), bij twijfel aan betrouwbaarheid van sensoren: niet inschakelen.

Dit heeft geleid tot volgens cijfers van Tesla veeeel minder ongelukken, maar natuurlijk ook tot annoyance dat het soms niet werkt, of dat de auto wat overly voorzichtig is (en daardoor anders reageert dan een mens zou doen).

Maar ik mag toch hopen dat de ACC bij een Volvo ook niet aangaat als er een plak sneeuw op de radar zit... en de vraag is hoe veilig hij nog is als hij wel aangaat en het echt keihard regent...
Ipv domme aannames te doen dat Volvo minder voorkeur voor "safety" heeft dan Tesla zou je natuurlijk twee seconden kunnen googlen op xc90 radar location.
En dan zou je zien dat de radar daar achter de voorruit zit en daardoor dus geen last heeft van sneeuw.
https://www.volvocars.com...and-radar-unit/radar-unit
Bij heftige regen en sneeuw werkt een radar meestal ook niet. Bij mijn VW Passat ging de adaptive cruise control (radar based) ook uit onder deze omstandigheden. Zeker bij sneeuw was dit erg snel het geval.
Is dat eigenlijk geen enorm risico? Straks is iedereen gewend aan semi autonoom rijdende auto's, maar bij slecht weer moet je toch weer de (complete) besturing overnemen. Zijn mensen dan überhaupt nog gewend om in die mate zelf te moeten rijden?
Dat bleek bij automatische piloot in de luchtvaart natuurlijk inderdaad een risico. Daarom moeten piloten hun beruchte vlieguren maken, ook zonder automatische piloot en per model waarin ze mogen vliegen. De grap is natuurlijk dat je het juist in de lastigere situaties moet overnemen, ook nog, niet bij overzichtelijk stukje rechtuit.
Voor zover ik weet is het voordeel van een radar juist dat je er mee door objecten heen kunt kijken. Je kan een aantal auto's vooruit kijken en dus eerder remmen in geval van nood. Met camera's kan dit niet en ik vraag me sterk af hoe ze dit gaan oplossen. Ook worden camera's verblind door laaghangende zon bijvoorbeeld. Dat probleem heb je met radar niet.
hah, mooi fout. Vliegtuigen hebben ook een "weer radar", maar daarmee kunnen ze niet door bestaande buien heen kijken (of wel maar tot zekere diepte).
Taca flight 110 is op deze manier nat gegaan, door te denken dat ze wel even tussen twee stormen konden vliegen omdat er een gat in de radar zat.
Deze docu legt het goed uit: https://youtu.be/H5UUr9RXfTY?t=403

Radar en visueel verschilt bijna niet in hoe de observatie werkt. Radar is weerkaatsing van radiogolven, visueel is weerkaatsing van licht. Radar is iets beter waar te nemen maar in de toepassing van Tesla is visueel blijkbaar goed genoeg.

[Reactie gewijzigd door Razwer op 26 mei 2021 10:34]

. Radar is iets beter waar te nemen maar in de toepassing van Tesla is visueel blijkbaar goed genoeg.
Als je "goed genoeg" definieert als: het mag een paar mensenlevens kosten.
We hebben immers al crashes gezien omdat de cameras een witte vrachtwagen niet van een witte lucht konden onderscheiden.

En zeker in mist kan radar veel eerder een object deteteren dan een camera. En dat is een situatie die toch best veel en onverwacht voor komt op wegen en dat veel ongelukken veroorzaakt.
Ik defineer niets. Tesla vind het "blijkbaar" goed genoeg. Ik rij geen Tesla, ik rij Volkswagen, met een radar aan de voorkant :)

Overigens is het moment dat iets mensenlevens kost met deze systemen er iets goed mis met de bestuurder, of beter gezegd, de persoon in de bestuurdersstoel. In de luchtvaart is zo goed als alles te automatiseren, op papier. Toch zal compleet autonoom vliegen (met passagiers) in ons leven zeer waarschijnlijk niet gebeuren. Waarom? De systemen zijn niet onfeilbaar. Een mens is dat ook niet, maar deze kan je wel vertantwoordelijk houden, een systeem niet.

[Reactie gewijzigd door Razwer op 26 mei 2021 13:04]

Overigens is het moment dat iets mensenlevens kost met deze systemen er iets goed mis met de bestuurder, of beter gezegd, de persoon in de bestuurdersstoel.
Nee, er is niets mis met die bestuurders. Het enige wat met ze mis is, is dat het mensen zijn.
En als mensen zien dat de autopilot altijd netjes afremd voor een auto voor ze en netjes binnen de lijntjes blijft rijden, dan is het puur menselijk gedrag dat ze dan niet meer goed opletten.
En dan krijg je dus situaties waarin een vrachtwagen gekanteld op de snelweg ligt en iedereen er netjes omheen rijdt, behalve die Tesla waarbij de bestuurder niet oplet en de autopilot dat object niet opmerkt.
https://www.youtube.com/watch?v=LfmAG4dk-rU

Mijn auto heeft vergelijkbare functies als de Tesla autopilot. Maar ik kies er bewust voor om de functie dat ie binnen de lijntjes rijd zelden te activeren. Omdat het stuur vasthouden totaal niet vermoeiend is en je dan je aandacht op de weg blijft houden.

Maar Musk verteld steeds hoe geweldig zijn autos zijn en dat ze veiliger zijn dan menselijke chauffeurs. En dan lok je uit dat mensen niet opletten.
Makkelijk schieten op menselijke fouten op technologie. Maar hoe is het percentage dodelijke ongelukken van voertuigen MET zulke technologie vs zonder zulke technologie?
nuff said. mand!
Dat percentage is helemaal niet zo geweldig als jij denkt.
Musk vergelijkt namelijk steeds de simpele situatie op een snelweg met goede weeromstandigheden waarin de autopilot aan staat, met de algemenen cijfers van mensen die autos besturen op ALLE soorten wegen, in ALLE weersomstandigheden. Dat is appels met peren vergelijken.

Op de snelweg in goede weersomstandigheden gebeuren er met menselijke bestuurders ook heel erg weinig ongelukken. Het zijn de provinciale wegen en het stadsverkeer waar de meeste dodelijke ongelukken gebeuren.

En je moet even goed opletten welke technologie je dan met elkaar vergelijkt. De meeste systemen met radar waren niet tegen die gekantelde vrachtwagen aangereden.
Dat is echt de verkeerde interpretatie van de Tesla, waarvan bekend is dat deze moeite heeft met statische objecten en bv schaduwen verwart met echte objecten. Vandaar dat een heleboel statische objecten genegeerd worden om te voorkomen dat die Tesla steeds op de rem gaat trappen. En soms negeert ie dan teveel.
Een systeem dat minder slim probeert te zijn en gewoon een niet bewegend object op de rijbaan waarneemt zou deze botsing hebben voorkomen.
Dat soort "minder slimme systemen" die je nu bij veel autos standaard hebt, voorkomen inderdaad veel ongelukken.
Nee, radar kan niet door objecten heen kijken. In ieder geval niet door objecten als auto's en vrachtwagens. Juist de reflectie van de radargolven zorgt ervoor dat de radar-unit ze kan waarnemen.

Radar kan wel makkelijker door mist of regen 'kijken'. Waar radar doorheen kan kijken hangt ook weer af van de precieze golflengte (de meteorologische radar gebruikt juist een golflengte die wel door regen wordt gereflecteerd). Een nadeel is ook dat je bij grotere golflengte (makkelijker door dingen heen kijken) ook een lagere resolutie zult hebben.
Radar is geen röntgen he :) Ook radar werkt met reflectie van het signaal, dus het eerste obstakel zal reflecteren en wat zich daarachter bevindt blijft onzichtbaar. Niet anders dus dan met (voor ons) zichtbaar licht in dit opzicht.
Ja klopt, wist niet of ik dat er nog bij moest zetten, experimenteel bestaat zoiets wel, maar dat vind je inderdaad niet terug in een auto.
Waarom je -1's krijgt, ontgaat me overigens?
Bij zichtbaar licht is het zelfs niet experimenteel.
Jij en ik kunnen door objecten heen kijken. Zolang die objecten maar transparant zijn. Zoals de ruiten van een auto.
En op die manier kunnen we door de auto voor ons kijken.
Bij zeer heftige regen werkte de radar inderdaad ook niet bij mijn Tesla Model 3. Ik moet ook toegeven dat ik niets zag.
Vooral bij sneeuw, al kan dat ook te maken hebben met sneeuwophoping voor de sensor natuurlijk.
Bij ophoping van sneeuw werkt zicht ook niet.
De camera zit achter de voorruit, deze wordt dus schoongemaakt door de ruitenwissers. Dat is bij een radar niet het geval.
Daar zitten 1 of 2 camera's bij een Tesla, net als bij veel andere auto's met lane-assist en adaptive cruise control. Bij een Tesla zitten er daarnaast ook nog eens wat extra camera's:
In plaats van radar gebruiken de auto's alleen nog camerabeelden voor bijvoorbeeld Autopilot. Tesla's worden geleverd met meerdere camera's aan de voor-, zij- en achterkanten. Deze beelden worden door het neurale netwerk van een Tesla-auto verwerkt.
En die camera's kunnen zeer zeker wel bedekt worden met sneeuw/troep, waardoor ze niet meer goed werken. Zeker voor tesla's advanced autopilot, waarbij automatisch van baan gewisseld kan worden om in te halen, is dat dus wel een dingetje bij sneeuw of andere zichtbeperkende weersomstandigheden.
Het ging over het verwijderen van de radar. Radar zit alleen aan de voorkant. Dus hoewel je gelijk hebt dat er overal camera's zitten en dat de andere camera's bedekt kunnen raken, is dat niet helemaal relevant in de context van deze thread. Dat ging over het bedekt raken van de radar met sneeuw en dat de camera dit ook heeft, maar de camera die de functie van de radar overneemt zit aan de voorkant. En die camera wordt sneeuwvrij gehouden door de ruitenwissers.
Vuil op de camera's kun je oplossen door er een sproeiertje/wissertje voor te zetten.
(Net zoals we de ruit voor onze ogen schoonmaken met de ruitenwissers)

Wordt soms ook gedaan met lucht onder hoge druk.

De camera's hebben dacht ik al een verwarmingselementje.
Die camera's zitten volledig rondom de auto.. hoe zie jij een sproeier/wisser op je deurstijl voor je?
Is niet heel bijzonder hoor, meestal kijken de camera's al met een kleine hoek omlaag, wat je dan meestal ziet is een klein gaatje eronder waar iets uit kan spuiten onder druk. Soms ook uitschuifbaar.

Zit al op meerdere auto's, meestal bij de achteruitrijcamera, soms ook voor, zie bv:
https://i.ytimg.com/vi/e1kLSxv5ovk/mqdefault.jpg
https://i4.progressivedig...ng_product_cropped_90.jpg

[Reactie gewijzigd door Navi op 26 mei 2021 09:47]

Dat heb ik dus echt nog nooit gezien haha, wordt dan door de hele auto ook leidingen aangelegd voor de vloeistof? of moet je elke beurt de hoofdprijs betalen om alle reservoirs te laten vullen?
Bijzonder slechte zaak als je het mij vraagt. Ik heb ongeveer 1,5 jaar in een Model 3 gereden en bij 'normaal' Nederlands weer werkt het opzich prima. Maar zodra het begint te regenen, het mistig wordt, er vuil voor de camera zit of juist de zon fel schijnt werkt het opeens voor geen meter meer. De auto stuurt op de snelweg opeens naar het midden van de weg, remt uit het niets wanneer je de schaduw in rijdt, ziet de belijning op wegen niet meer etc etc. Ik ben blij dat ik na 1,5 jaar mijn Model 3 weg heb kunnen doen.

Buiten dat is de afwerking ook bijzonder slecht. En dan vergelijk ik het nog niet eens met premium merken als Mercedes/Audi/BMW. Ook vergeleken met een Opel, Mazda of Toyota vind ik het echt beneden niveau. Nee voor mij geen Tesla weer zolang de quality control niet omhoog gaat.
Hmm.. ik herken op zich je punten wel, als de camera vuil is dan kan geeft hij dit aan, maar toch kan me niet helemaal vinden in het sentiment dat ik je je post lees. Ik heb maar heel zelden gehad dat weersomstandigheden de autopilot beïnvloeden en dan is het eigenlijk altijd felle laaghangende zon.

Een vuile camera (wat bij mij zelden voorkomt, maar misschien als je vaak onder een boom moet parkeren is jouw ervaring wellicht anders), is en 99 van de 100 gevallen opgelost door even de ruitenwisser aan te zetten.

Je opmerkingen over de afwerking zijn gewoon helemaal waar. Voor het geld dat je betaalt mag je naar mijn idee qua afwerking echt wel wat meer verwachten. Niet dat ik het helemaal bagger vind hoor, de stoelen zitten prima, het stuur is prima, het dashboard prima... behalve de kofferbak welke ik echt ondermaats vind, is alles prima. Maar voor 60k verwacht je wel wat meer dan 'Fiat Panda niveau'-prima.
Het hoeft natuurlijk niet altijd het weer of vuil op de auto te zijn. Zag een paar jaar terug een foto waar 3 Tesla's achter elkaar een weiland ingereden waren omdat een agrariër met z'n trekker wat zand op de witte belijning van de weg had gemorst.
Je moet als chauffeur wel het stuur vasthouden en op ieder moment kunnen ingrijpen, maar wat kan je nog doen als de auto een 'last second' uitwijkactie doet en van de weg af stuurt. Denk dat er maar weinig mensen zulke reflexen hebben dat ze dan nog correct in kunnen grijpen.
Grappig, dat je Audi noemt als auto met goede afwerking en dan Toyota als minder aangeeft. Lijkt me meer een voorkeur uit te spreken voor een merk, dan echt te kijken naar de degelijkheid van de auto.
Nee hoor, zeker geen voorkeur (ik ben totaal geen Audi-fan persoonlijk). Puur op basis van klasse 'ingedeeld' en bij de premium merken wordt vaak ook Audi genoemd en zo positioneren ze zich ook. Of je het er mee eens bent of niet. Toyota positioneert zichzelf als concurrent van o.a. VW/Mazda/Peugeot etc.

Over de afwerking in bijv. de Mercedes A-klasse en BMW 1-serie valt ook genoeg te zeggen weet ik uit eigen ervaring. Wat ik wel weet is dat die auto's altijd nog boven Tesla zitten qua afwerking. Zo begon het bij mij al met de achterklep en 'motor'kap die scheeft zaten, geluidsboxen in de deur die los zaten, klepjes rondom de stoel die los zaten, het dashboardkastje zat er scheef in, panelen in de B- en C-stijl zaten los en de achterklep was lek (oid, de bak achterin was in ieder geval geregeld volledig doorweekt). En dan ken ik voldoende Model 3's met meer problemen (middenconsole, deurgrepen, verwarmingslijnen in de achterruit)

[Reactie gewijzigd door Herax10NL op 26 mei 2021 09:39]

Maar volgens mij positioneert Mazda zich als een concurrent van Audi/BMW/Lexus tegenwoordig en in vele reviews (vooral buiten Nederland) worden ze ook zo vergeleken tegenwoordig.

Maar dat Toyota geen Audi concurrent wil zijn is een feit. Daar hebben ze Lexus voor. Net als Nissan Infinify heeft. Toyota kiest er bewust voor om sommige zaken voor Lexus te bewaren en zelf goedkoper ogende en aanvoelende materialen te gebruiken. Dat is een bewuste keuze van ze, om Lexus niet lastig te vallen. Net als Skoda en Seat en VW bepaalde aspecten van Audi niet mag gebruiken of minder uit mag werken, zoals bepaalde materialen en afwerking.

Een van de problemen is dat niemand meer een goed beeld lijkt te hebben van wat premium zou moeten zijn. Een Audi A1 kan ik met de beste moeite niet premium noemen namelijk. De meeste Audi A3tjes die in Nederland verkocht worden durf ik ook niet premium te noemen. De goedkopere modellen kennen kogelharde bezuinigingen op het onderstel en delen van het interieur. De afwerking van andere auto's is redelijk in de buurt gekomen en Audi heeft de laatste paar jaar niet echt stappen gemaakt.

Ik heb zelf overigens een grote hekel aan bedrijven die kunstmatig een verschil proberen te bouwen tussen premium en niet premium merken binnen hun eigen concern. Daar blijf ik dan ook ver bij vandaan. Je zit of voor veel te veel geld in veel te weinig of je zit in een kunstmatig kleingehouden auto. Niet vanwege de prijs, maar vanwege marketingbeslissingen.
Er zit een verschil tussen afwerking en degelijkheid.
Afwerking en degelijkheid zijn twee verschillende dingen...
Niet te snel goede afwerking gelijkstellen met de degelijkheid van een auto.
Het is niet omdat iets degelijk afgewerkt is, dat dat wil zeggen dat de auto degelijk is. Bvb: je interieur mag nog zo mooi afgewerkt zijn, maar als je motor onbetrouwbaar is, heb je geen degelijke auto.
Toyota's zijn zorgvuldig afgewerkt, maar gebruikt minder "premium" materialen dan Audi. Dat verklaart ook gelijk het prijsverschil tussen deze twee merken want in de kwaliteit van de aandrijflijn zit het niet. In tegendeel zelfs: Toyota maakt kwalitatief (heel veel) betere auto's dan om het even wat er uit Duitsland komt.
Ik heb ervaring met Audi’s en Toyota’s, en zonder te zeggen dat een Toyota slecht is (ik denk zelfs dat ze de beste auto’s ter wereld bouwen), is het overduidelijk dat de afwerking bij Audi op een veel hoger plan staat. Dat is vooral zichtbaar in het interieur.

...maar daar is de prijs ook naar.
Sowieso raar dat ze nu een stap terug doen: Ik heb op het punt gestaan om een Tesla aan te schaffen en weet nog dat ik me verbaasde over de prijs van de optionele autopilot full self driving software. Ik heb het uiteindelijk niet gedaan vanwege de zeer matige afwerking en omdat ik ze gewoon niet mooi vindt, maar heb het toch te doen met iedereen die voor veel geld de autopilot Full Self Driving optie heeft aangeschaft: Het blijkt toch min- of meer vaporware te zijn. (Tegen de tijd dat het echt level 5 is, staan de eerste Tesla's die met die optie gekocht zijn al op de schroothoop)

[Reactie gewijzigd door Homer J.Simpson op 26 mei 2021 10:42]

Je bedoelt waarschijnlijk de prijs van Full Self Driving. Autopilot is nu standaard bij Tesla.
FSD inderdaad, aangepast
Buiten dat is de afwerking ook bijzonder slecht. En dan vergelijk ik het nog niet eens met premium merken als Mercedes/Audi/BMW. Ook vergeleken met een Opel, Mazda of Toyota vind ik het echt beneden niveau. Nee voor mij geen Tesla weer zolang de quality control niet omhoog gaat.
Beetje off-topic, maar het lijkt erop dat de kwaliteit van de productie al met de huidige 'Made in China' modellen al een stuk beter is. Het interieur heeft ook een upgrade gekregen. Ik denk dus dat ze vanuit de Berlijn fabriek echt wel kwalitatief goede auto's gaan leveren.

Overigens hebben ook andere fabrikanten hun kwaliteits-issues. Het degelijke Duitse Volkswagen heeft nog een hele kluif aan de software en daarnaast zijn er bijvoorbeeld bij de ID.4 ook enkele hardware issues (loskomende lichtlijst op de achterkant, handgrepen) naar voren gekomen. Daarbij wordt de kwaliteit van de interieur-materialen (ID.3 en ID.4) ook door bijna alle reviewers wel gekraakt voor het prijsniveau.

Maar als het gaat om de self driving mogelijkheden wordt Tesla toch meestal wel geroemd. Vrienden met een Tesla zijn ook positief hierover. Wel wat last af en toe van 'phantom breaking'. Zelf beperkte ervaring met Autopilot op weg naar wintersport: in zeer slecht weer functioneerde het systeem gewoon prima (Tesla Model S van paar jaar terug).

Disclaimer: ik heb zelf een Hyundai Ioniq 5 in bestelling, dus zeker geen blinde fan-boy...

[Reactie gewijzigd door bilgy_no1 op 26 mei 2021 10:45]

Ik zie in mijn omgeving (zzp it) de eerste Model S rijders al overstappen naar een Audi E-tron GT vanwege dezelfde bezwaren die jij aanstipt. Auto's in massa bouwen met een constante kwaliteit is ontzettend moeilijk. Daar hebben "de Duiters" nu eenmaal veel meer ervaring mee.
Ja ik zie hetzelfde, Audi E-Tron lijkt het erg goed te doen in kringen van ex-model S rijders. Zelfs mensen die in het eerste uur echt Tesla aanhangers waren zijn er na een jaar of 3 rijden erg kritisch over.

En de Model S was een minder "goedkoop plastic" model dan de Model 3.
Jep, als ik ooit genoeg verdien om electrisch te rijden dan ga ik ook voor een ander merk dan Tesla. Ik roem Tesla wel dat ze deze hele markt hebben aan gezwengeld, maar ik wil inderdaad meer waar voor mijn geld. Daarnaast hoop ik dat de andere merken ook schappelijkere reparatie-prijzen hanteren en niet eeuwen doen over een reparatie en enigzins in de buurt zitten.
De Fremont fabriek is een oud fabriek die ze overgenomen hebben en eerste waar ze massa gingen fabriceren. Volgens mij ging daar zowat alles fout. In China is de kwaliteit al beter. In Berlijn en Austin wordt een heel ander proces. Zijn ze de eerste die een giga press gebruiken. 3 delen worden apart geperst en dan samengevoegd. Betekent minder verschillende onderdelen die niet meer hoeft samen te lassen, minder gewicht en tijd besparing. Dan mag je ze echt beoordelen.

[Reactie gewijzigd door lighting_ op 26 mei 2021 18:13]

Volgens mij heeft Tesla (met Elon voorop), de massaproductie van het maken van auto's onderschat, net als aftercare die niet via een OTA update kan gaan.
Klopt. Maar ze leren snel. Terwijl de fossiele autofabrikanten op ander gebied problemen hebben en ook de EV onderschat hebben. En ze halen Tesla voorlopig niet in omdat ze simpelweg niet aan genoeg batterijen kunnen komen. Dat heeft Tesla weer beter geregeld.
Je mag ze (Tesla) beoordelen als je een ton voor een Model S hebt afgetikt.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True