VS start onderzoek naar Tesla's Full Self Driving na ongelukken bij slecht zicht

De Amerikaanse verkeerstoezichthouder start een onderzoek naar Tesla's zelfrijdende software na meerdere aanrijdingen. Het systeem zou bij verminderd zicht op de weg in bepaalde gevallen niet in staat zijn om correct te reageren. Er is sprake van een dodelijk slachtoffer.

De Office of Defects Investigation-afdeling (ODI) van de National Highway Traffic Safety Administration start een voorlopige evaluatie, die kan leiden tot een officieel onderzoek. Het ODI meldt vier gevallen waarbij een Tesla-voertuig met Full Self Driving, bèta of Supervised, is gecrasht nadat het door een gebied met verminderd zicht op de weg is gereden. In één van deze aanrijdingen werd een voetganger dodelijk geraakt. Er is ook sprake van lichamelijke verwondingen als gevolg van een ander ongeval.

De gestelde slechte zichtbaarheid wordt volgens het ODI veroorzaakt door omstandigheden zoals verblinding door de zon, of door mist of stof in de lucht. De autoriteit wil nagaan of Tesla's FSD-software in staat is om deze factoren waar te nemen en er correct op kan reageren tijdens het besturen van een voertuig. Er wordt ook onderzocht of er meer soortgelijke ongelukken zijn gebeurd en of ze mogelijk zijn veroorzaakt door de impact van updates of modificaties die in het verleden zijn doorgevoerd aan de voertuigen.

Tesla heeft in april dit jaar zijn Full Self Driving-systeem uit bèta gehaald in de VS, na een testperiode van meer dan drie jaar. Enkele dagen daarna heeft de fabrikant geschikt in een rechtszaak rond een fatale Autopilot-crash die in 2018 plaatsvond. In dezelfde maand heeft de Nhtsa Tesla ervan beschuldigd dat de werking van zijn zelfrijdende software leidt tot 'voorzienbaar misbruik en vermijdbare ongelukken'.

Door Idriz Velghe

Redacteur

18-10-2024 • 20:17

261

Submitter: m3gA

Reacties (261)

261
257
76
13
0
141

Sorteer op:

Weergave:

Wat vaak vergeten wordt is dat er opgeteld al meer dan 3.000.000.000 kilometers met FSD ingeschakeld is gereden door alle Tesla's met FSD (en ik heb het dus puur over FSD, niet over Autopilot).

Er vallen in de US ongeveer 1,33 doden per 100 miljoen afgelegde mijlen, ofwel 160.934.400 kilometers.

Je zit met 3.000.000.000 afgelegde kilometers dus sowieso al op een statistische 24,79 doden zit en dat is dus ook met FSD ingeschakeld nog vrijwel onvermijdelijk.

Uiteraard moet ieder ongeval uitgezocht worden maar we moeten ook weer niet doen alsof die 3 miljard kilometer met ieder ander voertuig zonder incidenten zou zijn verlopen.
Dat mogen we inderdaad niet vergeten. Ook ik ben voorstander van autonoom rijden waar het kan en zie er wel degelijk de voordelen van in. Echter als Tesla rijder snap ik wel de algemene rancune richting Tesla over hun FSD. Je moet hier de implementatie van Tesla los zien van de implementatie van bijvoorbeeld BMW of Mercedes. Zeker omdat het in het artikel over een zicht probleem gaat, dit is juist het hekelpunt bij Tesla.

Ze zijn een weg ingeslagen waarbij ze overtuigd zijn dat camera's de juiste oplossing zijn voor FSD. Want, de mens heeft immers ook maar 2 ogen en dat gaat ook goed. Wat je hier ziet is het resultaat van die twee ogen in de Tesla, de auto ziet veel, maar interpreteert niet alles even goed. Als je regelmatig met een Tesla rijdt weet je dat als het zicht een klein beetje minder wordt, de auto al bepaalde hulpsystemen uitschakelt. Sterker nog, het systeem met camera's heeft al moeite om de automatische ruitenwisser goed te bedienen.

Mijn auto heeft geen FSD en als ik mensen op hun blauwe ogen moet geloven is de FSD in de VS een stuk beter dan hier. Echter vind ik dat moeilijk te geloven. Musk wil met dit systeem volledig autonome taxi's op de weg brengen, ik ben benieuwd wat er gebeurd als het hard regent, sneeuwt of mistig is. Want dan kunnen de camera's het niet meer zien. Ook zijn er al een handvol aanrijdingen met motorrijders geweest, omdat de auto de motor niet herkende (enkel achterlicht, dus lijkt op een auto in de verte).

Tesla is er dus nog niet, zet dit even af tegen de concurrentie BMW en Mercedes, die inmiddels op verschillende plaatsen level 3 autonoom mogen rijden, Tesla biedt level 2. Deze concurrenten gebruiken ook andere sensoren zoals Lidar als aanvulling op camera systemen. Meer data om de juiste beslissingen te maken lijkt me in dit geval (leven of dood) zeer wenselijk. Mijn vorige auto (BMW) heeft een keer een noodingreep gedaan in de mist op basis van zijn sensoren, ik ben er vrij zeker van dat mijn huidige auto (Tesla) niet had ingegrepen, omdat de camera niet genoeg zicht zou hebben.

M.i. zijn dat de redenen waarom mensen weinig muziek zien in de implementatie van Tesla.
Het idee achter het Tesla systeem is dat als wij met onze ogen iets kunnen zien dat de tesla camera’s het ook moeten kunnen zien (en meer). Dat bepaalde weersomstandigheden het zicht belemmeren geldt voor twee mensenogen en ook voor camera’s. De algemene stelling van Tesla is dat bij slecht zicht camera’s beter presteren dan de mens. Dat je bij slecht zicht je snelheid en gedrag moet aanpassen is evident en als het goed is zal het neurale netwerk dat ook aanleren.

We zullen moeten accepteren dat FSD-achtige systemen niet feilloos zijn maar wel beter presteren onder gelijke omstandigheden dan de mens (die last heeft van vermoeidheid, drank, slechte ogen, afleiding, etc).

Net als in de luchtvaart zal elk groot onverwacht ongeluk onderzocht moeten worden. Niet met het doel om deze systemen dan maar te verbieden (zie je wel, ze zijn niet feilloos en dus gevaarlijk!) maar met het doel om te leren van zwakheden in systemen en deze te verbeteren. In de luchtvaart heeft dat geleid tot een enorm laag aantal doden per gevlogen kilometer. Als we nog massaal op de hand hadden gevlogen dan zou dat aantal ongetwijfeld enorm veel hoger liggen.

[Reactie gewijzigd door Odie op 19 oktober 2024 13:04]

1. Het idee dat cameras beter zullen presteren dan menselijke ogen is werkelijk belachelijk. Het dynamisch bereik en de resolutie van het menselijk oog is vele vele vele malen beter dan cameras. Waar de auto wel beter is, is constante monitoring van alle richtingen tegelijk, en het niet afgeleid kunnen zijn. Het is dus geen verhaal waarbij de een 100% beter is dan de ander, het hangt af van de situatie.

2. Het aantal doden per gereden km is zeker een relevante statistiek. Maar wat je absoluut ook niet bekijken is hoeveel beter het kan door bvb de toevoeging van lidar, of ander aanpassingen.
Als Tesla door een aanpassing die, ik zeg maar wat, $5000 per auto kost alsnog het aantal ongevallen kan halveren, dan vind ik het belachelijk om te zeggen "ja maar het is al goed genoeg, jammer die mensen die nu dood gaan".
Als Tesla door een aanpassing die, ik zeg maar wat, $5000 per auto kost alsnog het aantal ongevallen kan halveren, dan vind ik het belachelijk om te zeggen "ja maar het is al goed genoeg, jammer die mensen die nu dood gaan".
Dan kom je op de langlopende discussie (ook in de gezondheidszorg) over wat een mensenleven waard is. USD 5.000 per auto x 1.500.000 auto's (grofweg productie) = 7.5 miljard dollar. Als ik het goed lees is er nu één dode op 3 miljard afgelegde kilometers. Dan vind ik 7.5 miljard om één dode te besparen duurbetaald (ook als het er 25 zijn trouwens).

Het gaat hierbij natuurlijk niet om mijn of jouw mening: hier zullen we de maatschappelijke discussie over moeten voeren, en het met elkaar eens worden over wat acceptabel is. Ik zit er makkelijk in: zodra autonoom rijdende auto's het beter doen dan mensen, moet je het niet alleen toelaten maar autonoom rijden zo snel mogelijk verplicht stellen. Dat is de echte step change. Vervolgens verplicht je autobouwers om het elk jaar model iets beter te doen dan het vorige model (of de vorige release van de software). Rome wasn't built in a day, tenslotte.
Ja, ik ben het deels met je eens hoor: qua kosten moet inderdaad de analyse gemaakt worden of het effectief is. Mijn punt was vooral: zeggen dat autonoom rijden veiliger is dan menselijk rijden is geen goede reden om dan maar geen verdere verbeteringen aan te brengen.

Daarnaast ben ik het wel oneens dat we dan nu maar meteen autonoom rijden moeten toelaten, laat staan verplichten. Verplichten wil ik sowieso niet, het lijkt me een walgelijke dystopische wereld waarbij de openbare weg het exclusieve domein wordt van een klein select groepje megabedrijven hun extreem dure closed source software.
Daarnaast moet er een duidelijk legaal framework gemaakt worden voor autonoom rijden voor het überhaupt toegelaten wordt op de weg. Ik vind dat daarbij de volledige aansprakelijkheid naar de fabrikant moet worden overgeheveld, op momenten waar FSD is ingeschakeld: ik wil niet opdraaien voor een bug of een asociaal geschreven algoritme van een geschifte miljardair.

En daar moet ook nog bijkomen dat er een gelijk speelveld moet komen op vlak van data: wanneer momenteel iemand Tesla aanklaagt wegens fouten in autopilot of fsd, dan komt Tesla altijd met zogenaamde logs die toevallig altijd bewijzen dat de fout niet in hun software ligt. Het. Punt is dat dat misschien wel waar is, maar omdat derde partijen van Tesla geen toegang krijgen tot de data kan dit totaal niet geverifieerd worden: Tesla is on de praktijk daardoor een rechter die zichzelf altijd vrij spreekt.

Zoals je zegt: Rome wasn't built in a day. En daarom moet er in lijn ogen echt nog heel veel geregeld worden voordat musk zijn autos zelf mogen rijden op Europese wegen.
Niet dat dit af doet voor je conclusie maar je moet natuurlijk niet de totale productieaantal gebruiken. 3 Miljard kilometer zou, met 10000 mijlen per jaar per tesla, per jaar gereden worden door ongeveer 185.000 tesla's. Met USD 5,000 per auto kom je uit op een totaal van 925 miljoen dollar. Als deze wijziging inderdaad 12 doden per jaar zou kunnen voorkomen kost dit 77 miljoen dollar per verkeersdoden. Dit is alsnog meer dan een factor 10 hoger dan RWS waarderingskengetal per verkeersslachtoffer (6,5 miljoen euro).
Bedankt voor het reageren. Bij het lezen van @Odie 's post gingen bij mij de nekharen overeind staan; die weet echt niet waar hij/zij het over heeft. Als je denkt dat dergelijke camera's beter presteren dan het menselijk oog, dan heb je het echt niet begrepen. Waar ik echter nog meer van opkijk is dat zijn "bijdrage" een +2 als beoordeling krijgt. Zitten er tegenwoordig zoveel nitwits op Tweakers?

Het is natuurlijk wel zo dat oudere modellen van Tesla die nog wel over lidar beschikken, aanzienlijk beter presteren. Als je altijd een Model 3 met lidar hebt gereden en nu ineens overstapt op een splinternieuw model met enkel camera's, dan kom je van een koude kermis thuis.
Mij verwijten niet te weten waar ik over praat en dan zelf claimen dat er Tesla’s waren met lidar, best grappig :-)

Tesla heeft nooit lidar gehad, hooguit radar. Mijn eerste 2019 Model 3 had radar, mijn huidige Model 3 2024 heeft die niet meer, net zoals hij geen USS meer heeft. De koude kermis herken ik niet. Maar ja, wie ben ik. Ik weet niet waar ik over praat.

Wat betreft of camera’s beter zijn: je moet kijken naar het brede spectrum: een camera met achterliggende logica kan het gehele blikveld in de gaten houden en dat op 8 camera’s tegelijk (7 bij mij, de nieuwe model 3 heeft nog maar 2 frontfacing camera’s).

Lees ook eens:

https://red-one.medium.co...human-vision-61cbe34dc18c

edit: typos

[Reactie gewijzigd door Odie op 21 oktober 2024 11:13]

Als we jouw redernering over LiDAR (kost geld maar dan krijg je ook wat) dan moet jij een groot voorstander zijn om handmatig tijden subiet te verbieden? Ja het kost wel wat geld maar we halveren wel onze verkeersdoden meteen.
Ik merk dat in deze discussies de mogelijkheden van camera's stelselmatig worden neergezet als aan inferieur aan het menselijke oog. Houd er rekening mee dat een camera niet hetzelfde hoeft te zien als een menselijk oog. Katten hebben ogen waarmee je in het donker kan kijken. Andere dieren zien ook infrarood en ander spectrum licht, wat wij niet zien. Dat kunnen veel camera's ook, waardoor "slecht zicht" ineens een wat meer relatief begrip wordt. Een camera oogje kijkt misschien in een andere resolutie, dat betekent niet dat het per definitie minder ziet dan jij.

Ik weet niet wat voor camera's Tesla toepast en of ze dit soort voordelen benutten, maar maak niet te snel aannames dat ze het niet doen.
Nog breder: je kunt niet alleen stellen dat de camera's een lager dynamisch bereik hebben en DUS het menselijke oog superieur is. Je moet ook meerekenen dat een Tesla 7 tot 8 camera's tot haar beschikking heeft maar met name een heel neuraal net dat geoptimaliseerd is voor het verwerken van die beelden en daarbij correlaties kan leggen die een mens misschien ontgaan, ook door beelden "over time" te interpreteren. Daarbij is een mens niet heel sterk om het hele blikveld scherp te zien en te interpreteren.

Concreter: je ziet misschien de peuter voor je op het zebrapad wel, maar zag je ook die fietser die van rechts aankomt en in je perifeer gezichtsveld zit, terwijl er een spelend kind van links achter een bal aan de straat op rent, terwijl je passagier toevallig net aan je vraagt of je een pepermuntje wil en je telefoon over gaat? En zie je dan nog wat er 50 en 100 meter verderop in de straat gebeurd?
Ik zou het met geen enkel automerk autonoom willen rijden ik heb er op dit moment geen vertrouwen ub
Het toevoegen van Lidar kan eigenlijk niet echt serieus genomen worden. Het kost rond 12000 op emballage niveau om toe te voegen aan de auto. Dit maal ~2,5 is 30k wat de eind gebruiker betaalt puur en alleen om de lidar hardware op je auto hebben.

Het voordeel van de Lidar is niet heel groot t.o.v reguliere camera's. De meeste auto hebben niet eens externe sensors om mee te beginnen en dat komt omdat je niet een miljard BMW of Mercedes kan maken en verkopen.

De keuze voor een camera systeem gaat veel verder dan puur veiligheid. Hoe meer veiligheid hoe duurder het wordt hoe minder mensen het kunnen kopen. Dat geld nu ook voor brandstof auto's
overdrijven is een kunst, nee?

er zijn grasmaaiers met lidar, en die kosten geen 12k of 30k "erbij".

Hier spreken ze van 1k: https://www.itu.int/hub/2...rs-be-on-the-road-sooner/

artikel van 2020.

Hierbij iets recenter, waarbij ook Tesla deze heeft getest: https://www.theverge.com/...on-musk-sensor-autonomous


En als 1k de veiligheid verhoogd, dat vindt ik dat Tesla hier de verkeerde weg is ingeslagen.

[Reactie gewijzigd door bjp op 19 oktober 2024 12:32]

En als 1k de veiligheid verhoogd, dat vindt ik dat Tesla hier de verkeerde weg is ingeslagen.
Ik denk dat als het echt 1k is (wat ik betwijfel, gezien andere berichten dat het relatief dure hardware is), en als het echt de prestaties van FSD verbetert, en de veiligheid verhoogt, dan kan ik me niet voorstellen dan Tesla dat niet in hun auto's stopt. Ik weet zeker dat Tesla het slagen van FSD, en de termijn waarop daat gebeurt, veel belangrijker vindt dan 1000 euro extra kostprijs van de auto. Nog afgezien van het feit dat alle Tesla's duur genoeg zijn, en dat er dus amper sprake is van prijsconcurrentie. Niet op het niveau van 1000 euro althans.

Wij kunnen dit soort afwegingen amper zelf beoordelen. Het enige wat we hebben is talloze niet-ter-zake-kundige mensen die roepen en herhalen wat andere mensen ook roepen. Net zoals er ook talloze mensen zijn die bij hoog en laag beweren dat de aarde plat is. Als je het wilt weten, dan ga je bij Tesla aan FSD werken. Dan mag je daarna hier komen vertellen wat je bevindingen zijn...
Dat ben ik niet met je eens, er zijn genoeg tweakers die zeer goed zijn ingelezen in de materie. Het is bijvoorbeeld niet heel moeilijk om te begrijpen dat met slecht zicht een auto zonder lidar minder presteerd dan met Lidar.
Er zijn geen genoeg bronnen op internet te vinden waaruit blijkt dat het wel degelijk geld een grote rol speelt waarom Elon musk niet voor LiDar kiest.
Uit jouw link.
Even if Tesla is using Luminar’s lidar to validate its Full Self-Driving feature in preparation for a robotaxi launch, that’s still a lot of lidar. According to Luminar, individual lidar sensors cost around $1,000, including software. Did Tesla buy 2,100 lidars for its vehicles? Maybe!
Er zitten 3 sensors in de voorbumper en 3 in de achterbumper. Volvo heeft ze ook nog in het dak zitten.
Daarnaast moet je de montage material, controllers en bekabeling mee rekenen.
En dit zijn fabricage kosten.
Voor nagenoeg alle autos geld dat voor elke euro dat het kost om te maken de klant 2,5 betaalt.

Denk je echt dat het zo onrealistisch is?
Mijn xiaomi stofzuiger van €280 euro heeft ook lidar ;) Maar nu zal het van een heel ander niveau zijn wat er op een auto zit, daar heb ik geen verstand van
Want je stofzuiger moet zijn weg kunnen vinden in sneeuw en regen terwijl het verkeer vermijdt?
Ik denk niet dat je erg veel heb aan een lidar sensor dat maar een paar meter kan zien voor een apparaat dat max 3km uur rijdt.
Lidar lijkt me een redelijk essentieel verlengstuk van camera’s, ook om het zicht op het zicht (pun intended) te verbeteren
Je weer echter niet hoeveel keer ingegrepen is door de bestuurder.
Gek genoeg weten we dat wel, dat wordt zowel door Tesla als door een groep gebruikers bijgehouden.
Dit is alweer wat oudere informatie van juli 2024, mogelijk is er al ergens nieuwere data maar dat zag ik zo snel niet.
Crowdsourced data shows that Tesla FSD 12.5 is three to five times better than FSD (Full self driving supervised) 12.3.6.

The FSD 12.5 is showing 744 miles between critical disengagement and 111 miles between any disengagement.
The FSD critical disengagements improved 3.8 times from 194 miles with 12.3.6.
There was also a 3.8 times improvement from 29 miles to 111 miles for miles between any disengagement.
There was a 4.33 times improvement between city miles to critical disengagement.
bron: https://www.nextbigfuture...-is-3-5-times-better.html
Tesla wel maar die geven deze niet vrij, sommige die bepaalde hardware geinstaleerd hebben houden dat idd bij.

Zegt nog steeds weinig, 100km op autostrade vs 100km door een stadcentrum is hemelsbreed verschil.
Ik vermoed dat die vele km's vooral snelweg is waar weinig gebeurd en zelfs daar men dus zelf moet ingrijpen.
Die data wordt uitgesplitst in de bron die ik gaf ;)

Overigens staat er in dat artikel nog dat FSD op de highway op de Autopilot stack draaide maar volgens mij is dat onlangs ook FSD stack geworden, dus die statistieken zijn sowieso alweer verouderd. Maar het wordt bijgehouden, daar ging het om.

[Reactie gewijzigd door BlueTooth76 op 19 oktober 2024 11:52]

  • Statistieken van een bedrijf gelinkt aan Elon zijn uiterst onbetrouwbaar. Evenzo Tesla-rijders die zelf rapporteren
  • Geen enkele andere fabrikant vertrouwt alleen op camera's daar is een reden voor (reputatieschade door vermijdbare ongevallen).

[Reactie gewijzigd door NoTechSupport op 19 oktober 2024 14:17]

Als je betere data hebt mag je het aanvoeren. Ik doe m'n best om bronnen aan te voeren maar de wereld is niet perfect.
Exact, en daarom moet je niet alles vertrouwen waar je zelf in geloofd. Zoals altijd gaat het om geld en zijn alle middelen ok, zelfs mensenlevens om te blijven verdienen aan een bepaald model...
Uiterst onbetrouwbaar sinds hij Trump support?
Daarvoor was alles wat hij zei goddelijk
FSD is ook een level 2 besturing, dus het is te verwachten dat bestuurders af en toe ingrijpen. Als level 2 FSD significant minder doden geeft (met ingrijpen), dan is het nog te prefereren.

Het grootste risico met FSD vind ik dat je als bestuurder minder betrokken raakt bij het rijden, maar je moet wel opletten. Ik heb 5 jaar met enhanced auto-pilot gereden en toen merkte ik al dat ik vaak afgeleid was. De "drang" om op de mobiel te kijken was veel groter. Ik rijd nu weer volledig zelf (heb zelfs geen cruise-control) en ik ben veel meer betrokken bij het rijden.

FSD op saaie stukken (lange stukken snelweg, provinciale wegen, ...) zou voor mij echt het rijden veiliger maken. In de stad doe ik het liever allemaal zelf. Als het echt level 3 wordt (dus je hoeft niet meer op te letten), dan zou ik het overal wel willen.
Juist, we weten niet wat de situatie verder was waarbij die voetganger overleden is. Zoals indertijd met die Cruise self driving taxi, waar veel media puur de taxi icm self driving de schuld gaven, terwijl de situatie toch echt heel anders was.
Probleem bij Cruise is het opzettelijk verbergen en manipuleren van de data. Zo ga je toch niet te werk met zo'n systemen. Wees transparant naar toezichthouders. Daar is Tesla heer en meester in: ze hebben alle data, inclusief beelden. Niet zo spectaculair moeilijk om te delen dus.
Zomaar beelden delen zonder context aan mensen die niet het vermogen of de kennis hebben om ze te beoordelen, is iets wat ik prima kan begrijpen, dat een bedrijf of wie dan ook niet zomaar doet.
Zolang ze het maar delen met de onderzoekers. En na de conclusie kan het publiek misschien wat zien.
Daar gaat het om. Ze hebben de beelden gemanipuleerd voor de onderzoekers!!!

Uiteraard deel je die beelden niet publiek.
Gemanipuleerd??? Dat is niet wat ik zeg.
Gemanipuleerd??? Dat is niet wat ik zeg.
Nee. Maar dat is wel wat Cruise gedaan had. Ze hadden ze (vermoedelijk - volgens mij is het niet hard bewezen), zodanig aangepast dat het leek alsof er erg slecht zicht was, om zo (vermoedelijk) de indruk te wekken dat de officiële test-chauffeur (dus niet een willekeurige consument) er niets aan kon doen. Terwijl die chauffeur een video aan het kijken was op diens telefoon, in plaats van op de weg aan het letten...

Ook was, als ik het me goed herinner, het oorspronkelijke veiligheidssysteem van die auto uitgeschakeld, dat ongelukken moet voorkomen. Vermoedelijk omdat dat zou interfereren met de autopiloot.

Allerlei andere mensen hebben daarna op diezelfde weg gereden, en opnames gemaakt, waarop het zicht duidelijk veel beter is dan op de beelden van Cruise, terwijl er geen indicatie was van bijzondere omstandigheden waardoor die beelden van Cruise zo slecht waren. Erg verdacht dus allemaal.
Uhh, ik weet niet over welk ongeluk jij het hebt, maar het cruise ongeluk waar ik het over had was dat een menselijk bestuurde auto de voetganger aanreed waardoor deze voetganger voor de Cruise auto vloog en die er overheen reed met de voetganger enkele meters meeslepende om uiteindelijk er bovenop stil te staan. Media liet expres dat deel weg van menselijke bestuurder, en liet ook het commentaar weg van de first responders die aangaven dat het maar goed was dat de auto niet zomaar van het slachtoffer afgereden was omdat dat mogelijk nog meer schade had toegebracht.
Sorry, deze thread is begonnen vanwege een leesfout van mij. Ik dacht dat je tesla van manipulatie beschuldigde, niet cruise.
Nee, maar wat Cruise deed.

Ze hielden meermaals data achter over hetzelfde incident. 1.5 miljoen boete als gevolg.

https://www.nhtsa.gov/pre...er-cruise-crash-reporting
Auto technisch Ingenieur.

In 2017 werd FSD beloofd => niet
In 2019, betalende klanten (handen op stuur, FSD door Rood, FSD meer fouten)

(Op YT veel filmpjes)

Kortom FSD is nog steeds een ramp.
Met 3 miljard FSD kilometers is er logischerwijs veel meer data en beeldmateriaal beschikbaar dan van Waymo voertuigen die nu in totaal op zo'n 35 miljoen kilometer zitten. FSD heeft nu ongeveer 85x meer echte kilometers afgelegd dan Waymo dus dat er veel YT veel meer filmpjes (met incidenten) zijn lijkt me een gegeven.

FSD is geen ramp (eerder een wonder, als je het vergelijkt met wat er 10 jaar geleden kon) maar het is ook verre van perfect.

[Reactie gewijzigd door BlueTooth76 op 19 oktober 2024 15:36]

22 dagen geleden:

YouTube: FSD 12.5.4 disaster #2 - wrong lane, can’t merge, etc

2 jaar geleden:

YouTube: Tesla FSD: Roll Out of FSD BETA BECOMES A MASSIVE DISASTER !

En Tesla FSD krijgt onderzoek NAV een dodelijke Crash

https://www.theregister.c...d_lowvisibility_accident/

En dit is een Reddit comunity, die een bepaalde Tesla hebben.

https://old.reddit.com/r/...fsd_update_is_a_disaster/

Ben als autotechnisch ingenieur zo blij dat ik gewezen wordt op tekorten in mijn autotechnische kennis!
Nogmaals, FSD heeft al 3 miljard kilometer afgelegd en dus zullen er incidenten online staan. Ten eerste omdat iedere Tesla voorzien is van 8 camera's en je alles kan filmen, ten tweede omdat er veel YouTubers zijn die ritten online zetten. Met 3 miljard kilometer door gewone bestuurders zou je op zo'n 20 tot 25 doden zitten, dus met FSD ingeschakeld zal dat niet anders zijn.

Verder prachtig dat je in een discussie met je titel schermt maar gebruik het niet als wapen. Dat komt echt heel slecht over.
Ja schermen met een titel is onzinnig en niet netjes

In de afgelopen 100 jaar (voor FSD), hebben Mensen ook dodelijke ongelukken veroorzaakt.

FSD moet significant minder verkeersdoden opleveren. (doet het niet)

En deze link is "cherry picked" uit velen:

https://www.reuters.com/b...ng-collisions-2024-10-18/

Een vriend van me heeft €100000 Tesla S, hij laat FSD niet in de buurt komen

[Reactie gewijzigd door obimk1 op 20 oktober 2024 09:50]

Wat is je probleem, waarom gooi je dit naar mij? Ik ben niet uit op deze discussie. Je zoekt een discussie die ik niet voer. Ik heb slechts uitgelegd dat als je 3 miljard kilometers aflegt met auto's, dat er incidenten, doden en gewonden zullen zijn. En met een merk dat onder een vergrootglas ligt, zal dat ook in de media verschijnen. Wat je vrienden doen en wat je titel is, interesseert me weinig. Je weet ook niet wat mijn titel is en dat hou ik graag zo, het is niet relevant.
Jij beweert dat FSD met 3 miljard KM veilig moet zijn.

Ik beweer dat het niet veilig is, met links.

En Tesla gebruikers met FSD beweren dat ook.

En gebruik van mijn titel heb al excuses voor gemaakt (ook niet netjes)
Wat je vrienden doen en wat je titel is, interesseert me weinig. Je weet ook niet wat mijn titel is en dat hou ik graag zo, het is niet relevant.
Relevantie?

[Reactie gewijzigd door obimk1 op 20 oktober 2024 10:50]

Ik beweer nergens dat FSD met 3 miljard KM veilig moet zijn. Ik begrijp niet waar je dat uit haalt.

Het enige wat ik zei (en waar de discussie over losbrak) is dat er inmiddels 3 miljard kilometers zijn afgelegd met FSD ingeschakeld. En als je 3 miljard kilometer aflegt, zijn er incidenten, gewonden en doden. Dat zei ik puur om het wat te relativeren, je hebt met zulke afstanden nu eenmaal incidenten. Zo zit Waymo pas op 35 miljoen afgelegde kilometers (1/85e van FSD) en dan heb je statistisch gezien nog geen doden. Het is puur om alles in perspectief te zetten.

Nergens heb ik beweerd dat FSD al veilig (zou) moet(en) zijn of veilig is.
Met 3 miljard FSD kilometers is er logischerwijs
??

dit zijn je eigen woorden.
Wat zeg ik daar dan? Ik stel nergens dat het veiliger is. Ik stel slechts dat er meer beelden en incidenten zijn als er meer 85x meer kilometers zijn afgelegd. Je plaatste een halve quote en je zegt "dit zijn je eigen woorden" maar nergens in die reactie stel ik wat je beweert. Ga even terug naar de basis, wat beweer ik nu eigenlijk en wat beweer jij dat ik beweer?

Je probeert me nu echt iets in de schoenen te schuiven terwijl je zelf de reactie (bewust?) verkeert interpreteert.

[Reactie gewijzigd door BlueTooth76 op 20 oktober 2024 12:08]

Je hele post:
Met 3 miljard FSD kilometers is er logischerwijs veel meer data en beeldmateriaal beschikbaar dan van Waymo voertuigen die nu in totaal op zo'n 35 miljoen kilometer zitten. FSD heeft nu ongeveer 85x meer echte kilometers afgelegd dan Waymo dus dat er veel YT veel meer filmpjes (met incidenten) zijn lijkt me een gegeven.

FSD is geen ramp (eerder een wonder, als je het vergelijkt met wat er 10 jaar geleden kon) maar het is ook verre van perfect.
Dus je geeft geen link, weet niets over wat je gezegd hebt over 3 Miljard KM, maar weet ook niet in welke context dat gezegd is, maar ik ben wel de schuldige?

"Niet Perfect" => met extra dodelijke slachtoffers is FSD een ramp.

[Reactie gewijzigd door obimk1 op 20 oktober 2024 12:36]

Je maakt er nu wel een potje van, ga nog eens terug naar mijn eerst reactie en lees het dan eens zonder je eigen draai eraan te geven.

"Niet perfect" betekent niet automatisch met extra dodelijke slachtoffers.
Ik stel slechts dat je er niet aan ontkomt dat er incidenten, gewonden en doden zijn na 3.000.000.000km rijden met FSD, net als dat dat zo is zonder FSD.

Nergens claim ik dat er meer of minder doden vallen, ik stel slechts dat het statistisch bij zo'n afstand hoort.

Stop met het verdraaien van m'n woorden.

[Reactie gewijzigd door BlueTooth76 op 20 oktober 2024 14:15]

Tesla claimde al in 2017 werkende FSD te hebben

Anno 2024, en 3 Miljard KM verder, wordt software ook als dader gezien (FSD)

En Toyota had ook dodelijke software.

https://www.eetimes.com/t...-design-its-consequences/

Dodelijke SW in de "Autowereld" is niet vreemd.
Dat is veelste simplistisch want het zegt niks over waar die kilometers gereden zijn. Minder ongelukken maken op 100 kilometer rechte weg is een stuk makkelijker dan 100 kilometer in een stad rijden zonder ongelukken.

Dit is gewoon liegen met statistieken.
Je hebt de bron wel aangeklikt neem ik aan? Er is onderscheid tussen highway en city miles, bijvoorbeeld. Het is ook vooral een statistiek om de relatieve vooruitgang te meten en die is er, er zijn steeds minder interventies nodig maar ze zijn er.

Vergeet niet dat er door een user gevraagd werd om hoe vaak er ingegrepen moest worden. Ik heb m'n nek uitgestoken en daar wat bij uitgezocht en dat wordt dan weggezet als "liegen met statistieken".
Ik heb m'n nek uitgestoken en daar wat bij uitgezocht en dat wordt dan weggezet als "liegen met statistieken".
Kennelijk heb je dan tijdens het uitzoeken ervoor gekozen om artikelen zoals deze: https://www.forbes.com/si...ry-with-their-crash-data/ te negeren.
Gebruiker k995 gaf aan dat je niet weet hoe vaak er is ingegrepen door de bestuurder, bij die 3 miljard afgelegde FSD kilometers.

Daar zocht ik recente statistieken bij en daar heb ik m'n nek voor uitgestoken.

Een random Forbes artikel over Tesla uit begin 2023 zou daar niets aan bijgedragen hebben.
Ten eerste is dat oude informatie, aangezien FSD exponentieel verbetert.
Ten tweede worden die cijfers niet in dat artikel genoemd.

Je poging om goedkoop te scoren ten koste van mij is dan ook niet zo goed gelukt.
aangezien FSD exponentieel verbetert.
Exponentieel verbeterd? Dat is dus een voorbeeld van iets wat je hier ter plekke verzint.
Nee, dat verzin ik niet. De statistieken onderbouwen dat. Het aantal kilometers dat zonder ingrijpen gereden kan worden, groeit exponentieel. Bij de release van een nieuwe versie (met volledig herschreven FSD software) is er overigens ook wel een paar keer een stap terug gedaan.

https://nextbigfuture.s3....tointervene-1024x657.jpeg

https://nextbigfuture.s3....improvement-1024x668.jpeg

[Reactie gewijzigd door BlueTooth76 op 20 oktober 2024 10:35]

Je links werken niet, access denied. Sowieso deeplinken naar de grafieken / plaatjes zonder de context van het artikel is apart.
Klanten van fsd kunnen in het algemeen voorzichtiger zijn. Er zijn ook strikes als je even niet oplet.
En toch moet je daar een belangrijke kanttekening bij maken. FSD is in een testfase, en mensen die het opzetten zijn mogelijks net een heel stuk aandachtiger dan de gemiddelde bestuurder. Bijkomend ben je nu aan het vergelijken met een gemiddelde, maar hoe goed of slecht doen ze het ten opzichte van andere voertuigen met moderne ADAS systemen? Want uiteindelijk ben je hier 2 statistieken aan het vergelijken die niet gelijkwaardig zijn.
Maar daar ging het me niet om, scroll even terug naar de "bron". Het gaat me niet om een 1 op 1 vergelijking.

Het ging me erom dat als je 3 miljard kilometer aflegt, dat er linksom of rechtsom gewoon doden en gewonden vallen. Daar ontkom je bijna niet aan, niet voordat FSD beter wordt dan menselijke bestuurders. Uiteraard moet ieder incident onderzocht worden. Maar ieder incident met FSD ligt onder de loep in de media maar dat is niet helemaal eerlijk, vind ik.
Het zal jou kind of echtgenoot maar zijn........................toch.
En volgens mij ben je als bestuurder zelf verantwoordelijk.
Dus stuur vast en opletten en allert blijven want het kan zomaar gebeuren.
Maar dat geldt ook voor het kind of die echtgenoot van al het andere verkeer. Er vallen jaarlijks 1.350.000 doden in het verkeer, wereldwijd. Voor FSD zouden dat er statistisch (puur naar afgelegde kilometers) nu ongeveer 24,79 zijn, hoeveel het er in het echt zijn weet ik niet. Maar je ontkomt er niet aan, het verkeer is gevaarlijk.

[Reactie gewijzigd door BlueTooth76 op 20 oktober 2024 10:59]

Aangepast naar omstandigheden waarin FSD wordt gebruikt blijkt dat de het verschil tussen menselijke bestuurders en en zelf-rijdend veel kleiner is
In een docu ook gezien dat de Tesla engineers die werkten aan Autopilot hun ambitieuze deadline van Musk hoorden toen die deelnam aan een of andere talkshow "Tegen Kerstmis parkeert je Tesla zichzelf!". Engineers gaven aan dat dit niet mogelijk was, maar Musk luisterde niet. Zelfde bij de release van Autopilot1.0, engineers gaven aan dat het te vroeg was, Musk luisterde niet en heeft de publieke wegen en Tesla eigenaars in de VS gebruikt als proefproject, onbegrijpelijk dat dit mocht.

En inderdaad het gaat vooral over die camera's - is het goed genoeg? Maar tegelijkertijd gaat het vooral over de tig dodelijke ongevallen waarbij Tesla Autopilot een brug verwisselt met een truck...
https://www.theverge.com/...gation-report-crash-death
3 miljard kilometers is natuurlijk enorm veel.
Maar in welke omstandigheden? Want 3 miljard kilometer op Nederlandse wegen (druk, relatief smal) is toch echt wat anders dan dezelfde afstand op de Texaanse snelwegen buiten de steden: daar kun je bij wijze van spreken midden op de dag je auto wassen midden op de snelweg zonder dat iemand er last van heeft :)

Ik zie FSD echt wel als de toekomst en kan er eigenlijk nauwelijks op wachten. Maar ik weet zeker dat er toch echt een fors aantal kinderziektes uitgebannen moeten worden voor het zo ver is. Daarom zijn dit soort onderzoeken ook noodzakelijk: niet om een fabrikant aan de schandpaal te nagelen maar omdat daar veel van geleerd kan worden.
Het gaat om 3 miljard kilometer op Amerikaanse wegen, in 50 staten, van stadscentra tot highways. En dat vergelijk ik met het aantal doden in de US voor zo'n zelfde afgelegde afstand. Lijkt me een eerljke vergelijking. Maar het punt was vooral: als je 3 miljard kilometer aflegt, zal je incidenten, gewonden en doden hebben. Er is geen land of auto waarbij dat niet zo is.
menselijke fouten zijn wel acceptabeler dan die van een machine.
Als jij als mens een ongeluk veroorzaakt is het je eigen verantwoordelijkheid. Maar als een machine jou of iemands anders leven in gevaar brengt is die verantwoordelijkheid lastiger te plaatsen (eigenaar machine, engineer, fabrikant, CEO etc)
In dit geval is FSD nog onder toezicht, dus als de omstandigheden slecht zijn (mist, zware regenval, sneeuw, ijzel) dan moet je als bestuurder extra alert zijn.
De gestelde slechte zichtbaarheid wordt volgens het ODI veroorzaakt door omstandigheden zoals verblinding door de zon, of door mist of stof in de lucht. De autoriteit wil nagaan of Tesla's FSD-software in staat is om deze factoren waar te nemen en er correct op kan reageren tijdens het besturen van een voertuig.
Iets doet me vermoeden dat dit een van de redenen is waarom Tesla met de introductie van Hardware 4 opnieuw begonnen is voertuigen uit te rusten met de Phoenix-radar (76-77 GHz). Hoewel de radar nog niet is geactiveerd in Tesla's zelfrijdende software, heb ik gevonden dat verwacht wordt dat toekomstige software-updates de radarfunctionaliteit zullen inschakelen. Dit lijkt erop te wijzen dat Tesla mogelijk afstand gaat nemen van de eerdere strategie om volledig te vertrouwen op het camera-gebaseerde Tesla Vision-systeem. Ik heb echter geen informatie kunnen vinden over de mogelijke gevolgen voor oudere modellen, die nog wel een radar aan boord hebben maar waarvan deze destijds is uitgeschakeld of modellen die nu helemaal geen radar aan boord hebben, mochten ze besluiten de radar weer in het systeem te integreren.

Ter vergelijking: Mercedes multisensorbenadering, met de combinatie van lidar, radar, ultrasone sensoren en camera's, biedt een veel robuster systeem met failsafes dat in verschillende omstandigheden betrouwbaarder functioneert dan dat je kunt in met alleen RGB.

jdh009 in 'Mercedes verhoogt maximumsnelheid van autonoom rijden in Duitsland tot 95km/u'
Mercedes multinsensor is alles behalve een schaalbaar systeem omdat de core niet via deep learning werkt maak hard coded is.

Wat niet wil zeggen dat je geen radar fallback nodig hebt voor als vision wegvalt.

Als je autonoom wil rijden kan je niet vertrouwen op 10 sensoren omdat uw model crashed als er één sensor wegvalt. Dat is het probleem met lidar, je moet dat combineren met vision of het werkt niet. Het zelfde met radar, je moet dat combineren met vision of het werkt niet in een autonome setting.

Wat Tesla doet is 100% gaan voor vision en dan backups instellen indien vision plots geen input meer krijgt. Bijvoorbeeld een plotse mistbank maar het autonome model zelf is getrained op 100% vision.

Ik betwijfel dat ze radar ooit meenemen in de (hoofd)mix omdat je dan 2 modellen met trainen en onderhouden.

Je kan in theorie vision/lidar/radar/sonar en zelfs GPS meenemen in de mix maar zo’n model is niet 5x complexer om te trainen maar 500+ maar complexer omdat je van elke situatie met conflicterende input kan zitten die uw model kraakt.

Bijvoorbeeld; Een plastieken zak op de weg is voor radar een betonblok, voor lidar een een kind, en voor vision een ongevaarlijke plastieken zak. Je moet dus een complete matrix map maken wie, wie overruled afhankelijk van de omstandigheden. , alle objecten, alle omstandigheden, ook als bepaalde sensors even uitvallen.

Mercedes zijn systeem is op de korte termijn ‘robuust’ enkle onder zeer specifieke omstandigheden maar zodra ze meer omstandigheden willen toevoegen moeten ze hun model versimpelen. Ze mappen dus nog steeds de hele autosnelweg in 3D en logica. Waar welke borden staan, hoe de lijnen looen, welke afrit te nemen etc. Hard coded logica. Dat is op de long run niet schaalbaar want je wil flexibel kunnen reageren in veranderlijke onstandigheden. (Wegenwerken, uitwijken voor ongeval voor u)

Voor die reden werkt radar in moderne auto’s ook niet op stilstaande objecten omdat er anders teveel false positives zij waar uw wagen plots vol in de remmen voor zou gaan.

Conclusie sensoren is niet oer definitie beter of robuuster. Toch een belangrijke naunce.

[Reactie gewijzigd door Coolstart op 19 oktober 2024 13:29]

Mercedes multinsensor is alles behalve een schaalbaar systeem omdat de core niet via deep learning werkt maak hard coded is.
De bewering dat het multinsensorsysteem van Mercedes 'alles behalve schaalbaar' zou zijn omdat het niet op deep learning, maar op hardcoded logica draait, is een te simplistische voorstelling van zaken.

Het idee van Mercedes is juist dat ze verschillende sensoren combineren om een robuust en schaalbaar systeem te creëren. Waarbij hun drive pilot-systeem niet alleen gebaseerd op hardcoded logica, maar maakt juist gebruik van een multisensorbenadering, ondersteund door AI, machine learning, en sensorfusie.
"The more scenarios you have, the more challenging and time-consuming it becomes to program them in the conventional way. Models that are trained to do certain things, such as avoid an object in the path of the vehicle, are extremely useful. This is where AI comes in.

Even if the vehicle encounters something it has never seen before, it has been trained to avoid it. But we deliberately avoid algorithms that change the vehicle's behavior while the vehicle is still in the automated driving function. We focus instead on so-called 'supervised learning' using previously collected data material.
Aldus Georges Massing, de Vice President van Automated Driving bij Mercedes-Benz.

De code kun je dus gewoon update als er veranderingen zijn, en de systemen zouden OTA ondersteunen dus je hoeft er net als bij Telsa niet voor naar de dealer. Dat maakt beide systemen op dit punt flexibel en ook kunnen beide merken hun functies en prestaties continu verbeteren zonder hardwarematige wijzigingen, wat bijdraagt aan de schaalbaarheid.

Wanneer sensoren zoals lidar of camera’s tijdelijk niet goed functioneren, speelt de 3D HD-kaart van HERE inderdaad een belangrijke rol. De kaart van hen is een gedetailleerde 3D-weergave van de weg en de omgeving, inclusief statische objecten zoals verkeersborden en rijstrookmarkeringen. Dit betekent dat, zelfs als sommige sensoren tijdelijk verstoord raken, de auto nog steeds in staat is om veilig te navigeren totdat de andere sensoren weer volledig beschikbaar zijn of de bestuurd het heeft overgenomen. Ik kan het niet vinden maar ga er vanuit dat de auto niet met 150km/u (nu bij invoeren 95km/u) door blijft crossen in zulke situaties.

Tesla, daarentegen, heeft geen 3D-kaart om op terug te vallen wanneer de camera's geblokkeerd zijn, wat de kwetsbaarheid voor weersomstandigheden zoals zware regen en dichte mist vergroot. Zoals ik eerder hier, jdh009 in 'Mercedes verhoogt maximumsnelheid van autonoom rijden in Duitsland tot 95km/u', ook al aangaf, loop je bij het gebruik van alleen RGB-camera's snel tegen de beperkingen aan van de hardwaresensor zelf, vooral in uitdagende omstandigheden zoals regen, dichte mist of sterke tegenlichtsituaties door de zon.

Lidar en radar blijven over het algemeen betrouwbaar werken, zelfs in moeilijke omstandigheden zoals regen of slecht zicht. In situaties zoals dichte mist, waar lidar mogelijk wordt beïnvloed, of in zware regenval waar camera’s beperkt zijn, biedt radar in combinatie met de 3D-kaart de auto voldoende informatie om veilig te blijven rijden en de omgeving nauwkeurig in kaart te brengen.

Dat bepaalde sensoren kunnen uitvallen is dus rekening mee gehouden. Bij Tesla ontstaan echter problemen als je in situaties terechtkomt waarin de RGB-camera’s beperkt zijn door fysieke beperkingen, zoals zware regen, dichte mist, of fel zonlicht. In tegenstelling tot Mercedes, heeft Tesla geen 3D-kaart om op terug te vallen, wat de kwetsbaarheid van hun systeem vergroot in ongunstige weersomstandigheden of door road spray.
Conclusie sensoren is niet per definitie beter of robuuster. Toch een belangrijke nuance.
Meer sensoren is inderdaad niet per definitie beter, maar door te vertrouwen op één enkele sensor en/of sensortype vergroot je wel de kans op systeemfalen (onder specifieke omstandigheden).

[Reactie gewijzigd door jdh009 op 19 oktober 2024 13:22]

Camera's blijven de SPOF. Als bij de Mercedes de camera's geblokkeerd zijn (regen, mist, donker) schakelt het Level 3 systeem ook uit, ondanks de extra sensoren/radar/lidar/3d hd-kaart
Dit is volgens mij ook de reden waarom Tesla van lidar afgestapt is. Verschillende systemen kunnen verschillende conclusies trekken. En wie heeft er dan gelijk? In de basis zou je met camera's en goede beeldverwerking elk scenario moeten tacklen is de gedachte. En die gedachte snap ik wel. Maar je ziet dat er dus toch scenario's van slechter zicht zijn waarbij de camera het laat afweten. Ik ben benieuwd wat Tesla gaat doen. Ze hebben op een gegeven moment ook ultrasone sensoren voor parkeren eruit gehaald om dat ook allemaal met camera's en beeldverwerking te doen. Ik weet wel dat het in het begin voor geen ene meter werkte. Geen idee hoe dat tegenwoordig is, maar ALLES met alleen camerabeelden doen lijkt mij als leek een utopie.
Als je ooit met een Tesla bent mee gereden die op adaptive stond, weet je dat het systeem daarvoor in ieder geval slecht werkt t.o.v. Radar

Behoorlijk wat keren bijna tegen de voorruit aan gezeten...

Wat ik met mijn tien jaar oude golf met radar echt nog nooit heb mee gemaakt
@Coolstart: Misschien interessant om wat bronnen te vermelden. Je verhaal klinkt erg zwart-wit en op sommige punten lijkt het meer een mening dan een feit.
Ben wel benieuwd waaruit jij 'Mercedes multinsensor is alles behalve een schaalbaar systeem omdat de core niet via deep learning werkt maak hard coded is.' concludeert.

Ik heb mij altijd al afgevraagd hoe een systeem 'gebouwd door een ervaren team analisten en ontwikkelaars' zich verhoud tot een systeem wat via deep learning opgezet is.
Iets in mij zegt dat beiden enorm veel werk is, grote teams van zowel situatie specialisten (verkeer, sensor, etc) als ontwikkelaars (software en hardware) nodig heeft.
Say what? Ik heb een HW4 Model 3 en ik heb naar mijn beste weten geen radar aan boord.

Edit: alleen de S en X zo te zien, de Y en 3 niet.

https://www.notateslaapp....dar-we-take-a-look-at-why

[Reactie gewijzigd door Odie op 19 oktober 2024 13:08]

Hoewel de nieuwe radar momenteel niet actief wordt gebruikt in de huidige software, zoals Autopilot, is hij fysiek wel aanwezig in voertuigen met Hardware 4.
Tesla teardown confirms the presence of the new radar in HW4-equipped vehicles
en
My guess is if Tesla is adding HW4 to its entire lineup in production right now, the radar should be part of all Model S, X, 3, and Y.
https://www.teslaoracle.c...in-hw4-equipped-vehicles/

[Reactie gewijzigd door jdh009 op 19 oktober 2024 13:10]

Iets doet me vermoeden dat dit een van de redenen is waarom Tesla met de introductie van Hardware 4 opnieuw begonnen is voertuigen uit te rusten met de Phoenix-radar (76-77 GHz).
Dat zou niet gek zijn. Er zijn meerdere ongelukken gebeurt waarbij de Tesla software een motor van achteren heeft aangereden, waarbij de bestuurder omgekomen is. Dit gebeurde in het donker en deze motorfietsen hadden gemeen dat het achterlicht niet centraal achterop zat, maar aan weerskanten van het achterwiel. De Tesla software concludeerde dat het een auto was in de verte. Het bleek dus een motorfiets, dichtbij te zijn. Met een rader/Lidar had dit niet gebeurd.
Ik vond de uitspraken van Musk ook wel apart over de keuze om volledig op camerabeelden te vertrouwen. "Wij hebben toch ook geen radar op ons hoofd" Nee, maar wij zien dan ook bar slecht in het pikkedonker en in mist... Een radar prikt daar dwars doorheen. Gecombineerd met camera's lijkt het mij veel beter.
[...]

Dat zou niet gek zijn. Er zijn meerdere ongelukken gebeurt waarbij de Tesla software een motor van achteren heeft aangereden, waarbij de bestuurder omgekomen is. Dit gebeurde in het donker en deze motorfietsen hadden gemeen dat het achterlicht niet centraal achterop zat, maar aan weerskanten van het achterwiel. De Tesla software concludeerde dat het een auto was in de verte. Het bleek dus een motorfiets, dichtbij te zijn. Met een rader/Lidar had dit niet gebeurd.
Dit is ook hoe een mens de afstand inschat. Ik kan me herinneren dat er discussies zijn gevoerd over de afstand tussen koplampen en achterlichten bij auto's om precies dit probleem te tackelen.
Met andere woorden: die motoren lopen ook zonder autonoom rijdende auto's een verhoogd risico om in het donker van achteren aangereden te worden. Met nog weer andere woorden: een andere oorzaak voor deze ongelukken ligt ook gewoon bij de aangereden partij.
Ik kan niet begrijpen waarom een aangereden partij verantwoordelijk is voor geleden schade. Jij/de robot dient goed op te letten ipv ervanuit te gaan dat achterlichten die dicht op elkaar zitten een auto in de verte zijn. En als je die motor in het donker van dichtbij niet ziet, is het wellicht tijd om eens wat aan de eigen verlichting te doen..
Je hebt als weggebruiker ook zelf een verantwoordelijkheid om te zorgen dat je goed zichtbaar bent en dat andere weggebruikers jouw positie goed kunnen inschatten.
En leg eens uit wat hoe dat "goed opletten" werkt in het donker als je alleen maar de achterlichten hebt om je op te orienteren?

Je mag in Nederland ook niet met uitsluitend je stadsverlichting aan de voorkant rijden, om exact dezelfde reden als eerder genoemd: andere weggebruikers schatten dan je afstand verkeerd in. Als iemand je dan aanrijdt ben je voor de verzekering gewoon gedeeltelijk schuldig.
Als je op een goedgekeurde motor met werkende verlichting rijdt, dan heb je toch je verantwoordelijkheid genomen? Als de technologie daar niet mee om kan gaan, moet het terug naar de tekentafel.

[Reactie gewijzigd door Piggen op 19 oktober 2024 11:38]

Waar heb ik het over verantwoordelijkheid overdragen aan de overheid, en ervan uitgaan dat de overheid aan alles heeft gedacht? Ik begrijp echt niet wat je er nu allemaal voor stromannen bij aan het slepen bent, want heel moeilijk is het niet. Als je normaal het rijden bent (of stilstaat voor een verkeerlicht) en je wordt van achter aangereden, dan is dat nooit jouw schuld, ook niet een beetje.

[Reactie gewijzigd door Piggen op 19 oktober 2024 12:24]

Daarover verschillen we dan van mening. Heel simpel. Ik snap jouw stelling niet dat je geen blaam treft als je aan alle regeltjes hebt voldaan. Ik snap ook niet dat je denkt dat buiten die regels om er geen gezond verstand meer geldt en daaruit voortvloeiend een eigen verantwoordelijkheid.
Waar heb ik het over verantwoordelijkheid overdragen aan de overheid, en ervan uitgaan dat de overheid aan alles heeft gedacht? Ik begrijp echt niet wat je er nu allemaal voor stromannen bij aan het slepen bent, want heel moeilijk is het niet. Als je normaal het rijden bent (of stilstaat voor een verkeerlicht) en je wordt van achter aangereden, dan is dat nooit jouw schuld, ook niet een beetje.
Nee. Officiëel is het niet jouw schuld. En jij hoeft de schade dan ook niet te betalen. Maar daar heb je veel aan, als je onder de zoden ligt. Of voor de rest van je leven in bed met een dwarslaesie. Als je dat dan vooraf wist, dan sla je jezelf achteraf voor de kop dat je niet toch liever wat meer eigen verantwoordelijkheid genomen hebt, en zelf gezorgd dat je goed genoeg zichtbaar was, en bijvoorbeeld je achterlichten beter waren, in plaats van enkel aan de wettelijke eisen te voldoen. En dan is het dus toch gedeeltelijk eigen schuld - alleen niet juridisch gezien.

Als je dat soort verantwoordelijkheden niet voor jezelf neemt, dan draag je die dus implciet aan de overheid over. Maar die kun je achteraf heel moeilijk aansprakelijk stellen. Het beste wat je kunt bereiken is dan alleen nog dat ze de regels veranderen. Heb jij veel aan...
Er is geen enkele verzekeringsmaatschappij die jou niet uitbetaalt omdat je met een goedgekeurde motor bent aangereden in het donker terwijl je geen enkele regel overtrad. Zelfs als je in het donker te voet wordt aangereden terwijl je een straat oversteekt na links en rechts te hebben gekeken en het zichtbaar aankomende verkeer hebt ingeschat, omdat plots een idioot tegen te hoge snelheid die straat indraait en niet even waakzaam was.

Een overheid heeft zichzelf het absolute alleenrecht toegeëigend om regels te maken waar iedereen zich aan moet houden en in ruil daarvoor MOET ze ervoor zorgen dat iedereen zo veilig mogelijk is en niets overkomt binnen de mogelijkheden die ze heeft EN uiteindelijk de gevolgen er van dragen als ze daarin faalt. Uiteindelijk is er voor quasi alles wat er gebeurt wel iemand verantwoordelijk, al dan niet bewust of onvoorzien.

Een makkelijker voorbeeld is rijden op de snelweg in Duitsland, waar het op bepaalde plekken niet expliciet verboden is om sneller dan 130km/h te rijden, maar waar verzekeringsmaatschappijen duidelijk zijn dat ze in het geval van een ongeval veroorzaakt door een hardrijder zich terugtrekken en die de gevolgen van z'n gedrag zélf moet dragen. Dat wil echter niet zeggen dat andere mogelijke slachtoffers plots minder rechten hebben als ze betrokken raken in het geval dat het oorzakelijk verband tussen de snelheid in de geldende omstandigheden en het ongeval is vastgesteld.
Nou noem je totaal verschillende zaken. Als het gaat om verlichting op een voertuig die aan de regelgeving voldoet, wat moet je dan nog meer doen? Het gaat in die gevallen niet om zelfbouw motoren, maar gewoon om motorfietsen die ook in Nederland verkocht worden en goedgekeurd zijn.
Je moet dan toch echt wel een flinke borrel drinken als je dan wil beargumenteren dat degene met een wettelijk goedgekeurd voertuig schuldig is aan zo'n ongeval waarbij ie van achteren wordt aangereden.

Als motorrijder moet ik wel zeggen dat sommige motoren in het donker vrij slecht te zien zijn. Gelukkig wordt het de laatste jaren anders met LED verlichting, maar mijn oude motor had een bolletje achterop en in het pikkedonker had dat meer weg van een gloeiende spijker. Het was gelukkig geen kleine motor (BMW RT zoals de politie rijdt) dus zodra je koplampen erop schijnen, zie je dat bankstel wel rijden, maar tocht. Tegenwoordig is reflecterende kleding verplicht, maar ik heb (ook nu op de nieuwe motor) reflecterende stickers aangebracht. Back ScotchLite. Als daar licht op schijnt, licht dat heel fel op, dus ik zorg wel dat ik zichtbaar ben. Dat wil nog steeds niet zeggen dat je zonder die dingen onzichtbaar bent, alleen kunnen de extra maatregelen ervoor zorgen dat ook iemand die niet heel erg goed oplet de kans krijgt om iets te zien.
Nou noem je totaal verschillende zaken. Als het gaat om verlichting op een voertuig die aan de regelgeving voldoet, wat moet je dan nog meer doen?
Je gezond verstand gebruiken. Voldoen aan alle regelgeving maakt je auto/motor nog niet veilig. Je zegt het nota bene zelf iets verderop als je het hebt over motoren met alleen een bolletje. Die voldoen aan de wetgeving (ze mogen de weg nog op), maar jij vindt ze zelf helemaal niet veilig. Als je op zo'n motor in het donker de weg op gaat, ben je dan verantwoordelijk bezig?
Als motorrijder moet ik wel zeggen dat sommige motoren in het donker vrij slecht te zien zijn. Gelukkig wordt het de laatste jaren anders met LED verlichting, maar mijn oude motor had een bolletje achterop en in het pikkedonker had dat meer weg van een gloeiende spijker. Het was gelukkig geen kleine motor (BMW RT zoals de politie rijdt) dus zodra je koplampen erop schijnen, zie je dat bankstel wel rijden, maar tocht. Tegenwoordig is reflecterende kleding verplicht, maar ik heb (ook nu op de nieuwe motor) reflecterende stickers aangebracht. Back ScotchLite. Als daar licht op schijnt, licht dat heel fel op, dus ik zorg wel dat ik zichtbaar ben. Dat wil nog steeds niet zeggen dat je zonder die dingen onzichtbaar bent, alleen kunnen de extra maatregelen ervoor zorgen dat ook iemand die niet heel erg goed oplet de kans krijgt om iets te zien.
Wat je hier duidelijk maakt is dat je naast regelgeving ook je gezond verstand moet gebruiken om beter zichtbaar te zijn. En ik vind dus dat als je je gezond verstand niet gebruikt, je deels schuldig kan zijn in geval van een ongeluk.
Ik ben ook motorrijder dus ik herken wat je zegt over zichtbaarheid. Maar ik vindt dus ook dat je als motorrijder niet slim bezig bent als je er niet alles aan doet (ook buiten de regelgeving om) om zichtbaar te zijn. En in het verlengde daarvan vindt ik ook dat als je er niet alles aan hebt gedaan om zichtbaar te zijn, je in ieder geval deels verantwoordelijk kunt zijn voor een ongeluk waarbij zichtbaarheid een rol speelt.
Je moet dan toch echt wel een flinke borrel drinken als je dan wil beargumenteren dat degene met een wettelijk goedgekeurd voertuig schuldig is aan zo'n ongeval waarbij ie van achteren wordt aangereden.
Ik heb nooit gezegd dat je schuldig zou zijn, ik heb gezegd dat je deels verantwoordelijk kunt zijn bij zo'n ongeval. Onze wet en ook verzekeraars houden die mogelijkheid heel duidelijk open: beide partijen kunnen schuldig zijn.
Maar het begon met een verlichting die afwijkt van wat standaard gebruikelijk is, en NIET slecht zichtbaar. Een mens zou die motor gewoon waarnemen, ook al is de verlichting links en rechts van het wiel geplaatst. Je ziet gewoon dat er iets rijdt.
Die domme computer doet een aanname. En dat is mijn grote reserve bij die hele kunstmatige intelligentie hype: het is absoluut niet zaligmakend en het is en blijft een domme computer die geen idee heeft waar ie mee bezig is. Als je ziet hoe en wanneer AI de mist in gaat, ga je zien dat het fouten zijn die een mens nooit zou maken. Uit die fouten blijkt gewoon dat de computer geen idee heeft. Want er IS geen intelligentie aanwezig, alleen een heel goed combinatoir vermogen. Dat is ook veel fouten die mensen maken, niet zal maken en altijd veel beter oplet doet daar niets aan af. Die twee achterlichten aanzien voor een voertuig ver weg is gewoon dom. Een mens doet dat niet. Misschien van een afstand, maar als we dichterbij komen, zien we (ruim op tijd) dat het een motorfiets is.
Maar het begon met een verlichting die afwijkt van wat standaard gebruikelijk is, en NIET slecht zichtbaar. Een mens zou die motor gewoon waarnemen, ook al is de verlichting links en rechts van het wiel geplaatst. Je ziet gewoon dat er iets rijdt.
Het begon er mee dat een motor die stilstaat werd aangereden door een Tesla die die motor niet zag of de afstand verkeerd inschatte. Iemand riep toen dat die motor misschien twee kleine achterlichten aan weerszijden van het achterwiel had en toen begon de discussie over hoeveel verantwoordelijkheid je hebt als motorrijder bij een ongeluk als je wel voldoet aan de wetgeving maar bewust het risico neemt dat achteroprijders jou positie verkeerd inschatten (of, zoals later voorbij kwam) je misschien niet goed zien. Ook het rijden met oude motoren met pitjes achterop kwam ter sprake, waarna ik zei dat dat misschien wel toegestaan maar in mijn ogen onverantwoordelijk was.
Die domme computer doet een aanname. En dat is mijn grote reserve bij die hele kunstmatige intelligentie hype: het is absoluut niet zaligmakend en het is en blijft een domme computer die geen idee heeft waar ie mee bezig is. Als je ziet hoe en wanneer AI de mist in gaat, ga je zien dat het fouten zijn die een mens nooit zou maken. Uit die fouten blijkt gewoon dat de computer geen idee heeft. Want er IS geen intelligentie aanwezig, alleen een heel goed combinatoir vermogen. Dat is ook veel fouten die mensen maken, niet zal maken en altijd veel beter oplet doet daar niets aan af. Die twee achterlichten aanzien voor een voertuig ver weg is gewoon dom. Een mens doet dat niet. Misschien van een afstand, maar als we dichterbij komen, zien we (ruim op tijd) dat het een motorfiets is.
Dit is een hele andere discussie, ook interessant. Want als je "domme computer" en "AI" in jouw verhaal vervangt door "de mens", dan klopt het ook. En dat weet jij als motorrijder maar al te goed. De enige manier om als motorrijder te overleven is aan te nemen dat elke automobilist dom en blind is.
En dat mensen die fouten niet maken is niet waar. Er is een reden dat de verkeerswet allerlei bepalingen heeft v.w.b. de plaatsing en lichtopbrengst en kleur van verlichting op een auto. Dat heeft alles te maken met zichtbaarheid in het inschatten van afstand en positie.
Jouw argumentatie wordt iedere keer uit de kast gehaald als het gaat om AI. Maar ondertussen gebruiken we AI al op veel terreinen omdat het simpelweg beter presteert dan de mens. Diagnose van ziektes bijvoorbeeld. Bordspellen. Wij gebruiken AI om onze producten op hoge snelheid te beoordelen bij de eindcontrole in productie. Er is echt geen enkele reden om te denken dat AI op het huidige niveau blijft steken en ons (de mens) uiteindelijk op vrijwel alle vlakken voorbij streeft. Zeker als het gaat om autorijden, want daar hebben we een uitzonderlijk slechte reputatie :)
Het begon er mee dat een motor die stilstaat werd aangereden door een Tesla die die motor niet zag of de afstand verkeerd inschatte. Iemand riep toen dat die motor misschien twee kleine achterlichten aan weerszijden van het achterwiel had
Wacht even....misschien reageer jij op iets heel anders. Ik heb gerefereerd aan 2 ongevallen waarbij een Tesla een rijdende motor in het donker niet goed zag en ze gewoon in volle vaart van achteren aan reed. Die motoren hadden ipv 1 achterlicht, 2 lichten aan weerszijden van het wiel. Ik heb volgens mij niet gezegd dat het kleine lichtjes waren. Het zijn led strips en zeker niet twee kleine pitjes. Gewoon heel goed zichtbaar. Het punt is dat die knuppel van een AI denkt dat het een auto in de verte is ipv een motor dichtbij.

Heeft imhgo helemaal niets te maken met eigen verantwoordelijkheid. Nogmaals: een mens ziet dit gewoon (tenzij in slaap, dronken of blind). Dus ik weet niet wat je allemaal probeert te bewijzen, maar ik laat het hier maar bij. Dit wordt een oeverloze discussie.
As je als bestuurder of robot niet om kunt gaan met een goed verlichte motor heb je niets te zoeken in het verkeer
Met die kwalificatie kan een groot deel van de autobestuurders hun rijbewijs wel inleveren :)
Nou nee. Je moet echt stekeblind op nivo Stevie Wonder zijn om niet te zien dat er een motorfiets voor je rijdt met zijn achterlicht aan. Je hebt toch koplampen? Je hoort ook nog (het waren Harley Davidsons) dat er zo'n ding voor je zit....nee hoor...een mens die bij kennis was en kon zien, had deze motoren gewoon gezien.
Ja. Die kan 95/u als hij op bepaalde wegen achter een andere auto aan rijdt. Zo moeilijk is dat niet om 'robuust' te maken.
En toch zijn ze de einige die dit robust genoeg hebben gemaakt dat ze level 3 autonoom mogen rIjden - in tegenstelling tot tesla.
idd.

En voor mij, is een autonoom systeem dat de meeste snelwegen dekt, ook al heel goed. Denk lange afstanden afleggen. Zelf neem ik het graag terug over wanneer er wegenwerken zijn.

Ik wil niet autonoom in de stad rijden. Da's om te beginnen veel moeilijker, maar ook nooit echt een groot deel van mijn rit.

Voor vrachtwagens zou dat ook ideaal zijn.
Of de enigen die de moeite doen om voor zo'n gimmick een aanvraag in te dienen. Wees nu eerlijk: hoe bruikbaar is dit? Enkel in filevorming.
Valt nogal mee - als je echt een rot eind moet rijden (Berlijn-Rotterdam, zoals ik een paar keer per jaar rijd) en je geen fan bent van auto rijden (ik vind het een totale tijdsverspilling en ga dan ook meestal met de trein) is dit echt ideaal. Dat het iets langer duurt omdat je 100 rijd ipv 140 zal me worst wezen. Dat betekend ook minder laden of tanken, en als je lekker een videotje kan kijken, lezen of slapen doet een uur of twee langer er totaal niet toe.

Het verschil tussen 10 uur video kijken/lezen/werken versus 8 uur constant op de weg letten is echt totaal in het voordeel van de 10 uur, wat mij betreft.

En ja, het zal dan geen 10 uur lezen/werken zijn, want je moet toch af en toe wat doen - zeker zodra je Nederland ingaat enzo. Maar dat komt ook allemaal wel.
Volgens mij heeft Tesla gewoon nog niet de moeite gedaan om dit in de EU aan te vragen. Ze doen veel te vaak aanpassingen en zouden dan telkens opnieuw moeten gecertificeerd worden.
Ik denk dat ze gewoon in de US lekker verder testen tot ze het goed werkend krijgen tot level 4/5 en dan zien we wel voor de EU.
Dat zou inderdaad kunnen.

5 zie ik zo snel nog niet gebeuren, trouwens. Dat zou betekenen dat je zonder menselijke controle overal kunt rijden, he. Daar zijn we echt nog lang niet.
Er zal vast wel ergens staan dat je ZELF verantwoordelijk bent voor het rijden. Hetzelde als AutoPilot in vliegtuigen, het is een hulpmiddel maar betekend niet dat de beide piloten kunnen gaan slapen.

[Reactie gewijzigd door renecl op 18 oktober 2024 20:21]

Wat vind jij dat je moet interpreteren als (niet technische) klant bij de woorden "Full Self Driving" en/of de claims die fElon heeft uitgesproken?
Maakt niet uit hoe ze het noemen of claimen. Als er in de verkoopsovereenkomst staat dat de bestuurder eindverantwoordelijk is, dan is de bestuurder de verantwoordelijke.

Geen enkel bedrijf zal de verantwoordelijkheid voor miljoenen gebruikers op zich nemen

[Reactie gewijzigd door Manderlay1 op 18 oktober 2024 20:43]

Geen enkel bedrijf zal de verantwoordelijkheid voor miljoenen gebruikers op zich nemen
Is dat niet net wat Mercedes recent in Duitsland heeft afgesproken voor hun level 3 systeem die gebruikt mag worden op de snelwegen daar?
Mercedes says the new version of the system will enable a driver to drive in free-flowing traffic in the right-hand lane of a motorway while engaging in other tasks such as streaming a movie on an in-vehicle display.

The fundamental difference between most driving assistance systems available today (which are categorised as Level 2) and the Mercedes system (Level 3) is that the vehicle manufacturer takes responsibility while the vehicle is operated by a Level 3 system. The driver remains responsible at all times for Level 2 systems, including when the system makes a mistake.
Bron: https://etsc.eu/mercedes-...-km-h-on-german-motorways en review: Volledig autonoom op de Duitse snelweg - Mercedes geeft Drive Pilot g...

Waarbij dus bij level 2 gewoon de bestuurder verantwoordelijk blijft.

[Reactie gewijzigd door jdh009 op 18 oktober 2024 21:05]

Met de kanttekening dat het in beperkte omstandigheden werkt én dat het systeem op elk moment terug kan vallen op de bestuurder en je dus binnen korte tijd het over moet kunnen nemen. Met het grote risico dat je jezelf ineens moet oriënteren op de situatie en mogelijk in moet kunnen grijpen.
Ze geven altijd minimaal 10 seconden lead-time voor ze het systeem uitzetten. Dat is op zich best veel tijd. Je moet dat een beetje in je achterhoofd houden bij wat je in de auto doet maar dat is het dan ook. Zeker in de omstandigheden in die dit systeem mag werken (relatief lage snelheden, alleen op de snelweg) moet 10 seconden gewoon goed te doen zijn.

[Reactie gewijzigd door Darkstriker op 18 oktober 2024 23:46]

Voeg daar aan toe, als de bestuurder niet binnen 10 seconden reageert, dat is er altijd nog een optie. Vertragen en bij voorkeur zo rechts mogelijk op de baan.
Zeker, er zijn wel degelijk kanttekeningen, maar zolang je voldoet aan de gestelde voorwaarden, lijkt het erop dat Mercedes gewoon aansprakelijk is en hiermee dus zelf akkoord gaat. De richting en het precedent zijn naar mijn mening belangrijk. Dit zal naar verwachting een grotere rol spelen naarmate hogere niveaus, zoals level 4 en 5, of de uitbreiding van level 3, in meer markten en in een breder scala aan gebieden (niet alleen snelwegen) worden geïntroduceerd.

Betreffende het ingrijpen, uit het eerder door mij genoemde Tweakers artikel:
Hiervoor krijgt de bestuurder tien seconden; daarom is slapen achter het stuur nog steeds uit den boze.
Hieronder:
Maar Tesla verkoopt het niet als Level 3 autonomie. Het heet dan ook FSD Supervised.
@bilgy_no1 Dat zeg ik toch ook nergens? Het ging hier om 'Geen enkel bedrijf zal de verantwoordelijkheid voor miljoenen gebruikers op zich nemen,' en ik geef aan dat Mercedes wél bereid is om de aansprakelijkheid te dragen voor wat ze nu gaan uitbrengen. Het gaat misschien nog niet om miljoenen gebruikers, maar die groep zal zeker groeien, en dit zet een belangrijk precedent.

[Reactie gewijzigd door jdh009 op 18 oktober 2024 22:26]

Maar Tesla verkoopt het niet als Level 3 autonomie. Het heet dan ook FSD Supervised.

Wanneer je het inschakelt krijg je de boodschap dat je altijd alert moet zijn en te allen tijde moet kunnen ingrijpen. Daar moet je mee akkoord gaan voordat het werkt.

EDIT:
@jdh009 ah OK. Ik dacht het over Tesla ging...

Maar dan nog: ook bij Mercedes is dit dus onduidelijk. Een quote uit het recente Tweakers artikel over Drive Pilot:
Deze nieuwe techniek neemt ook nieuwe vragen met zich mee. Wie is er verantwoordelijk als er een ongeluk gebeurt, bijvoorbeeld? "De kans dat er met Drive Pilot een ongeluk gebeurt, is zeer klein", zei Von Hugo, zonder antwoord te geven op de vraag wie er dan verantwoordelijk zou zijn. Tegen The Verge zei Mercedes eerder wel de juridische aansprakelijkheid op zich te nemen, 'afhankelijk van het geval'. Het is echter onduidelijk of dit alleen voor de Verenigde Staten geldt, of ook voor Duitsland.

[Reactie gewijzigd door bilgy_no1 op 19 oktober 2024 00:48]

Ze gaan er altijd voorwaarden en dergelijke aan vasthangen zodat de verantwoordelijkheid niet bij hun ligt.
Maakt niet uit hoe ze het noemen of claimen. Als er in de verkoopsovereenkomst staat dat de bestuurder eindverantwoordelijk is, dan is de bestuurder de verantwoordelijke.
In beginsel ja, maar... :)

Er bestaat ook zoiets als voorzienbaar misbruik, of zoals de Duitsers het noemen vorhersehbarer Fehlgebrauch.
Dat betekend dat je als fabrikant maatregelen moet nemen zodat je klanten hetgeen je ontwikkelt hebt niet gaan misbruiken op een manier die je van te voren redelijkerwijs kunt verwachten/voorspellen.

Dat is ook de reden waarom je (in de EU) een hand-of) waarschuwing krijgt als je je handen te lang van het stuur houdt.

Je kunt dus welliswaar in de handleiding schrijven, dat je als gebruiker verantwoordelijk bent, maar als de fabrikant het je te gemakkelijk maakt om dat niet te zijn, dan kan men als fabrikant alsnog ter verantwoording geroepen worden.
Men is niet bezig om deze technologie in te zetten als hulpmiddel maar om de chauffeur op termijn te elimineren (het adverteren als hulpmiddel vandaag is om het in massa te laten leren). In het vervangen van de bestuurder zit immers de geldpot. Er is al miljarden geïnvesteerd in deze tech, maar niemand zal €100/maand betalen voor een betere lane assist. Diegene die zal beloven dat het minstens even veilig is als een mens en het brengt iets van A naar B, dan kan je met gemak €1000/maand vragen aan bedrijven.
Wees ook maar gerust, er zullen wel verzekeringen zijn die dit zullen verzekeren. Voor alles is er een prijs.

[Reactie gewijzigd door SMGGM op 19 oktober 2024 07:21]

Ik denk dat dat nog wel meevalt in de VS. Ik heb, weliswaar in de 80er jaren, me zitten verbazen over de sticker met "zorg ervoor dat er voldoende brandstof in de tank zit" in een Cessna-vliegtuigje. Had, volgens de piloot, ook te maken met productaansprakelijkheid.
Zelfde als bij elke andere merken buiten tesla om. Dit zullen tesla juristen dan wel weer aan kaarten. Dat van bekijk ook mercedes met hun autopilot. Hoe reageren hun om de situatie.
Mercedes heeft geen autopilot, dat is Tesla. Mercedes heeft Drive Pilot en dat is een level 3 systeem. Dat is autonoom rijden waarbij er ruim van te voren aangegeven wordt wanneer de bestuurder zelf moet gaan rijden. De bestuurder hoeft niet op de weg te letten bij Mercedes.

In de VS is het volgens mij nog niet beschikbaar dus kan Tesla daar niet naar verwijzen.
Ik vind dat je niet moet interpreteren of het van ‘horen zeggen’ moet hebben maar zelf de handleiding moet lezen. Daar staat glashelder beschreven wat je moet doen.
Het hele concept bij Tesla is een 'plug and Play experience'. Ze willen de consument zo min mogelijk laten nadenken: weinig opties en veel autonomie van de systemen.
Dan kan je ook niet verwachten dat klanten een lange handleiding met allerlei nuances gaan doornemen.

Daarnaast: als je iets vermarkt als 'Full Self Driving' en het doet niet wat de titel zegt, dan bedrieg je de consument. Niet meer, niet minder.
Daar heb je helemaal gelijk in.
Maar je weet ook dat het overgrote merendeel van de consumenten dat niet doet. Dat weet Tesla ook en daarmee kunnen ze er niet mee wegkomen door te verwijzen naar de handleiding.
Hoeveel tijd denk je dat een verhuurder heeft om een klant alle quirks van een Tesla uit te leggen? Mensen willen de hippe virtuomobile rijden en hebben iets gehoord over zelf rijden, gaaaafff!
Mensen zijn ECHT zo dom. Daarnaast is een Tesla echt niet te bedienen als je er nieuw voor bent. Heb eens naast een verse EV/Tesla rijder gezeten, dat was ENG. Het zijn maar met jou de weg komen delen...
Er staat overal de handleiding en ook met waarschuwingen duidelijk bij wat er verwacht wordt van jou als bestuurder.
Ik weet wat er in de handleiding staat en daar staat idd overal "supervised".

Maar is dat niet tegenstrijdig? Daarom was mijn vraag specifiek over de woorden full self driving. Naar mijn mening betekent supervised dat je er toezicht op moet houden wat niet overeen komt met "Full Self" driving.

Mijn vraag was gewoon wat algemener. Ik vroeg me af wat een gemiddelde persoon verwacht van die woorden.
Als ik een stuur in handen krijg verwacht ik dat ik het ding moet begeleiden. Er zijn veel andere systemen die hetzelfde doen, binnen de rijstrook blijven, remmen etc. Ik vind het systeem van Honda een beetje het slechtste, het helpt je noodremmen tot je onder 25km/u valt en dan gaat het systeem uit.
Ik vind al die systemen maar niks. De VW Crafter op mijn werk remt al vanzelf (en hard!) als je een rotonde af wil draaien met iemand voor je die erop blijft. Of met een Transit, een rare slinger moeten maken omdat de ESP ingrijpt terwijl ik dat niet verwacht, omdat ik in een bocht op de rem moest vanwege een late uitvoeger. Allemaal idiote waarschuwingen en hulpsystemen die te vroeg ingrijpen, ik zet al die onzin uit.
Wanneer jij je kind leert rijden, zal deze ook full self driving doen, maar jij supervised en kan ingrijpen wanneer nodig. In het overgrote deel van de gevallen kan je erop vertrouwen dat de auto doet wat ie moet doen (full self driving), maar jij bent verantwoordelijk voor het ingrijpen (supervised)

In de "We Robot" presentatie gaf Elon nog maar aan dat er nu na de supervised FSD ook de unsupervised FSD komt.
Ik heb zelf nog geen specs gehoord, maar het kan best zijn dat er extra sensoren zijn, extra processing power, etc... Wellicht zit er ook wat Optimus in voor de interactie.
Maar (en het is hier al vaker genoemd) deze unsupervised FSD auto's hebben geen stuur, geen pedalen, etc... Dan is het vrij duidelijk dat je niet moet ingrijpen.
fElon
Echt?
Kinderachtig...

Zelf zou ik Full Self Driving interpreteren als dat het overal gebruikt kan worden en niet alleen op snelwegen of zo, niet dat ik even een dutje kan doen tijdens het rijden. Maar waarschijnlijk ben ik ook al beter op de hoogte van de stand van self driving techniek puur doordat ik op deze site regelmatig artikelen lees. Aan de andere kant mag je toch ook wel verwachten van iemand die een auto van zoveel geld koopt dat die zich een klein beetje in de materie verdiept.
Als je heel vaak te horen krijgt dat het "full self driving" is en dat je de auto kan gebruiken als taxi zonder er zelf in te zitten en dat je het halve land autonoom door gaat rijden... en dan krijg je dit, maar wel met de filmpjes (met disclaimer) en benaming er bij.
Maar goed, "starship" zal ook nooit een andere ster dan de zon kunnen bereiken...
Marketing ;-)

Maar als die woorden in de brochure/handleiding staan dan staat er denk ik wel een * achter.
Felon? Schrijf je ook nog micro$oft?

Beetje simpel :+ 8)7
Wat vind jij dat je moet interpreteren als (niet technische) klant bij de woorden "Full Self Driving" en/of de claims die fElon heeft uitgesproken?
FSD betekent inderdaad dat je niets zelf hoeft te doen. Maar alhoewel de software wel (in beta?) beschikbaar is, met name in de VS, betekent dat niet dat echte FSD al officiëel ondersteund wordt (dat is namelijk niet zo), of dat het wettelijk toegestaan is (ook niet). Dus je bent als bestuurder vooralsnog nog steeds eindverantwoordelijk, en verplicht om op te letten. En daar laten ze echt geen twijfel over bestaan. Dus als niet technische klant weet je donders goed dat je nog geen beschikking hebt over echte FSD.
Ze noemen het tegenwoordig dan ook "Full Self Driving" (Supervised).
Met andere woorden, totaal niet FULL self driving.
In de handleiding staat idd de hele term. Maar in de marketing zie ik het niet echt (supervised) terug komen.

En alsnog is het tegenstrijdig. Full Self en supervised is gewoon tegenstrijdig.

Vind je van niet?

[Reactie gewijzigd door Agieja op 18 oktober 2024 21:59]

Het is super-tegenstrijdig. Gewoon verkopen als full self driving maar in werkelijkheid is het supervised.,
Misschien is het Fully Supervised Driving?
Een piloot van een vliegtuig is verplicht de nodige training te ondergaan om oa met auto pilot te kunnen vliegen en perfect de imitaties te kennen en in te schatten. Het is een feit dat piloten de eindverantwoordelijkheid hebben, maar in een geval van een ongeval kijken ze naar het geheel en is de piloot niet automatisch schuldig.

Dat is toch anders dan bij een auto waar je geen extra rijbewijs of opleiding moet nemen om met auto pilot te mogen rijden.
Met al die nieuwe techniek in de auto's van tegenwoordig zou voor sommige mensen best een cursus van een halve dag handig zijn.

Kunnen de BMW rijders uitleg krijgen over de linker stengel achter het stuur. }>

[Reactie gewijzigd door jongetje op 18 oktober 2024 20:58]

Ik ben geen piloot maar heb wel verschillende cursussen moeten volgen voor de auto en motor.
Het heet FSD Supevised. Als het nu nog niet duidelijk is...
Los daarvan moet zo’n systeem zichzelf gewoon uitschakelen en de gebruiker waarschuwen in die situaties.
Uiteindelijk is het toch echt de bedoeling om de verantwoording aan de fsd over te dragen. En tot nu toe maakt die minder slachtoffers per km dan een mens. Dus dat zou moeten kunnen
Rij zelf een Model 3 Highland en de autopilot is behoorlijk matig. Heb geen FSD maar vraag me echt af hoe ze dit goed willen doen in bijvoorbeeld het donker. Inparkeren is dan zelfs al lastig zonder Lidar
Precies! Zonder LiDAR te gebruiken maar alleen camera’s is dit heel lastig (tot simpelweg niet) te realiseren. Jammer dat Musk dit niet wil inzien….
Een mens heeft zelfs maar 2 camera's, dus feitelijk zeg je dat mensen ook niet in willen zien dat ze beter maar niet meer moeten rijden.
2 cameras met een brein achter dat het hoofd opzij doet wanneer de zon in de cameras schijnt.
Dat zich aanpast aan de hoeveelheid duisternis, en dat weet wat regen is.
En met de motoriek om eventuele vuiligheid uit de camera te wrijven.

Het valt echt niet te vergelijken.
De auto heeft een brein, cameras kunnen ook bewegen, we hebben low light cameras etc etc.

Het valt wel degelijk te vergelijken. Er zijn zat cameras die beter zien dan mensen onder alle omstandigheden. Of die ook in een Tesla zitten is wat anders, maar er is geen reden om aan te nemen dat het niet kan. Tot nu toe maakt fsd minder slachtoffers per km dan mensen doen.
En een brein dat zegt: "we gaan wel in de middag, nu is het niet te doen". In plaats van toch te gaan rijden want de baas heeft op het knopje gedrukt.
Een camera of menselijk oog is veruit inferieur t.o.v. LiDAR als het gaat om detecteren van objecten in alle weersomstandigheden.
Mijn vorige oude Passat uit 2012 heeft betrouwbaardere parkeersensoren en Adaptieve Cruisecontrol dan een camera-auto anno 2024.
De keuze van Musk (?) om LiDAR te laten vallen en volledig op optische sensoren te gaan snap ik dan ook echt niet.
Maar we laten jou wel rijen met alleen ogen, dus wat wil je nou precies zeggen? Dat mensen een lidar ingebouwd moeten krijgen? :)
@Madshark heeft natuurlijk gelijk.
Het is inderdaad zo dat mensen enkel het zichtbare spectrum gebruiken (ogen), maar er gebeuren dan ook zeer ernstige ongelukken bij slecht zicht, zoals ellenlange kettingbotsingen, aanrijden van slecht zichtbare objecten, voetgangers en fietsers, allerlei foute inschattingen etc. De capaciteit van de menselijke ogen was dan ook enkel bedoelt om in de savanne een aantal jaren te kunnen overleven.

Bovendien kunnen gewone cameralenzen eenvoudigweg vuil worden of aancondenseren. Je ogen en voor- en achterruit blijven schoon, of de ruiten kan je schoon houden. Cameralenzen schoon houden in alle weer tijdens het rijden gaat nogal eens mis.

Als je dan toch een technisch systeem ontwikkelt dat visuele menselijke beperkingen kan te boven komen, dan doe je dat toch. Het gaat er niet enkel om een beter systeem te maken dan de mens (wat autorijden betreft), maar te streven naar nul doden in het verkeer.
Tesla heeft één der betere elektrische aandrijvingen en hun bediening enkel op het scherm is één der betere, maar hun ergonomisch denken laat te wensen over. Of is er geen betere en economisch haalbare technische oplossing mogelijk? Daar ben ik niet van overtuigd.

[Reactie gewijzigd door D100 op 19 oktober 2024 13:17]

Als je in de top van de reacties kijkt zie je dat de cijfers zeggen dat tot nu toe fsd veel minder doden maakt dan wanneer mensen rijden.

Dus als bij mensen ogen genoeg is, waarom dan niet bij een auto. Je noemt dingen als vuile lenzen, maar daar kan je makkelijk een oplossing voor verzinnen.

Misschien dat lidar het beter maakt, maar mogelijk is het gewoon overbodig.

0 slachtoffers? Dat zie ik als onmogelijk. Zelfs de beste oplossing is niet bestand tegen "zelfmoord" fietsers e.d.. zag pas nog een electrische rolstoel door rood over een druk kruispunt karren, zonder remmen zo tussen alles door. Zo lang dat soort bestaat hebben we ongelukken.
U heeft niet goed gelezen!
Er staat dat menselijke ogen niet goed genoeg zijn voor autorijden, zij waren bedoeld voor overleven in de savanne, en dan zelfs slechts voor een aantal jaren. In het donker zijn we stekeblind. Bij tegenlicht hebben we nog weinig onderscheidingsvermogen.

Dus neen, de menselijke fysiologie is niet ontwikkeld voor autorijden, maar voldoende goed dat wij aanvaard hebben dat er jaarlijks duizenden doden en gewonden vallen (voordelen tegenover nadelen).

De menselijke fysiologie is niet de maatstaf wat autorijden betreft. Technische systemen kunnen veel specifieke taken beter aan, ook autorijden.
Nul slachoffers? U bent te veel gewend aan het oude denken dat er slachtoffers zullen en moeten vallen. Zelfmoord valt niet uit te sluiten. Extreme domheid ook niet, alhoewel uw voorbeeld van de rolstoel een slecht voorbeeld is (auto's kunnen er makkelijk voor stoppen).

Technische systemen moeten nul slachtoffers beogen en niet de vele menselijke fouten als basis nemen. Ja, dan kan het nog steeds eens mis gaan.

[Reactie gewijzigd door D100 op 19 oktober 2024 14:36]

Bij een beetje regen daarstraks begon de auto pilot van de MY al af te remmen (niet echt remmen maar zo’n 10-20 km/h zachter) vanwege slecht(er) zicht.

Heb even een MY gereden als leen auto met “full” auto pilot. Drie keer niks.

Vind de auto zelf heerlijk rijden en gewone auto pilot werkt op zich prima. En sinds tijden geen phantom brake gehad, dus vooruitgang. Maar Tesla Vision lijkt toch wel heel beperkt als het beetje slechter weer is.

[Reactie gewijzigd door phoenix2149 op 18 oktober 2024 23:57]

niet echt remmen maar zo’n 10-20 km/h zachter) vanwege slecht(er) zicht
Eigenlijk doet dat systeem dus wat een mens ook zou moeten doen als je veilig wilt rijden.
Inderdaad.
Beetje homogeniteit in rijgedrag kan in moeilijke situaties geen kwaad.
Vertel dat alleen die idioten maar die met 130+ langs blijven scheuren tijdens een sneeuwbui, forse regen of mist…
Nou nee niet echt. Als je een ruime 60 weg hebt met gedeelde fietspad zonder dat er fietsverkeer hebt mag je als automobilist gewoon op dat deel van fietspad rijden.

Dat de tesla dan als een malle gaat piepen dat ik over de lijn ga is al fout want dat mag gewoon. Dat het dan (zelfs zonder tegenliggers of ander verkeer) flink kan gaat remmen laat gewoon zien dat het systeem ver van betrouwbaar is.

Dus die wegen heb ik helemaal niks aan auto pilot. Dat zal niet anders zijn met FSD.

@Raymond Deen dat er mensen zijn die als idioten rijden wil niet zeggen dat AP/EAP/FSD niet “slim” genoeg moet zijn om de verkeersregels en situatie goed te interpreteren.

Op een rustige goed verlichte 70 weg (N444) met beetje regen in de avond is 50 rijden gevaarlijk. Als FSD dat gaat doen en het is “goedgekeurd” voor weggebruik dan is dat gewoonweg gevaarlijk en niet “gewoon” weggedrag.

[Reactie gewijzigd door phoenix2149 op 19 oktober 2024 11:18]

Owh maar daar heb je gelijk in. Op zo’n weg zou een normale rijder ook gewoon 70 rijden dus waarom een zelfrijdende auto dan niet?
Ik doelde erop dat een voor iedereen om je heen voorspelbaar rijgedrag sterk bijdraagt aan de veiligheid
Ja zeker. Voorspelbaar gedrag (van een adequate bestuurder) bij ineens slecht weer/stortregen is gas loslaten en situatie inschatten.

Nu is het “auto pilot gedeeltelijk onbeschikbaar door slecht zicht “ melding. (Best klein overigens, misschien niet helemaal wat er staat) en behoorlijk afremmen (niet coasten) op de regeneratieve motor.

Dit betekent dus ook remlicht waarop mogelijke achterliggers (te) heftig kunnen reageren etc etc met alle gevolgen van dien.
Auto Pilot wordt al lang niet meer verder ontwikkeld. Het is wachten op toelating in de EU om FSD Supervised toe te laten. Is in ieder geval stukken beter dan AutoPilot
Zonder lidar zie ik dit probleem niet oplossen. Als ik ook zie hoe vaak mijn Y fouten maakt doordat hij enkel camera's heeft, niet nornaal.

Ik snap elons keuze wel. Lidar is duur en hij wilt de prijs concurrerend maken. Dan zou hij FSD enkel mogelijk moeten maken voor modellen met Lidar met bijbehorende prijs. Want ik zie dit zo nooit oplossen.
Moet zeggen dat sinds ik de auto heb (aug 2023) echt minder issues heb (na updates)

Enige NO-GO voor autopilot is op moment wegen met gedeeld fietspad en geen middellijn. Helemaal van de wal en piepen als een gek door de fietslijnen en dwingen in midden te willen rijden ondanks tegemoetkomend verkeer waarop hij weer remt.

Zijn nog zeker wel andere problemen en FSD is op dit moment echt niet te vertrouwen was mijn ervaring toen ik een MY met FSD tijdelijk had.

[Reactie gewijzigd door phoenix2149 op 19 oktober 2024 13:15]

Dat is ook de bedoeling van die wegindeling volgens mij: de snelheid eruit halen bij auto’s en verschil met overige weggebruikers verkleinen.
Nee. De bedoeling is dat je bewust bent van het feit dat de weg gedeeld is met fietsers. Niet dat je perse zachter moet gaan rijden.

De situatie moet goed ingeschat worden door de bestuurder. Als de toekomst echt automatisch rijden is, dan moet dat ook zo gezien worden door het systeem.

Rustige weg zonder fietsers gaat op dit moment de wagen helemaal van slag, zelfs alleen met traffic aware cruise control. Piepen (over de lijn gaan) overal remmen zonder verkeer etc. Dat is veel gevaarlijker dan gewoon 60 rijden zelfs met tegenligger.

Dat had mijn octavia helemaal niet. Reageerde adequaat op fietser voor me op fiets gedeelte, kon gewoon links inhalen waar mogelijk en versneld adequaat. Nu is het een kermis. Dus nee ver van betrouwbaar
Dus jij vind het alsnog een goed idee om op zo’n weg dan maar met 60 of nog harder tussen de fietsers door te crossen? Terwijl er ook tegenliggers rijden die door de suggestie stroken aan beide kanten op jouw directe pad rijden?
Ik vind dat je je dan moet aanpassen aan de rest van de verkeersdeelnemers en het maar voor lief moet nemen dat je een minuutje later aan komt.
Wie heeft het over harder?

Lees je wel wat ik schrijf? Uiteraard pas ik snelheid en rijgedrag aan. Dat verwacht ik ook van “echte” auto pilot en dat is ook wat de octavia deed met de ACC. Anyway prima als je denkt dat ik een wegpiraat ben omdat ik het inadequate gedrag van de AP beschrijf.
Is het door de camera's? Of Doors de software de interpretatie nog niet voldoende onder de knie heeft?

Idem met Lidar of radar hoor. Je moet nog steeds het signaal interpreteren. Een plastic zak die opwaait kan met beeld herkend en dus genegeerd worden. Met Lidar is dat een ongedefinieerd obstakel. Radar geeft vergelijkbare problemen.

Hoe meer verschillende input, hoe meer kans op tegenstrijdige informatie. Welk signaal moet je dan prioriteit geven? Dat is de moeilijkheid die Tesla probeert te vermijden.

Zeker niet het makkelijkste pad. Maar als het lukt, zeer schaalbaar.
Je kan best vision als hoofdsensor gebruiken en lidar of radar gebruiken om vision te controleren. Zowel lidar als radar kan je richten om afstanden in te kunnen schatten. Detecteer je voorganger/ een gevaar met vision en toets dit met andere sensoren.
Hoewel lidar duur is heb je ook nog radar die goedkoper is. Deze kan tenminste in slecht weer opstakels detecteren als de camera even niets ziet. Ik snap eigenlijk niet waarom ze niet tenminste een radar module voor en achter installeren.

Lidar is natuurlijk 100% beter en zou ik liever hebben.
Lidar heeft ook zo zn problemen, is als 2 system elkaar tegenkomen willen ze elkaar nog wel eens storen.
Ik rij al jaren rond zonder lidar met mijn slechts 2 biologische camera's. Gaat prima!
Niet geheel waar. Bij dichte mist of harde regenbuien zie je niks. Daarom gebeuren er ook ongelukken.
Daarbij rij je niet alleen op zicht maar ook op gevoel. Vibraties via stuur en onderstel spelen allemaal mee tijdens het rijden.
Laat de wagen nu net veel beter die vibraties kunnen interpreteren (abs, ESP...)
Mensen kunnen het ook zonder lidar. Waarom zou een auto het ook niet zonder kunnen?
De autoriteit wil nagaan of Tesla's FSD-software in staat is om deze factoren waar te nemen en er correct op kan reageren tijdens het besturen van een voertuig
Bij gebrek aan Lidar: Nee.
De auto moet dan maar bepalen of het informatie ontvangt welke betrouwbaar is. Is die onvoldoende door slecht zicht, moet ie de besturing teruggeven. Is geen Lidar voor nodig en doet hij volgens mij ook.

[Reactie gewijzigd door jordy5 op 18 oktober 2024 20:36]

Daar ben ik het niet mee eens. Als de camera niets ziet kan die ook niet bepalen of die genoeg ziet.
Dus eigenlijk moet je er vanuit gaan dat je altijd niet genoeg ziet als 'fail safe'.
Als al die camera’s al niet voldoende zien dan is het zicht waarschijnlijk te slecht om überhaupt in die auto te rijden…
Zie mijn andere comment:
Het menselijk ook ziet veel meer want het heeft een groter dynamisch bereik dan eender welke camera.

In situaties met sterk tegenlicht kan je een camera volledig verblinden waar ons oog wel nog zaken kan onderscheiden.
De vergelijking gaat helemaal niet op. Om met een camera hetzelfde te doen dan met onze zintuigen heb je ook andere sensoren nodig.
Hmm, resolutie van het oog komt overeen met zo’n maximaal 15MP.
Je oog kan ongeveer 14 f-stops aan dynamische range zien tegenover richting de 11 van een goede digitale camera dus daar is een oog beter.
In het donker is een oog gevoeliger voor licht - onder voorwaarde dat ze eerst ongeveer een half uur aan het donker hebben kunnen wennen.
Op fel licht reageert een camera veel sneller dan een oog.
De hardware achter een digitale camera is altijd aan het opletten en reageert altijd even snel op hetgeen waar het voor geprogrammeerd is en daar heeft het een ongelofelijk groot voordeel op de mens die daarvoor gewoon niet geschikt is.
En toch lukt het een mens ook zonder lidar en enkel stereoscoopisch zicht.
Het menselijk ook ziet veel meer want het heeft een groter dynamisch bereik dan eender welke camera.

Praktisch voorbeeld: als je op een zonnige dag een foto maakt van een landschap en er zit iemand in de schaduw onder een boom, dan moet een camera kiezen of hij de schaduwpartij lichter maakt en dus alle detail uit de heldere hemel haalt, of een mooie hemel laat zien en de schaduw bijna zwart gaat maken.
Ons menselijk ook kan beide tegelijk en dus kan een chauffeur met zijn ogen meer zien dan een camera. Daarnaast hebben we ook andere zintuigen die we gaan combineren met ons zicht als we rijden.
Volgens mij hebben we tegenwoordig cameras die het door jou geschetste probleem prima aankunnen.

Ons brein doet alleen maar lijken of er beide kunnen, op zijn best. Wij moeten met zo goed kiezen waar we op focussen en wij kunnen net zo goed niet in schaduw zien als ons zicht verblind word door de zon.
En toch lukt het een mens ook zonder lidar en enkel stereoscoopisch zicht.
Ja. Dat komt omdat wij de wereld gemaakt hebben naar onze beperkingen, en onze mogelijkheden. Het lukt ons enkel en alleen, omdat we gewoon geen dingen doen die we niet kunnen. En als we wel dingen willen doen die onze mogelijkheden te boven gaan, dan nemen we allerlei aanvullende maatregelen, of gebruiken we machines, om te zorgen dat we het nog (net) wel kunnen behapstukken.

De uitdaging is nu dus, om een machine te maken die deze taak van ons over kan nemen, en zelfs beter kan doen dan wijzelf. Net zoals we dat voor heel veel andere taken ook al gedaan hebben. Dat is waar we dus nu mee bezig zijn.
Prima, maar dat is geen argument waarom lidar daar voor nodig zou zijn.
Onveilige weegsituaties met slecht zicht kun je niet altijd vooraf aan zien komen.

Ik heb vaak genoeg dat ik de bocht om kom en totaal verrast ben door het verblindende zonlicht, of een plotselinge mistbank. Als mens zie ik dan ook 'niks' mijn enige reflex is dan zo snel als veilig mogelijk snelheid minderen. Tijd is een factor daar !

Stel dat de tesla ook in zo'n plots onverwachte situatie terecht komt van b.v. verblindend zonlicht. Dan hoop ik dat die ook zo reageert door snel en veilig snelheid te minderen.
Ik hoop vooral niet dat hij zonder waarschuwing het stuur overdraagt aan de mens die 1) ook niets kan zien en 2)(kostbare) tijd nodig heeft om de situatie in zich op te nemen en zich te oriënteren voordat hij ook kan reageren. Tegen die tijd is het waarschijnlijk al te laat.

Wellicht dat de computer in een dergelijke situatie niet altijd perfect reageert. Maar dat wil niet zeggen dat het dan altijd maar de beste optie is om er maar vanuit te gaan dat de (verraste) mens wél altijd het juiste zal doen.
Beetje simple reactie natuurlijk, het systeem zou er voor kunnen kiezen om gewoon op de vluchtstrook te parkeren.
Ik heb ooit mee gemaakt dat het tussen Uitgeest en Beverwijk zo hard regende dat door rijden onmogelijk was.

Dus met of zonder gaat het hooguit om de vraag of het verantwoord is om door te rijden.
Nadat ze de parkeersensors en de regensensor vervangen hebben door camera's zijn die functionaliteiten er niet bepaald op vooruit gegaan. Daarmee lijkt het volledig vertrouwen op een camera voor "full self driving" nogal een risico.
En hierom ben ik tegen de huidige, schijnbaar verplichte technieken die met veiligheidsargumenten verplicht worden gesteld voor nieuw geproduceerde auto's. Adaptive cruise control, lane assist, en hoogstwaarschijnlijk snel meer zelfrijdende functies.

Op dit moment is het niet veiliger, het maakt je lui, terwijl je er nog niet volledig op kunt vertrouwen.

Ik vermoed echt dat het lobbypraktijken zijn om kleinere spelers buitenspel te zetten.

We zouden is wat minder afleidende schermpjes in de auto moeten plaatsen.
Sorry, maar een auto zonder adaptive cruise control of, in mijn Qashqai 2021, hud wil ik echt niet meer. Probleem is dat veel mensen sowieso niet fatsoenlijk kunnen rijden, teveel denjen dat ze dat wel kunnen, en dan zijn juist dit soort system toch echt een verbetering voor veiligheid. Ik ben er wel zeker voor dat zaken als ACC verplicht worden, en zelfs voor afstand houden etc gewoon bij default aan moet staan.
Er zit natuurlijk een verschil tussen wat je niet meer wil missen, en wat je niet meer kunt missen. Als je niet meer zou kunnen rijden zonder adaptive cruise control is het een slecht teken naar mijn mening.

Feit is dat als je er op leunt, het gelijk gevaarlijk is mocht het systeem falen. En momenteel staat het nog enigzins in de kinderschoenen. Ik vind dat we als mens nog steeds verantwoordelijk zijn.
Ik geef het op.
Zonder lidar kan het niet...
Mijn Tesla dit...
Mercedes is wel level 3...
...

Iedereen wil zijn mening pushen als waarheid.
Ik ga er vanuit dat er veel mensen mee bezig zijn die veel slimmer zijn dan ik, en als ze een keuze maken die ik niet begrijp ik niet zeg dat ze mis zijn maar dat we wel gaan zien.
Ik ben voor het systeem van Adam Savage waar je bij een discussie moet afvragen of jij uw gelijk moet aantonen of dat de wereld het voor u gaat doen.

Ik kan enkel voor mezelf spreken. Ik rij uit mijn dorp, klik ,2 keer aan de hendel met mijn gratis basis systeem op mijn 35.000€ model Y en de straat voor mijn werk neem ik terug over. Er is 1 plaats waar ik moet opletten omdat het systeem soms moeite heeft, al is het de laatste maanden eerder zelden dan soms. Maar ik weet dat ik rij en verantwoordelijk ben.

Allez, ga maar weer verder met uitleggen waarom Mercedes zo veel verder staat door bijna zo goed te doen als een+10 jaar oude model S. Behave in een tunnel of op een autostrade die ze niet gemapt hebben... (Sorry, kon het niet laten. Geef maar een -1 nu)
Tja. Allemaal edge cases die de AI niet verwacht. Het kan totaal niet redeneren wat het ziet. Zeker als datgeen niks is.
Net zoals echte mensen, als die allemaal wel fatsoenlijk zouden opletten etc zouden we ook een heel stuk minder ongelukken hebben, want ongelukken doordat een onderdeel faalt is een stuk minder dan door de mens achter het stuur.
Voordeel van dit soort geautomatiseerde systemen is dat die wel kunnen leren van hun fouten en daarna dus voor duizenden, of later zelfa miljoenen auto's meteen een volgende keer wel fatsoenlijk met zo'n situatie om kan gaan, waar een mens mag hopen dat die er van geleerd heeft, maar andere mensen dus niets omdat iedereen individueel moet leren.
Mijn punt is meer dat zo’n systeem nooit in staat zal zijn om de wereld te interpreteren zoals wij dat kunnen. Het kan niet redeneren wat er te zien is. Het krijgt een plaatje en moet met de pixels en vooraf getrainde gewichten raden wat de uitkomst gaat zijn. De fouten die AI kan maken zullen veel catastrofaler zijn dan die van ons.
Mijn punt is meer dat zo’n systeem nooit in staat zal zijn om de wereld te interpreteren zoals wij dat kunnen. Het kan niet redeneren wat er te zien is. Het krijgt een plaatje en moet met de pixels en vooraf getrainde gewichten raden wat de uitkomst gaat zijn. De fouten die AI kan maken zullen veel catastrofaler zijn dan die van ons.
De fouten zullen anders zijn. En met name minder in aantal. Mensen maken ook catastrofale fouten in het verkeer. Dat vergeet je even. Spookrijden bijvoorbeeld. Of 130 met slecht zicht of sneeuw. Of rijden met teveel alcohol op. Dat soort fouten zie ik een computer niet maken...

Met vliegtuigen gebeuren ook allerlei ongelukken doordat automatische systemen niet goed functioneren, of iets onverwachts doen. Fouten die mensen nooit gemaakt zouden hebben. Toch laten we de machines onze vliegtuigen deels besturen. Maar ik meen dat per saldo de meeste fouten in vliegtuigen nog steeds menselijke fouten zijn.
bij vliegtuigen is dat toch net een tikje anders. daar zijn alle belangrijke sensoren dubbel uitgevoerd (niet altijd bij boeing is laatst gebleken). ook gebruiken die geen "AI" maar een gecontroleerd algoritme wat alle acties uitvoerd die de piloot heeft gegeven als opdracht. het neurale netwerk van meneer musk is een blackbox die je niet kan controleren.
Think again, ook vliegtuigen gaan gebruik maken van AI voor besturing.
Zelfde als dat een mens dus doet. Nu is het 'brein' achter die camera's meer het niveau van minder dan een kleuter, maar progressie gaat hard. Een mens is feitelijk ook niets meer dan een biologische computer/robot.
En laten we eerlijk zijn, mensen maken vele malen catastrofalere fouten, dat zien we dagelijks op de weg met al die doden.

[Reactie gewijzigd door SuperDre op 19 oktober 2024 21:19]

Eerste wat ik mij af vraag is of een Tesla ook radar heeft of iets van ultrasone sensoren want daarmee kan je toch ook met slecht zicht dingen detecteren zoals b.v. voetgangers. Met camera's kan ik mij voorstellen dat die vervuild kunnen raken of bij regen dan niet optimaal kunnen werken.

Maar toch kan de schuld eigenlijk niet voor 100% naar Tesla geschoven worden vind ik want evenzogoed blijft ook de bestuurder(ster) mede schuldig. Vind gewoon dat je zelf toch zoveel verantwoordelijkheid moet dragen dat je niet dan volledig vertrouwd op auto-pilot. Maar misschien dat het wel dan aan Tesla is om beter te waarschuwen hiervoor.
Radar: wegbezuinigd.
Lidar: Lelijke knobbel, dus nope.
Elon weet het beter. Eet de insecten, bezit niets en wees verdomme gelukkig!
Tja ja dan kan ik mij wel voorstellen dat autopilot bij slecht en minder zicht nooit optimaal zal gaan werken als dit alleen afhankelijk is van de camera's.
Die lelijke knobbel is bij mercedes anders niet te zien. En die mag gewoon volledig handsfree gereden worden op de snelweg al.
Radar is niet wegbezuinigd. Tesla ondervond steeds meer dat het signaal van de radar en de camera in conflict kwam. Uiteindelijk bleek hun camera + software beter te presteren. Daarmee was hun radar overbodig.
In de Tesla's met radar staat die nu ook gewoon uit. Zouden ze niet doen moest het puur een besparing zijn.
Niets meer dan excuses voor wegbezuiniging en ze hadden issues rond die tijd met chips te verkrijgen er voor.
Ze hielden echter fantoomremmen, wat voor bestuurders gewoon verboden is op de snelweg. Ze kregen dus niet voor elkaar wat andere merken beter deden. Dat Tesla hun sensoren en interpretatie niet kan afstemmen, maakt het geen valide reden om radar af te schaffen en te roepen dat ze de beste zijn met zelfrijden.

Op dit item kan niet meer gereageerd worden.