Tesla trekt bèta 10.3 van Full Self Driving-software terug vanwege problemen

Automaker Tesla heeft bètaversie 10.3 van zijn Full Self Driving-platform teruggetrokken. De update zorgde voor problemen die de automaker eerst wil aanpakken, zegt directeur Elon Musk. Gebruikers meldden afgelopen dagen al problemen.

Tesla FSD 10.3 release notes, bron: RealPokePOP/Reddit
Tesla FSD 10.3 release notes,
bron: RealPokePOP/Reddit

De bèta kwam afgelopen vrijdag uit en Musk kondigde zondag aan de update terug te trekken. De oprichter benoemt niet door welke problemen het bedrijf heeft besloten de update terug te trekken. Bij interne testen kwam al wel een probleem naar voren met linksaf slaan bij verkeerslichten, maar Musk zegt dat niet 'alle configuraties' intern te testen zijn.

In een Reddit-thread klagen gebruikers erover dat ze bij 10.3 veel meldingen krijgen van forward collision warnings, waarschuwingen voor botsingen, die niet blijken te kloppen. In sommige gevallen gaat het om veel meldingen per dag. Ook zit er een bug in Traffic Aware Cruise Control en Autosteer die problemen kan veroorzaken. Andere gebruikers merken op dat zij de software helemaal niet aan de praat krijgen onder bepaalde omstandigheden.

De bèta is onderdeel van de software die Tesla aanduidt als Full Self Driving, hoewel de auto niet kan of mag rijden zonder menselijke supervisie en het dus niet gaat om autonoom rijden. De functie is onderdeel van een abonnement van 199 dollar per maand of een eenmalige betaling van 10.000 dollar of 7500 euro. De bèta is vooralsnog alleen open voor Amerikaanse gebruikers.

Update 15:57: Tesla heeft een nieuwe versie van de bèta uitgebracht, 10.3.1, die de problemen zou moet oplossen. Gebruikers van het bètaprogramma kunnen daardoor weer updaten.

Door Arnoud Wokke

Redacteur Tweakers

25-10-2021 • 10:29

314

Reacties (314)

314
311
132
30
1
156

Sorteer op:

Weergave:

Zoals altijd zijn hier weer enorm veel binaire meningen en verkeerde opmerkingen.

Even een paar feiten die dit artikel mist:
Waar gaat deze FSD Beta om?
Dit is een Beta van het Full Self Driving systeem van Tesla. Deze software update maakt het mogelijk om Autopilot ook werkende te maken buiten snelwegen om (Autopilot schakelt zichzelf nu automatisch uit zodra deze de afrit neemt). Het wordt hiermee dus mogelijk om op vrijwel alle wegen autopilot te gebruiken.

Wie heeft deze Beta?
Deze beta was enkel beschikbaar voor een selectief clubje beta testers. Deze mensen hebben ook een contract (NDA) moeten ondertekenen. Daarnaast vindt deze beta enkel plaats in de US en Canada.
Deze software is al lange tijd in private beta en Youtube staat vol met mensen hier hiervan verslag doen.
Sinds een aantal weken is de Beta ook beschikbaar voor de 'normale' Tesla bestuurders. Je moet je hiervoor explicit en vrijwillig inschrijven waarin je akkoord gaat om tester te worden. Daarna houdt de auto je rijgedrag een week in de gaten en krijg je een veiligheidsscore. Deze score bepaald of je in aanmerking komt voor het beta test programma. Momenteel krijgen alleen mensen met een score van 100 of 99 van de 100 toegang tot de Beta.

Dus al de opmerkingen over testen met gebruikers is niet waar. Deze testers schrijven zich expliciet in.

Maar dit mag toch helemaal niet?
Ten eerste ben je zelf nog altijd eindverantwoordelijk. Men maakt dat overal al duidelijk maar zeker met deze Beta is men heel erg voorzichtig. Men rijd al maanden met deze software en er is nog geen ongeluk gebeurd (mede uiteraard vanwege de testers). Deze software is nog lang niet klaar of geschikt voor dagelijks gebruik. Ten tweede is dit (nog) helemaal geen level 4 autonoom systeem waardoor je altijd dus je handen aan het stuur moet houden... Dit wordt je allemaal nog uitgebreid duidelijk gemaakt in de overeenkomst die accepteert bij inschrijving van de beta. Uiteindelijk mag dit uiteraard allemaal anders had de amerikaanse overheid al lang ingegrepen.

Dit gaat toch nooit lang goed?
Nee, dat klopt. Iedereen weet ook dat het wachten is op het eerste ongeluk. Maar besef je wel even dat er iedere dag enorm veel doden en gewonden vallen.
In 2019 vielen er in Nederland 661 verkeersdoden
Dit is Tesla's manier om een weg te vinden naar een veiligere toekomst. Je staat natuurlijk volledig vrij in de mening om het niet met hun methoden eens te zijn maar ze zijn een van de weinigen die daadwerkelijk aan een veiligere toekomst werken. Andere methoden zoals Waymo hebben ernstige gaten in hun methodiek waardoor het zeer onzeker is of ze wel een bestaansrecht hebben. Zo had Waymo sinds kort nog altijd volgauto's, menselijke bestuurders en zeer kostbare Lidar sensoren. Tegenwoordig zit er 1 'operator' op meerdere auto's maar het is nog steeds niet commercieel haalbaar als taxiservice. Hun business case is dus zeer zwak en dat terwijl ze gezien worden als de 'top' in het veld van autonoom rijden.

/aanvullingen:
Wat gebeurt er als men deze software misbruikt?
Zoals aangegeven moet je een bepaalde veiligheid score behalen. Hierna wordt je gedrag tijdens de beta nauwlettend in de gaten gehouden. Bij overtreding krijgt de bestuurder een waarschuwing en wordt uit het beta programma gezet.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 14:30]

Toch even opmerken dat FSD niet meer onder een NDA valt. En hoewel je een week geanalyseerd wordt, zijn er ondertussen al mensen bekend die veel lagere scores halen en toch de beta al gekregen hebben.

Tesla gaat trouwens niet voor lvl4 maar voor lvl5, bij 4 ben je afhankelijk van mapping van straten en zal je altijd met geofencing te maken krijgen. Tesla zet net enorm hard in op vision om overal en altijd te kunnen rijden op FSD, dus lvl5.
Het slaat echt werkelijk nergens op dat je zomaar de auto kunt updaten zonder dat er door een externe instantie is gevalideerd of die veilig is. Je auto moet gekeurd worden op allerlei veiligheids dingen alvorens hij de weg op mag maar daarna mag je als bedrijf dus doen en laten wat je wilt?

Wat voor doel dienen die tests dan die dat soort systemen valideren bij een toelating?

En nu ga je het ook nog eens met FSD doen zo dat je weet dat mensen niet aan het opletten zijn want het is gewoon weg niet mogelijk om fatsoenlijk je aandacht bij een passieve taak te houden. En dan ook nog eens software pushen waarvan je weet dat er een issue in zit. Je weet gewoon dat een deel van je klanten niet gaat zitten opletten, staan genoeg voorbeelden online van mensen die aangehouden worden in een Tesla waar autopilot aanstaat, en dan nog gooi je het naar buiten.

Te bizar voor woorden.
En het beta stickertje vind ik ook onzin, het gaat niet om een update van de radio. Als Boeing of Airbus op deze manier zouden werken was de wereld te klein.
Dit zijn gewoon afspraken om de ontwikkeling van zelfrijdende auto's mogelijk te maken. Het is gebonden aan allerlei strakke eisen. Een beta van deze software betekent niet dat je een halfbakken product krijgt. Daarnaast werkt de software niet autonoom. De bestuurder is zelf in de lead en corrigeert waar nodig. Het is niet dat auto's volledig autonoom de weg op worden gestuurd met betasoftware. ook krijgt niet iedereen de beta. Je hebt een goede veiligheidsscore nodig.
Het is de enige manier om het goed te testen. Een testbaan is niet representatief. Je MOET dus in de praktijk testen. Dat gaat ook prima. De ongelukken gebeuren wanneer mensen juist de regels overtreden. Niet door het betatestprogramma.
Je MOET dus in de praktijk testen. Dat gaat ook prima.
Tesla zou ook mensen in dienst kunnen nemen om dit te testen. Deze oplossing is goedkoop en efficiënt voor Tesla. Er zijn echter prima allemaal andere manieren te vinden om hetzelfde te bereiken. Verder zeg je dat er allerlei "strakke eisen" zijn, echter verschillen die eisen behoorlijk per land en per staat.
Het gaat om de grootte van de dataset die zo wordt gecreëerd, dit is niet op te lossen 'door een paar mensen in dienst te nemen'.
Het kan zijn dat dit niet op te lossen is "door een paar mensen in dienst te nemen", en dat is jammer voor de winstgevendheid van Tesla, maar dat is onvoldoende als motivatie.
Het is de enige manier om zelfrijdende auto's naar een hoger niveau te krijgen, dus jammer voor ons allemaal
Je klinkt alsof jij het ok vindt dat er enkele mensen dood gaan of ernstige ongelukken gaan voor hebben, zodat we dan vooruit kunnen met zelfrijdende autos.
Hopelijk klink je enkel zo en is dat niet je echte mening.
Ik lees de opmerking van @phrank precies andersom; hij accepteert dat het wel eens fout kan gaan.

Over updates en gevaar gesproken, het type auto dat ik rij heeft een gebrek waarbij de auto soms vooruit rijdt terwijl mensen de achteruit ingeschakeld hebben. Ik ben op de hoogte van twee gevallen waarbij hierdoor een ongeluk heeft plaatsgevonden. Er is geen update of terugroepactie geweest en er rijden dus nog een paar duizend van deze potentiele moordenaar-auto's rond in Nederland.

Ik heb honderd keer meer vertrouwen in een leverancier die (onder een beperkte groep mensen die zich vrijwillig aanmelden en op de hoogte zijn van het beta-karakter) af en toe een update terug moet draaien, dan een leverancier die problemen ontkent (wat de facto de werkwijze is in autoland).
En dan ook nog nagaan dat die beta testers de meest 'veilige' rijders zijn doordat ze een perfecte rijscore moeten hebben. Dus niet elke 'gek' dit zomaar krijgt als test.
Het hele concept dat mijn autofabrikant een 'rijscore' van mij bijhoudt vind ik al bizar.. No thanks!
Het is nogal een verschil tussen mensen doorrijden en zwaar gecontroleerde test in de praktijk. Iedere bestuurder die FSD krijgt moet aan strenge eisen voldoen en als Tesla merkt dat je er niet aan voldoet verlies je het recht op de beta software net zo makkelijk. Schijnt al regelmatig te zijn voorgekomen.
Dat heeft niets met de winstgevendheid te maken, maar met het feit dat je in een testsituatie NOOIT de werkelijke situatie in het verkeer kan nabootsen.
Tesla zou ook mensen in dienst kunnen nemen om dit te testen. Deze oplossing is goedkoop en efficiënt voor Tesla.
Mensen melden zichzelf vrijwillig aan voor deze Beta dus waarom zou Tesla hiervoor mensen in dienst nemen?

Er zijn echter prima allemaal andere manieren te vinden om hetzelfde te bereiken.
Volgens mij begrijp je niet wat Tesla hier probeert te bereiken?

Verder zeg je dat er allerlei "strakke eisen" zijn, echter verschillen die eisen behoorlijk per land en per staat.
Je hebt duidelijk geen idee waar je over praat? Deze Beta is enkel beschikbaar in de USA, enkel na vrijwillig inschrijven waarna met een tool wordt gekeken hoe veilig jij rijd...
Daarbij geeft Bytemaster aan dat jij nog steeds de lead / bestuurder bent. Dus het is helemaal niet relevant welk land of staat je rijdt. Wanneer je echt autonome voertuigen wil testen binnen Nederland moet de RDW hier eerst toestemming voor geven maar dat is hier dus niet het geval.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 14:30]

Tesla zou ook mensen in dienst kunnen nemen om dit te testen. Deze oplossing is goedkoop en efficiënt voor Tesla.
Mensen melden zichzelf vrijwillig aan voor deze Beta dus waarom zou Tesla hiervoor mensen in dienst nemen?
Omdat ze niet alleen met hun eigen veiligheid spelen. Integendeel, autos zijn veel gevaarlijker voor derden dan voor de inzittenden en dus beslissen willekeurige teslabestuurders of die beta wel veilig genoeg is voor alle verkeersdeelnemers. Het is als gokken met andermans geld. Beetje krom.

[Reactie gewijzigd door Darkstriker op 22 juli 2024 14:30]

Het is niet zo dat deze beta testers nu even de software activeren en achterover gaan zitten. Men is hier heel voorzichtig mee en dit wordt ook expliciet vereist anders wordt je uit het programma gezet:
https://www.reddit.com/r/..._out_of_fsd_not_my_email/

Het is als gokken met andermans geld. Beetje krom.
Weet je wat ook krom is? Accepteren dat we ieder jaar meer dan 600 verkeersdoden in Nederland hebben.. En er dan ook maar niets aan doen want ach ja, we moeten wel zelf aan de knoppen zitten, dat is veel veiliger...

Ik weet niet hoe jij de toekomst ziet maar iedere dag zie ik dingen op de weg gebeuren die niet akkoord zijn. En ja, ook ik doe af en toe dingen waar ik niet trots op ben (ik zet mijzelf echt niet boven andere bestuurders). Maar we moeten van dat handmatig rijden af. En dit is een methode om hier naar toe te werken. Dat jij het niet eens bent met deze methode is uiteraard prima maar ik hoor graag hoe jij denkt dit te bereiken?
Alleen niet met ongekwalificeerde amateurs als testrijders.
Je wilt zeker professionals zoals Uber inhuurt?
Helaas zijn dit ook gewoon normale mensen (en die maken ook fouten). Het is echt niet zo dat men professionele rallycoureurs inhuur. Vereisten zijn meestal dat je een rijbewijs en geen baan hebt ;)

Google loopt mijlen voor op Tesla op gebied van FSD (sterker nog, Google is er praktisch al)
Waymo rijd inderdaad al zonder fysieke chauffeurs maar zijn ze er al? Deze auto's rijden rond in beperkte vooraf ingescande zones. Als er iets veranderd aan de omgeving, dan moet deze wijziging opnieuw ingescand worden. Daarnaast rijden de auto's niet volledig autonoom, ze worden op afstand bewaakt door een operator (die momenteel beperkt is tot een aantal auto's). Het probleem met Waymo is dat het dus niet schaalbaar is. Ze kunnen dus maar moeilijk opschalen en dit valt op. Zie ook:
https://arstechnica.com/c...-service-heres-my-theory/

En uiteraard werkt het allemaal zeker nog niet perfect. Zie hier voor jezelf:
Waymo Self Driving Taxi Goes Rogue: Blocks Traffic, Evades Capture | JJRicks Rides With Waymo #54

en heeft dat gehaald zonder in het testtraject met de openbare veiligheid te gokken.
Waymo test ook gewoon op de openbare weg....

Uiteindelijk zijn dit gewoon twee verschillende manieren om hetzelfde te bereiken. Je mag uiteraard prima de mening hebben dat het niet veilig gebeurd maar gegeven is dat Tesla continu onder toezicht staat van de overheid en dat het tot nu toe veilig geacht wordt. Daarbij is het niet te verwachten dat Waymo hun model op schaal kan uitrollen. Laat staan dat er een business case is om dit te doen...

Dat allemaal gaat echter wel veranderen denk ik want de amerikaanse toezichthouder (NHTSA) heeft een absolute tesla hater aangenomen. Deze mevrouw heeft regelmatig getweet waaronder dat ze Musk het liefst in het gezicht wil slaan en dat Musk een overly privileged, narcissistic and insecure white man is. Dus misschien krijg je je wens dat Tesla hun FSD moet staken. Helaas zal dat dan om politieke reden zijn, niet veiligheid of technisch.

Jammer alleen van die 600 verkeersdoden per jaar in Nederland alleen. Maar tja, who cares? right? :z
(tenzij dit expliciet verboden is zoals hier in Europa).
Verboden? O, dan heeft Connexxion wel een probleem in Rotterdam waar ze nu een zelfrijdende bus tussen het autoverkeer aan het testen zijn…
Bedoel je deze shuttle?

Als je hiermee wilt testen zal in overeenstemming met het RDW een testplan worden opgesteld en moet je dus expliciet toestemming van hun hebben. Ik neem aan dat dit ook met de shuttle is gebeurd.

Testen op de weg nu wettelijk mogelijk
Bedrijven en onderzoeksinstellingen mogen nu testen met zelfrijdende auto’s en vrachtwagens op de openbare weg. De Rijksoverheid heeft de wetgeving hiervoor aangepast. Hierdoor kan veel ervaring worden opgedaan en zal de komende jaren veel geleerd worden. Ook wordt beter duidelijk wat nodig is voor een echte marktintroductie van zelfrijdende auto’s. De ontwikkelingen komen hiermee in een nieuwe fase. De RDW beoordeelt bij een testaanvraag vooraf of het testen op een veilige manier kan.

https://www.rijksoverheid...ende-auto-op-openbare-weg
Die bedoelde ik, ja. Maar goed, zoals je nu ook al aangeeft is het dus niet expliciet verboden, want er kan een vergunning worden verleend.
Fair enough, ik zal het even corrigeren in de eerste reactie.
Dus als Tesla diezelfde mensen zou betalen dan is het wel goed? De monitoring op de gebruikers van deze FSD beta is veel strenger en maakt bijvoorbeeld gebruik van de camera in het interieur.
Dat is nooit representatief voor de werkelijkheid. Wat jij voorstelt wordt al eerder in het ontwikkeltraject gedaan maar is verre van representatief.
Ik ben het hier deels mee eens.
Tesla vraagt veel geld voor een dienst, en deze is vervolgens beschikbaar voor een grote groep klanten als beta versie. Deze klanten verwachten een dienst van Tesla, en eigenlijk zou Tesla een dienst moeten verwachten van de testers. Dit is de omgekeerde wereld.
En deze dummy testers doen het ook nog eens gelijk vanaf dag 1 in het echte verkeer.

Moet je je eens voorstellen dat je bij bedrijfssoftware iets vergelijkbaars zou doen: Je zegt tegen de verkopers: We testen niet want dat levert niet genoeg data op. Vanaf morgen doen jullie je sales in dit beta systeem. En vervolgens kan het bedrijf 3 dagen geen klantorders in het systeem zetten.
Punt is dat je dit helemaal niet kan vergelijken met bedrijfssoftware. Daarnaast is het natuurlijk wel zo dat wanneer je software afneemt en dat in je lokale omgeving gaat implementeren je ook nog heel veel gaat testen en niet het product van de leverancier gewoon direct in de productie-omgeving gaat installeren.
Niemand wordt ook verplicht een Tesla te kopen. Als je een Tesla koopt ga je meedraaien in een grootschalig ontwikkeltraject. Wil je dat niet, moet je een andere auto kopen.
Nou het punt is dat je 199 dollar per maand betaald, ofwel 10.000 dollar of 7500 euro eenmalig.
Dat is niet een bedrag waarna je mag verwachten mee te draaien in een grootschalig ontwikkeltraject, dat is een bedrag dat je betaalt voor een dienst die gewoon af is (en zelfs dan is het heel erg veel geld).
Testing in production gebeurd anders heel vaak hoor. Oa bij grote banken is dit gewoon standard practise.

Uiteraard zijn er back-up mogelijkheden om direct terug te gaan naar een oudere versie.
Dit zijn gewoon afspraken om de ontwikkeling van zelfrijdende auto's mogelijk te maken. Het is gebonden aan allerlei strakke eisen. Een beta van deze software betekent niet dat je een halfbakken product krijgt.
Dat kan best de afspraak zijn maar de praktijk blijkt - voorspelbaar - anders te zijn."Niet alles kan intern getest worden" (gegeven de hoeveelheid tijd/geld die Tesla daaraan wil uitgeven) - dus zitten er fouten in, maw: het is halfbakken. Daarom is het een beta.
Het is een kwestie van tijd voordat zo'n fout een keer fataal is. Maar Tesla zal best net zoals indertijd Ford mbt de Pinto berekend hebben dat zoiets afkopen goedkoper is dan fixen.

Business Ethics
Case: The Ford Pinto
https://philosophia.uncg....hics/case-the-ford-pinto/
De juiste weg is:
1 Software maken.
2 Testbaan / simulatie.
3 Beta testen op weg door medewerkers.
4 Typegoedkeuring.
5 Software naar klanten.

Tesla slaat 4 & 5 over en geeft klanten een beta versie. Goed voor de agile denkwijze. Maar het kan gewoon niet.
Dat is JOUW juiste weg. De weg die Tesla volgt is gewoon afgesproken met de autoriteiten. Betatesten door medewerkers wordt ook gedaan. Je kunt het na die test wel naar productie gaan brengen maar dan komen er in de praktijk alsnog allerlei punten aan het licht. Dan kan je het beter beta-versie blijven noemen als je weet dat er nog allerlei issue's aan het licht zullen komen.
Het verkeer is in werkelijkheid zodanig complex dat daar geen representatieve testsituatie van te maken is.
Ik denk niet dat Tesla 4 en 5 overslaat. Je mist een punt, 3.5, betatesten door niet medewerkers op grotere schaal. Hoe goed je ook iets test, er is altijd een situatie te bedenken die je niet door je eigen tests had kunnen voorzien of nabootsen. Wat betreft de goedkeuring, je kan niet een goedkeuring vragen op de lijnen code die je aanpast. Dat is meer voor de NASA en zelfs daar gaat het wel eens fout door de combi software/hardware.

Het zou prachtig zijn als we (wiskundig) konden aantonen dat software 100% goed is, maar dat is in de praktijk maar beperkt inzetbaar/mogelijk.
1,2,3 is ongetwijfeld gebeurd.
4 is een wassen neus in dit geval. De RDW (of Amerikaanse equivalent daarvan) heeft nooit genoeg kennis/capaciteit om dit goed te testen. Ze zullen dus het testproces van de fabrikant heel goed moeten volgen en dan beoordelen of dat zorgvuldig genoeg is geweest. Het lijkt er op dat dat is waar ze nu staan in het proces.

Jouw proces suggereert dat deze software op een gegeven moment af en goed is en dan in 1 keer naar 100% van de gebruikers gestuurd zou kunnen worden (want goedgekeurd). Dat is voor heel veel software in de auto ook de juiste aanpak. Dat komt omdat het aantal variabelen daar overzichtelijk genoeg is om het uitvoerig genoeg intern kunnen testen. Bij AI voor zelf rijden is het aantal variabelen vrijwel oneindig. Je kunt het testen maar er zijn altijd nieuwe situaties die niet getest zijn. Daar zal de AI als het goed is ook goed op reageren in 99,9% van de gevallen. Dat kun je ook intern nog wel testen met medewerkers. Maar 99,9% is niet genoeg. Er moeten meer 9’s achter staan. Het aantal doden door autoritjes in Amerika is 1,2 per 100 miljoen gereden kilometers. Dat betekent dat je vele miljarden testkilometers nodig hebt voor je zeker weet of de AI beter of slechter is dan zelf rijden.

Nadat het intern is getest, is de volgende stap niet om het naar alle gebruikers te sturen maar het voorzichtig op te schalen. En heel goed in de gaten te houden of dit goed gaat. Beginnen met een klein percentage gebruikers waarvan je weet dat ze voorzichtig rijden is een hele logische volgende stap.
Allemaal emotie argumenten. Old timers met 0.0 veiligheidssystemen die elke moderne test hopeloos falen en geen enkele detectie hebben voor ongevallen mogen gewoon de snelweg op. En gewoon 130 met een gewoon rijbewijs.

Want die zijn oud, en vroeger waren auto’s nu eenmaal gevaarlijk: dus vooruit.

Als het om hypermoderne auto’s gaat met talloze redunante veiligheidsystemen gaan we met elkaar ontzettend kritisch en emotioneel reageren op elke bug. Want dan moet het perfecter dan perfect zijn.

[Reactie gewijzigd door Malarky op 22 juli 2024 14:30]

De Tesla die hier voor de deur staat had een lange tijd erg veel last van Phantom-brakes: je rijdt lekker op cruise control en opeens gaat je auto op de snelweg bij 130km/uur in de ankers zonder zichtbare aanleiding.

Daarover bij Tesla geklaagd, maar die trekken letterlijk de schouders op. Uiteindelijk bij het RDW neergelegd: en die probeerden het ook direct van het bordje te vegen, ook al hebben ZIJ alle Tesla modellen voor de EU markt gekeurd. Maar tussen neus en lippen door begreep ik dat ze meer klachten hadden ontvangen maar dat het tussen de koper en Tesla is.

Wat wel duidelijk werd is dat Tesla min of meer de vrije hand heeft kwa updates: RIDW ziet het als service updates om bugs te fixen. Toen we vertelden welke ingrijpende veranderingen er hadden plaatsgevonden werd de andere kant wel even stil. Om vervolgens de situatie weer af te doen als: "We hebben maar een zeer beperkte capaciteit, en Tesla is een erg grote partij.".

Ofwel: die hele typegoedkeuring is tegenwoordig een ambtelijke papieren tijger: stempeltje zetten en klaar.
Als het goed is zijn phantom brakes binnenkort verleden tijd als Tesla voor alle auto's overgaat op vision-only
Ik denk het tegenovergestelde. We gaan véél meer phantom braking zien. Weinig tot geen andere fabrikanten hebben last van phantom braking. En Tesla is de partij die ook bij zijn auto’s met radar veel meer op de camera’s vertrouwt.
Zoals ik het begreep worden phantom breaks veroorzaakt door tegenstrijdige informatie tussen wat de radar zag en wat het vision-only systeem zag. Tesla levert nieuwe autos uit zonder radar omdat ze vinden dat vision-only goed genoeg is om de radar te vervangen, volgens mij zijn ze daarvoor zelfs opnieuw gekeurd in Amerika bij de lokale RDW.
Zoals ik het begreep worden phantom breaks veroorzaakt door tegenstrijdige informatie tussen wat de radar zag en wat het vision-only systeem zag. Tesla levert nieuwe autos uit zonder radar omdat ze vinden dat vision-only goed genoeg is om de radar te vervangen, volgens mij zijn ze daarvoor zelfs opnieuw gekeurd in Amerika bij de lokale RDW.
Ik wens Tesla veel succes met fatsoenlijk navigeren in dichte mist of hevige regen met enkel camera visie. Het superieure zicht van mensen heeft daar in zulke omstandigheden vaak al moeite mee, laat staan wat camera's met plat zicht. Mag hopen dat ze verder testen dan het zonnige Californië.
Waarop baseer je dat mensen superieur zicht hebben en dat camera’s geen beter zicht kunnen hebben? Speciale camera sensoren zoals logaritmische of “gated” sensoren zijn ver superieur aan ons zicht. Zie o.a. deze studie.
Je moet in dergelijke situaties gewoon het stuur in eigen handen nemen. En hopen dat je het beter doet dan de FSD software :)
Als de mist te heftig wordt FSD automatisch uitgeschakeld.

Maar ik heb op de A2 gereden met de zeer extreme mist van oud en nieuw 2018-2019 toen iedereen 20 of langzamer reed: de FSD camera’s waren superieur aan het menselijke oog.
Tesla's en auto's in het algemeen waren bijna allemaal ingesteld om bij geval van twijfel gewoon door te kachelen aangezien "standaard" auto radar stilstaande objecten toch niet kan zien. Daarom was lane keeping ook zo debiel, dat had nooit moeten mogen met auto's die zo slecht aankomende objecten konden detecteren.

Nu ze wel stilstaande objecten gaan proberen te detecteren zijn meer valse positieven dan de oude situatie wel gegarandeerd.

[Reactie gewijzigd door Pinkys Brain op 22 juli 2024 14:30]

Dat is denk ik puur jouw aanname en heeft verder niets te maken met phantom braking?
Als je iets kunt detecteren krijg je meer valse positieven dan als je het niet kan (dan heb je alleen maar valse negatieven, zoals stilstaande brandweerwagens). Dat is gewoon gezond verstand.
Dit is niet een Tesla specifiek probleem, software problemen bij rij assistenten. Alle automerken doen het ook zo al jaren. Ik praat het niet goed, maar je zou het breder moeten zien dan alleen één automerk. Je kan helaas niet alles 100% sluitend en correct werkend hebben. De vraag is wat is acceptabel en wat niet.
Ik heb er ook last van op simmige wegen maar volgens mij komt het ook door de verkeerder snelheids aanduidingen in de navigatie
ik heb bv een stukje op de A12 voor Utrecht als ik naar de A2 wil dan gaat hij ineens naar 90 en dan in de bocht naar 80 en daarna weer op de snelheid die ik had ingesteld.
Die ongewenste remacties zijn vaak te voorzien en vaak herhaalbaar. Bijvoorbeeld als er een viaduct over de weg gaat, een afrit of parallelweg. De phantom brakes waar ik het over heb zijn echt random, en veel heftiger. De auto gaat echt in de ankers omdat hij denkt dat de weg niet vrij is. Wel zijn bepaalde situaties die het verergeren: lange slagschaduwen (lantarenpalen, windmolens) of laagstaande zon.
Dat is het altijd al geweest... Er is nooit capaciteit geweest voor continue controle omdat er ook vrijwel geen updates werden doorgevoerd anders dan de bugfixes die de garage installeert. Je moet het zien als een initieel keurmerk waarna er enkel opnieuw wordt gekeken als er een incident is.

Grote updates die nieuwe functionaliteit introduceren worden echter wel door de RDW getest anders mogen ze niet geïntroduceerd worden. Daarom zie je veelal kleine zaken die verbeterd worden en zo nu en dan een main versie.

De Tesla die hier voor de deur staat had een lange tijd erg veel last van Phantom-brakes
Dit komt door de radar feedback en Tesla lukt het blijkbaar niet om dit te fixen. Echter wordt de radar met de volgende grote release uitgeschakeld. De auto rijd dan op enkel 'pure vision' en daarmee zou het 'ghost breaking' opgelost moeten zijn.
Het is niet te bizar voor woorden. Je spreekt vanuit een onderbuik gevoel. Er is genoeg gedaan om de kwaliteit te waarborgen en de bestuurder is ook nog steeds in controle.

Ik vind je opmerking juist te bizar voor woorden omdat je alle innovatie tegen houdt met dit soort angst en onderbuik gevoelens. Er zijn geen ongelukken gebeurd (als men zich aan de regels gehouden zou hebben) en de statistieken tonen ook nog eens aan dat Tesla ongelukken heeft voorkomen dankzij software.

We staan aan het begin van een nieuw tijdperk en dit soort dingen horen er bij. Bovendien: mee doen aan het beta programma is vrijwillig en vereist ook nog een bepaalde score gebaseerd op je normale rijgedrag. Je moet altijd opletten als je als test rijder mee wil doen.

[Reactie gewijzigd door jeffrey-nl op 22 juli 2024 14:30]

Het is zelfs niet alleen de RDW. Ook verzekeraars en de politie kunnen wat gaan vinden van het rondrijden met “beta-versies” van software.
Wat de verzekering en politie betreft is degene achter het stuur verantwoordelijk. Dus als jouw auto bijvoorbeeld door rood rijdt dan maakt het voor hun niet uit of je dat zelf deed, of dat je FSD aan had staan.

Je mag bijvoorbeeld ook niet dronken of zonder rijbewijs achter het stuur van zo'n "zelfrijdende" auto zitten. Of onder het rijden een dutje doen.
Dat is precies wat ik aangeef....
Deze beta is niet in Nederland te krijgen.
Ben zelf geen specialist in A.I. maar hoe kom je anders achter de data?
Niet op deze manier dus. Dat is een probleem dat Tesla moet oplossen, niet door risico's voor de iedereen - chauffeurs en andere weggebruikers - te introduceren.
Opvallend dat juist Tesla's gemiddeld veel minder ongelukken hebben per gereden km. Met autopilot aan zelfs 10x minder dan de gemiddelde cijfers. Dus door deze software in te zetten voorkomen ze nu al ongelukken.
1 accident every 4.53 million miles when Autopilot engaged
1 accident every 2.27 million miles when Autopilot not engaged but active safety features active
1 accident every 1.56 million miles without Autopilot and without active safety features
1 accident every 479,000 miles — US average
Die statistiek gaat voorbij aan het feit dat
  • 1. de autopilot niet in alle situaties werkt (vb. wegen zonder witte afboording) en dus niet ingeschakeld kan worden
  • 2. mensen minder geneigd zijn de autopilot aan te zetten in moeilijke situaties (en gebruiken het vb. vooral op snelwegen, waar net de laagste ongevalsstatistieken per km zijn), bijvoorbeeld door negatieve ervaringen in het verleden
  • 3. de autopilot vereist input als het te moeilijk wordt en verwacht dat de persoon overneemt. De kans bestaat dat de autopilot reeds uitgeschakeld is op het moment van het ongeluk
Anders gezegd zijn de populaties waaruit de statistiek genomen wordt, niet equivalent en is er dus een serieuze bias in het voordeel van Tesla.

[Reactie gewijzigd door V_J op 22 juli 2024 14:30]

Wat betreft je eerste punt, die is incorrect. Autopilot werkt ook gewoon op wegen zonder belijning, daar zijn tal van video's van te vinden.

Ook je laatste punt klopt niet, in de statistieken worden namelijk ook ongevallen meegekomen die kort na deactivatie van autopilot gebeuren.
Als aanvulling, Tesla's worden meestal gekocht door mensen van middelbare leeftijd (want te duur voor jonge mensen, en (naar mijn onderbuikgevoel) niet interessant voor oude mensen) wat de twee groepen aan slechtste rijders uitsluit.
Volgens mij was deze data appels en peren vergelijken. Die 1 op 470,900 miles is inclusief fietser, brommers, scooters etc als ik het mij goed kan herinneren.

AutoPilot kon in die tijd alleen op de snelweg worden geactiveerd. Daar rijdt iedereen een heleboel kilometers zonder ongeluk.
Die 1 op 470,900 miles is inclusief fietser, brommers, scooters etc als ik het mij goed kan herinneren.
Nee, dat gaat alleen om automobile crashes. En het gaat om totaal aantal gereden kilometers onder alle omstandigheden en in zijn totaliteit. Dus het is geen appels en peren vergelijken.
Dan nog is het appels + peren vergelijken, want AutoPilot is voor de snelweg. Meeste ongelukken gebeuren per kilometer gebeuren in de chaos van provinciale en stedelijke wegen.
Telt niet he, zover het goedgekeurde features zijn: top.
Als elk bedrijf doet waar het goesting in heeft, buiten het wettelijke om, dan gaan er positieve verhalen zijn en negatieve. BTW er is een gigantisch verschil in wetgeving mbt zelfrijdende auto's tussen EU en USA. Wss deels ook waarom die features hier niet beschikbaar zijn.
Tesla verkoopt het trouwens onder de naam "Full self driving", iets wat vandaag zeker op het bedrieglijke af is en nog moet bewezen worden in de toekomst. Mijn aanvoelen is dat dit nooit "full" gaat zijn, en dat er dus nog wel een zware rechtszaak van gaat komen.
En de kleine lettertjes? Tsja, als de CEO veel twittert, dan gelooft iedereen dat maar zeker?
Over welke verkeerssituaties hebben we het hier? Welk aandeel hiervan is bijvoorbeeld het stereotype lege Amerikaanse snelweg van 650 mijl lang en welk deel stadsverkeer? Kan je Amerikaanse steden vergelijken met de Nederlanse binnensteden waar fietsers overal aanwezig zijn, kan Autopilot daar ook mee overweg?

Voor de goede orde, het gaat me niet zozeer om de 'mens vs machine' discussie, maar deze statistieken hebben wel wat meer context nodig om ze op de juiste waarde te kunnen schatten.
Wacht eens even,
Ik zie dit al best vaak voorbij komen, de eerste drie punten zijn duidelijk en geven echt wat aan, maar het 4e punt is volledig onzinnig. Je gaat een nieuwe auto vergelijken met alle auto’s op de weg. Waar veel auto’s tussen zitten zonder ABS, ESP etc.

Veel interessanter zou zijn wat het getal is voor alle auto’s van een bepaalde prijsklasse (want safety features) die niet ouder zijn dan x jaar (want de zelfde safety features). Dan kan je Tesla’s en hun features vergelijken met andere auto’s.

Maarja iemand die pro tesla is kan die getallen zo tunen dat tesla er goed uitkomt. Of omgekeerd dat tesla er slecht uitkomt. Dus echt veel heb je er ook niet aan.

Sorry voor de rant……
Truth, Lies & Statistics…….
Op zich eens, statistieken worden altijd zo gunstig mogelijk benut door de fabrikant. Gek genoeg zijn alle supermarkten in Nederland volgens henzelf de goedkoopste ;)
Maar ook op de door jou voorgestelde manier zul je niet echt appels met appels vergelijken, dan moet je minstens ook kijken naar het type het voertuig, waaronder gewichtsklasse.

Vraag: zegt prijsklasse en leeftijd naar jouw idee genoeg over safety features, of hoofdzakelijk over safety requirements?
Ja ik was bezig met een systeem te bedenken die wel “eerlijk” zou zijn. Maar met elke oplossing kwamen 10 nieuwe problemen.

En betreft je vraag:
Safety requirements zijn vrijwel alleen aan leeftijd gekoppeld, denk ik. Nu ben ik geen expert op gebied van wetgeving, maar ik ken geen eisen die aan prijs gekoppeld zijn.

En ik denk dat je wel kan stellen dat hoe duurder een auto is hoe meer features er in kunnen zitten. Tuurlijk zijn er uitzonderingen en zitten er ook prijs verhogingen in comfort/motor/styling. Maar een auto van 33K zal in bijna alle gevallen meer safety features hebben dan een auto van 13K
Niet door klanten als test dummies in te zetten
Klanten als test dummies vind ik nog het minst erge. Deze mensen kiezen er voor. Wat ik erg zou vinden is als zo'n vrijwillige tester achter op een auto knalt met een paar kinderen achterin.
Laten we het eens andersom bekijken, laatst was er een ongeluk voorkomen doordat de bestuurder FSD beta geactiveerd had. Bij een groen stoplicht trok de auto op waarna hij plots remde. Bleek dat er een fietser met een noodvaart door rood reed, wat de bestuurder nooit gezien had.

Het niet activeren van FSD had in die situatie waarschijnlijk tot aanzienlijk letset voor de fietser geleid. Zo makkelijk is die keuze dus niet.

Edit, filmpje:
https://mobile.twitter.co...tatus/1451617104063569923

[Reactie gewijzigd door matroosoft op 22 juli 2024 14:30]

Die fietser wilde in aanmerking komen voor een Darwin-award. Die kinderen doen niets. Maar dit wordt een discussie over utilitarianism, daar blijf ik buiten.
De test dummies schrijven zich hier zelf voor in... Niemand wordt hier iets verplicht... Iedereen mag toch zijn eigen ding beslissen?
Wat denk je? Een gecontroleerde omgeving misschien? Hoe moet een fabrikant van pistolen erachter komen of zijn nieuwe pistool wel goed dodelijk is? Beetje rond gaan schieten in een drukke winkelstraat?
Zit er software in een pistool?
En wat gebeurt er dan als je software in een ongecontroleerde omgeving 'loslaat'?
Probleem is juist dat het verkeer niet te vangen is in een gecontroleerde omgeving. Het is veel te divers. Als je dus gaat testen in zo'n gecontroleerde omgeving krijg je dus allerlei onvoorspelbaar gedrag in de ongecontroleerde omgeving. Vandaar dat er dus onder strikte voorwaarden getest in de ongecontroleerde omgeving. Dat geeft het beste resultaat.
Dat begrijp ik, maar tegen de tijd dat je een release moet terugtrekken dan heb je niet goed getest. Goed testen in de ongecontroleerde omgeving is met getrainde mensen die heel erg opletten op het systeem en zeer snel ingrijpen als het misgaat. Dat is goed testen. En daarna rol je het breder uit en kan het zijn dat je verbeterpunten tegenkomt. Niet dat het zo slecht is en je maar besluit je release terug te trekken.
Klopt, maar incidenteel kan het toch voorkomen dat je iets moet terugtrekken. Als het nu bij iedere betarelease prijs was had je misschien een punt, maar overal zien we dat er in productie nog grove fouten uit systemen worden gehaald. Dat is niet alleen bij MS Office zo, maar ook bij de lancering van een space shuttle.
Ben zelf geen specialist in A.I. maar hoe kom je anders achter de data?
Test personen/auto's actief laten rondkijken, alle data (sensoren en bestuurdersacties) loggen en daaruit algoritmes breien.
Ja maar ehh, dat kost heel veel tijd en moeite en geld en die RoboTaxis hadden al eind 2020 actief moeten zijn. Enne in 2016 was al beloofd dat een Tesla zonder tussenkomst van bestuurder een coast-to-coast kon afleggen binnen jaar of zo.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 14:30]

Simulaties en met professionele test bestuurder die worden gedwongen aandacht te houden (ie. ogen van de weg en hij begint meteen te piepen).
Een kleine beschadiging op je autogordel is voldoende om hem af te keuren voor de APK, maar buggy beta software die er voor kan zorgen dat er verschrikkelijke ongelukken gebeuren is geen enkel probleem voor de RDW.
Deze software is hier niet eens toegestaan. Maar daarnaast blijf je als bestuurder verantwoordelijk. Als de wagen een fout maakt moet de bestuurder ingrijpen.
Fijn dat FSD niet is toegestaan, maar er zijn wel degelijk software updates mbt AutoPilot doorgevoerd door Tesla. Welke procedures hanteert de RWD dan om software updates te controleren van Tesla? Of keurt de slager hier zijn eigen vlees?
Ik heb in mijn auto's zo vaak software updates geïnstalleerd gekregen om problemen met de auto op te lossen. Die software updates zijn volgens mij ook nooit gecontroleerd dat het RDW, dat is ook helemaal hun taak niet. Ze creëren richtlijnen waar dit soort rijhulp systemen aan moeten voldoen, that's it.

Voor alas je het zelf nog eens wil nalezen:
https://www.rdw.nl/over-rdw/actueel/dossiers/rijhulpsystemen
Inderdaad, het is nou niet zozeer een nieuw 'probleem'. Autogarages installeren al meer dan 10 jaar software updates...
Ik ben geen expert in de regels, maar als een autofabrikant een terugroepactie doet voor bijvoorbeeld airbags en ze gaan ineens een andere chip gebruiken dan ten tijde van de toelating, dan mag dit volgens mij niet zo maar. Het gaat mij meer om de dubbelstandaard die gehanteerd wordt. Ik kan me herinneren dat er problemen waren met de Model 3 voor toelating tot de Europese markt, Elon Musk vliegt naar NL en drinkt koffie bij de RDW en het was geregeld.
Volgens mij mag dat wel. De specificaties gaan niet zo diep dat types van chips gespecificeerd worden t.b.v. de goedkeuring. Dat verloopt veel globaler.
Dat na een gesprek met de RDW de toelating wel was geregeld hoeft niet om corruptie te gaan. Een toelichting geven of een misverstand uit de weg ruimen kan ook gewoon leiden tot een ander oordeel.
Er is werkelijk geen enkel probleem om een andere chip te gaan gebruiken. Als je alle type chips in een auto moet gaan valideren en vastleggen rolt er geen enkele auto de weg op. Het moet voldoen aan de eisen die gesteld worden aan een airbag. Hoe je dat voor elkaar krijgt, is aan de autofabrikant, en dan maakt chip A of B echt niet uit. Of denk je dat ze bij de RDW het hele chipontwerp gaan napluizen op onvolkomendeheden?
De RDW stelt vast of u de juiste maatregelen heeft genomen om te waarborgen dat de voertuigen, systemen, onderdelen en technische eenheden die worden geproduceerd in overeenstemming zijn met het goedgekeurde type. Deze procedure wordt Overeenstemming van Productie (CoP) genoemd.
Maak er van wat je wilt.
Maar daarnaast blijf je als bestuurder verantwoordelijk. Als de wagen een fout maakt moet de bestuurder ingrijpen.
Dat is veel te gemakkelijk afgedaan. Dat de bestuurder verantwoordelijk blijft werd bij andere auto's vaak gecontroleerd en dan vaak bij cruise control achtige varianten. Bij Tesla waren er veel te veel mogelijkheden om nauwelijks aandacht te geven en toch niet op te letten. Inmiddels is dat verbeterd, echter duurde het behoorlijk lang voordat Tesla inzag dat dit belangrijk is. Verder hoort een bestuurder wel vanuit te gaan dat de software behoorlijk werkt. Oftewel, in een aantal jaar rijden hoor je geen ingrepen te krijgen.

Dit in verband met de gatenkaas gedachte. Je wilt dat de software betrouwbaar is, plus wil je dat de bestuurder goed op blijft letten. Tegelijk wil je ook airbags, een crashstructuur, etc. Wat je niet wilt is software dat niet echt lekker werkt en dan vertrouwen op andere veiligheden (bestuurder, etc).
Dat is dan de pure juridische benadering op dit moment. De vraag is, hoelang blijft zoiets nog te verantwoorden?

Boeing had ook een wijziging aangebracht in de 737 max. Men kon bij problemen de computer nog altijd uitschakelen waardoor er ook niks speciaal zou gebeurd zijn. Toch zijn er ongevallen gebeurd omdat het men het nieuwe gedrag niet kende. Ik weet het, gevaarlijk om dit te vergelijken met Tesla, maar ergens is er een gelijkenis: tesla past software aan waardoor je auto plots anders reageert. Een manier van werken waar je tot nu toe aan gewoon was, gaat nu plots anders. Deze inschatting ligt volledig bij tesla, al men daar denkt "valt wel mee die impact" maar toch verkeerd blijkt te zijn bij nog maar 1% van hun gebruikers (er zijn ook mensen van 60+ die met een tesla kunnen rijden) dan heb je wel een probleem.

Imho heeft tesla hier een gat gevonden dat qua reglementering nog niet op punt staat. Zolang men daar correct mee omgaat is dat prima, de vraag is alleen, kan je zoiets nog toevertrouwen aan een bedrijf?
Het was bij Boeing nog een stapje erger: De computer kon niet uitschakeld worden, maar de piloot kon de trimmotor uitschakelen en het hoogteroer met zijn spierkracht bedienen, was de redenering. Dat de piloot niet sterk genoeg was om het hoogteroer te bedienen als de computer het vliegtuig in een duikvlucht omlaag stuurde, zag men over het hoofd.
Het was bij Boeing nog een stapje erger: De computer kon niet uitschakeld worden, maar de piloot kon de trimmotor uitschakelen en het hoogteroer met zijn spierkracht bedienen, was de redenering. Dat de piloot niet sterk genoeg was om het hoogteroer te bedienen als de computer het vliegtuig in een duikvlucht omlaag stuurde, zag men over het hoofd.
Ja en nee, de stab trim disablen is misschien niet hetzelfde als mcas disablen, maar je zet er de mcas override indirect wel mee uit. Het is wel zo dat als mcas te ver getrimmed had, het vliegtuig al te laag bij de grond zat de piloten geen tijd meer hadden om manueel terug te trimmen via het manuele trimwheel (of in extend niet voldoende konden compenseren met het hoogteroer zonder dat men terug trimde)

Hoe dan ook, de vergelijking is hier dat het mcas debacle een slechte beslissing was van boeing maar wat met de nodige awareness technisch geen probleem had hoeven te zijn (puur theoretisch dan). Iets gelijkaardig zie ik gebeuren met die tesla fratsen, geen probleem als je het gedrag niet kent en het is je eerste tesla, mogelijks wel als het gedrag plots wijzigt waar je al die tijd aan gewoon was

[Reactie gewijzigd door miitjohn op 22 juli 2024 14:30]

Het argument dat je als bestuurder kunt ingrijpen gaat mank: Als de bestuurder perfect is zijn er ook geen autogordels nodig en toch zijn die onderdeel van de APK. Aan slecht functionerende software zitten veiligheidskwesties. Alhoewel ik het wat ver vind gaan om voor iedere software-update de hele toelatingsprocedure opnieuw te doen, lijkt het mij onvermijdelijk dat softwareupdates die de besturing betreffen onafhankelijk gekeurd moeten gaan worden in het zelfrijdende tijdperk.
Het is nu al zo dat al die systemen (ook bij andere fabrikanten) nu al bijdragen aan betere verkeersveiligheid en minder ongelukken. En die recent op beperkte schaal gelanceerde Bètas zijn voorafgegaan door een hoop interne versies.

Dus het is niet zo dat het gaat om spelen met levens met een totaal onbewezen product. Toegang tot de Bèta is ook nog eens aan strenge eisen onderworpen. En de bestuurder wordt er telkens op gewezen altijd alert te zijn om in te kunnen grijpen.

Kijkend naar sommige filmpjes met versie 10.2 en 10.3 ziet het er al best indrukwekkend uit.

Vergeleken met andere merken is Tesla veel verder. Ik reed laatst proefrit in een Hyundai met alle systemen en die reed zowat de weg af in een bocht, maar gaf geen enkele waarschuwing om het sturen over te nemen. VW waarschuwde wel, maar schakelde tegelijkertijd de stuurassistent uit. En dit zijn auto's waarbij je nog maar moet hopen dat ze hier updates voor krijgen en zo ja hoe frequent.

Ik vind de aanpak van Tesla prima:
- eerst intern testen
- uitrol Bèta naar selecte groep bestuurders met bewezen veilig weggedrag
- updates om de paar weken om het systeem snel te verbeteren
- Bestuurder steeds wijzen op de eigen verantwoordelijkheid
Die auto's die de bocht niet nemen, dat is waarschijnlijk te danken aan europese wetgeving. Een auto die de chauffeur ondersteund mag een bocht van een X aantal graden niet met snelheid Y nemen. Als die situatie zich wel voordoet, wat snel kan gebeuren op de Europese wegen, dan moet de chauffeur het overnemen. Dit maakt het natuurlijk niet veiliger als je als chauffeur de controle opeens moet overnemen midden in een bocht.
Gevalletje van doorgeslagen regeldruk dan...

Dit was overigens in een lage snelheid scenario met een redelijk flauwe bocht. In de bocht was een middenheuvel wat de bocht wellicht wat minder standaard maakte. Maar hij begon gewoon netjes te sturen en liet helemaal los, zonder waarschuwing, waar die weer terug moest sturen. Zonder ingrijpen was de auto dus de stoep op gereden bij die oversteekplaats.
Waarschijnlijk zijn TESLA's alsnog veiliger voor de weg dan de gemiddelde auto zonder al die hulpmiddelen. Voor iedere persoon die er onverantwoord mee omgaat, zijn er 100en die het gewoon verantwoord gebruiken. Parallel heb je ook bestuurders van "normale" autos die onverantwoord rijden, alleen daar helpt de auto niet corrigeren.

Hoe vaak ik autos over de weg zie slingeren en dan erlangs rij en zie dat iemand zijn mobiel vast heeft... sommige mensen zijn gewoon onvoorzichtig, zo'n fancy cruise control maakt het onveilige gedrag veiliger.
Welk probleem wil jij oplossen? Ik zie geen probleem dat zo groot is dat heel die ontwikkeling zou moeten voor stoppen of vertragen. Ik zie een mooie evolutie voor iets dat we echt nodig hebben. De prijs die we als maatschappij hiervoor betalen is echt peanuts in vergelijking met de winsten op termijn. This heel duidelijk dat de ontwikkelsnelheid snel is. Dit vertragen door een resem instanties erbij te vertrekken is zinloos.

Ik denk dat veel mensen last hebben met het idee dat alles 100% moet afgedekt zijn in een innovatief traject dat echte problemen oplost waar we het allemaal over eens zijn.

1: verkeersdoden: Elk jaar sterven er 1.3miljoen mensen in het verkeer. Voetgangers, fietsers, bestuurders. Totale kost: 3% van ons GDP.

2: Traffic jams. Ook zo’n economie showstopper. Mede dankzij gebrekkig OV.

3: Co2 uitstoot. Autonoom vervoer kan in europa in veel gevallen vliegtuigen vervangen op het vasteland. Zelfde kost, zelfde totale rijstijd, fractie van de Co2. Zelfde voor OV.

Als die beta’s nu elke dag mensen de dood injagen moet het herbekeken worden maar dat is absoluut het geval niet.

Wat ze wel kunnen doen is een standaard maken van wie mag betatesten. En niet x-jaar rijbewijs maar eerder gabasseerd op uw driving skills. Tesla doet het al. Maar mss kan er een standaard komen?

[Reactie gewijzigd door Coolstart op 22 juli 2024 14:30]

Het lijkt erop dat een eenmalige goedkeuring voor de Europese markt dus voldoende is.

Off-topic:
Wat @LOTG en @Geckow aanhalen doet mij erg denken aan de documentaire The Bleeding Edge https://www.netflix.com/title/80170862 op Netflix.

Waar het gaat over heupprotheses, pacemakers, spiraaltjes etc. En dat als eenmaal zoiets is goedgekeurd, dat de fabrikant met die goedkeuring nieuwe versies mag maken zonder die te laten keuren.
Even voor de duidelijkheid: Tesla FSD wordt niet standaard geinstalleerd bij een SW update - het moet via een button gekozen worden. Die button werkt alleen bij bepaalde groep mensen, waarbij eerder passend rijgedrag is vastgesteld.
Mensen die dus serieus er mee aan de slag willen en willen helpen bij het testen en verbeteren. Die zich bewust zijn van de status van het systeem en de risico's van het gebruik hiervan. Voorheen moest voor het gebruik van FSD ook een NDA worden getekend.
Ook het aanzetten van FSD tijdens een rit is een bewuste keuze van de bestuurder. Het gaat niet vanzelf aan. Eenmaal aangeschakeld, controleert het FSD systeem zelf ook of de gebruiker zijn handen aan het stuur heeft en of hij blijft opletten. (camera binnenspiegel) Tesla spant zich dus echt wel in om de veiligheid van het systeem zo goed mogelijk te maken.

Belangrijk: Het is niet realistisch om te denken dat het FSD systeem 'volledig' getest en verbeterd kan worden zonder de bijdrage van al die beta-deelnemers. Dat heeft te maken met de AI eigenschappen van het systeem. Zie hier voor technische uitleg: https://www.youtube.com/watch?v=3SypMvnQT_s
Hoe meer deelnemers, hoe sneller het systeem beter zal worden. Dit soort technologie is relatief nieuw voor de autoindustrie en Tesla is een van de eerste die z'n nek uitsteekt.

Gezien de complexiteit van verkeersdeelname is volledig testen sowieso een illusie bij dit soort systemen - maar dat is mijn persoonlijke mening. We zullen hier mee moeten leven; bestuurders zelf zijn ook niet 'volledig getest' en daar leven we ook mee. In een aantal situaties is FSD nu al beter dan de mens - in een aantal situaties ook nog niet. Maar dit laatst genoemde aantal wordt wel steeds kleiner.

De term 'beta-software' is waarschijnlijk om juridische redenen gekozen - heeft minder met de staat van veiligheid van de software te maken. Het doel van de FSD software op dit moment is niet om al level 4 of 5 autonomie te bieden/garanderen; het doel is momenteel om het systeem te laten groeien en beter te laten worden. De deelnemers aan het beta-programma weten dat - het is de buitenwereld die een andere indruk heeft/krijgt...
En tot slot: Terugroepacties komen ook bij gereleasede software en gereleasde hardware voor. Wat mij meer zegt is hoe een fabrikant daar mee omgaat...
Helemaal met je eens!

1 kanttekening erbij: 'Full Self Drive' hoeft niet hetzelfde te zijn als Level 3, 4 of 5. Het kan ook een heel geavanceerd Level 2 systeem zijn, waarbij de bestuurder nog steeds altijd moet opletten en verantwoordelijk blijft. Dus ook als het geen Bèta meer is, kan het nog altijd een Level 2 ADAS zijn. En waarschijnlijk zal dat om wettelijke redenen nog een behoorlijke tijd zo zijn.
Inmiddels is 10.3.1 uit die de problemen moet verhelpen, zie deze tweet van Elon Musk: "10.3.1 rolling out now"

https://twitter.com/elonmusk/status/1452576223620747266
Het komt mij nogal vreemd over dat een beta wordt uitgebracht die vervolgens gewoon op de openbare weg getest kan worden door doorsnee gebruikers. Zijn er dan wel bepaalde veiligheidswaarborgen of alleen iets van een disclaimer à la "dit is een beta, houd je handen op het stuur en je ogen op de weg" die gebruikers kunnen negeren als ze dat willen?
Er is een heel score-mechanisme in de auto ingebouwd. Een week lang wordt er van alles en nog wat bijgehouden en een score aangehouden. Vooralsnog krijgen alleen de mensen die een 100/100 score hebben toegang tot de beta. Binnenkort de mensen met een 99/100 score.
En die score gaat ver. Een keer te hard optrekken of afremmen en je zit alweer een paar puntjes lager. Te hard door de bocht? De auto moest ingrijpen? De auto gaf signalen dat je niet aan het opletten was (bijv. handen op stuur, of telefoon vast?). Weg perfecte score, en weg toegang tot de beta.

Zie https://www.tesla.com/support/safety-score

[Reactie gewijzigd door Caelorum op 22 juli 2024 14:30]

Maar dan nog, je laat min of meer software toe in een auto die alleen in de naam al aangeeft dat je dit niet 'in productie' moet gebruiken. Als dit op de nederlandse weg wordt toegestaan om beta software in een auto te laten draaien bij normale gebruikers, dan zou ik daar toch echt serieus kamervragen over willen hebben.

Straks gaat er iets mis, gaat die door de beta software vol op de rem (collision warning) en veroorzaak jij een kettingbotsing met dodelijke gevolgen... is dan je verweer "ja, maar ik had wel een safety score van 100%, dus ik kan er niets aan doen"??
Nogmaals.. er is niets "beta" aan de software in de EU. Alles wat die auto kan is goedgekeurd volgens EU-regelgeving. En die regelgeving is dankzij de Big-3 (VW, BMW, Mercedes) aardig aangescherpt.

De auto kan soms inderdaad vol in de ankers schieten.. Maar als de achterligger voldoende afstand houdt is dat geen probleem. Er kan ook ineens een vogel voor je langs schieten, of iets op de weg liggen. Of ik schrik van iets dat er niet blijkt te zijn... Een noodrem kan in principe altijd en overal gebeuren.

Je hebt dan dus geen excuus nodig.. Als mijn auto een noodrem doet omdat mijn auto in de war is en jij knalt achter op, dan ben jij fout. Niet ik.
Nou klopt dat niet helemaal. Je hebt niet altijd schuld vals je achterop iemand knalt.

Ik vind het nogal verderfelijk, maar je moet een overstekende hond gewoon platrijden.
https://www.hijink.com/le...e-verkeer/dier-op-de-weg/
Je hebt dan dus geen excuus nodig. Als mijn auto een noodrem doet omdat mijn auto in de war is en jij knalt achter op, dan ben jij fout. Niet ik.
Maar los van de schuldvraag, als auto's van een bepaald type onterecht noodstoppen maken dan zal dit lijden tot meer ongevallen. Dan kun je wel gaan roepen dat dit niet de schuld is van Tesla, maar dat vind ik zelf iets te kort door de bocht.
Een goed bestuurder (of goede autopilot) vermijd ongelukken en creëert zo min mogelijk gevaarlijke situaties, ook als deze wettelijk gezien niet zijn of haar schuld zijn.

Als ik 100 keer willekeurig een noodstop zou maken op een autoweg is hij vrij waarschijnlijk dat ik tenminste 1 keer een auto in mijn kofferbak heb hangen.
En voor de wet is dit een L2 driver assist. Als je auto niet stopt voor een voetganger of recht in een ander rijdt omdat jij even afgeleid bent of recht op een obstakel (wegenwerken bvb) rijdt ben jij ook in fout. Conform de wetgeving. Het is géén zelfrijdende auto.
Juist.

Maar dan krijgen EU bewoners dus nooit een Beta geinstalleerd? Hoe testen ze dan de hier andere omstandigheden? (niet dat ik voor beta installs ben op auto's die gewoon deelnemen aan het verkeer).
Er is niet "1" versie. Autopilot bestaat uit honderden zo niet duizenden parameters die ze kunnen tunen in bepaalde regio's. Zo is in de EU bijvoorbeeld de snelheid waarmee de auto door een bocht gaat beperkt, maar in de VS niet.

In de EU moet de auto binnen x seconden een inhaalactie afronden, anders gaat ie terug in z'n originele baan. In de VS niet.

EU bewoners zullen een versie krijgen die is aangepast op de wetgeving. Als morgen de EU besluit dat een auto met een iets hogere snelheid door een bocht mag gaan, dan past Tesla die parameter aan en pushed een update. Daar komen dan wel weer testresultaten uit voort om het verder te verbeteren.

Omstandigheden testen kunnen ze ook 'dry' doen, dus de computer een simulatie laten uitwerken 'op papier' op basis van echt beeldmateriaal en die laten beoordelen door bijvoorbeeld een AI.
Je zegt dat er niet 1 versie is maar dat er vele parameters zijn. Dan is er toch nog steeds maar 1 software-versie?

Dat je die kan aanpassen per land is dan een voordeel. Al zijn sommige parameter aanpassingen natuurlijk niet zonder bijkomende effecten. De bochtsnelheid verhogen is zo'n parameter.
Tegenwoordig gaan veel auto's met AEB in de remmen voor domme dingen, beta of geen beta. Had het bijvoorbeeld ook een keer in een BMW i3 die ik proefreed, niks voor me maar wel auto vol in de remmen. Ik wil het daarmee niet goedpraten, maar ik denk wel dat het slim is om afstand te blijven houden tot voorliggers (wat toch al nodig is, maar ik zie het veel mensen niet doen).
Dat is de eerste keer dat ik dat hoor van een niet-Tesla.

Blijkbaar denken de andere fabrikanten, als Tesla het mag, dan mogen wij het ook.
Of, als Tesla het doet dan moeten we wel mee, want anders lopen we achter.

Wat mij betreft een ontwikkeling waar we niet blij mee moeten zijn.

Gelukkig dat ghost-braking toch nog voornamelijk beperkt is tot Teslas.

[Reactie gewijzigd door mjtdevries op 22 juli 2024 14:30]

Eerste keer?

Ik heb het meermaals gehad met Skoda leenauto. Vol in de ankers voor helemaal niets.
Ja. Dit onderwerp komt regelmatig langs op tweakers.
En mensen die andere merken rijden melden steeds dat ze nooit last hebben dat de auto in de ankers gaat, of dat ze wel weten waarom. (maar nog steeds ongewenst)

Opvallend is dat de twee personen die hier dan melden dat ze er wel last van hebben gehad dat niet bij hun eigen auto hadden maar in een proefrit en bij een leenauto.
Wellicht dus een te verklaren actie van de auto, maar wel onverwachts voor jullie. (waarmee ik het niet goed praat want ook dat zou niet moeten gebeuren)

Bij mijn Toyota heb ik het nog nooit gehad.

Zeker als je hoort in welke situaties het bekend is dat een Tesla ghost-brakes doet, dan is het duidelijk dat ze dat minder goed voor mekaar hebben dan andere merken.
Ik ben een autorijder die zich best bewust is van de techniek en vooral de hulpsystemen (ik vind het ook gewoon zeer interessant namelijk), de AEB had op dat punt niet vol in de ankers mogen gaan. Misschien dat het iets verkeerd zag, bijv. schaduw van een viaduct, maar dat zou niet moeten mogen vind ik. Je moet dan constant bedacht zijn op dat je hulpsystemen iets raars doen.

Ik snap het probleem ook wel, het is lastig om foutloos te maken. Zolang de weg rechtdoor gaat is het misschien nog relatief simpel, maar wat als de weg in een bocht loopt? Ik heb een keer gehad in Oostenrijk dat de auto vol in de ankers ging bij een scherpe bocht op een bergweggetje, vermoedelijk omdat hij de vangrail recht voor me als een object zag. Maar ik was natuurlijk niet van plan tegen die vangrail aan te rijden, ik wilde gewoon die bocht nemen.

Of bijvoorbeeld dat de auto voor me ging afslaan (en dus afremde), ik om die auto heen stuurde, maar mijn auto ondanks dat ik dat op nette snelheid/afstand deed en ruim er omheen stuurde toch vol in de ABS ging.
vermoedelijk omdat hij de vangrail recht voor me als een object zag.
Het lijkt er op dat die sensoren niet meedraaien. Eigenlijk wil je dat natuurlijk wel.
Wellicht dat ze dat niet doen omdat de kans groter word dat ze niet meer goed uitgelijnd zijn?
Of bijvoorbeeld dat de auto voor me ging afslaan (en dus afremde), ik om die auto heen stuurde, maar mijn auto ondanks dat ik dat op nette snelheid/afstand deed en ruim er omheen stuurde toch vol in de ABS ging.
Dit. Heb ik dus ook gehad. Vet irritant want was al ruimschoots niet meer op "collision course" met die wagen. Erg irritant aangzien je er niks aan kunt doen. Bij Tesla heb je altijd het laatste woord en kun je alsnog gas geven om de boel te overrulen.
Opvallend is dat de twee personen die hier dan melden dat ze er wel last van hebben gehad dat niet bij hun eigen auto hadden maar in een proefrit en bij een leenauto.
tsja, mijn polo had die systemen gewoonweg niet dus die ging dat gelukkig ook niet doen. Maar dit is echt niet een tesla only dingetje hoor.
Wellicht dus een te verklaren actie van de auto, maar wel onverwachts voor jullie. (waarmee ik het niet goed praat want ook dat zou niet moeten gebeuren)
Het was dat ik zelf de controle kon behouden, maar met 130 op een snelweg door de ABS heen remmen terwijl je een inhaalactie aan het doen bent is levensgevaarlijk. waar ik bij de tesla "hard" afrem, brak bij deze wagen de achterkant uit (doordat ik aan het wisselen was van rijbaan). en ik kon dit niet overriden door zelf gas bij te geven. Deze wagen had mij zeer waarschijnlijk ernstig verwond als ik niet mijn handen aan het stuur had gehad. Daarom, altijd je handen aan het stuur houden. Ook al hoeft het niet.

Ik vind dat nieuwe systeem van Chrysler dan ook kompleet ruk, want het niet aan het stuur hoeven houden van je handen is gewoon gevaarlijk. Je reactietijd is gewoon te lang om dan nog wat te kunnen doen.
Zo'n extreme rem actie lijkt mij voldoende reden voor een terug roep actie. Dat is inderdaad levensgevaarlijk.

Waar zou je zoiets kunnen melden? De RDW? Want als je het meld bij de toko waar je de leenauto van gekregen hebt, dan heb ik er niet veel vertrouwen in dat er echt wat mee word gedaan.

(zou de achterkant wel mogen uitbreken bij een ABS?)
Maar een noodstop om niets kan ook letterlijk door de mens erin worden gedaan en is nooit een reden om schuld neer te leggen bij die bestuurder/auto.

Er tegen aan rijden is dan toch echt de schuld van de andere bestuurder (hoe onredelijk dat ook klinkt...).

Terug naar het probleem: tja - Beta software in kritische productie systemen. Klinkt toch niet helemaal als de bedoeling. Hoe moeilijk het anders ook is om het te testen....
Er tegen aan rijden is dan toch echt de schuld van de andere bestuurder (hoe onredelijk dat ook klinkt...).
De 2 sec afstand die je volgens de regels moet houden is te kort om een botsing te vermijden bij een plotselinge noodstop door de auto voor je.
Ooit een keer getest zien worden bij autos die 80km/h gaan. Uiteindelijk was de snelheid dan wel voldoende afgenomen (iets van 40km/h) zodat er alleen blikschade was.
Dat was op TV met Tom coronel volgens mij. Heb even gezocht of ik het op youtube kon vinden maar helaas niet.
Uiteraard dus als die persoon achter mij ineens vol erop klapt dan jammer.

Het probleem is echter dat een noodstop zonder reden wel gezien kan worden als iets in de vorm van een brakecheck. En dat kan nog wel eens problemen geven.
Met de Mercedes E200 ook recent aan de hand gehad (1 maal op 3 jaar, +- 90.000km). Opeens volle bak rem toegesmeten op de openbare weg, gelukkig niets of niemand te bespeuren.

Natuurlijk - de vraag is niet "gebeurt het 1 keer" maar, hoe vaak, per hoeveel km... iemand die het 1 keer meemaakt op 3000km rijden is wat erger dan 1 fout op 3 miljoen km :).

Sidenote: wat ik verontrustwekkender vindt is dat de indicatie van de Adaptive Cruise Control (toch een functionaliteit die nu een jaar of 8-9 ofzo al redelijk frequent verkocht wordt?) ongeveer 1 op 500 auto's niet detecteert als ze voor me rijden, en ik alsnog moet remmen om geen kop-staart aanrijding te hebben. Geen idee of dat dan de Mercedes software is, of ook bij andere merken voorkomt.

Dat is waarom ik wel een probleem met met Tesla die het doen uitschijnen dat het allemaal veilig en ok en af en 20000% production ready is -- daar waar andere merken toch duidelijk aangeven "dit is allemaal 'driver assistance', you are in control!!" (Bij Tesla is dat ook de officiele lijn natuurlijk, maar je kan er niet om heen dat het allemaal anders gemarket wordt...). Natuurlijk, als je ooit 10.000 flappies aangerekend hebt voor een functie die je in een Skoda tegenwoordig voor 3000 EUR aankoopt... ;).

[Reactie gewijzigd door Krokant op 22 juli 2024 14:30]

Volgens mij is de marketing van Tesla wel goed, maar is de interpretatie door klanten en de media vaak nogal ruim, zoals kranten die inderdaad weer koppen met 'zelfrijdende Tesla veroorzaakt aanrijding'. Tesla Nederland zelf adverteert het als 'Full Self-Driving Capability' (let op het woord 'capability') en als uitleg staat daar bij als eerste zin: "De functies die momenteel beschikbaar zijn, vereisen actief toezicht van de bestuurder en maken de auto niet autonoom"

Verder gebruiken ze de naam 'autopilot', gelijk aan het autopilot systeem bij vliegtuigen, oftewel een hulpsysteem dat niet de mens vervangt. Ik vind Wikipedia altijd wel een vrij duidelijke uitleg geven: An autopilot is a system used to control the path of an aircraft, marine craft or spacecraft without requiring constant manual control by a human operator. Autopilots do not replace human operators.
Dat ben ik toch niet met je eens.
De handleiding van Tesla is duidelijk en eerlijk. De marketing is echter totaal anders dan de handleiding.
Dit is niet de handleiding, dit staat op hun website in de configurator (oftewel de plek waar je de auto bestelt en dus duidelijk moet zijn wat het inhoudt voor je echt tot koop over gaat). En de term 'autopilot' wordt in hun marketing ook veelvuldig gebruikt, maar mensen en de media knopen er een beetje een andere uitleg aan. Bij autopilot in een vliegtuig moet de piloot ook toezicht houden op de systemen. En dat is waar Tesla volgens mij de term autopilot vandaan heeft.
Het is wel een vrij algemeen probleem, zie bijv. ook dit artikel waar diverse merken in worden genoemd: https://www.wsj.com/artic...er-complaints-11566898205
Ik heb geen abonnement op de wsj. Dus ik kan alleen concluderen dat in ieder geval die Nissan Rogue onderzocht word.
Punt is wel dat de Tesla het puur moet doen met camera beelden en het is bv algemeen bekend dat de Teslas een probleem hebben met slagschaduwen van bv bruggen. In de software is dus ingesteld dat ze dat soort niet bewegende voorwerpen op de weg maar moeten negeren.
Ra ra, hoe komt het dat een Tesla met volle snelheid in China tegen die gekantelde vrachtwagen aan reed.

De meeste andere merken gebruiken een radar om botsingen te vermijden. Daar is de kans op fouten veel kleiner. Mits het ding goed installeerd is.
Die Nissan Rogue van het SWJ lijkt een radar te gebruiken. Helaas vertelt Nissan niet waar de problemen vandaan komen. (blijkbaar zijn er twee oorzaken)
https://www.autoconnected...adar-problems-what-to-do/
Ik heb ook geen abonnement, maar kan 'm wel gewoon volledig lezen. Maar goed, simpel gezegd loopt er een onderzoek naar AEB systemen in het algemeen, omdat meerdere merken dit probleem hebben.

Tesla gebruikt ook een radar. Pas sinds mei 2021 worden er een aantal Tesla modellen in Noord-Amerika zonder radar geleverd, omdat Tesla van mening is dat het beter gaat op camerabeelden: https://www.tesla.com/support/transitioning-tesla-vision

Maar alles van Tesla in Europa met autopilot (dus dat is alles behalve de pre-AP Model S en de eerste generatie Roadster) heeft een radar.
Even een snelle Google leert me dat gebruikers van o.a. Audi, Subaru, Mazda, Volkswagen, Mercedes vergelijkbare problemen melden.

Tesla is een hot en soms polariserend topic, goede dingen EN slechte dingen komen daarbij op social media veelvuldiger aan bod dan bij andere merken.
Maar dan nog, je laat min of meer software toe in een auto die alleen in de naam al aangeeft dat je dit niet 'in productie' moet gebruiken. Als dit op de nederlandse weg wordt toegestaan om beta software in een auto te laten draaien bij normale gebruikers, dan zou ik daar toch echt serieus kamervragen over willen hebben.[...]
Het is ook nog maar de vraag of dat in dit geval gaan gebeuren. Overigens draait er al beta software en heeft bijna elke Tesla tijder die rondrijdt dat aangezet: AutoPilot.
[...]
Straks gaat er iets mis, gaat die door de beta software vol op de rem (collision warning) en veroorzaak jij een kettingbotsing met dodelijke gevolgen... is dan je verweer "ja, maar ik had wel een safety score van 100%, dus ik kan er niets aan doen"??
Kan je proberen, maar geen rechter gaat daarin mee. Verantwoordelijkheid ligt altijd bij de bestuurder. Dat maakt Tesla ook heel duidelijk samen met een hoop waarschuwingen. De hele reden voor die Safety Score methodiek is dat je aantoont dat je actief oplet en ingrijpt voordat de auto dat moet doen. Dus dat je juist aantoont defensief te rijden en niet vertrouwd op de failsafes. Als die failsafe namelijk moet ingrijpen verlaagt het je score.
Uiteraard moet je als bestuurder altijd op blijven letten, maar als de auto uit het niets op de rem gaat door een onterechte collision warning, kun je daar als bestuurder toch niets tegen doen? Remmen is remmen, je kunt dat niet overrulen door extra gas te geven..
Dat kan dus wel. Als een Tesla remt dan kan je deze altijd overrulen.
Ook bij een noodstop? Dat lijkt me sterk.

Denk jij niet aan het voorzichtige remmen als de auto ziet dat de ingestelde afstand van de cruise control te klein word?
Dat is heel wat anders dan een noodstop omdat de auto denk dat je een botsing krijgt binnen 1 seconde.
Zie bulletpunt 2 uit de handleiding:
[...]Automatic Emergency Braking does not apply the brakes, or stops applying the brakes, when:

* You turn the steering wheel sharply.
* You press and release the brake pedal while Automatic Emergency Braking is applying the brakes.
* You accelerate hard while Automatic Emergency Braking is applying the brakes.
* The vehicle, motorcycle, bicycle, or pedestrian is no longer detected ahead.
[...]

[Reactie gewijzigd door Caelorum op 22 juli 2024 14:30]

Dat is dan knap gevaarlijk.
* You accelerate hard while Automatic Emergency Braking is applying the brakes.
Hoe vaak zie je wel niet situaties waarin (vaak oudere) mensen per ongeluk op het gaspedaal trappen ipv de rem en daardoor een huis in rijden?
Vaak uit een simpele situaties als parkeren. Dat zou de Tesla dan niet tegenhouden?

Dat ie overigens ook uitschakeld als je op de rem trapt en die weer loslaat is ook nogal dubieus. Vaak zal je tegelijkertijd met de AEB remmen. We zullen maar hopen dat het systeem wat slimmer is dan wat hier beschreven is.
Tegelijkertijd remmen is dan natuurlijk geen issue, zolang je maar niet loslaat. Het hard accelereren zal vermoed ik wel een vertraging inzitten. Overigens is het hele idee van die AEB dus ook niet om een botsing te voorkomen. Het systeem grijpt pas in op het moment waarop een botsing al niet meer te voorkomen is, om te zorgen dat de inzittenden het nog overleven.
Ik vermoed overigens dat als je hard gas geeft en die ingrijpt je eerst los zal moeten laten en opnieuw intrappen voordat die er iets mee gaat doen. Lijkt me de enige manier om je en controle te geven en het risico te verminderen op dat soort ongelukken.
Maar hoe zie ik dat dan bij een noodstop?
De auto gooit het anker uit maar in paniek drukt de bestuurder op de accelerator ('gaspedaal') dus dat remmen gaat dan niet door?
je kunt dat niet overrulen door extra gas te geven..
ja dat is dus precies hoe het wel werkt.
Kan je proberen, maar geen rechter gaat daarin mee. Verantwoordelijkheid ligt altijd bij de bestuurder
Dat is de mening van Tesla. Wat een rechter hiervan zal vinden weet je pas echt als een rechter een uitspraak heeft gedaan. Vooraf zeggen dat een rechter iets zal zeggen vind ik behoorlijk ondoordacht. Gewoonlijk hebben beide partijen een zekere mate van verantwoordelijkheid.
Heel autosteering/enhanced autopilot is een beta.
Straks gaat er iets mis, gaat die door de beta software vol op de rem (collision warning) en veroorzaak jij een kettingbotsing met dodelijke gevolgen...
Dan zit je niet op te letten. Ik heb soms phantom braking bij een matrix bord boven de snelweg, maar dan trap ik snel het pedaal in en ben ik weer onderweg.

Maar dit hebben andere auto's ook hoor. Aangezien AEB tegenwoordig verplicht is op nieuwe autos ga je dat ws ook vaker meemaken, rare remacties op een random weg.
Die score zegt totaal niet, uitsluitend of je wel of niet wordt toegelaten.
Uiteindelijk zal het de bedoeling zijn dat je nog steeds met je handen aan het stuurt zit om meteen in te kunnen grijpen.

Full self driving level 5 klink leuk maar Musk beloofd het al een paar jaar en wordt steeds door de realiteit ingehaald. Die laatste paar %, of straks tienden van een procent zijn steeds moeilijker te halen. Level 5 zal denk ik nog een paar jaar duren voordat het echt betrouwbaar is.

Je geeft idd al aan vol op de rem voor niets, dan heeft die score er niets mee te maken maar zal Tesla een probleem hebben om uit te leggen waarom de auto dat deed. Je verzekeraar zal dan ook eerst het systeem moeten goedkeuren, want in de kleine lettertjes zal wel een uitzondering staan. Maar wie weet verzekerd Tesla haar auto's straks gewoon zelf.
In België wordt het in elk geval al aangeboden: https://www.tesla.com/nl_BE/support/insuremytesla :)
[quote]InsureMyTesla is een uitgebreid verzekeringsaanbod ontwikkeld samen met de verzekeraar Helvetia [/quote
Niet zelf dus maar in samenwerking met een verzekeraar.
Dat is echter puur voor het besturen.
Wettelijk is het heel simpel als je autopiloot gebruikt, niet oplet, handen niet het stuur, ongeluk maakt dan zal de verzekeraar de schade gewoon bij jou claimen, vergelijkbaar met dronken achter het stuur gaan zitten.
Het is natuurlijk duidelijk dat mensen heel hard hun best doen om deze score te halen (wat blijkbaar niet zo moeilijk is) om die FSD beta maar te krijgen. Dit hoort ook geen regulering te zijn door Tesla, maar door een onafhankelijke instantie.
Uiteraard gaan ze hun best doen, maar is dat erg? Ze moeten namelijk ook tijdens de beta hun best blijven doen, want anders wordt de toegang ze weer ontnomen.
Ja, maar het is natuurlijk wel vreemd dat Tesla dit allemaal helemaal zelf in de hand heeft. Zelfs als er een ernstig ongeluk gebeurd, dan heeft enkel Tesla toegang tot die gegevens. Dit soort proeven op de openbare weg mogen wat mij betreft wel wat meer gereguleerd worden en gecontroleerd worden door een onafhankelijke partij.

FSD is nu niet meer alsof je een kind achter het stuur zet en je zelf gaat ingrijpen. Je komt niet door de APK als je koplampverlichting niet helemaal symmetrisch is (best een dingetjes voor de Tesla Model S rijders), maar je mag wel met deze beta de weg op. Ik vind het bizar...
Ja, maar het is natuurlijk wel vreemd dat Tesla dit allemaal helemaal zelf in de hand heeft. Zelfs als er een ernstig ongeluk gebeurd, dan heeft enkel Tesla toegang tot die gegevens. Dit soort proeven op de openbare weg mogen wat mij betreft wel wat meer gereguleerd worden en gecontroleerd worden door een onafhankelijke partij.[...]
Wie zegt dat het niet wordt gecontroleerd door de NTSB? Iedere overheidsinstantie die data wil krijgen voor onderzoek van ongevallen kan deze bijv. krijgen. De NFI heeft zelfs een tool online gezet waarmee je zelf de logs van de auto kan uitlezen. Die hebben dus meer dan genoeg data als er iets gebeurd.
[...]FSD is nu niet meer alsof je een kind achter het stuur zet en je zelf gaat ingrijpen. Je komt niet door de APK als je koplampverlichting niet helemaal symmetrisch is (best een dingetjes voor de Tesla Model S rijders), maar je mag wel met deze beta de weg op. Ik vind het bizar...
Er is een reden waarom deze FSD Beta alleen in de VS actief is. Dit gaat nooit in Nederland gebeuren op deze manier. Overigens is deze FSD Beta nu beschikbaar voor een paar duizend mensen max. Niet voor iedereen.
Wie zegt dat het niet wordt gecontroleerd door de NTSB? Iedere overheidsinstantie die data wil krijgen voor onderzoek van ongevallen kan deze bijv. krijgen. De NFI heeft zelfs een tool online gezet waarmee je zelf de logs van de auto kan uitlezen. Die hebben dus meer dan genoeg data als er iets gebeurd.
Deze data is gecodeerd (bron) en de NFI heeft een manier gevonden om dit te kraken. Tesla gaf blijkbaar ook niet alle informatie vrij. Het NFI weet nu dus wat ze allemaal opslaan en dat bleek veel meer te zijn dan Tesla had aangegeven. Tesla speelt dus helemaal geen open kaart.

Tesla gebruikt "jouw data" ook gewoon in rechtszaken die je tegen Tesla voert. Teslaclaim heeft Tesla gedaagd i.v.m. de overmatige problemen die een specifieke Tesla had (was een proefproces voor de overige rechtszaken). Daarbij werd Teslaclaim geconfronteerd met de gegevens van hun Tesla die werden gebruikt om aan te geven dat de auto "misbruikt" was. Of Tesla wel/niet gelijk had hierin maakt mij niet zoveel uit. Maar het feit dat ze de data uit jouw auto gebruiken tegen je is natuurlijk een beweging die helemaal de verkeerde kant uit gaat.
[...]

Deze data is gecodeerd (bron) en de NFI heeft een manier gevonden om dit te kraken. Tesla gaf blijkbaar ook niet alle informatie vrij. Het NFI weet nu dus wat ze allemaal opslaan en dat bleek veel meer te zijn dan Tesla had aangegeven. Tesla speelt dus helemaal geen open kaart.[...]
Tesla heeft altijd vrijgegeven waarom werd gevraagd. Alleen wel voor specifieke tijdsbestekken. De opmerking van de NFI slaat op dat je niet altijd weet wat je moet opvragen qua tijd. In de NFI github pagina staat zelfs genoemd dat de NTSB gewoon alles heeft gekregen (maar vertaald voor eenvoudige verwerking, dus geen ruwe data). De tool is er gewoon zodat ze makkelijk alles kunnen uitlezen en koppelen zonder dat ze Tesla moeten lastig vallen of ze moeten gaan geloven op hun woord. Er is geen sprake van dat Tesla gegevenspunten bewust of moedwillig heeft achtergelaten. Of in ieder geval geen indicatie vooralsnog.

Sterker nog. Jouw artikel geeft ook al aan dat ze geen indicatie zien van bewust achterhouden:
[...]Tesla maakt het voor eigenaren wel mogelijk om hun gebruikersdata op te vragen, inclusief beeldmateriaal van voertuigcamera’s bij een ongeval. “Ook al laat Tesla hierbij niet alle details zien van de beschikbare data, veel fabrikanten kunnen hier toch een voorbeeld aan nemen"[...]
.
[...]
Tesla gebruikt "jouw data" ook gewoon in rechtszaken die je tegen Tesla voert. Teslaclaim heeft Tesla gedaagd i.v.m. de overmatige problemen die een specifieke Tesla had (was een proefproces voor de overige rechtszaken). Daarbij werd Teslaclaim geconfronteerd met de gegevens van hun Tesla die werden gebruikt om aan te geven dat de auto "misbruikt" was. Of Tesla wel/niet gelijk had hierin maakt mij niet zoveel uit. Maar het feit dat ze de data uit jouw auto gebruiken tegen je is natuurlijk een beweging die helemaal de verkeerde kant uit gaat.
Klopt. Eigenlijk zou er gewoon een knop moeten komen waarmee je de logging van de afgelopen 30 dagen kan opvragen van je auto. Maar wellicht dat dat er nog wel komt. Dan sta je weer op gelijke voet.
Ik denk ook dat het goed is dat het NFI alleen data kan onttrekken na een gerechtelijk bevel. Nu kunnen ze dat blijkbaar ook zonder, maar de vraag is natuurlijk hoe rechtsgeldig dat in de rechtszaal is. Het NFI weet nu wel wat ze kunnen opvragen en dat maakt vragen een stuk makkelijker.

Het probleem is vooral dat je zelf geen eigenaar lijkt te zijn van de data die je auto genereerd en dat Tesla dit ook gewoon tegen je gebruikt als hen dat uitkomt (Teslaclaim zaak). Ik kan die data niet gebruiken om te bewijzen dat ik altijd rustig en netjes rij met de auto en dat toch de draagarmen er binnen 80.000km onderuit rammelen. Daar zit gewoon wat fout (IMHO).
Daar ben ik het helemaal mee eens. Gelukkig kan je ook nog veel zelf regelen door middel van een datalogger zoals TeslaMate, maar die data zou gewoon sowieso al opvraagbaar moeten zijn voor de eigenaar (en bestuurder) van de auto.
Je komt niet door de APK als je koplampverlichting niet helemaal symmetrisch is
Sorry what? Geen enkel auto heeft een symmetrisch afstraal patroon. Dat is het hele punt van goede afstelling. de meeste auto's hebben links een lagere afstraling om zo tegemoetkomend verkeer te ontzien en rechts een hoger patroon zodat je daar meer zicht hebt op kruisend verkeer, fietsers, en markeringen.
Het gaat niet om het afgegeven lichtbeeld, maar het vooraanzicht van de verlichting. Bijna elke Tesla Model S (met LED verlichting) heeft problemen met zijn dagrijverlichting. De LEDs kunnen hun hitte niet kwijt en daardoor gaan ze kapot. De verlichting ziet er van voren niet meer symmetrisch uit en dat is APK afkeur (bron). Een nieuw koplamp-unit kost ongeveer €1.500 en reparatie van de unit is tot nu toe nog niet mogelijk gebleken. Buiten garantie is dit wel erg zuur voor een scheel kijkend koplampje.

Bij mijn Tesla (65.000km op de teller) is zowel links en rechts bij 35.000km reeds vervangen. De linker is nu alweer kapot en ik wacht tot de auto bijna uit garantie gaat en zal het dan laten vervangen. Ik hoop eigenlijk dat de rechter er ook nog weer aan gaat, zodat ik er weer even tegenaan kan. Overigens ontkent Tesla hierin ook weer elke aansprakelijkheid.

Er zijn al diverse revisies geweest van de koplamp, maar ook van de laatste revisie beginnen de eerste koplampen alweer uit te vallen. Let maar eens op hoe vaak je een Model S ziet overdag, waarvan de dagrijverlichting niet klopt. De Model X heeft deze LEDs aan de onderzijde en blijkbaar werkt het dan wel goed. Daar komt dit amper voor...
Aha op die fiets.

Om eerlijk te zijn zou ik ze dan allebei gewoon door laten fikken. Zolang de normale koplampen werken is er niks aan de hand. Dagrijverlichting is sinds 2011 verplicht op voertuigen, maar je mag het eigenlijk helemaal niet gebruiken en is door de wetgever in eerste instantie kompleet stompzinnig ingevoerd (achterlampen schakelen bij heel veel auto's niet mee en daarmee zie je dus vaak auto's rondrijden met de verkeerde verlichting aan).

Maarja. waarschijnlijk worden die lampen ook als "parkeerlicht" gebruikt? Want dat is wel verplicht. Bij sommige auto's is het een heel klein beetje vermogen op de komplamp, maar met LED is dat lastig te reguleren.
So what dat ze toegang hebben tot de beta, de bestuurder blijft verantwoordelijk voor de auto te besturen. Rijd je selfdriving software te hard, dan krijg je een bon en niet Tesla. Veroorzaak je een ongeluk, dan ben jij het haasje.
Beta houd in dat nog niet alle bugs eruit zijn.
Als een ongeluk veroorzaakt word door software die nog in een test fase zit. Dan mag er gereageerd worden zoals met de stint. Allemaal van de weg.
Beta houd in dat nog niet alle bugs eruit zijn.
Een Final houd nog steeds niet in dat alle bugs eruit zijn...
Dan kan letterlijk elke auto wel van de weg af. en laten we dan ook maar stoppen met het gebruik van computers op letterlijk elk andere vlak in de maatschappij waar het potentieel mis kan gaan, want tjah, software is helaas nooit bug-vrij.
Tesla heeft het juridisch vast prima dichtgetimmerd. Reden te meer om het als bestuurder links te laten liggen...
Er zijn zat zaken die je als bestuurder beter links kan laten liggen. Te hard rijden bv. en dan bedoel ik niet onbewust. Rijden met alcohol op, die hebben we waarschijnlijk meer dan het aantal Tesla beta testers... Rijden met je smartphone in je hand, etc.

In dit geval wordt er door Tesla door de grut heen gezeefd, #1 een Tesla hebben die de software kan draaien (die karren zijn niet goedkoop), #2 een zo goed als perfecte score hebben qua rijgedrag met die Tesla. Zelfs als mensen heel hard proberen die te halen, dan nog zal het gros dat niet consistent kunnen doen, slechte gewoontes afleren die je al jaren (zo niet decennia hebt) is heel, heel erg moeilijk voor de meeste mensen.
Op alles wat je hebt genoemd staan ook flinke boetes en potentiële rijontzeggingen. Daarbij is het natuurlijk niet zo dat je extra onveiligheid maar moet accepteren, omdat er al onveiligheid bestaat.

Het feit dat je geld genoeg hebt om een Tesla te kopen wil nog niet zeggen dat je ook het verstand hebt om er fatsoenlijk mee te rijden. Ik zie overigens al veel Tesla rijders voorbij komen -op internationale fora- die deze functie hebben. Die 100% score is echt niet zo heel moeilijk...

Overigens zit in de Tesla Nederland / België facebookgroep een Nederlander die in de VS woont die het heeft. Die heeft er wel leuke video's van. Ik ben nog niet heel erg onder de indruk.
Het feit dat je geld genoeg hebt om een Tesla te kopen wil nog niet zeggen dat je ook het verstand hebt om er fatsoenlijk mee te rijden.
Natuurlijk betekend niet dat als je het geld hebt, je er ook mee kan rijden, daarvoor dat score systeem. Het gros van de Tesla kopers is geen multimiljonair of rijker om het te behandelen als een wegwerp artikel. Terwijl er zat baggerbakjes op de weg zijn die meer waard zijn als schroot dan als auto... Dat betekend natuurlijk niet dat dit verstandige automobilisten oplevert, maar het gros zal daarmee een heel stuk voorzichtiger zijn dan een bakkie van een paar duizend euro...

Ik denk trouwens dat bij bedrijfsauto's dit alleen kan/mag worden aangezet met toestemming van de eigenaar en niet de gebruiker van de auto. Liability is een issue.

Er zijn ruim 2 miljoen Tesla's geleverd, hoeveel beta testers zijn er? Volgens de gegevens 2000, waarvan veel werknemers en enorme Tesla fans (die wellicht hun Tesla zien als heilig voorwerp), daar komen er zo een 1000 bij (volgens de Tesla planning, tegen die tijd zullen er een hoop meer Teslas zijn). Dat is 1 op de 1000 Tesla rijders... Dat is 1 promiel of 0,1%. Bij de laatste meting uit 2019, rijd 2,3% van de Nederlandse autorijders met een slok op in de weekend nachten. De kans dat je in een ongeluk komt met een Tesla door beta software zou (als het in Nederland zou mogen draaien) zo significant lager zijn dan in een ongeluk komen met iemand met een slok op...

We hebben het niet over wat boetes, rijontzeggingen of zelfs gevangenisstraffen oplevert, maar over wat verstandig/reden is voor een bestuurder om iets links te laten liggen. Als boetes, rijontzeggingen of zelfs gevangenisstraffen voor een niet klein deel van alle bestuurders al niet voldoende is om zaken niet te doen, dan zal een beta links laten liggen ook niet onder dat 'verstandige' gedrag vallen. Echter zijn de tests zo strikt en de interesse zo laag dat er maar ~2000 beta testers zijn, dat is imho erg weinig. En kennelijk is de enige manier om er meer te krijgen om de eisen omlaag te brengen van de tests (wellicht niet het beste idee wat Tesla ooit heeft gehad)...
Juridisch dichtgetimmerd, klinkt leuk totdat het in de USA bij een jury komt die er toch even anders naar kijkt,
De score is een voorbode op de tesla verzekering. Hoe hoger je score hoe lager de premie die je betaalt. Dat kan 30 dolar per maand schelen.
Ook daar valt wat van te vinden. Enkel Tesla heeft toegang tot die data, dus kan je een verzekering aanbieden die een concurrent niet kan. Daarmee zullen enkel de veilige rijders naar Tesla gaan en de mindere goden naar andere verzekeraars. Gevolg is dat de andere verzekeringen nog duurder worden t.o.v. Tesla. Daarna kan Tesla hun marges opkrikken en uiteindelijk is iedereen alsnog duurder uit.

Hoe leuk dit ook allemaal klinkt. Het feit dat dit soort gegevens bij één commerciële partij komt te liggen is gewoon iets dat je niet moet willen. Vanuit privacy-oogpunt, maar ook vanuit een gezonde marktwerking...
Wat is het probleem?
Er is ook van alles op aan te merken over verzekeraars. Tesla schudt de oude conglomeraten op. Wat ik begrepen heb is Tesla de verzekeringstak begonnen omdat de klanten klaagden dat de verzekeringspremie zo hoog was. Het begint dus bij de bedrijven die Monopoly positie hebben en nu aan hun poten wordt gezaagd.
Ik heb er ook geen probleem mee dat er iemand opstaat om de huidige markt op te schudden. Maar als Tesla fair-play zou spelen dan zouden ze derden ook dezelfde data moeten geven en niet enkel hun eigen verzekeringstak moet bevoordelen. Dan heb je enkel voor jezelf een leuk verdienmodel bedacht en dan doe je het niet voor je berijders. Maar ik snap dat het marketingtechnisch wel fijner klinkt...

Het probleem is dus dat Tesla als verzekeraar minder risico kan lopen en dus lagere prijzen kan geven. Maar zij kunnen dat als enige en daar zit de concurrentievervalsing. Daar word je als consument alleen maar slechter van. Maar dit is zoals big-tech werkt. Ook Amazon hanteert deze filosofie. Die hebben zoveel data dat ze precies weten wat interessant is tegen welke prijs. Vervolgens maken ze zelf de artikelen waarvan ze precies weten wat de risico's zijn en concurreren zo de rest uit de markt. Als de rest kapot is gaan de marges omhoog en zijn de kleinere partijen kapot, de consument de dupe en is enkel Amazon de lachende derde.

[Reactie gewijzigd door BugBoy op 22 juli 2024 14:30]

Fair play? Tesla wordt aan alle kanten aangevallen door de bestaande bedrijven. En dan heb je het over fair play. Dit bedrijf doet op millieu veiligheid meer dan je zou verwachten. Overigens als hun fsd perfect werkt willen ze wel licentie voor uitbrengen. Simpelweg omdat Elon snapt die niet iedereen een Tesla wilt. En voor de veiligheid het beter is dat het voor iedereen beschikbaar is.
Dat is weer een hele andere discussie... Maar de enige "aanval" op Tesla zou je kunnen zien in de EU-regelgeving die de mogelijkheden voor rijassistentiesystemen inperkt (zoals de maximale stuurhoek). Verder valt dat best wel mee en lijken Elon Musk en VW de laatste tijd de grootste vriendjes te zijn.

Maar jij denkt dat het een goede zaak is dat Tesla alle data mag verzamelen van een auto die jij volledig hebt betaald? Met als gevolg potentiële concurrentievervalsing (aanbieden verzekering), rechtsongelijkheid (zie Teslaclaim zaak), ...?
Ik zit in het kamp liever geen data.
Maar je komt er niet onderuit. Of dacht jij dat al hun concurrenten met EV geen data verzamelen? Of ga jij je smartphone niet gebruiken omdat google/apple al je data verzamelen? Je kiest Tesla uit omdat het bedrijf je niet bevalt maar ik kan genoeg andere bedrijven noemen die je wel graag gebruik en al je data leeg trekken.
Ik ben niet zo naïef om te denken dat de rest het beter zal doen. Data is gewoon veel waard voor bedrijven en daarom zie je die enorme data-honger. Het probleem is meer dat iedereen in de modus staat dat het allemaal fantastisch is. Google heeft een gratis zoekmachine, fotodienst, ... Tesla kan zelf rijden, biedt "goedkope" verzekeringen aan, ... Booking is zo handig om een hotel te boeken, ... Thuisbezorgd is niets duurder en kan er zo makkelijk bestellen, ...

Uiteindelijk kunnen enkel de grote bedrijven iets met big-data. Voor de kleinere bedrijven is het niet haalbaar en die zullen uiteindelijk uit de markt gedrukt worden. Die betalen allemaal dikke commissie en die zal uiteindelijk doorgerekend worden. De 12% van Thuisbezorgd is een fooi t.o.v. de commissie die een hotel aan Booking betaald. Ook de advertenties via Google komen uiteindelijk uit de portemonnee van de consument. Niks voor niks...
Dat klopt. Alleen bij Tesla is de doelstelling zsm op hernieuwbare energie. De manier hoe Musk via Twitter communiceert met gewone burgers doet geen enkel CEO. Klanten die met een idee komen en Elon zegt. Ja moeten er naar kijken. Het verwijderen van kobalt uit batterijen doet geen enkel bedrijf. Zelfs Apple niet die millieu zogenaamd hoog in vaandel heeft. Musk is er niet op uit de concurrentie weg te drukken maar samenwerken met hen om zsm meer EV op markt te zetten. En zoals ik het volg klopt het plaatje.

[Reactie gewijzigd door lighting_ op 22 juli 2024 14:30]

Eens dat de intenties van Elon Musk beter lijken te zijn dan die van een gemiddeld bedrijf. Aan de andere kant vind ik het speculeren met bitcoins van zijn kant zeer naïef (indien geen opzet) of bijna misdadig (pump en dump). Ook lijkt Tesla in de praktijk ook nog niet heel veel terug te geven aan intellectueel eigendom. OSS contributies (Linux) blijven achter en ook informatieverstrekking zodat derden reparaties kunnen uitvoeren wordt vrijwel niet verstrekt. Een aantal van deze zaken zijn verplicht, maar blijkbaar is er geen handhaving op.
De verzekeringspremie is ook zo hoog omdat Tesla zoveel geld rekent voor reparaties, en (vrijwel) geen derde partijen ondersteund in onderhoud/reparatie. Het is een mooi 'bijna' monopolie op onderhoud en reparatie.
Wat is dan het probleem als tesla zijn eigen verzekering mij is? Alle kosten komen bij hen terecht. Zijn ze niet goedkoper dan vertrekt de klant weer.
@lighting_ Dat is geen probleem, tenzij Tesla een voordeel heeft omdat ze weten hoe de klant omgaat met de auto. Als een ander dat niet kan bepalen dan is dat een oneerlijk voordeel van Tesla en zal er geen eerlijke concurrentie zijn.

[Reactie gewijzigd door BugBoy op 22 juli 2024 14:30]

Het feit dat Tesla geen onderdelen en/of informatie verstrekt aan derde partijen is overigens schandalig. Dat zijn ze gewoon wettelijk verplicht. Blijkbaar is er geen handhaving op dit vlak.
Daar is op zich niets mee maar alle kosten afwenden op de 'nette' rijder is niet de bedoeling van verzekeringen. Het was om schade te kunnen betalen die incidenteel voorkomt en extreem hoog kan uitvallen. Inmiddels is het een middel voor verzekeringsmaatschappijen om rijk te worden (dat was letterlijk nooit de bedoeling - een reserve opbouwen voor 'slechte' tijden wel).

Dus als straks een 'nette' rijder minder premie betaalt - wie bepaalt wat netjes is? De verzekeringmaatschappij? Dat is dus belangenverstrengeling. En daarbij komt: een nette rijder is misschien wel iemand die nooit de maximumsnelheid overschrijdt, langzaam in bochten tijdt en rustig optrekt maar toevallig geeft deze bestuurder nooit voorrang.... kan lang goed gaan als de ander altijd in de ankers gaat. Beetje apart om dan deze persoon te zien als nette rijder, terwijl het dus eigenlijk een brakke bestuurder is.

[edit:typo]

[Reactie gewijzigd door Tintel op 22 juli 2024 14:30]

In NL bestaat dat allang. Je betaalt elk jaar minder premie als je geen schade maakt. Er is volgens mij zelfs een algemene lijst van brokkenpiloten. Wat is het verschil met Tesla dan?
Dat is naar aanleiding van een niet 2-ledig uitlegbaar fenomeen: namelijk minder schade-claims.

En zelfs dan zie je de willekeur per maatschappij hoe deze omgaat met schadevrije jaren en een eventuele claim. Want na X jaar stopt de kortingsverhoging en bij 1 schadeclaim val je meerdere jaren (qua korting) terug.

Het grote verschil is dat het gedrag zelf wordt gecontroleerd en beoordeeld. En dat is pertinent foute boel. Zowel het controleren als het beoordelen [is ongewenst].

Dus als jij met jouw Tesla lekker aan het jakkeren bent op een landingsbaan zonder enig verkeer in de buurt, dan is dat dus laakbaar gedrag? Want dat verschil ziet het systeem dan wellicht niet.
Wat jouw mening is niet leidend. Je probeert je mening gewicht te geven door allerlei dingen bij of door elkaar te halen. Ieder staat zijn mening vrij.
Hoe bedoel je? Wat is mijn mening?
Bij verzekering gaat het er straks om als een auto level 5 heeft dan is er feitelijk geen bestuurder meer die verantwoordelijk is. Dan is de auto cq. fabrikant /software verantwoordelijk als het misgaat.

voor verzekeraars betekend dat, dat ze het hele systemen moeten gaan beoordelen of het betrouwbaar genoeg is om te verzekeren. Maar dan nog is er de vraag als het fout gaat, verzekeraar keert uit maar bij een software fout kan de verzekeraar dan weer bij de fabrikant gaan aankloppen.
Dat tesla zelf wil verzekeren is leuk maar dat staat los van level 5 waar we naartoe gaan en de problematiek om dat te verzekeren.
Optrekken zit er “toevallig” niet bij, zou wat zijn dat Tesla dit onveilig markeert en zelf erg snelle auto’s op de markt brengen
Dat is uiteraard een heel goed idee, helaas is de mens "slimmer" of beter gezegd creatief want slim kun je het niet noemen: er is een soort spelletje ontstaan omdat men ontdekt heeft dat bijv. remmen voor een overstekende voetganger of fietser minpunten oplevert. Gas bijgeven en zo net ervoor langs gaan is beter voor de score.

"some Tesla drivers were discussing on Twitter how they engaged in unsafe driving practices, such as coasting through stop signs or accelerating through yellow lights, to avoid lowering their score from braking too hard."

Zie https://www.consumerrepor...safe-driving-a3816355048/
Inderdaad en niet te vergeten is Tesla de eerste die hier ook gebruik van de mobiele telefoon achter het stuur kan monitoren. Waarom komen andere fabrikanten hier niet mee?
Er zitten verschillende beveiligingen in dat je lichte druk op het stuur moet blijven uitoefenen (handen aan het stuur) ed.
Dat is te foppen als je wilt, maar dan ben je echt bezig met het omzeilen van de beveiligingen.
In de VS gebruiken ze tegenwoordig ook de camera. Als je wegkijkt van de weg of een telefoon vast hebt zal de auto meteen een tegendruk op het stuur willen voelen. Het is daar dus nog lastiger om niet op te letten.
Ook als je losjes je handen aan het stuur hebt en naar de weg kijkt, ben je veel minder oplettend dan iemand die actief stuurt.
Dat is onvermijdelijk zodra een systeem het in de meeste gevallen goed doet. En juist dat maakt het zo gevaarlijk.
gezien je dat zo stellig meldt, doe eens een linkje naar een onderzoek met bewijs?
Ik zeg dat gras groen is en jij vraagt naar onderzoek met bewijs...

Wil je nou werkelijk beweren dat jij dit echt niet weet?????

Je had natuurlijk 2 seconden kunnen zoeken en dan had je dit gevonden van MIT
https://www.sciencedirect...01457521003791?via%3Dihub
Ik lees toch echt:
Visual behavior patterns change before and after AP disengagement. Before disengagement, drivers looked less on road and focused more on non-driving related areas compared to after the transition to manual driving. The higher proportion of off-road glances before disengagement to manual driving were not compensated by longer glances ahead.
In deze conclusie staat dat er verschil is in glances tussen het rijden met en zonder AP. Nergens in deze conclusie staat dat mensen minder oplettend zijn. Glances, dus waar ze kijken, en oplettendheid zijn niet dezelfde dingen. Causaliteit tussen deze 2 mag je dus ook niet zomaar verwachten. Wat hier boven ook al gesteld is: het kan best zo zijn dat door AP je meer tijd over hebt om naar de belangrijke dingen te kijken. Hierdoor veranderd ook je kijk gedrag, maar dat hoeft dus niet perse negatief te zijn. Het kan best zijn dat nu alle glances om te sturen vervallen, maar niet de glances om op te letten. Onderaan de streep kun je alleen maar wat zeggen over glances, dus waar de blikken heen gaan, niet over oplettendheid. Dat weet jij niet, dat weet ik niet, daar is gewoon meer onderzoek voor nodig. Het is sowieso niet vergelijkbaar met de stelling dat gras groen is.

Daarbij, lees ik nu goed dat Side windows & mirrors, Rearview mirror worden geteld onder off-road glances?

[Reactie gewijzigd door cmegens op 22 juli 2024 14:30]

Dat onderzoek is over 192 ritjes gedaan, met welgeteld 19 bestuurders.
Daarnaast zegt het onderzoek niets over het verschil tussen auto's met en zonder AP, maar alleen over het gedrag als AP aan staat, en het gedrag als AP uit staat en dan zelfs nog alleen de periode er vlak na. Juist wanneer de bestuurder zelf AP heeft uitgezet wat uiteraard niet zonder reden is gedaan, want men neem bewust het sturen weer over om iets 'speciaals' te gaan doen.
Daarbij gaat het hier om AP van 2016 tot 2019. De software waar hier in het nieuwsbericht over geschreven wordt is enkele tientallen grote versies verder dan dat.

Het is nogal wat om dat meteen te extrapoleren tot jouw stelling, en dat doen de schrijvers van die paper dus ook niet.
Dat is het echte gevaar met dit systeem. Het systeem is dusdanig goed dat je ook nog kan rijden als je moe bent. Als je al alert bent helpt het systeem echter nog steeds wel enorm. Ik heb nu meer tijd om in de spiegels rondom me te kijken en zo een beter overzicht van de potentiële gevaren rondom mij. Ik ben nu ook beter in staat om snel te beslissen of ik uitwijk of een mogelijke botsing met degene achter me moet veroorzaken.
Wat alleen nog wel zo is, is dat deze systemen nog niet echt goed de alertheid van de bestuurder kunnen inschatten. Met als gevolg dat als je moe bent je nog steeds erin kan rijden, maar eigenlijk niet meer zou moeten rijden.
Aan de andere kant zie ik nog steeds meerdere keren per jaar iemand zowat de vangrail inrijden met zijn oude diesel, omdat ze weer eens in slaap zijn gevallen achter het stuur. Dus dat is niet Tesla eigen.
omdat ze weer eens in slaap zijn gevallen achter het stuur
Ik vermoed dat tegenwoordig eerder het 'mobieltje' de aandacht trekt...

Maar goed. Daarvoor zijn die systemen inderdaad prima. Maar zodra je minder aandacht gaat geven (omdat dat het kan) zul je moeilijker aandacht kunnen geven als het opeens wel nodig is.
Inschattingstijd / beoordeelingstijd tesamen met reactie tijd nemen dan toe.
Dus wegkijken naar je radio en de auto grijpt in?

En ook met voldoende tegendruk is het prima mogelijk om niet op te letten.

Niet opletten is altijd makkelijker dan wel opletten.... Strak vooruit kijken met de blik op oneindig en het stuur vastklemmen is geen oplettende bestuurder....
De software doet niets meer dan wat er legaal toegestaan is. Er is dus geen sprake van 'testen' op de openbare weg. Tesla's AutoPilot is niet veel meer dan lane assist dat je in elke moderne auto kunt krijgen.
Ja sorry voor de aanrijding en uw jarenlange revalidatie, er zat een bugje in de beta software waardoor uw auto ineens links ging rijden maar dit wordt met de volgende update verholpen!
Daarom moet je altijd zelf opletten. Daar waarschuwen ze je voor en ze checken of je oplet/stuur vast houdt.
Noem het dan geen Autopilot of "Full self driving software", want dat "full self driving" betekent dat het zelf kan rijden. Ik heb vanaf het begin een probleem gehad met de term "Autopilot", het wekt verwachtingen die het (nog) niet kan waarmaken.
In NL is het dan ook nog geen FSD, en de rest van de beperkingen komt door EU regels. Als die regels niet zo zouden zijn, was het al een heel stuk bruikbaarder, zoals in de USA.
Maar hier hebben we helaas een sterke lobby gehad van Europesche merken die niet snappen hoe het moet en nog 20 jaar terug in de tijd leven :+
"Voorsprong door techniek" roepen ze dan...

Juridisch ben je als bestuurder verantwoordelijk voor het voertuig.
Je gaat niet in op mijn punt: als je iets een naam geeft die suggereert dat het je auto kan besturen, wek je bij een leek de suggestie dat hij een boekje kan gaan lezen terwijl de auto naar de bestemming rijdt. Dan kun je nog 100 waarschuwingen tonen, maar je begint 1-0 achter. Bovendien zal een consument al snel denken "Amerikaans bedrijf, die waarschuwen me ook dat ik geen kat in de magnetron moet drogen, dus zo'n waarschuwing zal wel".

Verder is het natuurlijk compleet irrelevant dat het in NL niet uitgerold wordt, het gebeurt elders wel.

[Reactie gewijzigd door Grrrrrene op 22 juli 2024 14:30]

Autopilot in een vliegtuig heeft ook supervisie nodig dus wat dat betreft een prima vergelijking. FSD zou in de toekomst wel volledig zelfrijdend moeten worden maar de beta heeft net als autopilot supervisie nodig. Voor niet-softwareontwikkelaars kan de term beta inderdaad niet duidelijk zijn en ik ben het er mee eens dat het dan verkeerd opgevat kan worden.
FSD en het ding ziet het verschil niet tussen de maan en een stoplicht... Nou is dat bij mijn weten inmiddels opgelost, maar blijkbaar andere serieuze bugs niet. Ik zie niet in waarom de regels in de EU (die ik overigens niet ken!) dan beperkend zouden zijn.

Het is wel een probleem dat je juridisch verantwoordelijk bent voor iets wat je totaal niet begrijpt. En dat geldt dan direct ook voor een verzekeraar. Nou heeft die wel het voordeel van de grote cijfers, maar een claim van honderden miljoenen euro's of dollars omdat de FSD een klas schoolkinderen over het hoofd zag, daar wil niemand z'n vingers aan branden. Van menselijke bestuurders hebben ze de cijfers en kunnen ze dit risico uitrekenen en vervolgens (her-) verzekeren. Van FSD zijn die cijfers er niet.

Daarnaast is het verkeer in de VS totaal anders dan in bv. Europa, het aantal doden eveneens:
Er kwamen in 2020 18.800 mensen om het leven op de Europese wegen.
(NOS)
In 2014 vielen in de Verenigde Staten 32.675 verkeersdoden.[9] Dit komt neer op 103 per 1 miljoen inwoners. In 2015 was dit gestegen naar 35.200 doden, of 109 per 1 miljoen inwoners.
(wiki)

In Nederland 37 verkeersdoden per miljoen inwoners, in de VS is/was dit 109 doden per miljoen. Je kunt dan de situatie krijgen dat FSD voor de VS een goed idee is en dat je daadwerkelijk het aantal doden omlaag kunt krijgen, maar diezelfde FSD er in Nederland voor zorgt dat het aantal doden juist toeneemt. Ander verkeer, andere gebruiken, andere situatie. En misschien is het wel goed om bij FSD nog even de kat uit de boom te kijken
En bij Nissan heet het ProPilot.. Gaan we dan ook klagen dat het geen professionele piloot is? Of BMW's CoPilot? Of mercedes's DrivePilot?

Het is een productnaam.. Er is geen enkele Tesla rijder die op basis van de naam van het beestje denkt dat het gaat om een zelfrijdende auto. Het "gezeik" (pardon my french) over de naam komt altijd van niet-Tesla rijders.
En waarom hebben die bedrijven nu die termen gekozen ipv dynamic cruise control en lane trace assist?
Precies: omdat Tesla autopilot gebruikt en mensen dachten dat dat veel meer was dan dynamic cruise control en lane trace assist.
Dus hadden die fabrikanten weinig andere keus dan zelf ook zo'n misleidende naam te kiezen, om duidelijk te maken dat hun systemen gelijkwaardig zijn aan de "autopilot" van Tesla.

Het gezeik over de naam komt inderdaad van niet-Tesla rijders. Het gezeik over de gebrekkige implementatie van het systeem komt van de wel-Tesla rijders. (ghost-braking etc)
Het is een productnaam.. Er is geen enkele Tesla rijder die op basis van de naam van het beestje denkt dat het gaat om een zelfrijdende auto.
Nee, inderdaad :')
Inderdaad. Want er is verder nog nooit iemand achter het stuur in slaap gevallen natuurlijk, dat gebeurt alleen bij auto's die een zekere naam gebruiken voor hun rijondersteuningssysteem.

Dat deze pipo slaapt komt ofwel omdat ie te vermoeid is om te rijden.. of omdat ie het systeem kent en het risico durft te nemen. Niet omdat hij een onjuist beeld heeft bij de beperkingen van het rijondersteuningssysteem omdat ie zich puur en alleen heeft gebaseerd op de naam.
Je hebt wel eens gehoord van marketing. Namen gebruikt men in marketing en namen geven een bepaalde verwachting. De term auto piloot is in die zin al omstreden omdat auto de suggestie van automatisch geeft en piloot kun je als bestuurder zien. Daar zijn al veel discussie over geweest.
Stel je dan de vraag eens waarom zijn die discussies er, als iets duidelijk is zouden er geen discussies zijn.
CoPiloot is dan een betere naar naam aangezien co betekend dat er nog een ander is en dat ben jij.
Prima dat het een bepaalde verwachting geeft.. Dat is inderdaad onderdeel van reclame en marketing.

Mijn argument is echter dat zodra iemand een Tesla rijdt en AutoPilot gaat gebruiken er bij de 1e rotonde al achterkomt dat het systeem niets meer is dan lane assist omdat het systeem in de vlekken schiet, allerlei waarschuwingen en rode alarmen geeft en als je dan nog niets doet gewoon rechtdoor over de rotonde zal rijden.

AutoPilot zorgt er dus wel voor dat alle door afdeling marketing gemaakte verwachtingen als sneeuw voor de zon verdwijnen.

Je gaat mij niet aan het verstand brengen dat er mensen zijn die gaan slapen in een rijdende Tesla met AutoPilot *puur en alleen* omdat ze denken dat de auto dat kan op basis van de naam AutoPilot.

Mijn punt is dat die discussies komen van niet-Tesla rijders. Iemand met een Tesla komt op dag 1 al in aanraking met de beperkingen van het systeem en ziet binnen een kilometer dat het niet in de buurt komt van "self driving".

Op bepaalde stukken snelweg durf ik ook wel met de ogen dicht 20km te rijden met AutoPilot aan.. Maar er zijn ook stukken snelweg waar ik AutoPilot amper durf te activeren.. Zo rijdt AutoPilot in alle rust een afgesloten spitsstrook op op de ring Amsterdam en knalt als je niet oplet zo dwars door de slagboom.
Je gaat mij niet aan het verstand brengen dat er mensen zijn die gaan slapen in een rijdende Tesla met AutoPilot *puur en alleen* omdat ze denken dat de auto dat kan op basis van de naam AutoPilot.
Zou zeggen zoek eens op de ongelukken waar dat soms bijna wel het geval bleek te zijn. DE NTSB was er ook duidleijk over: https://www.theverge.com/...gnored-ntsb-crash-hearing

Maar goed dat is hier al zo vaak besproken.
Hoe is dat artikel relevant? Dat gaat over aangescherpte eisen en controle bij het in gebruik zijn van die systemen. Niet over de naam van een rijondersteuningssysteem.
Je schreef
Je gaat mij niet aan het verstand brengen dat er mensen zijn die gaan slapen in een rijdende Tesla met AutoPilot *puur en alleen* omdat ze denken dat de auto dat kan op basis van de naam AutoPilot.
Nou even zoeken youtube, geef je in tesla autopiloot sleeping.

https://www.youtube.com/watch?v=NHUZxeSUFUk
https://www.youtube.com/w...e.com/watch?v=YQKXl5x2Alc

dus voorbeeldjes van mensen die zijn gaan slapen terwijl het ding op autopiloot stond. In slaap gevallen ? of gewoon autopiloot aan en het zal wel werken.

Maar het gebeurt dus gewoon slapen met autopiloot.
Nogmaals.. Mijn punt is dat iemand dat niet puur en alleen doet omdat het product AutoPilot heet.

Deze grapjurken doen dit omdat ze menen dat de software ver genoeg is dat dit veilig kan. Die mening hebben ze niet gekregen doordat ze net 10 minuten geleden de showroom uit gereden zijn met die auto en denken 'Oh systeem heet autopilot? Dan kan ik slapen!'. Nee, tot die conclusie zijn ze gekomen omdat ze de software tig uren hebben getest.

Of in andere woorden: Deze filmpjes zouden er ook zijn als Tesla's AutoPilot de naam "DriverAssist" had geheten met dezelfde functionaliteit als er nu in AutoPilot zit.

Er is veel verontwaardiging over de naam AutoPilot, omdat het geen 'automatische piloot' is. Daar ben ik het wel mee eens, maar ik ben het oneens met de stelling dat bestuurders van een Tesla alleen door de naam AutoPilot denken dat het ding meer kan dan wat het kan.
Ik heb FSD gekocht in 2018 met de belofte van Elon dat het systeem binnen 1-2 jaar zelfrijdend zou worden. Kijk maar naar de communicatie vanuit Tesla.

Hoezo klanten misleiden:

https://teslamotorsclub.c...-promises-summary.235180/
Nu haal je 2 zaken door elkaar heen.. Je verward nu de naam AutoPilot, wat niet meer is dan een naam... Met een belofte dat het systeem binnen 1 a 2 jaar functionaliteit heeft die het na die periode nog niet heeft.

Op het niet nakomen van de beloftes ben ik het helemaal eens dat Tesla fout bezig is.. Maar dat heeft niets te maken met de naam van het product.
Als Teslarijder vindt ik Autopilot "Full Self Driving" Beta een zeer misleidende naam voor een level2 product wat rijdt als een beginnend bestuurder en een volledig gemonitord dient te worden door de bestuurder.
Ik rij zelf veelvuldig met EAP (enhanced auto-pilot), maar je gaat gewoon minder goed opletten als de auto 99% van de taken uit handen geeft. Dat stuurt vasthouden is leuk, maar ook dat is een automatisme geworden. De extra veiligheid die ik uit auto-pilot haal is meer dat ik tegenwoordig lekker achter een vrachtwagen blijf hangen i.p.v. dat ik er perse langsheen moet (rij veel provinciale wegen). Maar mijn oplettendheid is echt minder geworden.
En dat is ook volstrekt vanzelfsprekend dat je oplettenheid minder word.
Daarom dat ik me beperk tot dynamic cruise control. Dat is een handig hulpmiddel waarbij je nog steeds goed blijft opletten. De andere technieken zijn gewoon niet op het nivo waarop het verantwoord is minder op te letten.
Ik gebruik het alleen even kort op een recht stuk als ik een andere stuk muziek wil zoeken.
Dat ervaar ik zelf inderdaad ook. Ik ervaar echter ook dat ik minder vermoeid ben na een lange rit. Dus wellicht is het netto resultaat toch positief in de zin dat wanneer ik wel moet opletten dat ik dat dan beter doe dan wanneer ik de afgelopen 3 uur stuurcorrecties heb uitgevoerd.
Heb je zelf wel eens met Autopilot van Tesla gereden? Ik rijd jaarlijks 40.000km met Autopilot en kan je verzekeren dat op de snelweg het systeem beter rijdt dan ik.

Op de snelweg heb ik het 95% van de tijd aan staan. Het systeem reageert simpelweg beter en sneller dan ik ooit zou kunnen doen. Zeker bij kop-staart botsingen.

Is het feilloos? Nee, zeker niet. Maar daarom let ik ook zelf nog op. Ik heb echter al genoeg momenten gehad waar Autopilot situaties zag die ik niet zag. Ik keek bijvoorbeeld net in mijn spiegels om te zien wat er achter mij gebeurde waarna er voor mij iets gebeurde. Autopilot remde al voordat ik het door had.

Wij zijn als mensen ook niet feilloos. Wij maken ook (grove) fouten in het verkeer. We kunnen van een AP systeem geen 100% verwachten. Dat bestaat simpelweg niet.

Wel kunnen deze systemen veel beter worden/zijn dan mensen en laten we ons daar nou vooral op richten.
Kweenie. Dan rijd je wel heel bijzonder als je zo vaak verrast wordt, ik durf zo te stellen dat je moe bent.

Totaal onherkenbaar wat je hier zegt. Als je gewoon actief rijdt word je niet verrast, dan ben je zelf aan het anticiperen en dat betekent dat je helemaal niet 'te laat' kijkt, je wist al wat er voor je aan de hand was voordat je achterom keek. En dat betekent ook dat je al veel eerder dan Autopilot bijvoorbeeld het voetje van het pedaal zou halen. Veel geleidelijker nog, of juist niet, omdat de situatie dat vereist of omdat dat voor anderen ook wat handiger is. Zo ben je door je rijgedrag tegelijkertijd ook aan het communiceren met andere weggebruikers. Ruimte geven bijvoorbeeld. Zaken die een systeem helemaal niet doet.

De dynamiek is totaal anders bij 'systeem'-rijgedrag in het verkeer, wil ik maar zeggen. Als ik zie wat het effect is van alle ACC op nieuwere wagens (en de mijne) dan kan ik je zeggen dat dat vooral kuddegedrag in de hand werkt met daaropvolgende onoplettendheid, mensen die midden of links plakken met 80-90 km/h en meer van dat fraais. De doorstroming bevorderen doet dat zeer zeker niet. En ook Autopilots gaan niet automatisch het meest rechts rijden wanneer mogelijk. Ook Tesla-rijders geef ik geregeld groot licht omdat ze met 95 op een linkerbaan blijven rijden of gewoon simpelweg iets anders aan het doen zijn. Sowieso is het percentage totaal apathische bestuurders tegenwoordig aan het stijgen, en vrij hoog in het algemeen.

Het idee dat 'systemen beter rijden dan bestuurders' is een farce. Dat werkt pas als je je voertuig volledig uit handen gaat geven. Tot dat moment zijn we elkaar massaal voor de gek aan het houden met die onzin. De hamvraag moet zijn: wil je dat je auto door een systeem bestuurd gaat worden, of heb je de zaken liever in eigen hand. Ik weet het wel, doe mij dat tweede maar, ook al werkt een systeem feilloos. Feilloos betekent nog niet dat het in jouw belang werkt en ook niet dat het niet stuk kan.

Verder draagt autonoom rijden ook bij aan de dystopie waar we op af koersen, die van nul vrijheid en controle over wat je doet en hoe je het doet. Alles wat je niet meer zelf moet doen, verleer je, en daarmee verlies je controle. Een volgende generatie wil het niet meer, want kan het niet, te moeilijk, of teveel moeite. We worden aantoonbaar luier. Zelfs taalgebruik is aan erosie onderhevig op die manier, want 'je snapt toch wat ik bedoel, of niet?' is populairder dan correct schrijven en spreken. Ondertussen staan de d/t fouten zelfs op de reclame op straat, meer dan eens samen met een zinsbouw die een kleuter nog niet zou bedenken. Universiteiten ervaren dat studenten het ordenen van informatie minder goed kunnen. Opzoeken lukt, maar opslaan, waarom zou je? De zoekmachine is dichtbij. Allemaal handig, die informatie onder handbereik, maar netto weten we aantoonbaar minder dan vroeger, we hebben alleen meer informatie. Die op waarde schatten is velen niet meer gegeven, zie de social media uitwassen en hoe die de echte wereld in sijpelen. Het is allemaal meer van hetzelfde, autonoom denken en handelen wordt uit handen gegeven en door systemen gedaan. Ondertussen ontdekken we dat we systemen ontwikkelen die slechts een uiting zijn van onszelf (en onze valkuilen), getuige de ervaringen met ML en AI. Tunnelvisie.

Onder de streep worden we afhankelijker gemaakt, en dat staat op gespannen voet met vrijheid maar ook met persoonlijke ontwikkeling. Je moet dit helemaal niet willen, die servicemaatschappij waarin alles je aangedragen wordt en waarin gedrag wordt gedigitaliseerd.

[Reactie gewijzigd door Vayra op 22 juli 2024 14:30]

Het punt is denk ik - en ik kan dat wel bevestigen - dat je gewoon niet *altijd* oplet op de snelweg. Je raakt misschien eens afgeleid door een bepaalde tekst op een auto achter je.. Je kijkt misschien iets te lang naar de bestuurder die je net afkneep, of je bent op je navigatie een omleiding aan het opzoeken, etc, etc.

Dat zijn momenten waarop er iets mis kan gaan als je net op de verkeerde plek op het verkeerde moment bent. 99 van de 100 keer gaat het natuurlijk goed.. Maar die 100e keer is het dan wel AutoPilot die wel op tijd reageerde.
Wat jij beschrijf heet 'adaptive cruise control' evt aangevuld met 'emergency braking'. Daar heb je geen Tesla voor nodig. Het probleem ontstaat juist dat bij het nog meer uit handen nemen van het rijden mensen niet meer bewust met de weg bezig zijn en de kans op ongelukken door niet oplettende mensen stijgt en het systeem eigenlijk nog beter zou moeten zijn.
"If you design something to be idiot proof, the universe will design a better idiot."
Wat jij nu ACC en AEB noemt is in feite gewoon wat AutoPilot is. Dat is ook gewoon niet meer dan ACC met lane assist en AEB.

Neemt verder naar mijn idee niets weg van wat ik schreef.. dat er tijdens het rijden altijd momenten zijn dat je soms even afgeleid bent, en als dat net op het verkeerde moment gebeurt.. dat dan een ongeluk kan ontstaan.
Uiteraard, en dat betekent dat je probeert die momenten zoveel mogelijk te vermijden door bijvoorbeeld niet met je muziek te rommelen als je door een fietsstraat rijdt en zo ver mogelijk vooruit te kijken en denken.
"Kan gebeuren" is gewoon ontkennen dat je een ongeluk de kans geeft om te gebeuren.
Dus die 1% is het waard om zaken maar langzaam te verleren? Het een gaat immers niet zonder het ander - het systeem dat dient voor die laatste procent doet schade aan onze vaardigheid in de overige 99%. En zo ontstaan die tragische onbegrijpelijke ongelukken dus net zo goed.

En dat is exact het punt, waarmee en waardoor je afhankelijk wordt van die systemen. We gaan denken dat het nodig is vanwege ons eigen, zelf gecultiveerde gebrek. Ik doe daar iig niet aan mee... hier gaat de ACC en lane assist lekker uit en rijd ik de auto zelf. En het stomste is nog dat dat meer ontspanning geeft dan een auto die je steeds voor onnozele dingen wil corrigeren...

[Reactie gewijzigd door Vayra op 22 juli 2024 14:30]

Wil je dan ook geen ultrasone parkeersensoren voor en achter, geen achteruitrijcamera, geen synchrone koppeling en absoluut geen automaat, geen stuurbekrachtiging, geen "collision avoidance" systemen, geen ABS of ESP? Van al die systemen worden we ook afhankelijker en cultiveren we onze eigen gebreken. Het is een schande dat niemand meer kan dubbelklutsen of beter dan ABS pompend remmen tijdens een noodstop.
Een hulpje is nog steeds iets anders dan een stuk autonomie uit handen geven. Die lijn is niet volledig zwart wit, maar de verschillen lijken mij evident.

Ook met parkeersensoren wil je nog steeds zelf goed inparkeren bijvoorbeeld. Maar als de auto zichzelf in het vak zet, leer je nooit fileparkeren. De parkeersensor zou je daar echter juist bij kunnen helpen.

En ESP... tja. Autos genoeg gereden zonder... en de ID3 met ESP stond afgelopen jaar stil vanwege een paar cm natte sneeuw. Geen grip, geen power. Fijn ook, dat je m niet eens uit kan zetten dan.

Dus in de basis ja, iets meer nadenken over alles wat je voor je laat doen is best aardig. En steeds opnieuw bewijst automatisering dat je een handmatig alternatief moet hebben. Of dat het systeem eerst heel vaak stuk moet gaan voordat het volledig naar behoren ontworpen wordt.

[Reactie gewijzigd door Vayra op 22 juli 2024 14:30]

Je doet net of je al ik weet niet hoeveel aanrijdingen hebt voorkomen met autopilot. Ik kijk ook weleens in m'n spiegels maar dan zie ik nog altijd wat er voor me gebeurd.

Ben het verder wel met je eens hoor dat computers veel beter en sneller dan wij zijn, maar op de snelweg is dat natuurlijk wel een stuk makkelijker, waar iedereen rechtdoor rijdt en geen tegenliggers zijn. De snelweg is ook zonder Tesla's één van de veiligste plekken in onze infrastructuur, ondanks de hogere snelheden.

Waar het vooral fout gaat is waar verkeer elkaar tegen komt, 80-wegen, kruispunten, in de stad met voetgangers, fietser etc. en daar lijkt toch nog altijd voldoende mis te gaan. Maar zolang iedereen dezelfde kant op rijdt is er altijd weinig aan de hand. Hoeveel doden vallen er op de snelweg? En als het gebeurt is het vaak met files of werkzaamheden. De meeste vallen juist op de secundaire wegen.
Ik snap oprecht niet dat er niet beter getest wordt met dit soort updates. Een bug is vrij normaal bij een software upgrade, er zijn altijd scenario's die je niet kunt aftesten, maar een beta uitbrengen van een autopilot voor auto's die aan het normale verkeer deelnemen? Waarom mag dat überhaupt?

Je zou zeggen dat ze eerst zelf een flinke bak kilometers willen hebben gereden in verschillende landen (want het wegbeeld is overal anders), voor ze een update uitbrengen. En dan geen beta, maar een formeel gereleasede en goed geteste versie.

Voor de duidelijkheid: ik ben niet bang dat computers onveiliger zijn dan mensen in het verkeer, maar door Beta's te gaan releasen voor gebruik op de openbare weg, daarmee vraag je wel om een negatief beeld van autonoom rijdende auto's.

[Reactie gewijzigd door Grrrrrene op 22 juli 2024 14:30]

Waar moet je die nieuwe versies dan testen? Van rondjes rijden op een testbaan wordt een autopilot niet beter. Blootstelling aan daadwerkelijke situaties is vaak de enige manier. Van mensen die toegang krijgen tot de beta-versie wordt nadrukkelijk vereist dat ze alert blijven en hun handen aan het stuur houden wanneer ze de functie gebruiken zodat ze elk moment de controle kunnen overnemen. Van wat ik heb gezien letten deze mensen beter op dan de gemiddelde verkeersdeelnemer. Onder die voorwaarde heb ik er persoonlijk geen bezwaar tegen.
Waar moet je die nieuwe versies dan testen?
Gewoon, in het openbaar verkeer, met iemand van Tesla die achter het stuur zit en getraind is in wat het systeem kan en niet kan. Niet met nietsvermoedende consumenten die hun reistijd gebruiken om bij te slapen.
Van mensen die toegang krijgen tot de beta-versie wordt nadrukkelijk vereist dat ze alert blijven en hun handen aan het stuur houden wanneer ze de functie gebruiken zodat ze elk moment de controle kunnen overnemen. Van wat ik heb gezien letten deze mensen beter op dan de gemiddelde verkeersdeelnemer. Onder die voorwaarde heb ik er persoonlijk geen bezwaar tegen.
Ik vind dat een bedrijf consumenten niet voor haar karretje zou mogen spannen om die beta-test uit te voeren. Beta-tests voert het bedrijf zelf maar uit en het mag wat mij betreft pas verkocht worden aan consumenten als de Beta geslaagd is en het systeem door externe auditors veilig geacht wordt.
Zonder falen en proberen geen vooruitgang! Prima toch dat ze het terugtrekken?
Tot falen verkeersslachtoffers veroorzaakt. Ik geloof zo dat een computer beter kan rijden dan ik, een computer raakt immers nooit afgeleid en kan sensoren gebruiken die ik niet heb meegekregen van moeder natuur. Maar als je zoiets hebt gebouwd en wil testen in het veld, moet je dat toch echt als bedrijf zelf testen, voor je het voor veel geld verkoopt met als disclaimer "het is wel Beta he, dus voorzichtig!". De praktijk wijst uit dat mensen zich daar niks van aantrekken.
7500 Euro voor een stuk software?😳 Als het de veiligheid verbetert hoort het standaard te zijn.
In NLD is die €7.500 meer een pre-order zonder verwachte opleverdatum. Volgens de website binnenkort, maar dat stond er 3 jaar geleden ook al. Zo blij dat ik het niet besteld heb. Zit nu op 3 van de 5 jaar en ik verwacht echt niet dat FSD de komende twee jaar in NLD gaat komen.

Stel dat je 3 jaar geleden wel voor FSD hebt betaald. Als je over 2 jaar dan weer een nieuwe Tesla koopt, dan mag je die FSD waar je dik voor heb betaald zelfs niet eens over laten zetten naar je nieuwe Tesla. Kan je er gewoon weer opnieuw voor aftikken.
Als het software is die nog niet geleverd is kun je het dan niet afzeggen?

Ik neem aan dat je met 3/5 jaren een leasecontract bedoelt, dus dan heb de dadelijk 5 jaar extra betaald voor iets dat je letterlijk nog niet hebt? Dan moet je toch je geld terug kunnen krijgen?
Nee, ik heb de auto zakelijk gekocht maar na 5 jaar vervalt de 4% bijtelling en met 25% bijtelling wordt het wel wat duur om die auto te blijven rijden. Daarom zal die na 5 jaar waarschijnlijk wel verkocht gaan worden.

Het probleem met FSD is dat het geen aanbetaling is, maar je koopt gewoon iets dat nog niet volledig werkt. Nu moet ik wel zeggen dat dit bij de verkoop wel netjes gemeld werd door de verkoper, dus daarom heb ik het ook niet aangeschaft. Maar online staat nog steeds: "Binnenkort beschikbaar: Automatisch sturen op straten binnen de bebouwde kom" (bron). Tot die tijd krijg je enkel stoplichtherkenning. Voor €7.500 toch een dure optie, maar genoeg Teslafans die het er graag voor betalen...
Wilde dat net zeggen, bij mij gaf de verkoper van Tesla ook netjes en duidelijk aan, kun je beter nog niet aanschaffen omdat de functionaliteit beperkt is in NL.
Ja, maar het is natuurlijk wel vreemd dat het op de website al 3 jaar zo staat. Vooral de leaserijders die aan het einde van het jaar nog even snel het bijtellingsvoordeel naar binnen wilde harken hebben wellicht nooit een verkoper gesproken. De hele Tesla website is gewoon een vertaling van de US situatie met een kleine voetnoot er onder dat het mogelijk allemaal niet werkt in jouw land. Ik zou het voor het geld ook even navragen...
na 5 jaar vervalt niet de 5% bijtelling, die wordt dan bijgesteld naar het op dat moment geldende bijtellingstarief voor dat soort auto's. Dat kan 25% zijn, maar dat lijkt me wat sterk gezien de druk om elektrisch te gaan rijden dan waarschijnlijk nog steeds nodig is.
Ik denk niet dat men dit gaat aanpassen. Voor normale lease-auto's is 5 jaar wel zo'n beetje de maximum termijn. Die worden dan vaak toch verkocht. Voor zakelijke rijders die de auto zelf hebben gekocht (zoals ik) is het een optie om de auto naar privé te halen. Dan is de bijtelling ook verdwenen. Maar met de hoge prijzen die Tesla rekent voor onderhoud en onderdelen denk ik niet dat ik de Model S privé zou willen rijden. Dus praktisch gezien zullen de meeste Tesla's denk ik wel na max. 5 jaar van eigenaar gaan wisselen.
Tesla toont een lijst van de features die werken dus je weet wat je koopt. Ze teasen echter al jaren met 'binnenkort' extra features en die laten al lang op zich wachten. Denk dat geld terugkrijgen dus moeilijk wordt.
Ik ben geen juridisch expert, maar er zijn bedrijven voor minder aangeklaagd in een class-action lawsuit. Volgens mij maak je een goede zaak als je iets gekocht hebt wat is "beloofd" en het is niet binnen een redelijke termijn geleverd. ik denk ook wel dat in dit soort gevallen een rechter de definitie van "binnenkort" een naam kan geven. Het maakt dan niet uit wat de verkoper heeft gezegd. als je gebakken lucht verkoopt, dan hoort dat bestraft te worden onder de noemer oplichting.
Die FSD zal er nooit komen op basis van camera's alleen. Dit terzijde, ik dacht dat FSD ook recht gaf op hardware upgrades. Het blijft echter de vraag in welke mate zo een retrofit haalbaar is. Met mijn huidige wagen zit ik aan 9 jaar. Zoals je zegt is het de vraag of het interessant is als je de wagen maar 5 jaar houdt.

Ik heb een paar weken geleden een testritje gemaakt met een Model Y. Je hebt een enhanced autopilot voor 3.800 euro:
- Navigeren met Autopilot
- Auto Lane Change
- Automatisch inparkeren
- Summon
- Smart Summon
of 7.500 voor de FSD met als extra's:
- Alle functies van Standaard Autopilot en Enhanced Autopilot
- Verkeerslicht- en stopbordherkenning

Het viel met op dat het testmodel in een soort valet mode stond. Je kon bijvoorbeeld de frunk niet openen en ook de manier van stoppen niet wijzigen. Hier in Brussel hebben we sinds het begin van het jaar zone 30, maar de interface gaf 50km/u aan, wat dus eigenlijk wil zeggen dat hij eerder op Google maps zat denk ik. In ieder geval bizar dat zelfs maps na 10 maanden niet op de hoogte is.

Heeft FSD ook herkenning van snelheidslimieten aan boord of komt dat ook met Enhanced Autopilot?

Vroeger kon je regen aanpassen aan het stuur. Nu is dat blijkbaar niet meer mogelijk, correct? De regen stond vrij agressief afgesteld. Ik denk dat de enhanced autopilot dus zeker wel aangewezen is om te vermijden dat je te hard in de remmen gaat als je even het gaspedaal loslaat (phantom breaking buiten beschouwing gelaten).

Dus eigenlijk spreken we over een prijsverschil van 2.700 euro in dat geval of heb je ook al een hoop functionaliteit als je die enhanced autopilot ook niet neemt?
Regen aanpassen via het stuur heeft bij mijn weten nooit gekund (tenminste niet bij een 2018+ model). Het is enkel een optie in het menu. Overigens mis ik dat niet echt. De snelheidslimieten komen niet rechtstreeks uit Google Maps, maar uit een andere bron. Vaak is Google Maps eerder up-to-date dan mijn auto. Volgens mij is enkel de visualisatie via Google Maps.

Sinds 2020.36 schijnt er ook visuele snelheidsherkenning mogelijk te zijn, maar dit werkt niet in mijn AP2 model (2018). Wellicht dat je hiervoor de nieuwe hardware nodig hebt (zal de Model Y zeker hebben).

Overigens is alleen de auto lane-change van EAP de moeite waard. Automatisch inparkeren werkt zo traag dat het zinloos is (draait ook continu het stuur als je stil staat), summon is onhandiger dan zelf even instappen en NOA gebruik ik ook vrijwel niet (daarmee wil die continu zinloos van baan wisselen). Ik zou het lekker laten bij de standaard auto-pilot voor dat geld.
Als het de veiligheid verbetert hoort het standaard te zijn.
Het is zo makkelijk om dat te roepen, maar het is natuurlijk onzin. Er zijn zoveel zaken die de veiligheid verbeteren en die zijn ook niet standaard. Lane Departure Warning, automatisch dimmende binnenspiegels, botsing-detectie via radar, ESP, alcohol-detectie en blokkeer systemen, voorruitverwarming. Om er maar een paar te noemen.
Noem het maar onzin.

Over een kleine 2 maanden zijn vrijwel alle features die jij opnoemt letterlijk verplicht in alle nieuwe auto's in de EU:
  • intelligente snelheidsondersteuning
  • ondersteuning voor de installatie van een alcoholslot
  • vermoeidheids- en aandachtsdetectiesystemen
  • geavanceerde waarschuwingssystemen voor concentratieverlies
  • noodstopsignalen
  • achteruitrijdetectiesystemen
  • datarecorders voor incidenten
  • accurate bandenspanningscontrole
  • geavanceerde noodremsystemen
  • systemen voor rijstrookassistentie in noodsituaties
  • grotere botsbeschermingszones voor het hoofd die ervoor zorgen dat er minder ernstig letsel wordt opgelopen bij botsingen met kwetsbare weggebruikers, zoals voetgangers en fietsers.
EU introduceert strengere veiligheidsnormen voor auto's

*Kleine aanvulling:
ESP is sinds 2014 overigens ook al wettelijk verplicht voor alle nieuwe auto's in de EU.

[Reactie gewijzigd door drdelta op 22 juli 2024 14:30]

Ingehaald door de ontwikkelingen.... :)
Belachelijke overregulering om iets terug te dringen wat statistisch gezien al bijzonder laag is (verkeersdoden). En daarbij komt: heel veel verkeersdoden zouden niet zijn voorkomen als deze systemen er wel al waren. Rijbaan scheiding levert veel meer op. Want een fietser die (per ongeluk) opeens op jouw weghelft komt en uitwijken is niet mogelijk (vanwege tegenligger of rijbaan afscheiding aan linkerzijde) => fietser + auto => grote kans op letsel (want die beschermingszones zijn nogal matig zinvol als je over de fietser heen rijdt).

Op snelwegen hebben de passieve veiligheidssystemen wel veel letsel voorkomen.

Maar stel je staat stil en een vrachtwagen heeft een te zware lading en boort zich achterin => stoute vrachtwagen maar toch wel ernstig letsel ondanks alle veiligheidsystemen. Ook hier weer: licht en zwaar verkeer mengen => ellende.

Typische ambtenaren bende: alles voorschrijven en niet nadenken over de gevolgen.

Want de auto-prijzen staan in NL nogal hoog en die worden dan alleen nog maar hoger. En de 2e hands automarkt neemt dan toe (dat zie je nu ook al). Levensduur van een auto is tegenwoordig makkelijk 20 jaar. Ook wil men graag nieuw - het is voor velen niet te betalen. Dus is het aantal oudere auto's in NL relatief hoog t.o.v. bijv. Duitsland.
Want een fietser die (per ongeluk) opeens op jouw weghelft komt en uitwijken is niet mogelijk (vanwege tegenligger of rijbaan afscheiding aan linkerzijde) => fietser + auto => grote kans op letsel (want die beschermingszones zijn nogal matig zinvol als je over de fietser heen rijdt).
Maar stel je staat stil en een vrachtwagen heeft een te zware lading en boort zich achterin => stoute vrachtwagen maar toch wel ernstig letsel ondanks alle veiligheidsystemen. Ook hier weer: licht en zwaar verkeer mengen => ellende.
Noodremsystemen zijn er om te voorkomen dat jij een fietser aan rijdt, of dat een vrachtwagens je plet in je auto.
Want de auto-prijzen staan in NL nogal hoog en die worden dan alleen nog maar hoger.
Ook wil men graag nieuw - het is voor velen niet te betalen.
Dus is het aantal oudere auto's in NL relatief hoog t.o.v. bijv. Duitsland.
In Duitslanden gelden dezelfde EU regels voor nieuwe auto's als hier.
Auto's zijn in Nederland relatief duur vanwege de belastingen, niet per se (alleen) door (EU) wetgeving.
Belachelijke overregulering om iets terug te dringen wat statistisch gezien al bijzonder laag is (verkeersdoden).
Het feit dat het 'bijzonder laag' is, is wellicht dan ook een direct gevolg van de bestaande wetgeving ;)
Belachelijke overregulering om iets terug te dringen
Rijbaan scheiding levert veel meer op.
Ben je nu voor regulering, en rijbaan scheiding, en of tegen regulering? :9

Rijbaan scheiding is inderdaad een praktische manier om tegemoetkomend verkeer tegen zichzelf te beschermen, helaas vinden niet alle botsingen op die manier plaats, anders was het makkelijk op te lossen. Wellicht dat er op deze manier nog een boel ellende voorkomen kan worden.
Auto's zijn in Nederland relatief duur vanwege de belastingen, niet per se (alleen) door (EU) wetgeving.
Als de basisprijs toeneemt dan neemt de prijs naar belastingen dus nog meer toe. Dat is wel tegen te gaan door per optie andere belastingen te heffen maar dat is natuurlijk symptoom bestrijding en overcomplicatie.
Ben je nu voor regulering, en rijbaan scheiding, en of tegen regulering?
Tegen de toenemende regulering. Laat dit een keuze van de gebruiker zijn. Want in de praktijk groeien we naar een auto die verplicht alle opties heeft en daarom onbetaalbaar is [voor een groot deel van de bevolking].
En dat is niet op zichzelf staand de reden - het is vooral een wassen neus. Het is niet eens aangetoond of al die extra maatregelen tot minder verkeersslachtoffers leiden. Het is enkel een mogelijke verbetering van veiligheid.

Ik kan de bron niet zo snel meer vinden maar het schijnt nu dat het aantal verkeerslachtoffers statistisch zo laag is dat het niet meer veranderd door al die nieuwe (dure!) maatregelen. En dan kun je zeggen: 1 dode is al teveel maar zo werkt statistiek niet.

Het zou veel beter zijn dat ze [de overheid] zich zou concentreren op gebieden waar meer 'winst' valt te halen. En met winst bedoel ik dan: minder slachtoffers.
Jammer dat er geen monitoring op gebruiken van een mobiele telefoon tussen zit. Tesla doet dit wel bij de FSD beta gebruikers in de VS.
ABS was al door de EU vanaf 2004 verplicht gesteld op alle auto's
https://driving-dutchman....ystemen-verder-wist-niet/

ESP vanaf 2014 verplicht op alle nieuwe auto's https://www.autoweek.nl/a...vember%202014%20verplicht.

Zo komen er steeds meer systemen die verplicht gesteld worden naar mate de techniek meer standaard geworden is. Vroeg of laat zal dat ook voor software / systemen van toepassing gaan worden naar mate die meer beschikbaar zijn en goedkoper worden.
Goedkoper worden is echt pas van toepassing als er genoeg van verkocht is. De overheid lijkt weinig te geven om 'goedkoop genoeg'.

In sommige kleinere auto's zijn de kosten van het ABS echt substantieel. En natuurlijk is het een verbetering van de veiligheid maar als dat echt zo hoog op de agenda stond dan zouden ze [overheden], de wegen zelf moeten bekijken en aanpassen. Maar ja - dat kost belastinggeld en dat is al bijna opgemaakt en meer eisen gaat maar in kleine stapjes en moet eigenlijk onopgemerkt gebeuren.
Dus het is eenvoudig om het op de consument af te wentelen (ook al is dat ook een burger). Voor de rijke consument maakt dat niet zoveel uit - die hadden namelijk al ABS op hun voertuigen. Echter voor de onderkant van de markt betekent het vooral dat nieuwe auto's steeds minder haalbaar zijn/worden.
Substantieel, klink zo mooi. De ice motor in een auto die maar een substantieel deel van de kosten uit.

ABS is verplicht sinds 2004 dus wordt in massa gemaakt. ESP gebruikt ook de abs sensoren ook verplicht.
Wegen beter maken is weer zo een dooddoener.
Bij gladheid werkt abs en eps gewoon. Om mensen volgens jou idee dan nog meer op kosten te jagen verplichte winterbanden in sommige landen.
Ter info veel auto's hebben nu ook airco, niet verplicht maar bij warm weer ook beter voor de bestuurder.

En om het allemaal nog erger te maken, deze systemen zijn vanaf 2022 ook verplicht
https://www.activlease.nl...cht-op-nieuwe-leaseautos/

allemaal om mensen op kosten je jagen want zouden de wegen beter zijn dan zouden we die systemen allemaal niet nodig hebben.
IK ben niet tegen die systemen hoor. En in sommige gevallen heb je er ook wat aan.

Maar juist 90% van de tijd zijn die systemen natuurlijk (gelukkig) overbodig. Terwijl ik niet zozeer slechte wegen betreur (dat valt in NL nog wel mee), maar meer het feit dat ze soms inherent onveilig zijn en dan helpen al die noodmaatregelen maar matig. Een kreukelzone voor fietsers op de auto; een airbag voor de voetganger die op de motorkap klapt - of we proberen die verkeersstromen wat minder door elkaar te laten lopenn. Precies daarom zijn snelwegen zo veilig (relatief gezien) en zijn B-wegen dat soms niet. Vooral als daar fietsers moeten oversteken. Of in de stad waar de fietspaden niets anders zijn dan strookje-pik van de enkele rijbaan. Dat helpt wel iets maar is ook geen echte oplossing.

Op motorfietsen is ABS (nog) niet verplicht en remmen is nog moeilijker maar toch remmen de meeste motorrijders zich niet telkens kapot. Dus het is een nuttige feature maar niet noodzakelijk.

Winterbanden is idd ook zo'n 'dingetje' - ik heb een auto-hobby en dat rubber kost al genoeg en om dan voor het zeldzame moment (in NL) dat het echt noodzakelijk is om met winterbanden te rijden, dit te verplichten, zou mij wel treurig maken.

Ik vind het bijzonder dat zoveel nadruk wordt gelegd op het nog veiliger maken van auto's terwijl daar statistisch gezien geen reden voor is en het bovendien ook leidt tot nog hogere aanschafprijzen.
Ik vind het bijzonder dat zoveel nadruk wordt gelegd op het nog veiliger maken van auto's terwijl daar statistisch gezien geen reden voor is en het bovendien ook leidt tot nog hogere aanschafprijzen.
Ben ik niet met je eens er is zeker een goede reden om auto's veiliger te maken. Betere kreukelzone, airbags, abs eps zorgen er uiteindelijk voor dat als er een ongeluk gebeurt de impact voor de inzittende door de jaren heen minder geworden is. Airbag vangt al deel van de klap op wat het verschil maakt tussen je gezicht in de kreukels of niet.

Winterbanden lijkt zo een ding maar rubber is er in verschillende soort die rubber eigenschappen geven. De zomerbanden worden bij lagere temperatuur gewoon harde en zelf bij 5 graden heeft een winterband voordelen aangezien het rubber flexibeler is dan dat van de zomerband. Een winterband gaat niet uitsluiten om sneeuw en ijs maar zegt gewoon meer over ideale temperatuurbereik. Ik doe ze er standaard onder ook al is er geen sneeuw of ijs maar wel als de temperatuur structureel onder de 5-10 graden duikt.
Maar vanuit kostenbaten is het toch niet juist? Als statistisch gezien het aantal verkeersslachtoffers niet meer afneemt en volgens veel extra kosten worden gemaakt om dit te verlagen dan klopt hier toch iets niet?

Jij noemt airbags en winterbanden - waarbij alle auto's inmiddels wel airbags hebben. Dus die maatregel heeft vermoedelijk z'n vruchten afgeworpen. Winterbanden is een andere discussie - die zijn niet verplicht en optioneel te installeren. Dat ze meer grip leveren bij lagere temperaturen klopt wel. Maar onze zomer-banden zijn eigenlijk 'regen-banden' (want ze hebben profiel). Ook hier is het grip bij regen duidelijk beter dan bij slicks (geen profiel). Als het niet regent geven slicks weer meer grip. Maar daar hebben dus een compromis gesloten - we rijden dus standaard rond met regen-banden (behalve wellicht in de winter). We kiezen dus voor de grote gemene deler en voor de minst gevaarlijke keuze. Want het kan opeens gaan regenen - ook in de zomer.
Om voor elke situatie aparte banden te gebruiken wordt erg ingewikkeld en kostbaar.

Terug naar jouw opmerking: die winterbanden geven idd meer grip bij lagere temperaturen maar de standaardbanden zijn niet opeens zo slecht dat ze geen grip meer geven. En je snelheid matigen is in beide gevallen noodzakelijk. Geldt ook voor hevige regenval - dan redden die 'regen'-banden ook niet bij hoge snelheden.

Dus allemaal veiligheidsverbeterde maatregelen. Maar zijn ze ook kosten effectief?

Ik stel dus niet dat alle veiligheids verbeterende maatregelen (uit het verleden) onnodig waren. Maar op een gegeven moment wordt het duidelijk minder effectief.
Net zoals je voordeur voorzien van een extra slot. Bij het vierde slot neemt de kans op inbraak niet nog verder af. Dan moet je elders kijken of daar nog wat te verbeteren is. Dat geldt ook voor auto's.

Gedeeltelijk gebeurt dat ook wel: rotondes blijken een stuk veiliger dan verkeerslichten (en uiteindelijk goedkoper in gebruik).
Kosten effectief is een relatief begrip. Je moet dan een prijs op een mensenleven plakken.
Om het nog botter te zien, minder verkeersslachtoffers = minder donoren dus aan die kant sterven er meer mensen, de reden waarom men in Nederland donor zijn verplicht wil stellen omdat er een gebrek was.

Maar goed het blijft moeilijk als je puur naar kosten en baten wil kijken, dan moet je dus jou of mijn leven of die van de koning in geld gaan uitdrukken.
Tja - dat is inderdaad een deel van het probleem. Maar bovenal: als statistisch geen afname van de slachtoffers meer zichtbaar is dan hoef je dit dus niet eens (waarde aan een mensenleven toekennen).
Dan is de gekozen oplossingrichting dus onjuist.

Bijv. stellen dat de remmen van auto's beter moeten zijn heeft geen zin als we die toch niet aanspreken. Vervolgens zijn er automatische systemen bedacht die dan voor je remmen. Maar wat nu als de ongelukken geen gevolg zijn van te laat of onvoldoende remmen?

Net zoiets als verplichten fietsers met scheenbeschermers te laten rijden. Denken we dan echt dat dit gaat helpen? Het is wel veiliger... Maar verplichten dat fietsers een helm op moeten, daar willen we nog niet aan. Terwijl een simpele val met de fiets [zonder helm] een relatief hoog risico kent.
Een veel goedkopere oplossing - alleen veel 'sociale' weerstand. Dus kiest de overheid voor nog meer verplichte voorzieningen op auto's. Want dat kent relatief weinig sociale weerstand...

En dan kun je dus spreken van pappen en nat houden "we werken toch aan jullie veiligheid?" zegt de overheid dan. "We laten die rijke auto-fabrikanten het regelen" - dus niet en de consument betaalt toch echt zelf voor die voorzieningen.

Veel van de vangrails in NL zijn bijzonder ongeschikt voor een 'glijdende' motorrijder. En terwijl juist relatief veel verkeersslachtoffers onder de motorrijders vallen. Dat helpt dus veel meer.

En daarbij geldt dus dat ook gekeken moet worden naar hoe ongelukken zijn ontstaan en maatregelen bedenken die dergelijke oorzaken aanpakken. Simpelweg stellen dat we in een auto moeten zitten met 30 airbags, rondom kreukelzones, een AI die meestuurt is vast weer iets veiliger maar bijzonder kostbaar en stiekem worden daardoor auto's steeds zwaarder en verbruiken daardoor meer energie.
Het blijft een beetje zot om meer dan 2.000 kg aan materiaal te verplaatsen om 1 persoon van gemiddeld 80 kg van A naar B te krijgen. Natuurlijk is een groot deel van dat gewicht ook puur bedoeld voor comfort. Maar vlak de veiligheidsmaatregelen niet uit.
Linksom of Rechtsom moet iemand de R&D betalen: Dat ben jij als klant

Dus of de auto wordt standaard duurder of je betaald het los.

Voor niets gaat de zon op, verder niet.
Linksom of Rechtsom moet iemand de R&D betalen: Dat ben jij als klant
Waarbij het probleem bij tesla is dat je het dubbel betaald. Jij levert als bestuurder van een tesla ook nog data om dit soort systemen mogelijk te maken. Maar wat krijg je nu terug voor die data, niets behalve dat je betaald voor een systeem dat er al bijna 3 jaar binnenkort is.
De veiligheidsfeatures (remmen voor voetgangers/fietsers/voorliggers, automatisch een aanrijding voorkomen door van baan te wisselen of te accelereren) zijn standaard. Alleen Autopilot/FSD betaal je extra voor.
Auto pilot zit er standaard op, dat is gewoon adaptive cruise control met lane assist. FSD moet je wel voor betalen
Fietsen is pas sinds heel recent bij Tesla.
En herten worden totaal genegeerd: https://www.youtube.com/watch?v=jrWH_0YA5XM

Geeft dat veel vertrouwen dat voetgangers en fietsers veilig zijn? Een hond? Een kind?
FSD is met name gemak, veiligheidsfuncties worden gratis gegeven aan Tesla's.
Ik blijf het bizar vinden dat er hele strikte regels zijn voor het toelaten van een auto, maar dat dit wel wordt toegelaten op de openbare weg. Nog bizarder is dat iemand zoveel geld betaald om beta-tester te mogen zijn. Helemaal in NL ben je gek als je FSD besteld op een Tesla. Enige dat die dan extra kan is stoplichtherkenning. FSD is al jaren een belofte van Tesla, maar in NLD is zelfs de normale auto-pilot in de afgelopen 3 jaar dat ik de auto heb amper verbeterd. En dat heeft niet enkel te maken met de beperkingen vanuit de EU. Ook binnen die beperkingen om is het nog steeds zeer matig. Zelfs snelheidsborden worden niet herkend (dat kan een Corsa die 1/5 kost al wel), dus dat FSD gaat er in NLD echt de komende jaren niet komen...
Mijn 3 herkend de meeste snelheidsborden prima. Het probleem is bij mij juist vaak dat einde-snelheid borden niet herkend worden en een adviessnelheid dan blijft "plakken".
Wellicht dat dit dan enkel werkt met FSD, want mijn Model S (AP2 met EAP) heeft de laatste software en bepaalt zijn snelheid op basis van GPS en het onderliggende kaartmateriaal. Dat klopt vaak best aardig, maar bij wegwerkzaamheden knalt die vol door. Op wegen als de N34 waar veel wegwerkzaamheden in het verleden geweest zijn gaat die juist weer steeds terug naar 70km/u. Auto vol in de rem uit het niks. Bloedirritant.
Hier FSD (haha, EAP met NOA dus) en AP3. Gebruikt inderdaad een mix van kaartmateriaal en borden die gezien worden. Nog niet optimaal maar vaak best prima.
Een Prius die ik had las steevast de snelheidsborden van de uitrit van de snelweg :')

Gelukkig had dat geen enkel effect op de adaptive cruise control..

Ik denk dat Tesla in dat opzicht er wel voor gezorgdt heeft dat het begrip software update enorm opgerekt is voor de type goedkeuring van auto's. Waar vroeger een update van de software allicht iets met de inspuiting regelde oid zijn het nu compleet nieuwe features die ook de bediening van de auto ansich kunnen veranderen.
Bij Tesla heeft de maximale snelheid ook geen effect op de adaptieve cruise-control. Enkel de auto-pilot trekt er zich wat van aan. Maar met ACC moet je nog wel de auto zelf binnen de lijntjes houden. Moet je niet vergeten als je auto-pilot gewend bent. :)
Beta kun je niet door klanten laten testen [punt]. Roekeloos hoe Tesla deze software door klanten laat experimenten op de openbare weg. Gelukkig experimenteren ze alleen in Amerika met deze rommel.

[Reactie gewijzigd door YumYum op 22 juli 2024 14:30]

Letterlijk elke beta wordt door klanten en/of gebruikers getest, dat is nou precies het doel.
Niet als een bug in de beta een duidelijk slachtoffer tot gevolg kan hebben.

En bij beta's in software word altijd gezegd dat je het niet in productie omgevingen mag gebruiken. Juist om grote schade te voorkomen.
Productie omgevingen word pas gedaan bij pre-release. Als de fabrikant er van overtuigd is dat het product af is.
Dus jij gebruikt beta software in productie... hmmm...
Het gaat toch om testen? Voor zover ik weet is testen niet productie. Ook dit is geen productie, het wordt namelijk getest door een (kleine) groep gebruikers. Beta-gebruikers. Dat betekent dus dat niet iedereen gebruik maakt van deze software. Begrijpend lezen?
Verkeer op de openbare weg is productie. Ik kan toch ook lesauto's herkennen door de "L" op het dak? Elk voertuig op de weg heeft een typegoedkeuring en APK nodig. En bestuurders hebben een rijbewijs nodig. Autonome dingen dus ook!

[Reactie gewijzigd door YumYum op 22 juli 2024 14:30]

Zeker niet roekeloos.
Alleen bestuurders met hoge veiligheid score krijgen de beta. Je bent verantwoordelijk voor het rijden. Tijdens rijden wordt je via camera gemonitord. Hou je je daar niet aan wordt de beta uit je tesla verwijderd. Ze testen al een jaar. Op YT kan je de ontwikkeling en progressie volgen. Iit andere concurrenten die alleen de gescripte situaties laten zien.

[Reactie gewijzigd door lighting_ op 22 juli 2024 14:30]

Das toch raar. De auto moet zelfrijdend worden, dus monitor je de bestuurder of die wel goed oplet of FSD in de fout gaat. Klinkt als de omgekeerde wereld. En niet alle Tesla's hebben interieur camera's.

Persoonlijk vindt ik de veiligheidsscore (of iemand als een bejaarde rijdt) niet een goede indicatie voor een goede operator.

Er komt een tijd dat FSD zo goed wordt dat gebruikers iets anders gaan doen. Dat heeft google ook in hun selfdriving project ondervonden. Het zou mooier zijn als Tesla meteen level4/5 uitbracht en ook de verantwoordelijkheid hier over neemt. 10000 euro voor FSD betalen en dan nog steeds zelf verantwoordelijk zijn is gewoon niet wat gebruikers gekocht hebben.
Het is in beta fase. Je verwart met final versie. Dus het volkomen logisch dat er een monitoring systeem zit.

Dat is idd jouw persoonlijke mening. Er is gebleken dat via een score de rijders 30% veiliger rijden. Komt uit de data.

Op termijn komen er robot taxi's. Je bestelt een robot taxi. Het wordt zo goedkoop dat bezit van auto niet meer nodig is
Wat zou het motief zijn om beta software bij de klanten neer te leggen?

Tesla heeft duizenden auto's verkocht met FSD software voor hoge prijzen, met de belofte dat de software bijna klaar is. Deze FSD zou al 2018/2019 gereed zijn met robot taxi's en nog meer fantasie. Sommige gebruikers wachten al jaren op enige vorm van assistentie meer dan de 'blijf tussen de lijntjes rijden' die de meeste andere fabrikanten nu ook onder de knie hebben.

Dus Tesla zal wel iets moeten uitbrengen, anders moeten ze terugbetalen en stort de aandelenkoers in. Dus dan maar een crappy beta.
Dat ze hun planning niet halen is wel duidelijk. Dat degene die 10k betaalden is idd zuur. Crappy beta ben ik niet mee eens. Je onderschat hoe moeilijk AI fsd is. Maar goed. Kritiek geven is makkelijk.
Ik heb EAP/FSD gekocht voor ongeveer 8500 euro.

Binnen 2 jaar gaat er echt nog niks komen in Europa. Denk zelfs dat China voor gaat, want daar wonen meer klanten. Dus reden genoeg om kritisch te zijn. Als mijn auto 6 jaar is, kan deze nog steeds evenveel als een Toyota die standaard propilot geïnstalleerd heeft voor 1500 euro.

Reden genoeg om kritisch te zijn dus...
Kijk dat is zuur. Maar ik had het nooit gekocht op basis van belofte.
Het was waarschijnlijk nodig om te overleven. In 2018 zaten ze op rand van faillissement. Slecht kwaliteit auto's werden toen opgeleverd. Heel begrijpelijk maar als klant flink balen. Maar als je nu fsd en de hele ontwikkeling van Tesla bekijkt is het geen Fata Morgana.

Op dit item kan niet meer gereageerd worden.