Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Tesla: Autopilot stond niet aan in Model S die deze week crashte

Een Tesla Model S die eerder deze week in de Verenigde Staten tegen een boom reed, reed volgens de autofabrikant niet zelf. Er zijn inmiddels twee onderzoeken gestart naar het ongeluk, waarbij twee personen om het leven kwamen.

De Autopilot van de Tesla stond niet ingeschakeld, en de eigenaar van de auto had geen Full Self Driving-pakket gekocht, zegt Tesla-oprichter Elon Musk op Twitter. Musk refereert naar de logs van de computer in de auto die daarop zouden wijzen. Volgens Musk zou de Autopilot ook alleen werken als er wegmarkeringen op de weg hadden gestaan, maar dat was niet het geval op de weg waar de auto op reed.

Musk refereert naar een dodelijk ongeluk met een Model S-auto dat eerder deze week plaatsvond in Houston in Texas. Daarbij raakte een auto van de weg af. De twee passagiers overleden. De politie zegt dat geen van beide passagiers de auto bestuurden. Een zou voorin hebben gezeten op de bijrijdersstoel, de ander achterin.

Autoriteiten zeggen nog geen officiële reactie van Tesla te hebben ontvangen. "Als ze de data al hebben achterhaald dan hebben ze ons dat nog niet verteld", zegt de lokale politiechef tegen Reuters. De politie gaat met huiszoekingsbevelen de data opvragen bij de autofabrikant. Inmiddels is er ook een onderzoek gestart door de National Transportation Safety Board. Ook zij willen onderzoeken hoe het voertuig zich gedroeg tijdens het rijden.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Tijs Hofmans

Redacteur

20-04-2021 • 09:34

408 Linkedin

Reacties (408)

-14080403+1188+224+32Ongemodereerd115
Wijzig sortering
Het wordt een beetje gebracht alsof Tesla ergens schuldig aan zou zijn als de Autopilot wel aan had gestaan, maar als ik het verslag van de politie goed begrijp zat er helemaal niemand achter het stuur. Dat is zelfs onder de beste Autopilot-condities niet toegestaan.
Ik geloof dat autopilot zichzelf ook uitschakelt als je niet het stuur vasthoud, dit lijkt me ook een beetje lastig als je niet in de bestuurdersstoel zit.
Klopt, alles bij elkaar zijn er 5 punten die dit verhaal onwaarschijnlijk maken, of wijzen op grove opzet:
- Allereerst moet de gewichtsensor in de stoel waarnemen dat er een persoon aanwezig is. Dit kan uiteraard omzeilt worden door een gewicht op de stoel te zetten
- Ten tweede moet de gordel vastzitten. Ook dit is uiteraard te doen zonder bestuurder in de stoel
- Ten derde kan maximaal 20 seconden het stuur losgelaten worden voor het systeem begint met waarschuwen en daarna uitschakelt. Dit kan uiteraard ook van de bijrijdersstoel of door een gewichtje aan het stuur vast te maken.
- Ten vierde is op dit stukje weg geen wegmarkering aanwezig, in de meeste gevallen wil de reguliere AutoPilot dan niet inschakelen. (zie deze Reddit post met een luchtfoto en een discussie over of AutoPilot überhaupt zou kunnen inschakelen op de specifieke locatie)
- De logs van Tesla zelf, die lijken aan te geven dat AutoPilot niet actief was
- Edit: uit de locatie en richting (zie luchtfoto in linkje bij punt 4) volgt ook dat de auto pas een paar honderd meter onderweg was. Gezien de genoemde hoge snelheid moet de auto een veel hogere acceleratie hebben gehad dan met AutoPilot mogelijk is.

De reactie van een Amerikaanse senator liet overigens wel weer zien dat politici niet helemaal op de hoogte zijn van veiligheid van rijhulpsystemen
Senator Richard Blumenthal, a Democrat, wrote on Twitter that "using Tesla's driverless system — or any other — shouldn't be a death risk. Advancements in driving technology must first & foremost be safe."
Geen enkel rijhulpsysteem is feilloos. Voor iedere 10 aanrijdingen die het voorkomt, veroorzaakt het er ook één. De vraag is of het ethisch is om rijhulpsystemen dan te verbieden, als je van tevoren al weet dat het aantal slachtoffers dan zal stijgen.

Edit: Het blijkt ook maar weer eens dat binnen de kortste keren de wildste verhalen rondgaan. Zo wordt in diverse media genoemd dat het de brandweer 4 uur kostte om de brand te blussen en dat ze Tesla moesten bellen om te vragen hoe ze moesten blussen. In werkelijkheid bleek de brandweer prima te weten hoe de brand geblust moest worden en gebeurde dit in een paar minuten.

https://www.houstonchroni...e-example-of-16113029.php

[Reactie gewijzigd door matroosoft op 20 april 2021 12:38]

Het aantal slachtoffers zal niet stijgen, sterker nog, tesla heeft al aangegeven dat het tot wel 10x veiliger is met FSD.
Het aantal slachtoffers zal niet stijgen, sterker nog, tesla heeft al aangegeven dat het tot wel 10x veiliger is met FSD.
Ja eh, dat in dit geval het verhaal niet klopt en de kans dat Tesla enige schuld heeft wel heel klein is, lijkt zo te zijn, maar dit soort statements van Tesla zelf als feit opnemen is natuurlijk ook wel erg fout hoor. Wij van WC-Eend hè.

Als een onafhankelijke partij die wel een bepaalde mate van expertise heeft nou zo'n statement neerzet, oké, maar als Tesla het zelf aangeeft neem ik 't persoonlijk met een flinke korrel zout, zo niet een hele zak, tenzij ze met een heel betrouwbare bronvermelding en/of heel degelijk onderzoek komen.

Ik zie dit steeds vaker gebeuren, ook bij Apple en andere prominente merken, ook onder de autonieuwsberichten. Zodra een bekend merk iets zegt, is er altijd wel iemand die dat als ultieme waarheid overneemt en neerplempt in een reactie. Waar is een kritische blik gebleven op commerciële partijen? Het zijn partijen die iets van je willen hebben. Daar hoor je altijd licht kritisch op te zijn.
Tijs Hofmans maakt er een rommeltje van, zijn citaat:
Volgens Musk zou de Autopilot ook alleen werken als er wegmarkeringen op de weg hadden gestaan, maar dat was niet het geval op de weg waar de auto op reed.
Wat zegt Musk in werkelijkheid twitterde:
Data logs recovered so far show Autopilot was not enabled & this car did not purchase FSD.

Moreover, standard Autopilot would require lane lines to turn on, which this street did not have.
Dus heb ik gedaan wat Tijs zelf had moeten doen, namelijk even opzoeken wat "standard autopilot" is. Dat is dus de meest minimale optie, naast Enhanced Autopilot en Full Self Driving.

In auto's van voor 2019 is het:
Standard’ Autopilot – this was essentially active safety like Automatic Emergency Braking (AEB)
early 2019 is het
Autopilot – This is basic driver assistance as found in most other cars with autopilot today. It’s included with all vehicles.
  • Traffic Aware Cruise Control. (TACC). This stop-and-go distance cruise control will follow other cars, stop in traffic and automatically resume.
  • Automatic Steering / Lane Centering. This keeps the vehicle in the lane when used with TACC above.
September 2020:
Autopilot – Included with all vehicles, this is basic driving assistance.
  • Traffic Aware Cruise Control.
  • Automatic Steering / Lane Centering.
Het hangt dus af van de ouderdom van de auto.

[Reactie gewijzigd door Elefant op 20 april 2021 21:02]

Als de betreffende auto dus standaard autopiloot had dan is de enige conclusie dat er hier sprake is van zelfmoord of actie waarbij bestuurder denkt autopiloot aangezet te hebben dan naar bijrijdersstoel of naar achteren geklauterd is. In dat geval testfoutje en nu dood.
Zelfmoord doe je meestal alleen.
Als je een later model hebt kan hij de weg volgen als er belijning is. Maar wat als de belijning ineens ophoudt en jij bent net achterin je broodtrommel aan het pakken, die uit je handen glipt, terwijl er een bocht nadert met een dikke eik?

[Reactie gewijzigd door Elefant op 20 april 2021 12:37]

Meestal alleen, niet altijd, maar geef dan eens een goede reden waarom de auto reed maar er niemand achter het stuur kon zitten en tesla zegt autopiloot was niet aan en als deze al aanstond het niet de versie was die lijnen kon herkennen.
Scherpe opmerking

Het lijkt haast alsof als het geheugen in de steek heeft gelaten. Tesla's zijn zo enorm geavanceerd. Misschien heeft een Tesla wel een feature die de autopilot uitzet en het moment in de loggegevens terugzet, als hij berekent dat een crash onvermijdelijk wordt? ;) Zou een geniale feature zijn die de acceptatie van autonoom rijden kan versnellen en automakers veel geld kan besparen. TLA (Transfer Liability Assistance).

Het is een mysterieus geval. Even naar naar een andere stoel klimmen valt behoorlijk tegen in een rijdende auto. Mogelijk wilde de achterzitter een demonstratie geven van de veiligheid van Tesla's, waarna om de een of andere reden de autopilot uitschakelde. Die doet dat wel vaker op onverwachte momenten, maar dan brengt hij de auto (soms/meestal/altijd?) naar een full stop . De meest interessante informatie is: Wanneer stond de auto-pilot voor het laatst aan? Heeft hij zichzelf uitgeschakeld en waarom?

[Reactie gewijzigd door Elefant op 20 april 2021 15:18]

Het roept bij mij dus veel vraagtekens op. Iemand moet van achter het stuur naar achter of zijkant geklommen zijn terwijl de auto is blijven rijden.
Dat moet wel automatisch zijn want voet van het gas stopt de auto toch, tenzij cruisecontrol aanstaat. Als dat een functie is bij tesla buiten autopiloot.

sowieso vindt ik het behoorlijk beangstigend als een fabrikant dus van alle auto's zo maar de data draadloos kan downloaden. Want is ga er van uit dat die data continue naar tesla gestuurd wordt.
Wij accepteren al tijden absurde situaties naar mijn gevoel waarbij de overheid zijn controle-functie verwaarloost. Waarom worden wel gewichtjes door het ijkwezen gecontroleerd, en moeten kleine kaasmakers elke lading kaas door de Keuringsdienst van Waren laten controleren, moet ik mijn auto totaal overbodig laten keuren.

Waarom kunnen buitenlandse corporaties buiten enige controle om met grootschalig met onze gegevens lopen spelen? We hebben geen flauw idee wat voor algoritmen ze allemaal gebruiken en wat die allemaal doen en aan wie ze ze doorspelen. Daarbij gaat het om megabelangen. We laten de situatie steeds schever groeien. En er wordt slechts selectief gereageerd op misstanden. Zo heeft Cambridge Analytica lijsten samengesteld van mensen die potentieel gevaarlijk zijn voor de Saoedische regering, die elk weekeinde zulke mensen op de markt de hals af laat snijden. Buiten een heel klein artikel in de het Financieel Dagblad is het nergens opgepikt.

Mensen onderschatten wat de internationalisering inhoudt. Er is een groot verschil tussen nationale bedrijven die handel drijven met het buitenland, maar hier belasting betalen en hier verantwoordelijk kunnen worden gehouden voor hun activiteiten, en multinationals die hun activiteiten verspreiden over de wereld. Ook al roepen die bijv. dat ze gegevens lokaal opslaan, hoe kun je dat controleren. Niets zo vluchtig als data en de overheid heeft totaal geen inzicht in hun steeds veranderende procesgang.

Dat je niet kan verhinderen dat rechtspersonen foute dingen doen, is niet erg. Je kan ook niet verhinderen dat iemand een moord pleegt, maar het is wel belangrijk dat je het tijdig kan vaststellen en dat je dader verantwoordelijk kan houden, en dat je straffen effectief zijn. Dat is al lang niet meer het geval.

Wat nog gevaarlijker is, is dat de overheid de surveillancetaak dan maar bij de verdachten zelf legt, die deze vervolgens op oncontroleerbare wijze uitvoeren waarbij ze ook geen verantwoordelijkheid hoeven afleggen. Zo maar een geval. De manier waarop Google en Facebook eerst de communicatie mogen monopoliseren en daarna ongewenste meningen, zelfs van gekozen volksvertegenwoordigers, mogen weghalen is helemaal in strijd met ons vrijheidsbeginsel.

We zijn bezig een techno-feudale maatschappij te bouwen waarin de burger in een totale afhankelijkheid van centrale private systemen leeft en de overheid zijn handen in onschuld wast. Ik vind dit een verkeerde toekomst voor de mensheid.

Het grootste gevaar van Tesla zie ik juist in het succes van een autonome auto. Op het moment dat het werkt, zal Tesla zichzelf omvormen tot rittenverhuurder. Mensen zullen massaal overstappen, parkeervoorzieningen e.d. zullen worden afgebroken, en er zal slechts een privaat openbaar vervoersysteem zijn in handen van corporaties die de prijzen weer zullen opschroeven baserend op de behoeften van de mensen. Alles wordt abo, huur, lease.

De zelfstandigheid van het individu wordt zo volledig afgebroken. Feitelijk is de mens dan een melkkoe, die heeft ook eten en een stal zolang hij produceert, en anders gaat hij naar de slacht. We zien nu al wat het lot is van mensen die hun rekeningen niet kunnen betalen. Die worden op straat gezet en vallen buiten het systeem.

Een democratisch systeem kan niet bestaan met zulk een scheve verdeling van macht, productiemiddelen, welvaart, en zulke grote afhankelijkheden van private structuren in handen van weinigen.

[Reactie gewijzigd door Elefant op 20 april 2021 18:20]

Welkom in de kapitalistische wereld.
Levels in autonomie komen voort uit het wetenschappelijk onderzoek wat hiernaar gedaan is: https://www.autowereld.co...n-van-level-0-tot-level-5

[Reactie gewijzigd door Kevinns op 20 april 2021 12:01]

Een betere verwijzing is de data zelf. Natuurlijk wel open voor interpretatie, maar laat de verschillen zien.

Een geregistreerd ongeluk per gereden afstand:
  • 4.19 miljoen mijl met Autopilot aan;
  • 2.05 miljoen mijl zonder Autopilot maar met actieve veiligheidsopties aan;
  • 0.98 miljoen mijl zonder Autopilot en zonder veiligheidsopties aan;
  • 0.48 miljoen mijl bij alle voertuigen in de USA volgens NHTSA's meest recente data.
Grafiek vorm per kwartaal
In the 1st quarter, we registered one accident for every 4.19 million miles driven in which drivers had Autopilot engaged. For those driving without Autopilot but with our active safety features, we registered one accident for every 2.05 million miles driven. For those driving without Autopilot and without our active safety features, we registered one accident for every 978 thousand miles driven. By comparison, NHTSA’s most recent data shows that in the United States there is an automobile crash every 484,000 miles.
Onderaan staat ook de methode waarop de informatie is bepaald met het argument dat de gevallen van Tesla meer gerapporteerd worden omdat dit deel automatisch gaat en bij andere auto's moet dit handmatig gemeld worden. Een stuk context:
We also receive a crash alert anytime there is a crash that is correlated to the exact vehicle state at the time. This is not from a sampled data set, but rather this is exact summations. To ensure our statistics are conservative, we count any crash in which Autopilot was deactivated within 5 seconds before a crash, and we count all crashes in which the crash alert indicated an airbag or other active restraint deployed. In practice, this correlates to nearly any crash at about 12 mph (20 kph) or above, depending on the crash forces generated. On the other hand, police-reported crashes from government databases are notoriously under-reported, by some estimates as much as 50%, in large part because most fender benders are not investigated. We also do not differentiate based on the type of crash or fault, and in fact, more than 35% of all Autopilot crashes occur when the Tesla vehicle is rear-ended by another vehicle. In this way, we are confident that the statistics we share unquestionably show the benefits of Autopilot.
Bron: https://www.tesla.com/nl_NL/VehicleSafetyReport
Grafiek over tijd: https://hypercharts.co/tsla/safety

[Reactie gewijzigd door JVos90 op 20 april 2021 16:25]

Dit roept eerlijk gezegd wel enige vragen op (naast de voorbehouden die Tesla zelf als vermeldt):
  • 4.19 miljoen mijl met Autopilot aan;
  • 2.05 miljoen mijl zonder Autopilot maar met actieve veiligheidsopties aan;
  • 0.98 miljoen mijl zonder Autopilot en zonder veiligheidsopties aan;
  • 0.48 miljoen mijl bij alle voertuigen in de USA volgens NHTSA's meest recente data.
Oftewel: één ongeluk per 4.19M mijl onder zeer gunstige omstandigheden: omstandigheden waar autopilot gebruikt kan worden, en aan staat.
Eén ongeluk per 2.05M mijl onder minder gunstige omstandigheden.
Eén ongeluk per 0.98M mijl onder de minst gunstige omstrandigheden.

En in alle gevallen gaat het daarbij om ongelukken met voornamelijk mensen die zich een nieuwe auto kunnen veroorloven, én die zich tevens een Tesla kunnen veroorloven. Tevens zijn die mensen waarschijnlijk gemiddeld meer tech-geïnteresseerd, en alleen al daarom waarschijnlijk hoger opgeleid dan de gemiddelde automobilist. De andere mensen zijn minder, of zwáár ondervertegenwoordigd in de gegevens van Tesla: bijv. armere mensen die alleen oude tweedehands auto's kopen, of mensen die zich wel een nieuwe auto kunnen veroorloven, maar enkel onder de 30.000 dollar. Waarschijnlijk zijn verder in de Tesla-groep mensen van ca. 30-50 jaar oud oververtegenwoordigd, terwijl in de NHTSA data natuurlijk alle automobilisten zijn inbegrepen.

En zo kan ik waarschijnlijk nog wel even doorgaan met redenen opschrijven waarom de gegevens van Tesla en van NHTSA niet vergelijkbaar zijn, en Tesla vermoedelijk een onredelijk voordeel geven.

Nu wil ik niet zeggen dat Tesla's helemaal niet veiliger zijn, of dat autopilot niet veiliger is. Dat zal best zo zijn, maar deze gegevens bewijzen niets, want ze zijn niet vergelijkbaar.
in fact, more than 35% of all Autopilot crashes occur when the Tesla vehicle is rear-ended by another vehicle
Vraag is: hoe vergelijkt zich dat met andere auto's, en met Tesla's die onder vergelijkbare omstandigheden niet in autopilot mode staan.

Hoe vaak is de uiteindelijke oorzaak eigenlijk dat de Autopilot zich op een voor de achterligger onvoorspelbare manier gedroeg ? De achterligger anticipeert dan op menselijk gedrag van de voorligger, terwijl de Tesla niet-menselijk, bijv te conservatief, reageert (bijv. onnodig remt/stopt). Strikt genomen blijft het de fout van de achterligger, en strikt genomen (en wettelijk gezien) heeft de autopilot dan niets fout gedaan. Feitelijk is de autopilot dan echter toch mede de oorzaak van de aanrijding.
In dit geval is de niet Tesla data minder relevant om de verbetering te zien. Het laat wel zien dat meer veiligheidsfuncties op dezelfde voertuigen minder ongelukken geeft.

De rear-ended crashes worden daarom ook geteld als ongeluk voor Tesla, ten eigen nadelen voor Tesla.
Tesla geeft ook zoals ik in mijn voorgaande reactie aangaf alle data door ipv auto’s zonder data moeten handmatig naar de verzekeraar en kunnen ivm premieverhoging kiezen om niet alles te melden. Dit alles ten nadelen van Tesla. Dit geeft dan ook geen onredelijk voordeel, maar een nadeel waar bewust voor gekozen is.
In dit geval is de niet Tesla data minder relevant om de verbetering te zien. Het laat wel zien dat meer veiligheidsfuncties op dezelfde voertuigen minder ongelukken geeft.
Dat laat het dus helemaal niet zien. Het laat misschien allen zien dat hoger opgeleide tech-geïnteresseede mensen tussen 30 en 50 jaar oud, met relatief hogere inkomens, die in nieuwere en/of duurdere auto's rijden minder vaak zijn betrokken bij een ongeluk.

Het laat ook zien dat er in omstandigheden waarin autopilot ingeschakeld kan worden, minder ongelukken gebeuren, dan in andere omstandigheden.

Veel meer valt er niet te concluderen, want de data zijn dus onvergelijkbaar.

En misschien zijn Tesla's inderdaad veiliger, dat kan best, maar de gegevens zijn onvoldoende om dat te kunnen concluderen. Ook het tegendeel valt overigens niet te concluderen.
De rear-ended crashes worden daarom ook geteld als ongeluk voor Tesla, ten eigen nadelen voor Tesla.
Dat is helemaal niet ten nadele van Tesla. Het gaat er hier niet om hoe vaak een Tesla-rijder schuldig is aan een ongeluk, het gaat erover hoe vaak ze betrokken zijn bij een ongeluk. Dat is ook veel relevanter. Als ik een type auto kan kopen dat gemiddeld 10 keer vaker betrokken blijkt te zijn bij ongelukken, maar dat toevallig al die ongelukken wel de schuld zijn van de tegenpartij, dan wil ik nog niet in zo'n auto rijden.

Echter: Tesla stelt dat 35% 'rear-end crashes' zijn, en impliceert daarmee dat die minder relevant zijn, omdat de Tesla (in autopilot mode) niet schuldig is. Die conclusie bestrijd ik (maar ik beweer ook niet het tegendeel). Want ook daarvoor zijn er te weinig gegevens. Natuurlijk is het wel zo (tenzij iemand in de VS in een 'no-fault' state woont), dat een rear-end crash voor de Tesla-rijder minder kosten met zich meebrengt, omdat ie wettelijk gezien niet schuldig is.
Tesla geeft ook zoals ik in mijn voorgaande reactie aangaf alle data door ipv auto’s zonder data moeten handmatig naar de verzekeraar en kunnen ivm premieverhoging kiezen om niet alles te melden. Dit alles ten nadelen van Tesla. Dit geeft dan ook geen onredelijk voordeel, maar een nadeel waar bewust voor gekozen is.
Ik ben me inderdaad bewust dat die factor betekent dat er óók een afwijking in de statistieken is die ten nadele van Tesla is. Dat ontken ik niet. Maar dat betekent niet automatisch dat het voordeel in de gegevens ten gunste van Tesla daarmee opgeheven wordt. Het betekent alleen (en nog steeds) dat de gegevens niet vergelijkbaar zijn.
Op je eerste deel bedoelde ik deze twee van de vier punten:
  • 2.05 miljoen mijl zonder Autopilot maar met actieve veiligheidsopties aan;
  • 0.98 miljoen mijl zonder Autopilot en zonder veiligheidsopties aan;
Dit is beide Tesla bestuurders, beide geen autopilot maar verschillend in de safety features aan/uit.

Wel eens dat de data nog meer gesegmenteerd mag worden om minder over te laten aan interpretatie, maar dat gaf in in mijn eerste reactie in de tweede zin al aan.
Op je eerste deel bedoelde ik deze twee van de vier punten:
  • 2.05 miljoen mijl zonder Autopilot maar met actieve veiligheidsopties aan;
  • 0.98 miljoen mijl zonder Autopilot en zonder veiligheidsopties aan;
Dit is beide Tesla bestuurders, beide geen autopilot maar verschillend in de safety features aan/uit.
OK. dat kan ik niet goed beoordelen, omdat ik eigenlijk niet weet wat er bedoeld wordt met 'actieve veiligheidsfeatures', en of het aanzetten daarvan al dan niet een keuze is van de bestuurder, en of het afhangt van de omstandigheden. Ik ging er vanuit dat de bestuurder die feature aan en uit kan zetten afhankelijk van de omstandigheden.

Als het dus afhangt van de omstandigheden of ze al dan niet aan (kunnen) staan, dan is er nog steeds een mate van onvergelijkbaarheid. Want omstandigheden waar ze niet aan kunnen staan zijn vanzelfsprekend complexer, en dus inherent onveiliger (= grotere kan op ongelukken).

Als het ene getal gaat over mensen die een bepaalde optie wel gekocht hebben, en die staat altijd aan, en het tweede gaat over andere mensen, in andere Tesla's, die die optie niet gekocht hebben, dan ben ik helemaal met je eens dat die optie de kans op ongelukken ongeveer halveert. Het feit dat er toch nog een klein demografisch verschil zal zijn tussen de ene groep teslarijders en de tweede groep is zonder twijfel in dit geval lang niet voldoende om een dergelijk groot verschil te verklaren.
De keuze om de veiligheid opties niet aan te zetten is een bewuste keuze van de bestuurder/eigenaar in de instellingen, volgens mij kan je deze dan niet direct makkelijk wisselen tijdens het rijden. Dit is bijvoorbeeld als de auto denkt dat je ergens hard op in rijd dat deze in de laatste seconden alsnog remt.

Betere data is misschien het verloop van de data per kwartaal. (Dit zijn de gegevens van alle kwartalen sinds 2018.)
Die in de toekomst een goed beeld kan geven of het toevoegen van steeds meer veiligheidsfuncties die de veiligheid zouden moeten verhogen: https://hypercharts.co/tsla/safety
De keuze om de veiligheid opties niet aan te zetten is een bewuste keuze van de bestuurder/eigenaar in de instellingen, volgens mij kan je deze dan niet direct makkelijk wisselen tijdens het rijden.
Dan komt automatisch de vraag waarom die veiligheid opties uit gezet waren.

Ik ken geen mensen die dat soort opties uit zetten, tenzij daar een goede reden voor is.
Maar die goede reden betekent waarschijnlijk automatisch dat die weg gevaarlijker is om over te rijden.
Bv een erg slingerende weg waardoor de anti-botsting sensor steeds autos op de andere weghelft ten onrechte voor gevaar aanziet?
Rijden in een sneeuwbui waardoor de autopilot niet kan functioneren omdat er tijdens het rijden een ijslaag op de sensors komt?
Situaties waarbij het volkomen logisch is dat er dan meer ongelukken gebeuren dan op een heldere dag op een rechte snelweg.
Ah. OK. Dan zorgen die veiligheidsopties van Tesla klaarblijkelijk inderdaad voor minder ongelukken.

Wat blijft staan, is dat de gegevens met en zonder veiligheidsopties niet statistisch vergelijkbaar zijn met de autopilot-gegevens, of met de gegevens van NHTSA, en dus niets zeggen over de veiligheid van Tesla's vergeleken met andere merken, en/of de veiligheid van de autopilot. Wat wel aannemelijk is, is dat een Tesla met veiligheidsopties áán, aanzienlijk veiliger zal zijn (dwz minder bij ongelukken betrokken) dan een willekeurige andere auto die geen veiligheidsopties heeft.
Moet wel zeggen dat ik je scepsis waardeer, statistieken lijken snel meer informatie te geven dan het daadwerkelijk is.
En dan is scepsis bij dit soort ongelukken van het artikel ook het beste, afwachten met een oordeel tot er voldoende onafhankelijke informatie is.
Je kan alleen over een verbetering spreken maar echte percentages kun je er niet op plakken
Een betere verwijzing is de data zelf. Natuurlijk wel open voor interpretatie, maar laat de verschillen zien.
Hoeveel ongelukken gebeuren er in drukke steden waar auto pilot waarschijnlijk niet aanstaat.
Je zou wil je de hulpsystemen bekijken en hun verbetering uitsluitend moeten kijken naar gebruik / ongelukken op een snelweg.
Dat is momenteel de enige bron waarmee je de voordelen van hulpsystemen en auto's zonder zou kunnen vergelijken hoe effectief ze echt zijn.
In alle andere situaties werken de hulpsystemen niet of niet betrouwbaar genoeg om ze te kunnen vergelijken.
Vraag daarbij is, zet je de autopilot niet aan op plekken/momenten die toch al statistisch stukken veiliger zijn?
Ja, dat is zonder twijfel het geval.
Autopilot word op snelwegen gebruikt en op snelwegen gebeuren veeeeeeeeeel minder ongelukken dan op andere wegen. (stadsverkeer en provinciale wegen) Dat alleen is al voldoende om de getallen te verklaren.
Ja logisch, statisch is het veiliger, dat er meer ongelukken zijn heeft er vooral mee te maken dat er meer autopilots op de weg zijn.
Ja logisch, statisch is het veiliger
Je zal statistisch bewezen bedoelen? Dat is niet bewezen. Er was een rapport en er cijfers hierover, echter zijn ze misleidend. Dat rapport en Tesla vergelijkt verschillende soorten ritten. Een vaak gehoorde statistiek is dat een ongeluk meestal gebeurd in de eerste of laatste 5 minuten van een rit. De cijfers die ik zag had het over rijkswegongelukken en deze werden vergeleken met hoe vaak een ongeluk gemiddeld gebeurd. Verder zijn de Tesla rijders niet representatief. Hoe de huidige Tesla rijders ermee omgaan kan anders zijn dan wanneer iedereen zo'n systeem heeft.

Je ziet ook genoeg filmpjes waaruit blijkt dat sommige rijders teveel vertrouwen op "autopilot". Dat een computer iets doet maakt het niet automatisch beter/veiliger/etc.
Voorlopig zijn de huidige tesla rijders ook de enige die in een tesla rijden. ;)

Je ziet met dit soort ontwikkelingen weer eens dat wetgeving achter de feiten aanloopt. Hier mag wel een verplicht cursusje aan hangen.
Het aantal slachtoffers stijgt als je rijhulpsystemen gaat verbieden.

[Reactie gewijzigd door matroosoft op 20 april 2021 10:13]

grote probleem is dat het autopark van NL nogal verouderd is. Mijn 2011 Prius blijft het voorlopig nog wel doen en heeft geen rijsystemen. De buurvrouw heeft een auto van wel 24 jaar oud. Weggooien dan maar? Wie gaat dat betalen?
Ook jouw Prius zal een keer doormidden roesten... de auto van de buurvrouw ook... uiteindelijk wordt langzaamaan het grootste deel van het wagenpark in Nederland en andere landen toch wel vervangen.
Dat wordt geregeld via de APK. Anders zou je nog wel regelmatig Kadetts en Manta's tegenkomen
bij mij in de straat staat een 2003 Prius II en een Starlet uit 1994, beiden nog in prima staat. Het kan dus nog wel even duren voordat deze niet meer door de APK komen. Ik zie zelfs nog regelmatig 'DAF' Volvo 3x0s rijden (mijn eerste auto, bj. 1983) en 1995 Astra F (=opgepoetste Kadett 5) kom je ook nog vaak tegen
Yep, de liefhebbers zullen ze wel houden (en onderhouden) maar voor de massa wordt het te duur om de auto elk jaar opnieuw door de apk te krijgen en dan koopt men liever een nieuwer model met minder issues.
welke issues? De grootste vervanging was tot nog toe een paar rubbertjes. Elk jaar een onderhoudsbeurt, moet toch, en de APK is nog 'gratis' ook. Ook nieuwe auto's hebben een onderhoudsbeurt nodig. Je kan natuurlijk ook je geld weggeven aan zo'n private lease piraat

[Reactie gewijzigd door divvid op 20 april 2021 16:42]

De gemiddelde auto in Nederland is 11 jaar oud, dus dat zal nog wel even duren totdat de meerderheid van de auto's op de Nederlandse wegen uitgerust is met dergelijke hulpsystemen.
Uiteindelijk zal het wagenpark vervangen worden, al dan niet door sloopregelingen na verloop van tijd. Het gaat hier over een process van enkele decennia zeker omdat we nog helemaal niet op het niveau zitten dat we al volledige zelfrijdende auto's hebben die zich qua robuustheid al grondig bewezen hebben. Maar in veel gevallen van ongelukken is de oorzaak toch gewoon degene die achter het stuur zit.
Dat is ook juist z'n punt: zulke systemen voorkomen significant meer ongelukken dan ze eventueel veroorzaken. Er zitten alsnog wel een hoop ethische haken en ogen aan zulke systemen natuurlijk.
Als dit systeem dan 9 ongevallen stopt en 1 veroorzaakt wil het zeggen dat het 8 levens red. De focus zal altijd liggen op die 1ne dood die het veroorzaakt heeft.
Als er een corona vaccin was die corona volledig weg laat gaan maar 1% zal hier aan sterven zal het ook niet gebruikt worden. Ook al zullen er meer mensen sterven door dit vaccin niet te nemen.
Aantal zaken zijn denk ik te bestrijden omtrent het zelfrijden van een Tesla.
  • De oudere modellen hadden geen check of er gewicht op de stoel aanwezig was. Uitsluitend of de gordel dicht was
  • Stuur kan gewoon los gelaten worden en door een waterflesje er tussen te klemmen
  • Wanneer je van een weg met markering naar een weg zonder gaat blijft het systeem gewoon in werking
  • Logs van Tesla geloof ik niet, want over het algemeen wordt vlak voor impact de auto pilot uitgeschakeld. Dit is ook meerdere keren al bewezen.
Daarnaast heeft Tesla (claimen ze zelf) het beste rij hulp systeem wat te krijgen is op een auto. Echter een overstekende voetganger wordt niet gedetecteerd. (ook dit is getest in de VS en daar kwam Tesla wel enorm slecht uit...
Even over dat laatste puntje, geen idee of dit een consistent probleem is. Tesla zegt in ieder geval zelf in de statistieken dat ze ook alle aanrijdingen meetellen die optreden binnen 5 seconden na het uitschakelen van de AutoPilot. Dus die gevallen worden ten minste wel meegenomen in de veiligheidsstatistieken
De oudere modellen hadden geen check of er gewicht op de stoel aanwezig was
Ik weet niet wat je verstaat onder 'oudere modellen', maar volgens het artikel van Washington Post, waar het Tweakers artikel naar linkt, gaat het om een 2019 Model S:
Inside the 2019 Model S, police said, they found two passengers dead
Punt blijft natuurlijk dat, als je zoveel moeite doet om niet op de bestuurdersstoel te zitten, het moeilijk is om de schuld bij de autofabrikant te leggen.

[Reactie gewijzigd door Kjoe_Ljan op 20 april 2021 10:56]

Ouder models waar ik naar refereer was volgens mij een 2018 of 2017 versie van de Model S.

En helemaal met je eens, wanneer je echter het stuur van de auto hoort te zitten, zit daar dan ook.
Ik zou niet weten waarom je dit structureel wil gebruiken zolang het nog niet overal mag.

Je bent zelf verantwoordelijk voor de auto en hopelijk blijft dat ook nog erg lang zo. Wat betekend dat je in mijn ogen gewoon zelf op moet letten.

Ik zou het beter vinden als Tesla het had omgedraaid. Het gaat aan wanneer mensen bv in slaap vallen om zo snel mogelijk veilig te stoppen.

Het is altijd actief om bv kinderen te detecteren. Hoewel dat in Nederland zo goed als onmogelijk is om dat goed te doen vanwege de inrichting van de wegen in de bebouwde kom.
Probleem is dat Tesla hun auto's adverteert als "self driving" en "autopilot" en allemaal trailers laat zien van hoe cool de techniek is, alleen om daarna te zeggen dat "je het niet mag gebruiken want het is nog niet officieel goedgekeurd". Mensen die in de hype cult zitten beginnen te geloven dat de Autopilot daadwerkelijk een Autopilot is. Tesla noemt iets een autopilot terwijl het gewoon "driving assistant" had moeten heten.
Probleem is dat mensen niet meer ZELF na kunnen denken. Autopilot lijkt mij heerlijk op saaie lange stukken of b.v. de N9 om op koers te blijven. (ook een saaie weg en erg gevaarlijk, vooral als je daar pas na twee uur rijden nog een stuk moet)

Midden in A'dam, Utrecht of het beruchte Keizer Karel plein in Nijmegen.... geen idee of autopilot daar gaat werken.
Autopilot werkt officieel alleen op de snelweg. In de praktijk ook op andere wegen, zolang er geen kruispunten ofzo zijn. Het is een iets betere versie van cruise control. Net als de Autopilot in een vliegtuig.

Voor alle ingewikkeldere wegen heb je FSD nodig. Maar dat is nog lang niet op het niveau dat je niet zelf achter het stuur hoeft te zitten. Het is wel de bedoeling dat dat ooit gaat lukken.
Het is een iets betere versie van cruise control. Net als de Autopilot in een vliegtuig.
Ehm, de AP in een vliegtuig kan zonder tussenkomst van enig mens van 200 ft hoogte na takeoff volledig een vlucht uitvoeren t/'m stilstand na de landing.. Da's wel iets meer dan cruise control, lijkt me..
Alleen onder hele beperkte omstandigheden. En de crew die de cockpit (tijdelijk) onbemand laat terwijl het vliegtuig op AP staat, zal nooit meer vliegen.

De meeste vliegtuigen hebben een AP die de richting, hoogte en snelheid kunnen uitvoeren. En soms kun je een vluchtplan met verschillende stappen invoeren. Maar er moet altijd een piloot goed opletten en klaar zitten om in te grijpen als er iets onverwachts gebeurt.

En dat is ook wat de standaard autopilot van Tesla kan. Hij houdt de snelheid waar dat kan en volgt de weg.
Ja, het gaat er hier natuurlijk niet om wat is toegestaan in de luchtvaart, jouw statement was dat een AP in de luchtvaart een soort cruise control is en dat is gewoon niet waar. "Soms kun je een vluchtplan met verschillende stappen invoeren"? Ja in een Cessna misschien soms, maar airlines laden gewoon een complete vlucht Amsterdam - Kaapstad, koppelen dit met takeoff runway en tijdens de nadering met landingsrunway en er hoeft niemand ook maar 1 flight control aan te raken.
Keizer Karel plein gaat niet werken. Staan geen lijnen op de weg :+ Denk ook niet dat een Tesla daar kan bedenken dat het eigelijk een hele grote rotonde is.
ha mis, is geen rotonde. Het is een normale, rondlopende, weg waar je rechts voorrang moet geven. Dat heet een verkeersplein. Dat het op een rotonde lijkt doet daar niets aan af.
Dat weet ik inderdaad. Doet inderdaad niet af dat het daar op lijkt. Neemt niet weg dat het een hele brede weg is zonder belijning. Wens een Tesla daar erg veel succes mee.
Mensen kunnen prima zelf nadenken, maar als de marketingafdeling z'n stinkende best doet om het systeem aan te prijzen als iets waarbij zelf nadenken niet nodig is, dan is de uitkomst daarvan natuurlijk voorspelbaar.
Echt niemand denkt dat. Ik vind dat toch zo'n flauwe kul. Ik zit in de hype train van Tesla en ik vind het geweldig. Allerlei mensen om mij heen rijden een Tesla (veel Model 3, aantal Model S en twee Model X), en ik ken echt he-le-maal niemand die ook maar in de buurt komt van de geschetste 'denken dat Autopilot daadwerkelijk Autopilot is'.

Dat is echt een idee van iemand die geen Tesla heeft of te weinig mensen kent die er wel één hebben. Als je het aanzet staat erbij dat het 'beta' is, als je op de website zit lees je erover. Het is een belofte die langzaam maar zeker uitkomt. Maar niemand denkt dat die al in een robottaxi zit.
Los van het feit dat (vrijwel, je hebt er altijd idioten bij,) geen enkele tesla-bezitter zal denken dat autopilot (hier en nu) volledige autonoom kan werken is de hele discussie over de term autopilot dom.

Mensen zeggen "het heet autopilot dus is het logisch dat je denkt dat het volledig zelfstandig is", uhh nee dat is even logisch als zeggen "het heet koekenpan dus is het logisch dat mensen denken dat je er aardappels in kookt".

De term autopilot komt uit de luchtvaart waar het zeer zeker niet om een systeem gaat wat het vliegtuig in alle omstandigheden autonoom bestuurt. Het is ook daar een systeem wat, bepaalde taken, in bepaalde omstandigheden van de piloot over kan nemen.

Het feit dat iedereen (incl politici) z'n eigen waanbeelden (alternative facts) net zo relevant vindt als de objectieve waarheid / wetenschappelijke consensus is de bron van zo veel onnodige problemen in de wereld.

Als iemand zegt, he mensen begrijpen de term blijkbaar niet, misschien is het beter om die aan te passen, dan heeft die persoon wellicht een punt. Als iemand zegt dat de term misleidend bedoeld is slaat dat nergens op.

[Reactie gewijzigd door martijnve op 20 april 2021 12:14]

ondertussen zijn we zo ver dat een vliegtuig van start to landing volledig autonoom kan doen.
jarenlang is al dit systeem invoegen van autopilot en autoland
maar sinds vorig jaar zijn er ook grote stappe genomen en is vertrekken volledig automatisch ook mogelijk.

dat het nog niet overal is toegelaten is een ander verhaal :)
Ik weet dat er systemen zijn die dat kunnen. Echter is dat niet de gangbare definitie van autopilot en niet hoe het normaliter op de meeste vliegtuigen functioneert.

Wat ik aan probeer te geven is het verschil tussen hoe een willekeurig persoon op straat autopilot interpreteert en wat het (op dit moment) in de praktijk echt inhoudt.
"het heet koekenpan dus is het logisch dat mensen denken dat je er aardappels in kookt"
Hier moest ik hardop om lachen _/-\o_

Verder met je eens, goed punt.
De term autopilot komt uit de luchtvaart waar het zeer zeker niet om een systeem gaat wat het vliegtuig in alle omstandigheden autonoom bestuurt. Het is ook daar een systeem wat, bepaalde taken, in bepaalde omstandigheden van de piloot over kan nemen.
Misschien in een Cessna.. Maar in de grote luchtvaart kan de AP volledig zelfstandig de geprogrammeerde vlucht uitvoeren van 200 ft na takeoff tot en met stilstand na landen.
Zo hey, dus je kent wel 10 mensen met een Tesla?
Stel 0,01% van alle Tesla rijders zijn naief, dom, doen stoer, is nieuwsgierig of heeft gewoon schijt.
In 2020 500000 auto’s verkocht.

Dan zijn er nog steeds 50 mensen die dit gaan uitproberen en eventueel verongelukken. Stel 1% van de bezitters zijn dom. Dan zijn het al 5000 auto’s. En hier zijn niet eens de andere bestuurders meegeteld zoals huisgenoten, vriend, kinderen die auto lenen etc.
Laten we er vanuit gaan dat jouw kennissen niet onder die 1% vallen

Je doet alsof iedereen weet wat beta betekent. Je verwachting ligt veel te hoog.

[Reactie gewijzigd door Dabbel op 20 april 2021 13:40]

US ...
het land waar je in de handleiding moet zetten dat je kat niet in de microgolf mag om te drogen ...
of dat je op de koffiehouder moet zetten : behave HETE koffie ....
Ik ken een aantal mensen met een Tesla (sommige rijden er zelfs al even in). 1 Daarvan die ziet zijn auto echt als een robottaxi. Die pakt zijn laptop en zet zijn stoel in de achterste stand (en kan hierdoor niet bij de pedalen) en gaat aan het werk... Dus ze zijn er wel degelijk.
Toch in ieder geval één, die er zelfs rechtszaak over voerde met argument dat hij niet de feitelijke bestuurder was:
https://www.vincenteverts...utopilot-boete-overzicht/
zelfs zonder ooit in aanraking te zijn gekomen met een tesla weet ik dat er duidelijk wordt gemaakt dat je ten allen tijde moet kunnen ingrijpen, dan ga je al helemaal niet op een andere stoel in de auto zitten |:( |:( 8)7

dit is gewoon 100% de schuld van de inzittenden, hoe je het ook draait of keert, zelfs in de VS waar je zelfs waarschuwingen hebt bij je microgolf dat je je huisdier er niet mag in steken.
Bij 'Autopilot' denk ik aan de autopiloot van vliegtuigen. Die stijgen niet voor je op en die landen het vliegtuig niet voor je, je zet het pas aan wanneer de route rustig en voorspelbaar wordt. En ook dan stappen de piloten niet weg want ze moeten ingrijpen als er iets afwijkends gebeurt. In die zin is de Autopilot van Tesla precies wat een autopiloot is.
Je bent zelf verantwoordelijk voor de auto en hopelijk blijft dat ook nog erg lang zo.
Euhmm wut? Ik hoop dat we zo snel mogelijk het risico van mobiliteit kunnen verleggen naar elders en dat ik reistijd als persoonlijke tijd kan besteden. Waarom hoop je dat mensen (die inherent weinig kunnen) lang verantwoordelijk blijven voor de auto? Liever computers die op een voorspelbaar systeem kunnen rijden dan foutgevoelige mensen (inclusief drank- en drugsgebruik, slapeloosheid, afleidingen etc).
Mee eens, maar zo lang systemen nog maar "half" werken en niet volledig sta ik achter wat ik schrijf.

Verder ben ik het met je eens, een mens kan niet links en rechts kijken, voor zich en eventueel ook nog achter zich.

Een kind tussen de auto's wat de weg op schiet zal een computer eerder zien. Of je alles kan voorkomen is een andere vraag.

Het lastige blijft het menselijke gedrag bv een lagere snelheid omdat het mogelijk gevaarlijk is. Of dat je kan doorrijden omdat de mensen duidelijk laten zien je gezien te hebben.

Maar de reactietijd van een computer is altijd hoger dan die van een mens. (mits goed gemaakt).
Dus als je de gordel van de bestuurdersstoel hebt ingeklikt, een waterflesje in het stuur hebt geklemd en de autopilot actief hebt gehouden op een stuk weg waar hij niet ondersteund is, terwijl er geen bestuurder is en je crashed dan, zegt dat dan iets over autopilot? (Wat niet eens op de betreffende auto zit).

Wel weer bijzonder. Het lijkt wel alsof elke dode door een crash wereldwijd met een tesla in het nieuws komt. De echte statistiek is natuurlijk hoeveel km ongelukvrij en dodenvrij.

[Reactie gewijzigd door SpiceWorm op 20 april 2021 13:42]

Hahah nee natuurlijk niet. Uiteindelijk is en blijft de bestuurden IMHO verantwoordelijk. Helaas zie je (ook wel online te vinden) veel mensen die het verantwoordelijks gevoel niet hebben door de schijn veiligheid die o.a. Tesla wordt geclaimd.

En ja mensen die hard schreeuwen (Elon Musk) zal ook veel te horen krijgen wanneer er iets niet goed is met het product waar hij zo hard voor schreeuwt.
Ik heb het al vaker geroepen, maar de term "Autopilot" is gewoon misleidend. Dat suggereert dat je op de "automatische piloot" van A naar B wordt gechauffeurd, terwijl dat systeem die bewering helemaal nog niet kan waarmaken. Niks ten nadele van Tesla, want ik vind het echt wel een indrukwekkend systeem, maar zo'n naam roept verwachtingen op (vooral bij leken) die niet waargemaakt worden. En dan kun je met een legertje advocaten kijken hoe je eventuele claims kunt afwijken en wat je moet doen om de bestuurder de aandacht erbij te laten houden, maar het begint met die naam. Had het "advanced driver assist" o.i.d. genoemd en de functie was duidelijk gebleken uit de naam.

Het heet ook "Lane keep assist", niet "Auto steer" en "Adaptive cruise control" heet niet "Auto throttle and brake" o.i.d.

[Reactie gewijzigd door Grrrrrene op 20 april 2021 22:36]

Aantal zaken zijn denk ik te bestrijden omtrent het zelfrijden van een Tesla.
  • Logs van Tesla geloof ik niet, want over het algemeen wordt vlak voor impact de auto pilot uitgeschakeld. Dit is ook meerdere keren al bewezen.
"logs geloof ik niet" 8)7 8)7
Denk je ook niet dat ook andere waarnemingen van de sensoren gelogd worden zodat heel precies is te bepalen of het systeem aanstond VÓÓR de crash.

Trouwens was het volledig autonoom rijden pakket van TESLA niet aangeschaft. Alleen de standaard Assist functies.

Trouwens de test die je bedoeld ( van de US AAA (anwb) uit 2019) wordt dan weer tegengesproken door de Europese testen die juist wel positief waren voor Tesla.
Je gelooft niet in de logs van Tesla? Dus je gelooft ook niet de informatie die uit een zwarte doos van een vliegtuig komt?

Logs zijn de manier om vast te stellen wat er precies is gebeurd. Over het algemeen heeft elke log entry ook gewoon een tijdstip van wanneer een event plaats vindt. Dus ook al schakelt die auto pilot zich uit vlak voor impact, dan zou dat gewoon zichtbaar moeten zijn.

Lijkt mij wel heel sterk dat in zo'n situatie Tesla vervolgens zou roepen dat de auto pilot niet aan stond. Daarmee riskeren ze PR schade waar je u tegen zegt.
Als Tesla de logs leest en publiceert... en nog steeds gebruikers die de camera's hebben uitgelezen en deze op youtube zetten omdat de auto iets fout heeft gedaan bedreigt met rechtszaken e.d.

Nee dan geloof ik ze zeer zeker niet. En de plank betreft de zwarte doos van een vliegtuig sla je ook mis. Dit wordt door een onafhankelijk instituut uitgelezen.
Hiermee zeg je dus eigenlijk dat je niet geloofd dat Tesla eerlijk verslag zou doen op het moment dat zij een technisch mankement constateren wat mogelijk mensenlevens heeft gekost.

Geloof je dan geen enkel bedrijf dat zelf onderzoek wilt doen naar een mogelijke fout in hun product?

Dat zwarte dozen door externe organisaties worden geanalyseerd heeft overigens meerdere redenen absoluut niet per se hun onafhankelijkheid. Technisch is het namelijk zeer complex waar zelfs sommige landen de middelen niet voor hebben.

Overigens ben ik wel voorstander dat elk auto ongeluk door een onafhankelijk instituut wordt geanalyseerd. Lijkt me alleen niet realistisch gezien de frequentie van ongelukken.
Heb je helemaal correct. Ik geloof niet dat Tesla altijd even eerlijk is. Mede door de andere gevallen die bekend zijn (die niets te maken hebben met het auto pilot gebeuren) en hoe Tesla daar mee om is gegaan. Voorbeelden:
- Afvallende bumpers door de regen
- Brekende voorwielophanging
- Slechte afwerking
- Involledige auto's (accupack lag gewoon bloot meteen na afleveren)
- etc.

Dus nee het vertrouwen in Tesla is daardoor wel weg. Ik geloof wel zeker dat elk bedrijf onderzoek doet in mogelijke fouten in zijn of haar product. Zoals het ook hoort te zijn en wanneer dit gevaar oplevert hiervoor een terugroep actie (in het geval van een auto) doet.

Omtrent de zwarte dozen. Ik ben ook een voorstander dat elke auto er eentje heeft en dat een onafhankelijk instituut deze zou kunnen analyseren. Echter door de grote hoeveelheid ongelukken lijkt mij dat een utopie.
Je gelooft niet in de logs van Tesla? Dus je gelooft ook niet de informatie die uit een zwarte doos van een vliegtuig komt?
Niet als Tesla ze leest, dat is 'wij van WC-eend'.

Overigens vind ik al die nutteloze hulpmiddelen niet meer dan 'gadgets'. Een auto kan zelf inhalen, maar wel alleen als de bestuurder de handen aan het stuur heeft en goed oplet. Haal dan zelf in? Dit soort speeltjes horen op een afgesloten parcours thuis, niet op de openbare weg.
Krijg je hem uberhaupt wel van zijn plaats als je op de bijrijders stoel gaat gaat zitten, gordel van bestuurdersstoel vast klikt en autopilot aanzet?
De andere punten zijn hieronder grotendeels al ontkracht. Punt 3 klopt ook niet: Autopilot stopt wanneer de markering ontbreekt (let wel: wanneer er binnen een x aantal meter niet opnieuw goede markering zichtbaar is).

Je dient dan onmiddellijk in te grijpen - en dat wordt met behoorlijk veel lawaai kenbaar aan de bestuurder gemaakt.
Een perfect rij hulp systeem bestaat nog niet, maar de Safety Assist systemen van Tesla komen wel steeds als beste uit de tests van o.a. Euro NCAP.
voorbeeld: https://www.youtube.com/watch?v=x7Hp2zACGmg&t=8s
Inmiddels wel gelukkig. En uit persoonlijke ervaring zijn de rij hulp systemen nog verre van perfectie idd. Zelf een aantal ADAS systemen op de auto waar ik een aantal inmiddels van heb uitgeschakeld. En dit om twee redenen:
- De werking is niet consistent en hierdoor niet betrouwbaar
- Je wordt als chauffeur lui aangezien die hulpsystemen er zijn. Ik wil zelf rijden!
De grote vraag in dit verhaal blijft verantwoordelijkheid. Als je iemand de dood in rijdt wordt je daar als bestuurder hard voor gestraft (en terecht). Als bestuurders zich nu kunnen verschuilen achter rijhulpsystemen met "ja, ik deed niets fout, mijn auto deed dat" en dan kom je bij het punt waarom rijhulpsystemen wel feilloos worden geacht te zijn. De grote reden waarom we nog niet aan de zelfrijdende auto toe zijn. Alle bestaande zelfrijdende systemen zijn doorgaans gesloten circuits (metro van Lille, monorail op de luchthaven van Düsseldorf bv) maar bij zelfrijdende zaken op de openbare weg komt een juridisch aspect kijken. En dat heeft waarschijnlijk nog een lange weg te gaan.
In de hele schuldvraag wordt vaak een belangrijk aspect over het hoofd gezien: de meeste auto's en zeker Tesla's houden een zeer gedetailleerd log bij van alles dat er gebeurt. Dat log zal in elke schuldvraag een rol spelen.
En dan is het natuurlijk vrij simpel: de autofabrikant is verantwoordelijk voor de hardware en een deel van de besturing, de bestuurder voor het overige deel. Een autofabrikant zal aan een bestuurder duidelijk moeten maken waar haar verantwoordelijkheid eindigt en die van de bestuurder begint. Tesla is daar vrij duidelijk in: FSD of AP: je bent als bestuurder nog steeds verantwoordelijk. Technische mankementen, ontwerpfouten daargelaten.
Persoonlijk vind ik juist full self driving de suggestie wekken dat je als bestuurder helemaal niets meer hoeft te doen. En vanuit marketing oogpunt is de term natuurlijk ook zo bedoeld...
Het wordt erg goed benadruk dat het systeem van Tesla net de stap naar fase 3 heeft gezet. Stap 5 is past zonder dat je zelf toezicht hoeft te houden, als je dit niet weet of niet serieus neemt. ben je gewoon nalatig als bestuurder.

Je bent en blijf dan dus ook bestuurder en geen passagier.
Persoonlijk vind ik juist full self driving de suggestie wekken dat je als bestuurder helemaal niets meer hoeft te doen. En vanuit marketing oogpunt is de term natuurlijk ook zo bedoeld...
Dat klopt ook inderdaad helemaal: met FSD hoeft de 'bestuurder' inderdaad niets meer te doen; de auto rijdt zelf. Niets suggestie.

ECHTER:

Ten eerste: Tesla verkoopt FSD als toekomstige feature: je koopt het nu, maar je krijgt het in de toekomst. Ondertussen krijg je wel software die FSD steeds dichter benadert. Vooralsnog is echte FSD echter nog steeds niet beschikbaar.

Ten tweede: FSD is wettelijk (zover ik weet) nog niet toegestaan. Zolang dat zo is, zelfs wanneer Tesla op een gegeven moment stelt dat FSD vanaf dan 100% áf is, is het nog steeds jouw fout als je het inschakelt, en erop vertrouwt, en er gaat iets mis.

Daarnaast: Tesla maakt ongetwijfeld aan zijn klanten ook heel er goed duidelijk wat de beperkingen zijn van de FSD die ze gekocht hebben, zowel technisch als wettelijk.

Kortom: als iemand denkt dat ie op dit moment een FSD Tesla heeft, en die ook kan gebruiken, dan ligt dat toch echt aan die persoon zelf.
Je moet wel volledig boekiezoek zijn om een Tesla te kopen en dan te denken dat FSD inderdaad betekent dat je niets meer hoeft te doen. De waarschuwingen, mitsen en maren, disclaimers etc zijn "all over the place" en werkelijk niet te missen.
Ja dat snap ik heus wel, maar de term is bewust gekozen en dekt de lading niet. In mijn ogen is die term daarom misleidend 🤷‍♂️
Tja. De term is toch echt FULL self drive. Dat zegt toch echt dat de auto volledig zelf rijdt...

Er zijn zat mensen die alles letterlijk nemen. Was laatst nog in het nieuws dat o.a. Mensen met autisme het stukwassen van de handen te letterlijk namen. Die schrobden letterlijk hun handen stuk. Daarom wordt dat nu niet meer gezegd.
Tja. De term is toch echt FULL self drive.
Ik weet wat het betekent. Maar ik zei niet voor niets: "Je moet wel volledig boekiezoek zijn om een Tesla te kopen en dan te denken dat FSD inderdaad betekent dat je niets meer hoeft te doen". Veel duidelijker kan ik het niet stellen. Alleen Karens zouden zich na een probleem waarschijnlijk beroepen op de tekst in de folder...
Er zijn zat mensen die alles letterlijk nemen.
Ik wist het: we hebben helemaal geen nucleaire oorlog of klimaatverandering nodig: de mensheid gaat aan des-informatie en domheid ten onder.
Tja. De term is toch echt FULL self drive. Dat zegt toch echt dat de auto volledig zelf rijdt...
Dat betekent het ook. Alleen als je de optie FSD koopt, dan koop je geen auto die nu FSD heeft, dan koop je een auto de FSD krijgt, zodra het 'áf' is, maar niet eerder. Tesla is daarover ook zeer duidelijk.
Hier volg ik je in.

Je kan het vergelijken met een totaalverbod op computers opleggen, omdat er ergens iemand kinderporno streamed.

Alles kan misbruikt worden, en een verbod lost zelden iets op.
Als ik iemand doodschiet, is de fabrikant van het wapen dan schuldig?

Een rijhulpsysteem blijft een hulpsysteem, de persoon achter het stuur blijft eindverantwoordelijk. En als je dan in een auto die blijkbaar geen autopilot heeft, op de achterbank gaat zitten, tja, iets met Darwin.
Het zal me niks verbazen dat deze persoon heeft gedacht dat alle Tesla's zelf kunnen rijden, maar ipv autopilot (die hij niet eens had) gewoon cruise controle heeft aangezet en vervolgens naar de passagier stoel is geklommen. Daarna is het natuurlijk heel snel fout gegaan bij het kleinste bochtje die lane assist te scherp vond oid.

Wat er ook is gebeurd, het blijft wat jij zegt een Darwin winnaar. Als je van je stuur weg klimt ben je gewoon dom, en heb dan ook alleen medelijden met de passagier mits die er niet mee in stemde om dit soort rare dingen te doen.
Voor de praktijk in Nederland is dit te zien via de 3e generatie ParkShuttle die binnenkort ook op de openbare weg komt: https://www.ovpro.nl/bus/...-voor-nieuwe-parkshuttle/

Natuurlijk is dit zo'n klein systeem dat het ook kan zijn dat er geen ongelukken gebeuren.
Wat je zegt klopt niet helemaal: Autopilot wordt waarschijnlijk veel vaker gebruikt op snelwegen e.d., waardoor die 10x minder aanrijdingen juist op veiligere wegen voorkomen. Er zijn geen volledige cijfers over hoe veilig Autopilot nou echt is. Wellicht kan Tesla die wel achterhalen statistisch gezien, maar de getallen die ze uitbrengen zijn ongevallen per km met en zonder, en dat verschil als "zoveel x veiliger" te brengen. Ik hoop dat dat rooskleurig voorspiegelen van getallen ze nooit negatief zal achtervolgen, want het lijkt er zeker wel op dat het duidelijk veiliger is.

Dat het veiliger is lijkt me wel logisch. En het komt een beetje hetzelfde neer op zeer zeldzame bijwerkingen bij vaccinaties wellicht; dat is zeker niet hetzelfde, maar dezelfde "trade" waarbij je 2 onzekere situaties voor elkaar ruilt waarbij de keuze voor de zekere situatie ook jouw dood kan betekenen, is iets waar mensen zich zeer onprettig bij voelen. Ik denk zelf dat dat komt door een onterecht gevoel van controle dat veel mensen hebben, en het is een vrij filosofisch debat eigenlijk.
Dit dus, voor ieder autonoom in de auto geld nog steeds dat je als bestuurder in eerste instantie verantwoordelijk bent voor het besturen van je auto. Uitzondering daargelaten natuurlijk maar je moet dit soort systemen altijd als hulpsystemen beschouwen.
De weg waar dit plaats vond was ook vrij kort waardoor het onwaarschijnlijk is dat Autopilot geactiveerd kon zijn en daarna van stoel gewisseld werd. De betreffende woordvoerder van de politie heeft zijn woorden ook zeer slecht gekozen. Je kan niet 100% zeker zijn dat er niemand op de bestuurdersstoel zat, maar daarna aangeven dat het nog niet uitgesloten is. Zo werken procenten niet.
Je bedoelt voorwaardelijke opzet, de lichtste vorm van opzet. Er bestaat niet zoiets als grove opzet :+ En zelfs van deze vorm van opzet kan je misschien nog hard maken dat er geen sprake is van opzet en dan heb je het misschien over grove schuld. Belangrijk verschil.
Voor iedere 10 aanrijdingen die het voorkomt, veroorzaakt het er ook één.
Het grappige is dat we dit redelijk vergelijkbaar nu in de praktijk zien met het AstraZeneca-verhaal. We kunnen heel veel overlijdens voorkomen door te blijven vaccineren, maar omdat er zeer kleine kans is op soms een overlijden door het vaccin, zijn we zeer terughoudend en sluiten zelfs bepaalde groepen uit.

Wat ook niet helpt met zelfrijdende auto's is dat mensen graag zelf het gevoel willen hebben controle te hebben over de situatie. Dus een ongeval veroorzaakt door deze nieuwe techniek maakt veel meer emoties los dan wanneer een mens dat doet.
De vraag blijft dan nog hoe komt het dat de auto is blijven rijden zonder iemand achter het stuur ?

Er heeft iemand achter het stuur gezeten, is deze dan naar de bijrijdersstoel geschoven of naar achteren geklommen.
Dit zou dan gebeurt moeten zijn met autopiloot aan die zichzelf dan heeft uitgeschakeld nadat die persoon zich verplaatst heeft.

Waarom heeft men dit dan gedaan.
Zelfmoord ?
Of kijken of auto piloot toch zou werken met niemand achter het stuur en wat het oeps foutje en nu dood.
Geen enkel rijhulpsysteem is feilloos. Voor iedere 10 aanrijdingen die het voorkomt, veroorzaakt het er ook één. De vraag is of het ethisch is om rijhulpsystemen dan te verbieden, als je van tevoren al weet dat het aantal slachtoffers dan zal stijgen.
Dit is een vals dilemma, een drogreden dus. Dat het een aantal dingen goed doet, wil niet zeggen dat het ook fouten mag bevatten.
Ik denk dat je niet helemaal begrijpt wat ik bedoel. Natuurlijk mag een rijhulpsysteem geen fouten maken, net zomin als een menselijke bestuurder geen fouten mag maken. Praktijk is echter dat beide wel fouten maken omdat zowel de mens als het systeem niet perfect is. Feit is echter dat het systeem significant minder fouten maakt dan de mens.

Laten we aannemen dat menselijke bestuurders op zeg 1 miljoen afgelegde kilometers 10 aanrijdingen veroorzaken. In diezelfde 1 miljoen kilometers zal een rijhulpsysteem slechts 1 aanrijding veroorzaken.

Wat doe je in zo'n geval? Als je het rijhulpsysteem laat rijden voorkom je 9 aanrijdingen. Of verbiedt je het rijhulpsysteem omdat het soms toch nog een fout maakt? Ofwel, laten we meer ongelukken gebeuren omdat we een slecht gevoel hebben als we niet meer in controle zijn?
Ik snap precies wat jij bedoelt en daarom reageer ik ook. Een menselijke fout, hoe tragedies ook is niet te voorkomen. Een computerfout is te voorkomen. Op dit moment is het een toevoeging op en niet een vervanging van, daarom is de vergelijking ook krom.
Edit: Het blijkt ook maar weer eens dat binnen de kortste keren de wildste verhalen rondgaan. Zo wordt in diverse media genoemd dat het de brandweer 4 uur kostte om de brand te blussen en dat ze Tesla moesten bellen om te vragen hoe ze moesten blussen. In werkelijkheid bleek de brandweer prima te weten hoe de brand geblust moest worden en gebeurde dit in een paar minuten.

https://www.houstonchroni...e-example-of-16113029.php
Dat staat inderdaad in dat artikel.
Alleen komt het verhaal niet erg overeen met de fotos van het wrak.
Dat laat een volledig uitgebrandwrak zien. Dat is niet hoe een auto er uit ziet als ie maar een paar minuten in brand heeft gestaan, en de brandweer daarna de auto is blijven koelen.
@matroosoft Ik rij zelf een Model S en heb enkele jaren bij Tesla gewerkt. De punten die jij aangeeft zijn grotendeels waar maar niet helemaal correct.

Autopilot schakelt zichzelf niet zomaar uit als je het stuur langdurig niet aanraakt, als je de gordel afdoet of met gordel bevestigd toch van plek gaat wisselen. De auto zal dat zeker door hebben en veiligheids functies(autopilot) zullen dan in principe de auto stil zetten maar niet autopilot deactiveren.

Echter is dit zeer complex als het ook nog eens gaat om een weg zonder markeringen waarbij de auto niet kan ingrijpen op bijvoorbeeld het afwijken van het volgen van de streep terwijl er geen bewegingen aan het stuur worden gedetecteerd.

Dit is zeer lastig uit te vinden wat precies is mis gegaan maar gezien de snelheid denk ik persoonlijk dat de bestuurder een idioot stomme actie probeerde te doen door van plek te wisselen tijdens het rijden en hierbij het stuur een flinke draai heeft gegeven zonder autopilot die daar ook maar op had kunnen ingrijpen. Wellicht dat autopilot ervoor wel aan stond maar als er niet minstens aan 1 kant van de weg markeringen staan kun je autopilot niet activeren. Echter is het wel degelijk mogelijk autopilot te gebruiken op wegen zonder markeringen als deze al actief stond voor de markeringen verdwenen. Autopilot blijft dan netjes op het weg dek met de kennis uit machinelearning en herkent gewoon waar de weg op houd of waar drempels liggen en gaat dan in het midden door.

Het zijn dus gevaarlijke statements om aan te geven dat op basis van een weg uit te sluiten dat autopilot actief stond.

We kunnen het er wel allemaal mee eens zijn dat dit praktische een zelfmoordactie was, al was dat niet zo bedoeld. Wie haalt het in zijn hoofd om de bestuurders positie te verlaten. Ik vraag me daarom ook af welke leeftijd de 2 doden hadden.

Autopilot is statistisch gezien meerdere malen veiliger dan zelfsturen. Dat is uit genoeg gegevens te lezen. Als men weegt hoeveel dodelijke ongelukken er per dag gebeuren tegen 1 of 2 doden per jaar aan autopilot is dat in de zelfde gemiddelde aantal km slechts een fractie van wat autopilot doet voor het iemand fataal wordt. Ikzelf rij vrijwel 90% op autopilot. Enkel in de bebouwde kom en het nemen van afslagen en opritten rijd ik zelf. En zeker in de afgelopen 4 jaar zijn er enorm grote stappen gezet.

Mijn auto rijd met iedere update steeds beter en stabieler. In 2017 waren ze redelijk recent over gegaan van Mobile- eye naar eigen software wat in eerste instantie flink een weg te gaan had. Maar nu rijd de auto beter dan vrijwel de beste bestuurders op de weg. Reageert heel rap, blijft precies in het midden van een rijstrook maar wijkt wel altijd een klein beetje uit voor vrachtwagens en bestuurders die te dicht op de streep zitten. Houd ook rekening met de dooie hoek en haalt mensen meestal niet in als er slechts 1km/u verschil in zit om uit die dooie hoek te blijven. Haalt niet rechts in en hij kijkt ook nog eens 3 auto's voor je met een radar waar jijzelf geen zicht hebt.

Ik snap dat autopilot de krantenkoppen haalt iedere keer als er dan wat mis gaat. Maar het is absoluut belachelijk om ook maar enigzins Tesla hier als schuldige neer te zetten. Een probleem wat is ontstaan door journalisten die aandacht willen voor slechte artikelen en een rijke olie maatschappij die flink op sterven staat.

Het is spijtig dat 2 zijn overleden hier. Maar wat er ook heeft afgespeeld, dit was gewoon idioot en dom.
Het klopt dat AutoPilot niet gelijk uitschakelt als je niet tijdig het stuur beetpakt. In dat geval zal hij inderdaad het voertuig langzaam laten stoppen. In de andere gevallen schakelt AutoPilot echter wel direct uit! Zie bijvoorbeeld dit filmpje: https://youtu.be/9KtkIarbnMg

Niet alleen schakelt het dan gelijk uit, ook wordt een modus geactiveerd die men spottend wel eens 'AutoPilot jail' noemt. Je kan voor de rest van de rit dan geen AutoPilot meer gebruiken

Overigens waren de leeftijden van de inzittenden 59 en 69 jaar.
Ik geloof dat jij niet begrijpt wat wordt bedoeld met uitschakelen van autopilot. In het filmpje die jij toont is duidelijk te zien dat juist autopilot langs de weg gaat en dan gaat stilstaan. Dat is nog altijd een zeer actieve autopilot die voor de verkeersveiligheid jou langs de kant zet met alarm lichten en zeer nauwkeurig de omgeving in de gaten houd. Dat zit in alle Tesla's ook als men niet de autopilot optie heeft gekocht maar wel de hardware heeft maar dit is gewoon autopilot die actief blijft maar echter er voor kiest niet langer de rit zo voort te zetten tot de situatie weer veilig is.

Wanneer jij echter noemt dat autopilot wordt uitgeschakeld betekent dat controle door de auto niet langer actief is en je dus vrij letterlijk zelf rijd en de concequenties hier van. Zoals het sturen en het gas geven. Autopilot schakeld dus daarom ook nooit zomaar uit als een bestuurder de gordel af doet of in een andere stoel gaat zitten. Autopilot gaat wel over op veiligheidsfuncties en geeft jou een signaal wanneer dit gebeurt en zal daarom om jou aandacht vragen met jou handen op het stuur.

Situaties waarin autopilot wel uitschakeld is bij routes waarbij Tesla zicht kwijt raakt of bijvoorbeeld een rotonde die hij niet begrijpt of andere situaties zoals een hardware probleem wat plaatsvind. In al deze gevallen zullen toch de veiligheidsfuncties proberen in te grijpen waar dat mogelijk is. Het is vrij verkeerd vertaald om te zeggen dat autopilot uitschakeld in die situaties. Autopilot is juist actief en houd de situatie om jou heen ook in de gaten om zo veilig mogelijk langs de kant te stoppen.

Gezien de leeftijd van de overledenen moet ik zeggen dat ik zeer verast ben. En het vrij onwaarschijnlijk vindt dat de bestuurder heeft proberen stoel te wisselen. Ik ben zeer benieuwd wat er uit de data komt nadat het onderzoek is afgerond.
Even terugkijkend naar het filmpje zie ik dat het daar gaat om de FSD beta, dus niet AutoPilot. Een daarmee niet representatief.

Dus ben even wat verder gaan zoeken en toen kwam ik dit filmpje tegen: https://youtu.be/azLWAWjpbkM

Daar blijkt inderdaad uit dat je gelijk hebt, AutoPilot blijft actief. Al kan ik me moeilijk voorstellen dat je in die herrie lang blijft doorrijden. ;)
Klopt. Uiteraard is het hoe dan ook niet verstandig om in die situaties niet zelf in te grijpen want juist tijdens die nood momenten kan Autopilot verward zijn en een verkeerde keuze maken. Maar het is in ieder geval wel zo gemaakt om ook mensen die bijvoorbeeld een hartaanval, epilepsie of in slaapvallen in veiligheid te brengen wanneer zij daar zelf niet langer toe in staat zijn. Je bent in principe dus altijd veilig als autopilot eenmaal is ingeschakeld en anders de veiligheid functies van de auto zelf die met een situatie mee kijken zelfs als men niet de autopilot optie heeft aangeschaft. Maar het blijft auto rijden en ongelukken kunnen altijd in iedere vorm nog gebeuren. Maar zeker in recente software schakelt autopilot in principe nooit uit tenzij de auto geen zicht heeft of een situatie kwijt raakt door een hardware defect. Wel kan een bestuurder altijd controle overnemen door gas te geven, remmen of sturen. Dus een ongeluk door eigen fout daar is autopilot minder proof voor. Als jij gas geeft en vol tegen de vangrail aan rijd kan de tesla niks anders doen dan waarschuwen en eventuele corrective steering door druk te geven op het stuur in een bepaalde richting, maar de bestuurder bepaald.
De nieuwe Ford kijkt met infrarood achter het stuur of iemands ogen daadwerkelijk open en op de weg kijken. Niet te omzeilen iig
Nog erger is dat er nu door "viral" te gaan op social media, er jonge mannen bewust mee bezig zijn om video's te maken om stoer te doen dat hen auto zelf rijd zonder bestuurder. En dat kan dus betekenen dat mensen bewust hen Tesla aanpassen met wat fysieke hacks om dit faken voor social media.

Op een twitter reactie van Musk, had iemand heel wat van deze filmpjes gepost, als reactie op mensen die de foutieve aannames van de media gebruikte. Om te laten zien dat dit gedrag is wat echt wordt aangewakkerd en dat dit een van de redenen zou kunnen zijn.
Niet correct, stuur vasthouden is niet genoeg! Jaren geleden was de boodschap op console ook "please hold the steering wheel" of zoiets. Maar als je autopilot aan hebt staan, en je houdt gewoon je stuur vast, dan detecteert een tesla dat niet. Reden is dat op bvb snelwegen de autopilot het enorm goed doet, dus je volgt gewoon autosteer zonder tegen te wringen.

Een jaar of 2 geleden hebben ze dan eindelijk de boodschap veranderd naar "Please apply light force" of zoiets. Want je moet in de praktijk dus echt tegensturen om een Tesla te laten weten dat je het stuur 'vasthoudt'. Er zitten dus geen sensors of zo in het stuur zelf.

In de praktijk moet ik dus om de zoveel tijd (is variabel) een snokje geven aan het stuur, anders krijg je alarmsignalen en gaat hij waarschijnlijk stoppen (dat laatste weet ik niet zeker, laat het niet zo ver komen). Maar dat snokje is dus echt niet zo comfortable, dat hadden ze beter kunnen oplossen.
Ik heb dit met mijn Model S eens getest. Als je niet reageert, dan gaan de alarmlichten aan en stopt de auto.
In de praktijk moet ik dus om de zoveel tijd (is variabel) een snokje geven aan het stuur, anders krijg je alarmsignalen en gaat hij waarschijnlijk stoppen (dat laatste weet ik niet zeker, laat het niet zo ver komen). Maar dat snokje is dus echt niet zo comfortable, dat hadden ze beter kunnen oplossen.
Dat probleem heb ik zelfs op mijn Skoda Kodiaq als deze op cruisecontrol staat met lane assist aan.. Ding denkt elke keer dat ik het stuur niet vast heb.
Mijn auto heeft die detectie ook in het lane keep pakket.
Verschrikkelijke detectie methode. Wordt helemaal gek van die melding. Blijkbaar maak ik tijdens het rijden te weinig stuurbewegingen, waardoor de auto denkt dat ik mijn handen niet op het stuur heb.
Mijn ervaringen zijn met een Model 3 en een snokje geven is eigenlijk niet nodig, gewoon wat kracht zetten.
Passagiers voelen dat zelfs niet als je dit voorzichtig doet. Dus gewoon wat tegendruk geven zodat de sensor op de stuurkolom dit registreert. Kan echt heel geleidelijk gedaan worden tot hij stopt met de waarschuwing. Heb het ook nog nooit zo ver laten komen dat hij zelf stopt.
Nee hoor, dat is helemaal niet moeilijk. Ik heb wel eens meegemaakt dat de bestuurder zijn jas uit wilde trekken en dat de passagier tijdelijk het stuur even vasthield. Bovendien is die "hand" die het stuur vasthoudt redelijk eenvoudig te vervangen door een zwaar voorwerp dat je aan de spaken van het stuur hangt...
Akkoord, maar op het moment dat je de trukendoos moet opentrekken om de auto te laten denken dat je echt wel oplet en echt wel je handen aan het stuur houdt ben je er natuurlijk 100% bewust van dat dit niet helemaal de bedoeling is.

Dan is dat niet de schuld van de auto, circelzaag, spoorwegovergang, etc. maar gewoon je eigen dikke vette schuld dat je beveiliging omzeilt. Jammer dat het dan zo moet aflopen, dat wel..
Natuurlijk, de schuldvraag lijkt me niet heel moeilijk, er van uitgaande dat de (voorlopige) conclusie van de politie klopt: er zat niemand achter het stuur. Ik heb begrepen dat meerdere experts al naar het ongeluk hebben gekeken en dat die conclusie redelijk stevig is. Natuurlijk zijn er flink wat leunstoel-experts die hun eigen analyse hebben gedaan, maar voorlopig vertrouw ik even op de politie-experts die ervaring hebben met het analyseren van ongelukken.
Nou, als hij niet detecteert dat je het stuur vasthoudt. Maar de bijrijder kan natuurlijk af en toe het stuur aanraken. Bovendien zijn er zelfs speciale soort beanbags die je kunt kopen en aan het stuur kunt hangen om de auto te overtuigen dat er iemand aan het stuur zit (als je het over idioot gedrag hebt...)
Volgens mij gebruiken de meeste mensen die het systeem willen bedotten een simpel flesje water wat ze in het stuur klemmen. Heeft het voordeel dat het systeem nog verder bedot wordt omdat water altijd beweegt en dus denkt het stuur dat er iemand het stuur vast heeft.

Sommige mensen geven niet zoveel om zichzelf en anderen denk ik. Ik vind het sowieso levensgevaarlijke technologie op dit moment, voor mijn gevoel staat het allemaal nog heel erg in de kinderschoenen.
Briljant! Ik heb dan wel geen Tesla, maar heel grappig dit. Geeft eigenlijk al weer aan dat het systeem verder 'tamper proof' moet worden gemaakt. Waarom geen camera die op de bestuurdersstoel kijkt en met een Apple Face-ID -achtig systeem dat kan zien of er een fysieke bestuurder op die stoel zit, en dat deze leeft (en geen pop is).

Kun je hem gelijk verder personaliseren door aan te geven welke personen er allemaal in je auto mogen rijden. Lijkt me een ideale anti diefstal maatregel.
Klinkt heel futuristisch. Ik denk dat de techniek op dit moment nog niet ver genoeg cq. betrouwbaar genoeg is.
Face-ID op mijn oude iPhone X doet het anders prima. Zou je dus prima in welke auto dan ook kunnen toepassen als toevoeging op de startblokker chip die in je sleutel zit.
Dat klopt, voor een telefoon voldoet het prima. Al gaat Apple ook nog regelmatig de mist in, probeer het eens met een mondkapje of andere bril (mocht je die hebben). Een auto is een moordwapen, daarvoor moet het net nog een stap betrouwbaarder worden in mijn ogen.
Mondkapje is inderdaad een no-go. Ik heb meerdere brillen, en bij mij werkt het bij elke bril. Nu heb ik geen dikke monturen (sommigen zelfs glasbril) en heldere glazen (zonnebril doet hij het niet mee).

Wellicht een kwestie van intrainen van Face ID wellicht?

Maag goed, ik snap je redenering. Ik zou Face-ID dan ook als toevoeging op de reeds bestaande voorwaarden toepassen om de auto autonoom te kunnen laten. Dus om nog een laag extra zekerheid te hebben bovenop de reeds bestaande sensoren in stuur, gordel en zitting.

Volgensmij zijn er zelfs al systemen die je ogen in de gaten houden om vermoeidheid te kunnen herkennen. Dus het zit al in de buurt.

Niet dan ik een fan van zelfstandig rijdende auto's ben hoor. Integendeel. Ik zou me nooit door een computer laten rijden. Ik denk ook dat je het met de huidige stand van kunstmatige intelligentie ook niet moet willen, want het blijft een systeem wat niet echt kan nadenken. Pas als computers een niveau van bewustzijn op het niveau van die van een hond, aap, of zelfs mens bereiken, lijkt me dat dergelijke autonome systemen pas echt aan de slag kunnen. Deelnemen aan het verkeer is verantwoordelijkheid dragen en durven nemen. Inlevingsvermogen hebben en soms de regels kunnen en durven overtreden om een situatie te redden.

Een AI die aan de verbrande rubberlucht afkomstig van de vrachtwagen voor hem kan inschatten dat deze zometeen een klapband kan krijgen, is een AI waar ik pas bij zou durven instappen. ;)
Bij mij gaat het met de bril niet altijd goed, meekleurende glazen willen nog wel eens een dingetje zijn als ik net van buiten naar binnen ga.

Over een paar jaar zijn we zover dat we meer kunnen, Tesla is druk bezig met op alle mogelijke manieren testen. Helaas gebeuren er daardoor ongelukken, maar ik denk dat er in de wereld maar weinig ontwikkelt is zonder dat daarbij slachtoffers vielen :)
Hoe dan? je moet wel een MacGuver zijn om dat voor elkaar te krijgen. Het is helemaal niet gevaarlijk, het is veel veiliger dan alleen een persoon achter het stuur zonder deze technologie.
Als je er correct mee omgaat is het zeker te verantwoorden. Alleen zie je inderdaad dat er mensen zijn die het begrip verantwoordelijkheid duidelijk niet kennen.

Als ik met FSD rijdt op de model 3 ben ik misschien zelfs nog aandachtiger dan als ik zelf rijdt. Want je moet het systeem constant in de gaten houden. Ik vergelijk het altijd met les geven aan een leerling-chauffeur. Als lesgever ben je niet aan het rijden, maar wel heel geconcentreerd om elke fout te zien en indien nodig in te grijpen. Hier net hetzelfde: je bent de Tesla aan het opleiden.

Voor je het gebruikt meldt Tesla ook dat je verantwoordelijk blijft, dat het nog in testfase is, dat je altijd moet opletten en kunnen ingrijpen enz. maar er zullen inderdaad mensen zijn die daar geen rekening mee houden. Voor iemand met een passie voor techniek is het heel leuk om zelf de verbeteringen te kunnen zien en mee te maken hoe de auto steeds bijleert en beter wordt. Misschien moeten ze eerst mensen een test laten afleggen voor je FSD kan activeren ;)
Als je zoiets idioots doet hoe kan tesla dan nog verantwoordelijk zijn?

We stellen ook BMW niet aansprakelijk voor elke wegpiraat toch?
Op de autobaan leg ik een baksteen op het gaspedaal van mijn BMW, anders krijg ik kramp in mijn voet van de hele tijd plank gas. werkt prima! |:( 8)7
Overweeg eens een ander merk, andere merken hebben al sinds 1958 een ingebouwd systeem hiervoor: cruisecontrol.
Als ex BMW rijder voel ik me nu aangesproken. ;)

Grappig is dat ik voor de tijd dat ik BMW reed, een deel van mijn leven in Citroens heb gereden. Toen noemde men mij een typische 'Citroen rijder' (dus suffe automobilist). Toen ik daarna BMW ging rijden was ik opeens een typische 'BMW rijder' (wegpiraat dus). Volgens mij een kwestie van het projecteren van het imago van de auto op diens bestuurder.

Wel is het zo dat als ik in mijn BMW 5-serie reed, ik vrijwel nooit werd afgesneden of geen voorrang kreeg. We hebben thuis ook nog een 18 jaar oud Audi A2'tje, en als ik daarin rijdt, dan maak je dergelijke zaken veel vaker mee.

Kennelijk zie dat A2'tje er te lief uit, en is de smoel van zo'n 5-serie te agressief, of heeft men bepaalde verwachtingen van het type bestuurder dat erin zou zitten. Hoe dan ook bijzonder gedrag.
halfvol flesje water is al genoeg
Er toch zullen er hele volksstammen zijn die zo'n beanbag aan het stuur hangen, om vervolgens nog slechter op te letten.

FSD is een leuk idee, maar zolang de meeste mensen nog zelf rijden is het gewoon echt geen reële optie.
Ik zie vrijwel elke keer als ik de weg op ga wel iemand een gevaarlijke (asociale) manoeuvre uithalen.
In veel gevallen is het puur geluk dat er op dat moment geen ongeluk gebeurt.

Ik verwacht dat als er 99 FSD auto's onderweg zijn op, bijvoorbeeld, de A12 er nog steeds een 100e automobilist zal zijn die zelf rijdt en er als een idioot tussendoor slingert.
100% procent zeker! Velen voelen zich in het verkeer een wolf, en als er dan een kudde schapen voor je rijdt... tja.

Maar dat autopilot gedoe kan ook irritant zijn voor andere weggebruikers. Met name als die dingen te veel afstand houden (en 2 seconden afstand is in de ogen van velen al veel te ruim) of van tijd tot tijd spontaan eventjes remmen zonder aanmerkelijk te vertragen.

En vooral dat (zonder enige aanleiding) remmen heb ik vaak gezien, en dat zijn dan de auto's die ik liever achter me heb zitten dan voor me. Ook bijzonder dat als je zo'n hok passeert er dan een of andere kwezel achter het stuur zit die met totaal andere dingen bezig is dan autorijden en je met opgetrokken wenkbrauw aankijkt alsof het de normaalste zaak van de wereld is, want hij aan het doen is.

Zulke mensen zou je een gratis OV Jaarkaart moeten aanbieden lijkt me.
Correct, of als er geen belijning is op de weg, of als de gordel wordt afgedaan, of als er geen gewicht op de bestuurdersstoel is.
Dat een AI een auto niet tegen een boom rijdt, dat wil ik graag geloven. Je mag hopen dat ze dat in fase 1 al hebben opgelost, maar het volgende vind ik dus wel schokkend:
Volgens Musk zou de Autopilot ook alleen werken als er wegmarkeringen op de weg hadden gestaan, maar dat was niet het geval op de weg waar de auto op reed.
Ik kan toch echt herinneren dat Tesla al jaren geleden in een video roemde hoe een Tesla op een geheel ondergesneeuwde weg nog de weg wist te bepalen en geen belijning nodig had. Dat is toch juist wat je van een goede AI mag verwachten? Daar kan je toch op trainen?

Kennelijk hebben ze ons opzettelijk een veel te optimistische stand van zaken voorgesteld en zijn ze jaren later nog steeds niet zo ver. Volgens Elon zou dit jaar volledige autonomie uiterlijk gerealiseerd worden. Dat wordt hard werken in de komende acht maanden.

Nu lijkt het erop dat Tesla's volledig autonoom zullen rijden onder gunstige omstandigheden, zoals een autosnelweg. Dat moet je dan wel beperkt volledig autonoom noemen. Want volledig suggereert bij mij overal en altijd en niet in enkel gunstige omstandigheden. Dat beeld heeft Elon ook steeds opgeroepen door te stellen dat volledig autonome auto's geen stuur meer zullen hebben.

Hoe gaan we sturen zonder stuur, Elon, op wegen zonder belijning?
Wat doen we dan? Een taxi bellen?

[Ik ben door Thijs Hofmans onjuiste citeren op het verkeerde been gezet, zie latere reactie.]

[Reactie gewijzigd door Elefant op 20 april 2021 12:41]

Er zijn natuurlijk wel gradaties in wel of niet de lijnen herkennen. Ook in nederland ziet een tesla vaak nog wel de berm als belijning, of de naad tussen 2 asvaltvlakken als middenstreep (als er geen echte strepen zijn). MAargoed, ik weet niet hoe de situatie daar is geweest.

De beta van Tesla kan ook on grindwegen prima uit te voeren, maargoed, gezien de verongelukte auto geen self-driving licentie had, zal hij ook geen beta software hebben gedraaid.
Daarbij is het voor tesla ongetwijfeld een peulenschil om te zien of deze weg in de lijst met alle wegen waarop lijn-herkenning niet werkt te vinden is. Ze zullen die lijst immers ook gebruiken om videobeelden / andere telemetrie te gebruiken om de AI daarop wel te kunnen laten werken.
Ik begrijp dat hij het soms zal doen. Maar Tesla schiep jaren geleden al het beeld dat het onder extreme omstandigheden al werkte. Daar neemt Elon nu duidelijk afstand van.

Als het een peulenschil is waarom werkt het dan nog niet?
Waarom dan niet zeggen: autonoom rijden werkt niet op wegen zonder belijning die wij nog niet in kaart hebben gebracht?

Mij schijnt toe dat Tesla bewust overdreven voorstellingen loopt op te scheppen.
Nou ja, ze hebben nog acht maanden. Uiterlijk eind 2021 wordt de droom van volledige autonomie werkelijkheid en kan het stuur eruit.

We gaan samen aftellen.


[Ik ben door Thijs Hofmans onjuiste citeren op het verkeerde been gezet, zie latere reactie.]

[Reactie gewijzigd door Elefant op 20 april 2021 12:40]

Ik begrijp waar je heen wilt, maar dat heeft echt helemaal geen zier met dit ongeluk van doen.
Ook neem je een aantal aannames, die niet persee kloppen.

Deze auto had geen licentie op de meeste functionele autopilot.
Deze auto had geen toegang tot de beta-versies met nog meer functionaliteit.
De auto's die eerder geshowcased waren waren ongetwijfeld auto's die op dat moment cherry-picked reultaten lieten zien met de op dat moment absoluut beste beschikbare software.

De wegen hoeven niet in kaart gebracht te zijn als de auto met camera;s uitvogelt hoe de weg loopt. Dat lijkt mij ook veel veiliger bij onverwachte aanpassingen. (rommel of andere objecten op de weg, wegwerkzaamheden, oud kaart-materiaal, storing in de internet verbinding).

Andersom is het voor Tesla wel interessant om bij te houden welke wegen er nog niet goed gedetecteerd worden om met video-materiaal van autos die daar langskomen hun modellen verder te trainen. Dat is ook precies hoe ze dat soort zaken doen: https://youtu.be/eZOHA6Uy52k

Dat er meer beloofd is zal allemaal zeker waar zijn, en dat er minder waar gemaakt is ook, maar het is nu ook weer niet zo dat iedereen eind 2021 z'n tesla als waardeloos beschouwt als hij niet altijd en overal zelf kan rijden.

Volgens mij zijn de meeste tesla-bezitters al prima blij met de kunsten, en worden ze regelmatig weer van een update voorzien waar ze nog weer blijer van worden. (al zal dat vast ook wel eens tegenvallen).
Succes bij wegwerkzaamheden waar oud en tijdelijke belijnen door elkaar loopt of oude belijnen volgen betekend vol in betonblok.
Inderdaad. En doe er dan nog een beetje avond en regen bij, en het feest is compleet. Zelfs een menselijk bestuurder kan er dan geen chocola meer van maken.

Maar goed, (vaak) staat er bij dergelijk trajecten ook een bordje 'navigatie uit'. Dus ik denk als je navigatie uit moet, het ook best verstandig zal zijn niet meer te vertrouwen op je rijhulpsystemen, autopilot of wat dan ook.
Vreemd, ik heb vaak genoeg over dat soort stukken gereden (afsluitdijk oa), en dat gaat echt helemaal prima. Ook de stukjes smalle lijnen. Niet geremd door enige daadwerkelijke ervaring spui je dit soort onzin, FUD is je in ieder geval niet vreemd.

[Reactie gewijzigd door killercow op 20 april 2021 12:43]

Bedoel werkzaamheden, waarbij op snelweg alles over 1 kant gaat. Dan staan er lijnen rechtdoor maar aan het begin einde moet jij weer terug via de middenberm andere kant op. Dan heb je dus originele lijnen rechtdoor maar tijdelijke die de tijdelijke weg volgen terug naar andere baan via middenberm.

Als bestuurder ga je dan eerder af op de afzetting links en rechts die je richting bepalen en zijn de lijnen ondersteunend.
Ja, en precies die stukken werken helemaal top, met tijdelijke vangrails, ontbrekende vangrails, 3 soorten lijnen door elkaar en een wirwar van pionnen en andere zooi langs de weg. Hij houdt de auto netjes in het midden van de tijdelijke rijbaan, en doet dat een stuk netter dan de meeste auto's die door mensen bestuurd worden.
AutoPilot is wat anders dan FSD. Deze auto had geen FSD. FSD kan inderdaad indrukwekkend goed zijn weg vinden zonder belijning. AutoPilot werkt zo goed als alleen op de snelweg.
[...]

Ik kan toch echt herinneren dat Tesla al jaren geleden in een video roemde hoe een Tesla op een geheel ondergesneeuwde weg nog de weg wist te bepalen en geen belijning nodig had. Dat is toch juist wat je van een goede AI mag verwachten? Daar kan je toch op trainen?
In 2019 heb ik een paar maandjes met de basis Autopilot gereden, maar dat werkte prima zonder wegmarkering. Mogelijk is de situatie in de VS of tegenwoordig anders. Het werkte destijds op de ene weg beter dan de ander.
Helemaal eens met je punten. En wat betreft:
Dat een AI een auto niet tegen een boom rijdt, dat wil ik graag geloven. Je mag hopen dat ze dat in fase 1 al hebben opgelost,
Zoals de volgende situatie?
https://www.msn.com/en-xl...way-in-taiwan/vi-BB14YklZ

Het lijkt allemaal heel mooi te werken, maar dit laat zien dat er veel te veel gevaarlijke shortcuts in de software zitten die dit soort situaties veroorzaken.

[Reactie gewijzigd door mjtdevries op 20 april 2021 11:17]

klopt, maar er zijn trucs om dat de omzeilen. Sommige gebruiken een sinasappel die ze in het stuur klemmen zodat de auto het gewicht van een hand registreert.
desalniettemin kan nooit de fabrikant verantwoordelijk zijn als bestuurder dit soort acties uithalen waarvan ieder weldenkend mens weet dat het levensgevaarlijk is.
Je kan dat systeem simpel misleiden met een sinaasappel
https://m.youtube.com/watch?v=TYZrehVQouc
Autopilot wordt uitgeschakeld. Maar kan kun je al wel op de achterbank zitten. Dan is de trammelant al te voorzien…klap tegen boom. Want ik neem aan dat als de autopilot stopt er niet direct afgeremd wordt, een noodrem. Leuk voor de acht op rijdende auto’s.
Ze doen wel een persbericht de deur uit..... wij van WC eend hebben het onderzocht dus on treft geen blaam...

De politie wacht nog op een reactie. Vind dat toch maar vreemd. Politie die met het onderzoek bezig is niet inlichten maar wel de pers. (waarmee ik niet zeg dat het aan de Tesla lag)
Ik vind het sowieso raar dat een bedrijf zich actief bezig houdt met een onderzoek in de publiciteit. Zeer onwenselijk, geef de politie de ruimte om een gedegen onderzoek te doen. Help indien nodig en gevraagd/gewenst is. Vanuit het bedrijf snap ik het wel, die willen zich verdedigen omdat een Tesla in vergelijking met andere automerken veel vaker bij naam genoemd wordt na een ongeluk. Terwijl er toch ook andere merken vergelijkbare systemen hebben.
Ik vind het sowieso raar dat een bedrijf zich actief bezig houdt met een onderzoek in de publiciteit.
Dat komt omdat de 'publiciteit' (lees: media) al insinueert dat het een Tesla probleem is, iets dat ze al vanaf het begin doen...
Dat is een geval van "hoge bomen vangen veel wind". Juist Tesla is een automerk dat vanalles van de daken schreeuwt, dat ze anders zijn dan de rest van de markt en ze positioneren hun product als een Tesla, niet als een auto. De autopers durfde er ook lang niets slechts over te schrijven, bang voor een leger advocaten in rechtszaken. Dat die dingen volledig gesloten zijn en enkel onderhouden mogen worden door hun eigen garages etc helpt daar in niet echt bij.

Vergelijk het met Apple, die onderscheiden ook iphone van de rest van de markt. De pers doet er vrolijk aan mee door consequent iphone en tesla als soortnamen te noemen als een product betrokken is bij nieuws. Een crash met een VW Golf tegen een boom staat in de krant als "auto knalt tegen boom". Eenzelfde crash met een Tesla wordt "Tesla knalt tegen boom". Ergens blijft dat heel erg raar.
Het is niet vreemd dat de politie nog wacht, ik denk dat de legal afdeling eerst wacht op een bevel om de data te verschaffen. Musk wil even niet wachten en gaat dus naar de pers.
Het zijn ook twee verschillende zaken. 1 is een officieel onderzoek naar de toedracht, 2 is een PR offensief om de negatieve publiciteit rondom het ongeluk te verkleinen.
1 vereist zorgvuldigheid en zal wat langer duren en 2 vereist snelheid, want het is nu in de media, dus nu een probleem voor Tesla.
Maar wie zegt dat Tesla aansprakelijk is dan? Zoals ik op basis van dit bericht en de reactie van de politie af kan gaan zou er dus nog een derde (weggelopen) persoon in deze crash aanwezig zijn geweest. Maar dat moeten ze dus kunnen uitsluiten en daar zijn de logs weer handig voor. Vandaar de huiszoekingbevelen.

Dat Tesla nu al met een statement komt zonder dat de politie weet wat er daadwerkelijk aan de hand is lijkt me eerder om de aandelencrash een halt toe te roepen en dat vind ik persoonlijk best kwalijk. Tesla zou moeten samenwerken met de politie alvorens ze feiten de wereld in brengen op basis van bewijzen die nog niet eens juridisch zijn getoetst.
Ik zeg niet dat Tesla aansprakelijk is. Maar ze hebben er een handje van om meteen in de pers iets te roepen. Aandelen crash is een smoes in dit geval. Zo hard gaat dat niet met 1 eenzijdig ongeval.

Het zou ze sieren als ze net voor het persbericht ook het onderzoeks team vd politie inlichten.
De woordvoerder van de politie, of iig diegene die met de 'reporter' sprak, is in dit geval nog slechter bezig, door uitlatingen te doen over de situatie, ipv te zeggen "het wordt door ons team onderzocht.". Zo snel als media tegenwoordig is, zo snel moet een bedrijf ook een antwoord plaatsen.

Hij had nog geen inschatting van de gereden snelheid gekregen van zijn technische rechercheur. Ook is niet geidentificeerd wie degene op de achterbank was. Als dat de eigenaar blijkt te zijn, dan reed de vriend. Het zou dan best eens zijn eerste rit in een Tesla kunnen zijn. Evt. zijn eerste "launch".

Deze "cul de sac" is zonder belijning, de eigenaar had geen FSD gekocht, dus AP is zo goed als uitgesloten.

Sowieso valt er weinig te zeggen als er niet veel over is na zo een brand.

[EDIT]En als ze zeggen "waarom hebben ze ons dat nog niet verteld" lijkt er dan aardig op van "Oh, hebben wij nog geen aanvraag gedaan bij Tesla voor de data?", waarbij het ook enkel bepaald lijkt te zijn dat de eigenaar geen FSD gekocht heeft en daarom AP niet mogelijk zou zijn.

[Reactie gewijzigd door TNJ op 20 april 2021 10:46]

Volgens mij heeft Tesla geen persbericht de deur uit gedaan.. Elon Musk roept iets op Twitter. En als het verleden iets uitwijst, is het wel dat dat geen persbericht is.
Elon Musk roept iets op Twitter.
Een statement van de CEO is een statement namens het bedrijf. Zeggen "roept iets op Twitter" is te simpel hierin. Elon Musk heeft al voldoende problemen gekregen vanwege zulk soort uitspraken. Het is geen persbericht. Echter is het wel een bericht namens het bedrijf.

Ik werk in een groot bedrijf. Rond de resultaten mogen een hoop mensen (diegenen met inzage in de voorlopige/waarschijnlijke resultaten) geen interviews of statements meer geven ("silent period"). Hierbij maakt het echt niks uit of hierbij Twitter gebruikt wordt of niet.
Inderdaad maar ze kunnen het ook iets anders dan autopilot noemen. Hoe vaak het ook wordt gezegd door Tesla, er zijn genoeg mensen die alsnog denken dat het echt autopilot is.
Ik denk omdat ze daar wel naar toe willen, halverwege de naam verwijderen zorgt dan misschien voor verwarring.

Al ben ik er zelf wel mee eens dat dat laatste beter is, dan heb je ook een duidelijk verschil tussen wat wel en niet level 5 is...
Tsja, dat is dan natuurlijk puur marketing. Ze willen wel de voordelen van de positieve connotaties met het woord autopilot, maar gaan elke verantwoordelijkheid die bij het woord komen keihard uit de weg. Het staat Tesla vrij om dit mechanisme een naam te geven die duidelijker weergeeft dat continue menselijke interactie vereist blijft, bijvoorbeeld hoe jij het beschreef. Het is in mijn boeken geen volleduig automatische piloot, maar meer een geavanceerde vorm van rijassistentie zoals cruise control, maar dat bekt natuurlijk niet lekker en zou de sales/hype kunnen doen verminderen.

[Reactie gewijzigd door saren op 20 april 2021 10:04]

Dit blijft een beetje een semantische discussie wat mij betreft. Je geeft het zelf al aan door te zeggen dat het woord bepaald connotaties oproept bij veel mensen. Dus blijkt dat veel mensen het woord AutoPilot interpreteren als "volledige autonomie". Dit is echter niet in lijn met waar het woord oorspronkelijk voor gebruikt wordt.

Ik heb zelf jaren in de scheepvaart gewerkt, waar het woord 'automatische piloot' veelvuldig gebruikt werd voor een systeem dat de koers van een schip op een ingestelde bochtsnelheid houdt. Dit systeem corrigeert voor invloeden van wind, stroming, golfslag e.d., maar laat overige scheepvaart volledig buiten beschouwing. Dit systeem is dan ook enkel een hulpmiddel en heeft volledige supervisie nodig om aanvaringen met scheepvaart of statische objecten te voorkomen.

Ik heb minder verstand van de luchtvaartsector, maar heb wel begrepen dat ook daar de automatische piloot niets meer is dan een koers/vluchtplan volgen binnen een bepaalde toegestane afwijking. Ook in dat geval is supervisie nodig.

Blijft de vraag over of het publiek beter geïnformeerd moet worden of dat de naam van het product gewijzigd moet worden. Ikzelf ben voorstander van het eerste. Zo houden we een eenduidige betekenis van het woord 'automatische piloot' en kan Tesla ook gebruik blijven maken van de naamsbekendheid die het product heeft. Maar niet alleen Tesla is hier debet aan, ook de media hebben hierin een informerende rol die niet altijd goed wordt uitgevoerd, helaas.
Klopt wat de luchtvaart betreft. Dat is gelijkaardig aan de scheepvaart en dient ook enkel om bepaalde parameters (hoogte, snelheid, koers ...) te houden. Eventueel voor de meer geavanceerde autopiloten ook met een volledige route die dus koerswijzigingen en hoogtewijzigingen kan uitvoeren. Ook daar is constante supervisie nodig. Hij corrigeert ook enkel voor wind, maar niet voor overige vliegtuigen. Een storm ofzo gaat een autopiloot ook niet ontwijken.

Als het echt moeilijk wordt en hij buiten de limieten gaat heeft hij een beep om de piloot te waarschuwen en schakelt zichzelf uit. Exact zoals een Tesla doet. Dus ja: de naam klopt volledig met de functionaliteit van de bestaande autopiloten. Spijtig genoeg zijn de meeste mensen geen kapitein of piloot en denken ze dat alles automatisch gaat (ook in vliegtuigen of boten).
https://en.wikipedia.org/wiki/Autopilot
Autopilots do not replace human operators. Instead, the autopilot assists the operator's control of the vehicle, allowing the operator to focus on broader aspects of operations (for example, monitoring the trajectory, weather and on-board systems).
Alleen de mensen die niet weten wat het woord betekend hebben dit probleem, daar kan Tesla weinig aan doen. :P

https://en.wikipedia.org/wiki/Cruise_control
Cruise control (sometimes known as speed control or autocruise, or tempomat in some countries) is a system that automatically controls the speed of a motor vehicle.
Cruise control is geen accurate weergave van Tesla's Autopilot, op snelwegen kan deze ook van rijbaan wisselen.
Het is in mijn boeken geen volledig automatische piloot
Dat klopt 100%.
Alleen de mensen die niet weten wat het woord betekend hebben dit probleem, daar kan Tesla weinig aan doen. :P
Vind je dat bijzonder? Ze hebben het op hun website bij bijvoorbeelde Model X zelf over "Full Self-Driving Capability". Letterlijk vertaald: Volledig zelf rijdende mogelijkheid. Ik vind het niet wonderlijk dat de meeste consumenten dan zullen denken dat de auto volledig zelf kan rijden, gezien dat de letterlijke vertaling is, los van de connotaties die het woord autopilot zelf al opwekt bij de meeste mensen. Ergens in kleine, grijze lettertjes wordt dan nog even gezegd dat er menselijke interactie nodig is. Ik vind dat moreel verwerpelijk, en daar spreek ik hun dus op aan in mijn originele comment. Ze zullen met hun omschrijving best aan de letter van de wet voldoen om niet als misleiding bestempeld te worden, maar daar gaat dit niet over.
Cruise control is geen accurate weergave van Tesla's Autopilot, op snelwegen kan deze ook van rijbaan wisselen.
Ik bedoelde met het benoemen van cruise control, dat tesla's autopilot eerder een geavanceerde vorm van rijassistentie vindt. Een behoorlijk stuk geavanceerder dan bijvoorbeeld cruise control. Ik had het beter kunnen verwoorden

[Reactie gewijzigd door saren op 20 april 2021 10:36]

Autopilot != FSD
Alleen de mensen die niet weten wat het woord betekend hebben dit probleem, daar kan Tesla weinig aan doen. :P
Het probleem is dat dat een hoop mensen zijn, en op zich zou je kunnen weten dat er genoeg mensen tussen zitten die niet al te snugger zijn. Hier moet je ook rekening mee houden helaas. Net zoals dat je ook op een koffie of thee bekertje moet waarschuwen dat het heet is.

Het is jammer dat het moet maar je ziet het dus nu al fout gaan, ze hadden het ook ''Drive Assist'' kunnen noemen of in ieder geval geen naam wat voor veel mensen onbekend is. Kia noem het dacht ik ''Drive Wise'' dat suggereert letterlijk dat je verstandig moet rijden en wekt niet de indruk dat de auto het allemaal wel regelt voor je.
Maar de naam autopilot komt uit de luchtvaart/scheepvaart, en elke piloot/schipper weet dat het activeren van een autopilot niet betekent dat je niet meer hoeft op te letten of dat er geen interactie meer nodig is. Blijkbaar is dit niet het beeld dat in de geest van veel Tesla bestuurders leeft, maar ik vind niet dat dat per definitie de schuld van Tesla is. Je moet natuurlijk niet blind varen op je eigen (onjuiste) idee van wat een geavanceerd hulpsysteem doet. De bestuurder heeft natuurlijk gewoon de plicht om zich in te lezen in de functionaliteit en zal dan ongetwijfeld lezen dat menselijke interactie vereist blijft.

[Reactie gewijzigd door PhWolf op 20 april 2021 10:51]

Blijkbaar is dit niet het beeld dat in de geest van veel Tesla bestuurders leeft
Alsof dit niet prima onderzocht is door de marketingafdeling? Gigantisch veel mensen denken dat een autopilot veel meer doet. Om dan dit woord te gebruiken is geen toeval.

Je hebt iets vergelijkbaars met Dog whistle. Je zegt iets dat technisch een normale betekenis heeft. Echter zal een groep mensen iets anders interpreteren.
In een vliegtuig is Autopilot ook geen level 5. Er wordt geacht dat altijd een piloot de zaken in de gaten houdt.
Alleen hoeveel mensen zijn Piloot en weten dit? Er komt een hoop publiek op af wat eerder naar de misleidende marketing luistert van Tesla dan de betekenis van Autopilot uitzoekt. Zie ook de reacties van Saren en mij hierboven.
Yup, the state of "Idiocracy" beperkt zich niet alleen tot de US.
Maar praktisch is het ook gewoon autopilot. In de VS werkt drive on nav vrij goed. In nederland mag het niet, maar de stukken die ik rij doe ik vrijwel geheel op autopilot op een paar stukken binnen de bebouwde kom na (rotondes kennen ze bijvoorbeeld niet).

Ja het is een hulpmiddel, maar wel een dondersgoed hulpmiddel.
En dat is precies het gevaar waardoor deze figuren omgekomen zijn.
Tesla zegt duidelijk dat de autopilot nog beperkt is en dat ie alleen voor de snelweg geschikt is en niet in de bebouwde kom gebruikt mag worden.
Toch doen mensen het dan, omdat het steeds goed gaat in de beperkte tijd dat ze dat bekijken.

En dan gaan ze in de loop van de tijd steeds minder goed opletten en steeds meer in op het systeem vertrouwen...
... tot het vreselijk mis gaat..

Zo te lezen laat jij je er ook door verlijden.
Zo te lezen laat jij je er ook door verleiden.
Nee absoluut niet. Ik ken de beperkingen van AP en rijd dan ook gewoon actief mee enige wat ik niet doe is remmen/ gas geven en actief sturen, maar die weg had ik anders ook met CC gereden.
Tesla zegt duidelijk dat de autopilot nog beperkt is en dat ie alleen voor de snelweg geschikt is en niet in de bebouwde kom gebruikt mag worden.
Nee, dat zeggen ze helemaal niet. Sterker nog. Op de website zeggen ze er sowieso niks over anders dan “werkt binnen de rijstrook”.

Autopilot is bedoeld voor buiten de bebouwde kom voor legal reasons. Technisch gezien maakt het geen drol uit wat voor weg het is als de situatie verder gelijk is. Oftewel is belijning aanwezig enzo.
Nee, dat zeggen ze helemaal niet.
Een jaar geleden of zo heb ik de handleiding bekeken en daar stond het heel duidelijk in. (was online beschikbaar)

Maar ja, hoeveel mensen lezen de handleiding van hun auto?
Oftewel is belijning aanwezig enzo.
Snelwegen zijn hele simpele situaties voor autonoom rijden waarbij de belijning vrijwel altijd aanwezig is etc.
(met de uitzondering van België wellicht ;))
Een jaar geleden of zo heb ik de handleiding bekeken en daar stond het heel duidelijk in. (was online beschikbaar)
Ah oke. Je weet dat die data achterhaald is aangezien er bijna iedere maand updates aan worden doorgevoerd?
Maar ja, hoeveel mensen lezen de handleiding van hun auto?
Er is geen fysieke handleiding om te lezen vziw. Zijn gewoon videos die je in theater bekijkt. Net Ff gechecked. Enige boekje wat ik heb is de roadside assistance voor als je pech hebt. Ook de handleiding in de auto zelf (soort webbrowser) vermeld niets over waar autopilot wel en niet gebruikt kan worden. Alleen dat de auto zelf bepaald of het gebruikt kan worden. Functies die niet beschikbaar zijn kunnen niet geactiveerd worden en als je het wel probeert krijg je een duidelijke waarschuwing.
Ah oke. Je weet dat die data achterhaald is aangezien er bijna iedere maand updates aan worden doorgevoerd?
Ja, ik weet dat er steeds updates worden uitgevoerd.
Ik weet ook dat die niet van zodanige aard zijn dat Tesla niet meer zegt dat het systeem alleen voor de snelweg bedoeld is.
En toch doen ze dat wel. Waar jij het over hebt is full self driving. Dat is iets anders dan enhanced autopilot wat wettelijk verplichte systemen zijn die grotendeels moeten werken buiten snelwegen om.

FSD is in nederland praktisch nutteloos door regelgeving. Enige wat je extra hebt is dattie zelf van rijbaan wisselt als jij dat aangeeft.

Autopilot an sich is niks anders dan adaptive cruise control. Enhanced autopilot is ook auto steer en dat is ook gewoon te gebruiken buiten snelwegen om.
Uit de handleiding hier:
https://www.tesla.com/sit...s_manual_europe_nl_nl.pdf
pagina 100:
Automatisch sturen is alleen bedoeld voor gebruik op autosnelwegen en expreswegen door een volledig opmerkzame bestuurder. Houd uw handen aan het stuur en houd rekening met de wegomstandigheden en het overige verkeer tijdens het gebruik van Automatisch sturen. Gebruik Automatisch sturen niet in de stad, op wegen waar wegwerkzaamheden plaatsvinden of op plaatsen waar u fietsers of voetgangers kunt tegenkomen.
Ah, Dat is de handleiding van de Model S. Oke fair enough. Ik praat vanuit de Model 3 waar dat dus niet in de handleiding staat. Apart dat ze daar 2 verchillende stukken tekst voor hebben.

Overigens zijn expreswegen in de EU eigenlijk alleen te vinden in België, Spanje en Polen. In Nederland zijn het dan autowegen met 2 rijbanen. Ongeveer hetzelfde, maar wel van betere kwaliteit ;).
Niet in de model3 handleiding?
https://www.tesla.com/sit...ners_manual_europe_nl.pdf
pagina 115 zie ik letterlijk dezelfde tekst staan:
ATTENTIE: Automatisch sturen is alleen bedoeld voor gebruik op autosnelwegen en expreswegen door een volledig opmerkzame bestuurder. Houd uw handen aan het stuur en houd rekening met de wegomstandigheden en het overige verkeer tijdens het gebruik van Automatisch sturen.
Gebruik Automatisch sturen niet in de stad, op wegen waar wegwerkzaamheden plaatsvinden of op plaatsen waar u fietsers of voetgangers kunt tegenkomen.
Maar ze spreken zichzelf volledig tegen in de handleiding. Want op de volgende pagina staat onder het kopje beperkte snelheid:
Automatisch sturen is bedoeld voor gebruik door een volledig opmerkzame bestuurder, op autosnelwegen die uitsluitend toegankelijk zijn via opritten en alleen verlaten kunnen worden via afritten. Als u kiest voor het gebruik van Automatisch sturen op straten in woongebieden, op een weg zonder middenmarkering, of op een weg zonder beperkte toegang, kan de maximale cruisesnelheid door Automatisch sturen worden begrensd en wordt op het touchscreen een melding weergegeven die aangeeft dat de snelheid is begrensd. De begrensde snelheid is gelijk aan de maximumsnelheid voor de weg plus 10 km/h.
Dus je mag Automatisch Sturen niet in de stad gebruiken, maar wel in woongebieden?? 8)7
Niet in de stad, wel in dorpen?

[Reactie gewijzigd door mjtdevries op 20 april 2021 16:28]

Ah onder auto steering. Ja in de auto zijn dat losse onderdelen dus heb ik dan over het hoof gezien. Autopilot omvat echter meerdere onderdelen en traffic aware cc valt daar ook onder.
Zoals je merkt is het niet altijd even duidelijk 😅

Maar er staat nergens dat het niet mag. Het staat er alleen voor legal reasons (net als het beta woord). Het werkt namelijk prima op de nederlandse wegen. Buiten de bebouwde kom is er geen reden om het anders te behandelen dan een snelweg. Technisch gezien dan. Binnen de bebouwde kom is het inderdaad niet aan te raden, maar op bepaalde wegen kan het ook daar prima gebruikt worden.

Zolang je het maar gebruikt als rij assistent en niet gaat lopen kutten met sinaasappelen en AP-buddy spul is er echt niks aan de hand en rijd je echt veiliger dan de gemiddelde bestuurder.
Maar er staat nergens dat het niet mag.
Ahem:
Gebruik Automatisch sturen niet in de stad etc etc
Ja oke. Binnen de bebouwde kom dus. Zoals ik eerder zij is dat inderdaad niet slim. Op sommige stukken die praktisch zijn ingericht als provinciale wegen (veel rondwegen hebben alleen een snelheidsbeperking, maar functioneren verder hetzelfde) kun je het zonder al te veel problemen gebruiken, maar dat terzijde.

Ik had in het begin over buiten de bebouwde kom. Dus gebieden die tussen stad en snelweg in zitten. En dat zijn er heel veel. Zolang er belijning is en de bochten niet te scherp zijn gaat dat helemaal prima. Vooral op provinciale wegen. 60 zones (tussen de weilanden door) zijn gebieden waar vaak twee fietsstroken liggen dus dan zou ik het niet doen, maar provinciale wegen en autowegen gaat het dan om.
Dit vind ik toch best een vreemde reactie. Je geeft toe dat je het systeem niet mag gebruiken in de bebouwde kom, maar doet het toch en gaat het dan goedpraten omdat je de beperkingen kent en actief mee aan het rijden bent.
Wat heeft zo’n systeem voor zin als je zo actief aan het meerijden bent, en wat is de impact van deze manier van rijden op je reactietijd mocht je moeten ingrijpen.
Ga lekker experimenteren op een plek waar je geen kwaad kan.
en wat is de impact van deze manier van rijden op je reactietijd mocht je moeten ingrijpen.
de impact is heel simpel. Mijn reactietijd blijft hetzelfde maar mijn stopafstand wordt kleiner. Gewoon omdat je met je voet al boven de rem hangt, net als met normale CC.
Ga lekker experimenteren op een plek waar je geen kwaad kan
Kijk das natuurlijk leuk om te zeggen hoor, maar het slaat nergens op. Mijn vader rijd in een kona die zogenaamd dezelfde systemen heeft als AP. Daar krijg je geen waarschuwingen bij. Je gebruikt het waar het kan, echter is dit systeem veel minder goed. Houd de wagen amper binnen het rijvak en remt veel te laat, terugkoppeling dat het systeem uitschakelt is bijna niet te zien of te horen, maar dit mag allemaal wel binnen de bebouwde kom.

Dit systeem is echt heel slecht in het zorgen dat jij op de weg blijft en vrijwel alle Kona rijders gebruiken het. OOK binnen de bebouwde kom. En dat is geen experimenteren? Terwijl we van Hyundai weten dat ze het systeem express af en toe heel hard laten falen.
Je geeft toe dat je het systeem niet mag gebruiken in de bebouwde kom, maar doet het toch en gaat het dan goedpraten omdat je de beperkingen kent en actief mee aan het rijden bent.
Nee ik zeg dat het nog niet de bedoeling is dat je het systeem in de bebouwde kom gebruikt. Echter zit er wel een verschil tussen een woonerf of een doorgaande 50 weg. Dat laatste is echt geen enkel probleem. De auto is daar veiliger dan een gemiddeld voertuig, wat met de hand bestuurd wordt en over verdrijvingsvlakken rijd of over de weg zwabbert.
Hoe kan de stopafstand kleiner zijn terwijl de reactietijd hetzelfde is. Je gaat er daarbij dus blijkbaar vanuit dat het systeem werkt en sneller remt dan dat jij doet.

En dat geeft eigenlijk meteen het probleem aan. Je gaat er vanuit dat het systeem voor jou ingrijpt, en bent er dus eigenlijk niet bedacht op zelf volledig in te moeten grijpen mocht dat nodig zijn.
Wanneer je wel zelf zou rijden had je de voet niet boven het pedaal hangen maar op het rempedaal omdat je zelf moet remmen. Was je al mentaal bezig met de rem actie terwijl je nu nog vertrouwd dat het systeem dit voor jou zal doen.
De reactietijd kan dus nooit precies hetzelfde zijn. Wellicht scheelt het een fractie van een seconde, toch is dit niet hetzelfde. En dit kan net het verschil maken. Zeker in de bebouwde kom. Of dit nou een woonerf is of een 50 km weg maakt daarin geen verschil. Bebouwde kom is bebouwde kom.

Dat sommigen op de CC rijden doet hier natuurlijk niets aan af. Die remmen en sturen gewoon zelf. Dat er naast tesla's nog anderen zijn die dit doen evenmin.
Hoe kan de stopafstand kleiner zijn terwijl de reactietijd hetzelfde is. Je gaat er daarbij dus blijkbaar vanuit dat het systeem werkt en sneller remt dan dat jij doet.
Nee de reactietijd is de tijd die het duurt voordat je uberhaupt een actie onderneemt. Waar dat normaal gepsroken betekent dat je eerst je voet van het pedaal haalt en daarna de rem pas indrukt, zit ik instantaan op de rem (alleen voet naar beneden duwen. Ik ga er dus niet vanuit dat het systeem feilloos werkt. dat doet het namelijk niet.
Wanneer je wel zelf zou rijden had je de voet niet boven het pedaal hangen maar op het rempedaal omdat je zelf moet remmen. Was je al mentaal bezig met de rem actie terwijl je nu nog vertrouwd dat het systeem dit voor jou zal doen.
Nee dat is dus precies het omgekeerde. Het systeem zou namelijk al lang een breed aangegeven hebben te gaan remmen als het dat van plan is. Ik weet niet of je ooit in een tesla hebt gereden, maar als je bijvoorbeeld op een snelweg rijd met 100 en er komt een vrachtwagen voor je aan, dan geeft de auto ruim van tevoren al even kort een "gas los tikje" waardoor je weet dat het systeem gaat remmen. Daardoor hoef je in dergelijke situaties niet zo krampachtig te doen als je in een VW of Kona hebt ("oooh gaat ie remmen.., ja toch wel"), want ik weet ver voordat ik ook maar iets zou moeten gaan ondernemen dat ie het doet. dat gebeurt dusdanig ver van te voren dat als ie het niet zou doen ik ruimschoots de tijd heb om dat op te lossen. Dat doen ze express en maakt het vele malen veiliger dan andere auto's (waarvan ik dus ook ervaring heb met de kona en daarvan weet dat ie relatief laat pas remt op ACC).
Was je al mentaal bezig met de rem actie terwijl je nu nog vertrouwd dat het systeem dit voor jou zal doen.
De auto is al eerder bezig met de remactie dan dat ik normaal zelf zou doen. Deze wagen rijd echt vele malen conservatiever dan ik zelf met mijn vorige auto zou doen.
En dat geeft eigenlijk meteen het probleem aan. Je gaat er vanuit dat het systeem voor jou ingrijpt
Nee absoluut niet! Ik grijp in op het systeem. Dat is hoe het werkt. Bij onverwachte situaties ben jij, te allen tijde, diegene die aan het roer moet zitten. Als er dus ineens een fietser oversteekt rem ik. Niet de auto. het gebeurt overigens eerder andersom als een fietser hard aan komt rijden en met het paaltje afremt (vastpakken en direct stilstaan), dan gaat de auto nog steeds hard op de rem, omdat je op crash course ligt. Ook als je niet op AP rijd. Dat is emergency braking die dan inschakelt.

Serieus, ik heb echt met meerdere mensen erover gehad die allemaal verbaasd waren van het feit dat deze auto zo ontzettend conservatief is. Mensen met een Golf met ACC die verbaasd waren over het feit dat de auto even laat merken dat ie gaat remmen en dat je te allen tijde op het scherm kunt zien wat de wagen dan ook daadwerkelijk ziet. Dus stop alsjeblieft met roepen over experimenteren en bla bla, het zijn juist de gevestigde fabrikanten zoals VW en Hyundai die lopen te experimenteren en juist met hun systemen onnodig laat inspelen op normale situaties (zoals remmen voor stilstaand verkeer voor je bij verkeerslicht). Mijn moeder klaagt altijd steen en been als ze met m'n pa meerijd, "wat rem je laat". "Dat doet de auto zelf", terwijl ze bij mij juist geen klachten hebben omdat ze ook voelen dat de auto daadwerkelijk ruimschoots op tijd gaat remmen.

Echt stap alsjeblieft zelf eens achter het stuur van zo'n ding en je merkt het vanzelf. Vrijwel alle gevallen waarbij een tesla betrokken is in een ongeval zijn gevallen waarin de bestuurder zelf reed, of gewoon niet op zat te letten (met telefoon spelen op een plek waar je weet dat ie het niet goed doet, Model X in Mountain View 2018):
"If you own a car with partial automation, you do not own a self-driving car, so don't pretend that you do. This means that when driving in the supposed self-driving mode, you can't sleep. You can't read a book. You can't watch a movie or TV show. You can't text. And you can't play video games," Sumwalt said. "Yet that's precisely what we found that this driver was doing. He was playing a video game on his smartphone when his car veered over into the median and struck the barrier in the median."
En ook in dit geval, gewoon nul verantwoordelijkheidsgevoel. Geen bestuurder aanwezig, I mean. HOW?
Zoek de definitie van autopilot even op. Dan zul je zien dat het ook een autopilot is. Dat is wat anders dan een selfdriving car :)
Vliegen deed ie wel, die auto. De bocht uit,
Ik blijf het een onzin vinden dat men zo over het naampje zeurt, immers krijgt men duidelijke uitleg wat de functie doet, je krijgt waarschuwingen als je niet je handen aan het stuur hebt. En in feite doet het toch wel wat het naampje zegt, het kan de auto deels automatisch besturen. Ook bij autopilot in een vliegtuig moet de vlieger nog steeds opletten.
En zeker met alle aandacht die het systeem ondertussen heeft gehad moet je toch wel echt een plank voor je kop hebben om niet te weten wat het systeem wel/niet kan, en zeker dat je moet weten dat je ten alle tijden gewoon moet blijven opletten.
Inderdaad maar ze kunnen het ook iets anders dan autopilot noemen. Hoe vaak het ook wordt gezegd door Tesla, er zijn genoeg mensen die alsnog denken dat het echt autopilot is.

copilot dan misschien?

[Reactie gewijzigd door Evdpol op 20 april 2021 14:14]

Inderdaad maar ze kunnen het ook iets anders dan autopilot noemen. Hoe vaak het ook wordt gezegd door Tesla, er zijn genoeg mensen die alsnog denken dat het echt autopilot is.
copilot dan misschien?
Eens, er zal altijd iemand achter het stuur moeten zijn. Maar Tesla werkt, enkel met de naamgeving al, dat de auto autonoom kan rijden. Dat kan in de verste verte niet in de meeste situaties. De huidige* autopilot is zeer beperkt en behoorlijk foutgevoelig.

* Wat huidige is is ook nog eens volstrekt onduidelijk. Hetzelfde model Tesla kan andere chips hebben waardoor er ook bij dezelfde softwareversie verschillen kunnen zijn.
De huidige* autopilot is zeer beperkt en behoorlijk foutgevoelig.
Maar wel veilig. Het is een assistentie middel. En voorkomt uit zichzelf al best wel veel.

Het is niet 100% maar zelfs in nederland kun je 90% van je rit er veilig mee afleggen. En ik heb het dan alleen nog maar over enhanced autopilot en niet FSD.
Nee, je kan geen 90% van je rit er veilig mee afleggen in Nederland. Bij lange na niet heb ik vernomen uit RDW bron. Zelfs niet als bij overzichtelijke verkeerssituaties met weinig tot geen verkeer en alle verkeersborden en een geüpdate map. Met uitzondering van de snelweg wellicht.

Dit soort informatie is misleidend.
Leuk dat de RDW dat vind, maar uit mijn praktijk ervaring blijkt toch iets anders.

Buiten de bebouwde kom werkt het vlekkeloos. Enige wat je zelf moet doen is remmen voor een verskeerslicht als er geen auto voor je rijd, rotondes en kruisingen.

Binnen de bebouwde kom werkt het ook zolang de weg geen rare bochten heeft en belijning aanwezig is. Op mijn rit naar werk (amsterdam 160km retour) moet ik misschien op 2 km dingen zelf doen.
Op 160 km is dat dus 1,25% van de rit.

Dat is dan dus scherpe bochtjes, kruisingen en verkeerslichten, maar ook in een uitvoegen op de snelweg (wat op grote delen eigenlijk al automatisch gaat).

De map hoeft overigens helemaal niet up to date te zijn in dat opzicht aangezien dat alleen voor de route wordt gebruikt en niet voor het daadwerkelijke rijden. Als de route niet klopt doordat er een afslag niet meer ligt dan gaat ie niet vol de vangrail in ofzo.
Leuk dat de RDW dat vind, maar uit mijn praktijk ervaring blijkt toch iets anders.
De RDW is de officiële instantie die gaat over goedkeuring van Tesla's op de Europese wegen. En ook de officiële instantie de bepaald of de autopilot geschikt is.
En zij hebben bepaald dat het geschikt is, anders was het nu niet op de weg.

En zoals ik dus zeg kun je in de praktijk een zeer groot deel gewoon afleggen met AP. Ligt er een beetje aan waar je woont, en hoe snel je de bebouwde kom uit kan zijn. Bij mij is het ongeveer 500 meter.
De Tesla is geschikt. De software bij lange na niet als auto pilot.
Dan heb jij een veel te rooskleurig beeld van een autopilot. Die is ook niet bedoeld voor 100% vlucht autonoom uitvoeren. Stijgen en landen gaat ook gewoon handmatig.

Voor de ritten die ik maak is het in meer dan 90% van de tijd veel veiliger dan zelf rijden.
Nu nog wel, maar met de fabriek in Berlijn zal die verantwoordelijkheid ook verhuizen.
Misschien, maar waar leggen we dan de grens? Elke auto die ik ooit gehad heb heeft een snelheidsmeter die tot 200 of hoger gaat. Daarmee wordt wel heel erg de indruk gewekt dat je dit ook gewoon mag doen nietwaar?

Niet dus. Je wordt gewoon geacht de regels te kennen, ongeacht de marketingnamen of indeling van de user interface. Anders wordt het wel heel erg een kwestie van interpretatie.
Niet alleen dat, Tesla is zo goed als nooit verantwoordelijk, in ieder geval niet tot FSD volledig uitgerold is en het niet meer verplicht is je handen aan het stuur te houden. Maar met een beetje goed geluk blijft dat nog zeker een paar jaar wel verplicht, en ben je dus altijd zelf aansprakelijk als je Tesla zich in de prak rijdt.
Klopt helemaal.
We mogen er pas vanuit gaan dat de bestuurder niet meer nodig is, op het moment dat de bestuurdersmiddelen worden weg gehaald.

Het zou het ook echt wel tof vinden als we straks een 4/6 zits auto hebben waarbij de stoelen tegenover elkaar staan.

Ik heb er persoonlijk ook zeker vertrouwen in dat we rond 2050 niks anders meer gewend zijn, en het gros van de mensen zelf geen auto meer zal rijden. (Misschien zelfs eerder)
Ik hoop veel eerder dan dat maar het zal nog wel even duren inderdaad. Ik denk ook dat de infrastructuur er wel deels op aangepast zal moeten worden.

Ik zag op YT nog een leuk filmpje waarom we in de file staan, dat is dan ook verleden tijd. Ik kan niet wachten tot het zover is.
Leuk filmpje inderdaad.

Oplossing is echter puur theoretisch. Waar ze aan voorbij gaan, een foutloos of storingsvrij systeem bestaat niet. Bovendien, een systeem is zo goed als zijn bouwer. Komt dus toch die menselijke factor (die zij simpelweg monkeys noemen) om de hoek kijken.
Dan nog, beter af en toe een storing en daardoor file dan elke ochtend en middag standaard in de file staan. En liever een paar man die aan de knoppen zitten dan duizenden aan verschillende knoppen.

Je moet eens kijken hoe mensen rijden, het lijkt wel steeds dramatischer te worden.
Ik rijd/reed zelf ongeveer 80.000 km/jaar. Kom inderdaad genoeg monkeys tegen.

Ook ik droom over dat het beter zou werken.
Zo hebben ze in theorie ook al bedacht hoe warpspeed gehaald zou kunnen worden (sneller dan het licht reizen).

Dan kunnen we het wel met elkaar eens worden dat het in theorie mooier en beter is dan hoe het nu werkt, in de praktijk heb je daar niet zo veel aan.

Want dan moet je opeens rekening houden met menselijke drang naar individualiteit, behoefte aan keuzevrijheid en zelfbeschikking enz enz. Succes om een zelfrijdend voertuig te bouwen die daar allemaal rekening mee kan houden. We begrijpen zelf nog niet eens hoe we denken.
Dat is ook wel weer het nadeel van deze overgangsfase, zolang er menselijke bestuurders op de weg zijn moet een automatische piloot echt extreem goed kunnen rijden om haalbaar te zijn zonder fallback. Ook daarbuiten zijn er situaties waar we nog een hele lange tijd geen automatische oplossing voor gaan hebben, tot we zoveel zelfrijdende auto's hebben dat daar standaarden in komen (denk bijv. aan het automatisch inparkeren in een parkeergarage zonder voorzieningen voor voetgangers, waar je uitstapt en je auto zelf naar binnen rijdt).

Het lijkt mij overigens niks om helemaal niet meer te kunnen rijden. Ik vind rijden wel leuk, al zou ik bijv. adaptive cruise control en lane assist in de file wel heel fijn vinden, maar veel meer dan dat liever niet. Dat beetje controle en even lekker het gas in kunnen trappen vind ik super.
zolang er menselijke bestuurders op de weg zijn
Voetgangers en fietsers zullen er altijd blijven.
Ik zie echt niet binnen afzienbare tijd een autonome auto op een acceptabele manier door Amsterdam rijden.

Zo'n parkeergarage voor autonome autos zie ik dan eerder gebeuren.
Autonoom rijden zal dan ook eerder op de buitenwegen gebeuren waar je geen rekening hoeft te houden met fietsers en voetgangers.
Dat zal altijd nog wel kunnen, je kunt nu ook nog steeds paard rijden als je dat wilt :P
Dat is te makkelijk, de bijrijder kan zo nu en dan even zijn of haar hand op het stuur leggen om te doen alsof er iemand achter het stuur zit.
Het lijkt me stug dat een Tesla geen detectie heeft in de voorstoelen. Zelfs mijn auto van 13 jaar oud geeft een alarm af als er iemand op de voorstoelen zit zonder gordel vast. Het lijkt me dat een Tesla wel meer detecteert dan af en toe handen aan het stuur. Toch??

[Reactie gewijzigd door KoffieAnanas op 20 april 2021 09:54]

Goed punt, heb zelf nog geen Tesla helaas, anders zou ik het even testen ;)
Zo werkt het niet in een Tesla. Die controleert meer zaken.
Werkt die dan überhaupt wel dan? Theoretisch gezien dan. Gezien de piloot in deze casus mogelijk uit stond. Neem aan dat de auto registreert dat er mensen in de auto zitten (dmv van druksensoren oid) en niemand achter stuur en daar dan rekening mee houd (Alleen aan als bepaalde condities voldaan zijn). Werkt de oproepfunctie die de auto voorrijd wordt bijv. ook als er mensen in zitten?

[Reactie gewijzigd door jdh009 op 20 april 2021 10:05]

Ik snap dit dan ook niet zo goed:
De politie gaat met huiszoekingsbevelen de data opvragen bij de autofabrikant. Inmiddels is er ook een onderzoek gestart door de National Transportation Safety Board. Ook zij willen onderzoeken hoe het voertuig zich gedroeg tijdens het rijden.
Het voelt een beetje onnodig, als er niemand achter het stuur zat dan is dit toch gewoon; punt, klaar, einde verhaal? Wellicht als we al in een tijd zouden leven waarbij zelfrijdende auto's zonder bestuurder al wel een ding waren, alleen zover zijn we nog niet... Of is dit protocol en doen ze dit ook bij ''domme'' auto's?
Nee het is ook een stuk formaliteit voor beide partijen. Door vast te leggen wat je wilt, via een geijkte methode, waar strakke reageertijden etc bijhoren, ben je beide juridisch ingedekt.

De politie kan dan zeggen: dit hebben wij opgevraagd en wettelijk op de juiste manier verkregen, en Tesla kan niet beschuldigd worden van wegduiken.
Het is in de meeste landen inderdaad gebruikelijk (misschien wel verplicht, ik ken het artikel niet uit mn hoofd, zeker niet in de VS) om bij elke niet-natuurlijk dood onderzoek te doen. Ook als de uiteindelijke doodsoorzaak duidelijk is, zoals hier het auto-ongeluk, wordt er gekeken wat de omstandigheden, aanleiding etc waren.

Je wil dit weten, al was het alleen al om via statistieken een beeld te krijgen waar mensen risico’s lopen. Speelt vermoeidheid een rol, alcohol, de wegbelijning, afleiding door passagier, telefoon, etc
Waarin lees je alsof voor de schuld richting Tesla zou worden gewezen? Er worden wat omstandigheden uitgesloten en anderen genoemd, maar dat is niet zomaar schuld suggereren. Anders kan je dat van alle kenmerken van het ongeval ook wel stellen. Dat de de politie voor onderzoek bewijs eist is ook nog geen een beschuldiging, hooguit redelijk voor duidelijkheid over de omstandigheden.
Nou, soms is het stellen van de vraag natuurlijk wel al een beetje een beschuldiging. Als jij tegen een paaltje rijdt en iemand vraagt meteen "Had je toevallig teveel gedronken? Of was je soms met je mobiel bezig? Of reed je misschien veel te hard? Roekeloos misschien?"

Dan kun je stellen dat het 'gewoon vragen zijn', maar het zijn gewoon verkapte beschuldigingen.

Of, in de woorden van Jon Steward "Is your mother a whore? I'm just asking!"
Alleen lees ik nergens waaruit de suggestie die jij lijkt te lezen ergens uit blijkt. Het gaat namelijk ook om de context, die hier een dodelijk ongeval is waarbij je naar mijn mening terecht vragen mag hebben wie of wat dan aan het besturen was, als er niemand achter het stuur leek te hebben plaatsgehad op het moment van het ongeval. Dan is het niet vreemd om dus op te merken dat het een bepaald merk en type is dat mogelijk autopilot heeft. Net als er waarschijnlijk andere vragen zijn, ongeacht of er een autopilot was. Als je een ongeluk hebt gehad en rijden onder invloed verboden is dan kun je de vraag krijgen of je gedronken hebt om het mogelijk uit te sluiten. Net zoals je een vraag mag verwachten of je auto wel gekeurd is, of dat je een geldig rijbewijs hebt.
Er gebeuren dagelijks tientallen ongelukken in Nederland maar daar hoor je niets over. Maar als een computer een fout maakt is het nieuws.
Precies, want dan is het niet het ongeluk wat nieuws is, maar de aanleiding tot, of de omstandigheden van het ongeluk.

Ooit zal het nieuws zijn als een menselijke bestuurder een crash maakt in een tijdperk dat 99,9% van de voortuigen door computers bestuurd worden.
Het wordt een beetje gebracht alsof Tesla ergens schuldig aan zou zijn als de Autopilot wel aan had gestaan, maar als ik het verslag van de politie goed begrijp zat er helemaal niemand achter het stuur. Dat is zelfs onder de beste Autopilot-condities niet toegestaan.
(nog) niet toegestaan.
Of ze ooit achter de werkelijke aanleiding zullen komen kun je je afvragen. Maar er zijn ook mensen die allerlei achterlijke tricks uit halen om hun Tesla beveiligingen te omzeilen of opties mogelijk te maken zonder Tesla daar duizenden dollars voor te hoeven betalen. Met een beetje fantasie waren het hackers die zelf patches hebben gemaakt die ze net wilde gaan testen.
Ik denk dat het niet gaat om schuld aan het ongeluk maar misschien wel schuld aan belemmering van het onderzoek. Tesla is niet verantwoordelijk als de autopilot wel aan stond, maar er ontstaat wel iedere keer heel veel negatieve publiciteit rondom die autopilot als er een ongeluk gebeurt. Als men dat probeert te voorkomen door informatie achter te houden of te verdraaien is dat zeker verwijtbaar.
Niet toegestaan, maar wellicht is het mogelijk (omdat een bijvoorbeeld een zak aardappelen op de stoel lag en/of een flesje water tussen het stuurwiel zat) dat de autopilot dacht dat er wel iemand achter het stuur zat?
Als ik sommige filmpjes zie dat de autopilot aanstaat terwijl de bestuurder slaapt doet me denken dat het systeem technisch niet waterdicht is :)
Als er niemand achter het stuur zat, hoe is het dan uberhaubt mogelijk dat die auto kan rijden? (afgezien van de smart summon mode)

Nog een dingetje: dat het bedrijf blijkbaar al de logs in heeft gezien en een eigen conclusie trekt voordat de autoriteiten met meer informatie naar buiten zijn gekomen en dat onderzoek nog loopt om maar snel te stellen dat het niet de schuld van de auto is geweest.
What is next: dat na een woningbrand de fabrikant van de wasdroger die op basis van de datum aanschaf wasdroger en je energie verbruik kan zien dat het niet de schuld van de wasdroger is dat er brand uitgebroken is en dit even aan de wereld op twitter vermeld?

[Reactie gewijzigd door SniperGuy op 20 april 2021 10:01]

Dan klinkt het als een gevalletje cruise control (ja !) aanzetten en uit de bestuurderstoel kruipen.

dit:
https://www.youtube.com/watch?v=IfY49zx7RU0

:D

Maar waarom?
Waarom word dit eigenlijk uberhaupt gebracht?
Typische geval van Darwin award.

Terwijl er andere ongelukken zijn waarbij de Tesla autopulot totaal gefaald heeft in een situatie waarbij dat absoluut niet te verwachten was, wat hier helemaal niet gerapporteerd is.

Een situatie waarbij een Tesla op de snelweg in de VS zonder te remmen op een omgevallen busje botste.
Dat busje was duidelijk zichtbaar van lange afstand, maar op de een of andere reden negeerde de autopilot het volledig.
Een groot object dat stil staat op je rijbaan zou nooit genegeerd mogen worden.
Al die collision avoidance systemen die tegenwoordig bijna standaard in nieuwe autos zitten hadden dat ongeluk kunnen voorkomen.

Dat is wat mij betreft nieuws dat belangrijk is. Deze situatie zou alleen als Darwin Award gebracht moeten worden.
Precies, juridisch maakt dit mijns inziens weinig uit. Er zat sowieso niemand achter het stuur.
Tesla heeft zelf de kritieke fout gemaakt om het "autopilot" te noemen; als ze het "lane assist" oid hadden genoemd zoals de andere autobouwers zou er geen probleem zijn. Elk ongeluk dat een Tesla echter krijgt komt onder een vergrootglas.

Ik geloof zelf dat Tesla mettertijd ten onder gaat aan een grote class action rechtszaak vanwege de misleidende naam. Valt me mee dat die er nog niet is.
FSD wordt al sinds 2016 verkocht in Amerika en eigenaren van Model S en X-en wachten al meer dan 5 jaar op een werkbare versie. Vanaf volgende maand komt Tesla zelfs een abonnement op FSD.

Het probleem is dat FSD niet gelijk is aan een autonoom rijdende auto maar nog altijd in de classificatie assistance driving valt. Kopers beseften zich dat onvoldoende toen ze FSD als optie kochten die dachten zelfrijdend en worden met elke maand langer wachten ongeduldiger.

Elon Musk zelf speelt communicatief ook geen handige rol, want hij kondigt telkens zaken aan die anders worden geïnterpreteerd door het publiek en pers. Als hij een car sharing dienst voor Tesla eigenaren beloofd, en de pers vraagt of het ook mogelijk zal zijn dat de Tesla's komen voorrijden, antwoord Musk dat het mogelijk is. Mensen willen dit lezen als dat de Tesla zelfstandig komt voorrijden, maar dat heeft hij niet gezegd. Als hij tegen investeerders zegt dat hij de technologie voor zelfrijdende auto's dit jaar voldoende is om gebruikt te worden, verkondigd hij zijn mening, en misschien heeft hij technisch zelfs gelijk, maar overheden zullen morgen nog geen zelfrijdende auto's toelaten. Als hij tegen investeerders zegt dat als Tesla's zelfrijdende technologie verder verbetert, zullen meer voertuigen zelfrijdende robotaxi's kunnen worden, waardoor het gebruik van 12 uur per week naar 60 uur per week kan gaan dan vertelt hij geen onwaarheden. Maar teveel mensen denken de huidige Tesla's robotaxis kunnen worden en dat zegt hij niet. Experts weten al lang dat de huidige generatie Tesla's, met de aanwezige technologie van radar & camera's (soms al meer dan 5 jaar oud) het niet mogelijk is om ze als robotaxis te laten rijden. Daarvoor is het ook te vroeg, want robotaxis zullen we nog jaren in zeer gecontroleerde omgevingen getest worden (zeg maar Waymo in buitengebieden waar weinig mensen wonen). Ook is wetgeving in westers landen nog lang niet ver genoeg om autonoom rijdende auto's binnen jaren toe te laten. Experts zeggen ook dat Radar, Lidar, sensoren, infraroodcamera's, laser of whatever nodig is voor autonoom rijden pas na 2025 op een technologisch niveau zit wat nodig is voor autonoom rijden. En wellicht kan het pas als auto's met elkaar verbonden worden om verkeerssituaties aan elkaar door te geven.

[Reactie gewijzigd door xavalon op 20 april 2021 12:20]

Ik vraag me ook af hoe ze zo zeker weten dat er niemand achter het stuur zat. Toen ze de auto vonden werden de lichamen op die locaties gevonden maar kunnen ze door de crash niet door de auto heen geslingerd zijn? Droegen ze hun gordels?
Naar verluid zijn de bestuurder airbags niet af gegaan.
Deze worden wel of niet geactiveerd op aanwijzing van eventueel gewicht op de stoel.

verder is er geen echte info bekend behalve dat de politie zelf heeft gezegd dat hun onderzoekers zeer zeker zijn dat er niemand op de bestuurderstoel zat.

Heel apart allemaal.
Gezien er niemand op de berijdersstoel zat, zal Autopilot zichzelf ook automatisch uitschakelen.
Daar zijn natuurlijk ook nog wel truukjes voor te verzinnen, men had ook al een keer uitgevonden dat een sinaasappel tussen het stuur hielp tegen het feit dat je af en toe het stuur moet aanraken.

There's no cure for stupidity.
Als je dat, de gewichtsensor in de stoel én de gordel gaat omzeilen dan kun je Tesla eigenlijk moeilijk meer te schuld geven.
Punt is dat veel mensen 1 keer een headline lezen “Tesla vangt boom” en hun conclusies trekken.

Bovendien gaat de media ook voor de clicks. Dus een eventueel vervolg artikel met alle saaie details en nuanceringen krijgt niet dezelfde positie.
Punt is ook dat Tesla net doet alsof hun autopilot bijna klaar is om compleet zelfstandig te rijden, terwijl ze donders goed weten dat ze daar nog lang niet klaar voor zijn.
Dat draagt er sterk aan bij dat zulke sukkels autopilot aan zetten in situaties waarin het levensgevaarlijk is en vervolgens op een boom klappen.

In hoeverre dat verwijtbaar is in een rechtzaak is iets voor juristen.
In dit geval waarbij er zelfs niemand op de bestuurdersstoel zat lijkt het mij dat Tesla juridische gezien goed zit. Maar juridisch is wat anders dan moreel.
Of er zat een persoon achter het stuur die geen rijbewijs had en dus gevlucht is na het ongeluk?

Daarnaast blijft de bestuurder van een auto altijd verantwoordelijk. Het zou een mooie grap zijn als voortaan alle verkeersboetes op Tesla afgeschoven kunnen worden.
Gezien de schade is daar niemand meer weggelopen.
Ja zo heb ik ook standaard een stuk afgeknipte gordel in de houder zitten. Dat gepiep continue is veel te irritant. En voor '71 had ik die onzin ook niet om.
Als je een VAG auto rijdt kan je het zelfs uitzetten, ook als er geen gordel in zit, bizar eigenlijk.
Dat maakt 't ongeval alleen maar raadselachtiger...

Ik kan me een scenario indenken dat iemand graag wil demonstreren hoe goed zijn Tesla kan sturen, en dan op de achterbank gaat zitten terwijl de autopilot rijdt. Beetje stoer doen voor je vriendinnetje zeg maar.

Maar als die Tesla niet op autopilot stond, en er zat niemand achter het stuur, hoe is dat ding dan zo hard tegen een boom aan gereden?

[Reactie gewijzigd door Tukkertje-RaH op 20 april 2021 09:47]

Of de bestuurder is na het ongeluk weggelopen.
Het kan ook nog dat de bestuurders door de klap naar achteren zijn geslingerd. De politie zelf houdt dat voor onmogelijk (de stoelen zijn te hoog), maar het kan best.
Als de politie het voor onmogelijk houd, waar baseer jij dan jouw mening op dat het "best kan"????
Omdat de politie er ook gewoon naast kan zitten natuurlijk. Ze zeggen uit de losse pols "ja de stoelen zijn te hoog om er overheen te vliegen" maar genoeg voorbeelden precies daarvan op YouTube.

Daarnaast, tussen de twee voorstoelen in zit geen forcefield ofzo. Daar kan je ook gewoon tussendoor.
Dus totaal nergens op gebaseerd.
Jij hebt de situatie niet gezien, jij hebt niet gezien hoe die personen aangetroffen zijn.
Als je naar achteren geslingers zou wordein in een extreem onwaarschijnlijk scenario dan kom je niet vrij netjes in een stoel te zitten.
Wacht, dus jij hebt de situatie wel gezien? Zijn er links?
Ik ben niet de persoon die de conclusie van de politie in twijfel trekt. Dat ben jij. En dat doe je dus zonder enige kennis van de situatie.
Dat klopt. Mag dat niet? Moet ik de politie maar op haar blauwe kijkers geloven? De politie zegt van alles terwijl de onderzoeken nog lopen, en dat is wel OK?
Als je naar achteren geslingers zou wordein in een extreem onwaarschijnlijk scenario dan kom je niet vrij netjes in een stoel te zitten.
Maar jij weet dus wel dat ze netjes in hun stoel zaten?
Het onderzoek loopt nog, dus misschien kan het ook wel een Ford zijn geweest en geen Tesla??

Natuurlijk niet - sommige dingen zijn al meteen duidelijk aan het begin van een onderzoek. De politie kan best die duidelijke feiten communiceren. Om van de voorstoel uit de gordels geslingerd te worden, vervolgens opzij, en daarna naar achteren heb je 3 verschillende versnellingen nodig. Dat gaat niet gebeuren als je één boom raakt.
Een bestuurder kan, ook al is er maar 10cm ruimte, over de stoel naar achteren klappen bij een zwaar ongeval. Ook naar voren, opzij en naar achteren geslingerd worden bij het raken van één boom die langs de kant van de weg staat kan heel goed. Als de auto recht tegen de boom is geëindigd niet natuurlijk want dan waren de krachten alleen naar voren.
Jij mag van mij denken en zeggen wat je wilt.
En ik mag dan zeggen dat dat onzinnig is omdat je geen enkele kennis van de situatie hebt, en dat we jouw mening gewoon moeten negeren.
Omdat het niet zijn mening is maar de bevindingen die ter plaatsen zijn vastgesteld die jij zonder ook maar enig bewijs aan de kant schuift. Het ene is een feitelijke vaststelling, de andere is een hypotetische situatie die niet gebasseerd is op de realiteit.
Bij zo'n klap wordt je toch voornamelijk naar voren geslingerd? Je lichaam bevind zich immers nog in een voorwaartse kracht. Tenzij de auto van achteren aangereden zou zijn en er ineens een versnelling naar voren plaatsvind.
Klopt. Maar het kan zijn dat de auto nog een paar kanten op geslingerd is, rolt of valt. Normaliter ligt je idd door de voorruit maar als je terug stuitert vanwege wat voor een reden dan ook, who knows? Blijft een onwaarschijnlijk scenario hoor, wat ik hier schets.

De inzittenden leven niet meer en dat is erg jammer. Ik weet van andere ongevallen dat men nog weleens gauw naar de bijrijdersstoel kruipt. "De bestuurder rende net weg, heus!"
Hoe dan? Je hebt een voorwaards momentum dus dat lijkt mij erg onwaarschijnlijk.
Ik reageerde al op @SunnieNL en het lijkt me idd niet erg waarschijnlijk. Je kan wat stuiteren in die auto maar meer ook niet.
Gas geven, of tijdens je acrobatiek naar de achterbank nog even het gaspedaal aantikken. Als je zulke toeren uithaalt, dan is een kleine tik tegen het gaspedaal voldoende voor een behoorlijke snelheid in een auto die binnen 3 sec naar de 100 gaat.
Tijd voor een onboard camera op het moment dat autopilot aan staat zodat in deze situaties de camera uitgelezen kan worden en de laatste x minuten teruggekeken kunnen worden, naast de standaard logs.
Alsjeblieft niet. Opgeven van je privacy voor een beetje schijnveiligheid? En vrijwillig meewerken om de tegenpartij van bewijsmateriaal te voorzien?

Als er dan door een storing Autopilot aanschiet en de camera niet, sta je al 5 - 0 achter in je verdediging.

Hoe harder je je best doet om het fool-proof te maken, you only get smarter monkeys.
Die camera kan gewoon gericht zijn op het stuur, zodat te zien is dat jij je handen aan het stuur hield.
dat heeft weinig met privacy te maken, maar met aantoonbaar maken dat jij actief aan het rijden was ondanks dat de autopilot aan stond.
Bij een storing zal de autopilot sneller uit gaan dan dat die aanspringt.

(is ongeveer hetzelfde als een oud vrouwtje een huis in rijdt en zegt dat de auto ineens gas gaf.. de kans dat dat gebeurd is nihil, de kans is veel groter dat dat oude vrouwtje in paniek het gas in trapte ipv de rem)

Als mensen niet met een autopilot overweg kunnen moeten we die mensen maar tegen zichzelf in bescherming nemen. Dat houdt in dat er zaken geregeld moeten worden. Die privacy waar jij het over hebt, zet je uit zogauw je de autopilot aan zet. De camera is een aanvulling op de logfiles die er toch al zijn op dit moment en volgens jou ook al een grote privacy schending is.

[Reactie gewijzigd door SunnieNL op 20 april 2021 13:39]

Ik ben inderdaad van mening dat zelfs logfiles bijhouden mijn rechten aantasten.
Volgens grondrecht in menig democratisch land is verankerd dat je niet gedwongen mag worden om actief mee te werken aan je veroordeling.

Beelden van alleen je handen is veel te beperkt. Je mist zoveel context dat het bijna niet nuttig is.
Je hoeft geen context te hebben. Als je de beelden van het stuur kunt zien, kun je zien of iemand daadwerkelijk zelf de handen aan het stuur had en of die op de berijdersstoel zat.
Zo gauw handen van een stuur verdwijnen ben je over het algemeen iets anders aan het doen dan actief aan het rijden.
Gezien er niemand op de berijdersstoel zat, zal Autopilot zichzelf ook automatisch uitschakelen.
Kratje bier? Gordel inklikken ondanks dat er niemand zit?

Onderschat niet de vindingrijkheid van idioten. ;)
Oh zeker. In het Tesla/EV topic zijn ook mensen die trots verkondigen dat ze zo'n "fop" prutseltje hebben gekocht. Want je zou je hand toch maar eens op het stuur moeten laten leunen...

Maar goed, als je met de idioten rekening moet houden, dan kun je niets meer ontwikkelen.
Maar goed, als je met de idioten rekening moet houden, dan kun je niets meer ontwikkelen.
Het heeft ook een beetje met de marketing te maken die Tesla gebruikt. Autopilot is geen 'automatische piloot', maar een vorm van rijassistentie. Vergelijk het met cruise control. Je zal nog steeds zelf op moeten letten.

Doet er niets aan af dat de (soms idiote, inderdaad) bestuurder eindverantwoordelijk is.
Het is inderdaad super stom om het Autopilot te noemen.
Pilot: test (a scheme, project, etc.) before introducing it more widely.
Wat die idioten zich niet realiseren is dat het draagvlak voor softere regelgeving op het gebied van autonoom rijden misschien wel eens heel rap minder wordt op het moment dat een auto van een lid van die groep iemand doodrijdt.
Op z'n minst worden autofabrikanten gedwongen om extreme surveillance op de bestuurders toe te passen. Beide uitkomsten lijken me onwenselijk.
Die volgens het artikel gebaseerd op de reactie van Elon Musk, niet eens beschikbaar was en dus ook (overigens om meerdere redenen, zoals het gebrek aan belijning) niet aan kon staan.
Maar dat is niet helemaal waar.

In Nederland hebben we dat soort situaties steeds vaker, maar als je dan bij een kruising komt waar wel belijning is en je zet hem dan aan, blijft ie ook aan. Het werkt vrij slecht op wegen waar ook geen scheiding is, maar op nederlandse wegen binnen de bebouwde kom (50 kpu) zien we steeds vaker gescheiden banen zonder strepen.
Buiten de bebouwde kom zie je dat ook heel veel met 60 km wegen.
Die 60km belijning is sowieso compleet gestoord maar voor autonome autos absoluut dramatisch.
Kompleet debiel om eerlijk te zijn. Vaak zijn dat ook heel slecht verlichtte wegen waar juist zo’n mooie witte reflecterende streep enorm helpt met het überhaupt kunnen zien van de weg.

Ik weet dat er in Tiel echt serieus gevaarlijke situaties zijn geweest waarbij een tweetal Tesla’s binnen een maand na levering aan de andere kant van de sloot lagen (beide zonder autopilot aan). Gewoon doordat er een scherpe bocht in zat die niet verlicht was.

Ik moet echt eerlijk zijn dat ik het verkeersbeleid van de Nederlandse wegbeheerders steeds treuriger vind. In Veenendaal hebben ze bij herontwikkeling van de hoofdweg een paar hele domme keuzes gemaakt waar de verkeersveiligheid in het geding komt. Een wegverdeler op een kruising die als je naar links wil achter je a-pilaar verdwijnt en je dus pas ziet als je de bocht al (te vroeg) ingestuurd hebt, fietsers die op een nieuwe rotonde bij onoverzichtelijke situatie in je dode hoek achter verdwijnen, en zo nog een paar.

De eerste ongevallen zijn daar direct de eerste week al gebeurd. Bij de eerste situatie heb ik zelfs de politie al verkeerd zien rijden. Sta je dan aan de verkeerde kant van de weg.
waarbij een tweetal Tesla’s binnen een maand na levering aan de andere kant van de sloot lagen (beide zonder autopilot aan). Gewoon doordat er een scherpe bocht in zat die niet verlicht was.
Samen met een lading Golfjes GTI neem ik aan? Want dat heeft dan niks met Tesla te maken, maar mensen die te hard rijden?
De eerste ongevallen zijn daar direct de eerste week al gebeurd.
Het meest schokkende is dat soort dingen soms expres word gedaan.
In Apeldoorn was er een kruising waar relatief veel ongelukken gebeurden. De oplossing van de gemeente: maak de kruising onoverzichtelijk dan gaan mensen voorzichtiger rijden.
Het directe gevolg laat zich raden door iedereen met meer dan twee hersencellen: Veel meer ongelukken.
Samen met een lading Golfjes GTI neem ik aan? Want dat heeft dan niks met Tesla te maken, maar mensen die te hard rijden?
Nouja niet eens te hard rijden. Meer dat de weg gewoon onder je kont vandaan naar links loopt zonder aankondiging, bebording, belijning en geen verlichting.

Nee heeft idd niks met tesla te maken. Had iedereen kunnen overkomen, toevallig waren het twee gloednieuwe tesla’s. Jammer maar helaas.
In Apeldoorn was er een kruising waar relatief veel ongelukken gebeurden. De oplossing van de gemeente: maak de kruising onoverzichtelijk dan gaan mensen voorzichtiger rijden.
Het directe gevolg laat zich raden door iedereen met meer dan twee hersencellen: Veel meer ongelukken.
Ja het punt is dus dat als je niet weet dat het onoverzichtelijk is (doordat je überhaupt het kruisende fietspad niet kunt zien) je daar gewoon te laat voor bent.
Achter het centraal station in Amsterdam is een gebied ingericht zonder duidelijke scheiding tussen voetgangers en fietsers. Alles loopt en fietst door elkaar heen. Dat schijnt uitstekend te werken.
Wat ik er van gehoord heb vinden fietsers het fijn werken en zijn voetgangers hun leven niet zeker.
Maar dat was al weer een tijdje geleden.
Ik denk dat het o.a. werkt omdat het gros van de mensen zich wel degelijk aanpast en fietsers bijvoorbeeld langzaam rijden. Het deel dat zich niet aanpast valt extra op. Ik weet dat dit ook (deels) de achterliggende gedachte is achter de constructie waarbij een weg wordt voorzien van rode fietsstroken aan weerszijden, die niet fysiek zijn gescheiden van het gedeelte voor de auto's. Het idee daarachter is dat automobilisten langzamer gaan rijden als er zich ook fietser op dezelfde rijbaan bevinden. Beetje dubieuze aanname, maar kennelijk werkt het wel, want het wordt erg veel toegepast.
Ik weet een paar wegen die levensgevaarlijk zijn geworden door "fiets suggestie" stroken.
Rode stroken die lijken op fietsstroken maar dat niet zijn.
Het stuk weg wat overblijft is vervolgens te smal om twee autos te bevatten, dus als er een tegenligger is dan moet je die rode strook op. Terwijl fietsers denken dat die volledig voor hun gereserveerd is.

Daarvoor had je ook fietsers en autos op dezelfde weg, maar doordat die stroken er niet waren gingen fietsers minder naast elkaar rijden en ze hadden veel beter in de gaten dat ze de weg moesten delen.
Een te verwachten reactie.

Hij zal de kans niet laten liggen om damage control toe te passen op de publieke opinie over zijn almighty automerk.

Het zou hem sieren om het onderzoek af te wachten.
Ik weet niet hoe het in een Tesla werkt, maar het kan natuurlijk best zijn dat deze detectie defect was om wat voor reden dan ook.

[Reactie gewijzigd door harrytasker op 20 april 2021 09:40]

Gaat om 3 sensoren:
- sensor in stuur ter controle of het stuur vastgehouden wordt
- sensor in gordel of deze vastzit
- sensor in stoel om vast te stellen of er iemand op zit
Als die detectie net zo goed werkt als de detectie voor je handen op het stuur dan is er vast wel een manier om het te omzeilen: https://jalopnik.com/stop...utonomous-cars-1822090627
Hoe komt Tesla aan deze data? Neem aan dat de auto toch echt in beslag genomen is door de politie.

Enige wat ik zo kan bedenken is dat een Tesla dus continu data naar de fabriek stuurt en ze deze data nu uitgelezen hebben. Of ze kunnen het achteraf van afstand uitlezen, hoewel dat met een gecrashte auto ook lastig lijkt.
Volgens mij wordt er continu data verzonden omtrent de status van het voertuig.
Of, de meer logische verklaring: Tesla heeft van de autoriteiten al toegang gekregen tot de data om deze te kunnen analyseren en zo te helpen bij het onderzoek.
Dan hoeft de politie die gegevens waarschijnlijk niet op te eisen bij tesla. Ik zou het ook vreemd vinden als ze een bedrijf dat mogelijk indirect betrokken is bij de dood omdat ze het voertuig bouwden dan de gegevens zouden laten inzien. Onderzoek laat je meestal onafhankelijk doen en inzage geven in gegevens klinkt niet makkelijk aannemelijk.
Toch wel.
Dit is een standaard procedure in Amerika met dit soort onderzoeken.
Tesla heeft de data gekregen en vanwege bepaalde juridische regeltjes moet de politie dit op deze manier weer terug krijgen voor officiele gang van zaken.

Althans, paar bekenden van mij uit Texas hadden mij dit een tijdje terug al een keer uitgelegd en nu kwamen ze er weer op terug.

Tesla doet trouwens het onderzoek samen met de politie bij ongelukken omdat Tesla van elk ongeluk wilt leren of ze iets aan hun product kunnen verbeteren.
Er is een continue vpn verbinding inderdaad, dat is niet stiekem, en niet geheim. Die kun je overigens ook uitschakelen (hoewel dat wel een unsupported actie is waar geen knopje voor beschikbaar is)
Oké, duidelijk. Was ook niet of het stiekem of geheim gebeurt dat die data verstuurd wordt, meer dat het mij een vraag was hoe Tesla aan data komt terwijl ze geen fysieke toegang hebben tot het voertuig.
"en de eigenaar van de auto had geen Full Self Driving-pakket gekocht,"

Neem aan dat dit in een database staat.
Of je dan wel of geen autopilot aan kan hebben, heb ik geen idee van :)

[Reactie gewijzigd door Source90 op 20 april 2021 09:45]

FSD is het meest uitgebreide pakket. De "normale" autopilot (lees: cruise control + lane keeping) heeft de Model S standaard.

Alleen voor Lane Keeping heb je strepen op de weg nodig. Die waren niet aanwezig op deze weg als ik het goed heb begrepen.
Volgens mij is AP pas standaard sinds vorig jaar als ik het me goed herinner. of 2de helft van 2019.

Dus kan zijn dat dit nog van net daar voor was.
Waarom lastig? Een vliegtuig dat gecrashed is heeft toch ook 2 zwarte dozen die na een ongeluk uitgelezen kunnen worden.
Een auto heeft ook een boordcomputer en een Tesla heeft er ongetwijfeld meerdere. Maar lastig want het voertuig zal in een loods van de politie staan, daar is echt nog geen monteur of iemand van Tesla bij geweest. Dat gebeurt pas als ze vanuit het onderzoek er zelf om vragen en dat lijkt hier niet het geval te zijn. En dan zal er ook gezegd worden dat er geen communicatie naar buiten plaats mag vinden.
De logs worden automatisch naar Tesla gestuurd zover ik weet. Dat is een reden waarom ik geen Tesla of ieder andere auto die dat doet zou willen. Privacy is iets waar ik gesteld op ben.
Word wel steeds lastiger. Hoe weet je of je auto dat niet doet? Heel veel merken doen dit al.
Dat het lastiger wordt is een feit. Dat je niet weet of je fabrikant dat doet is makkelijker te achterhalen dmv de voorwaarden te lezen als je een auto koopt bij de fabrikant.
Je kunt via een API allerlei zaken (inclusief positie en snelheid ed) gewoon opvragen. Deze informatie is dus bij Tesla op de servers gewoon bekend. Dit is niet echt een geheim, maar juist een feature.
Iemand verkoopt hier onzin: of er was een bestuurder of die auto was zelf aan het rijden. Het kan niet zo zijn dat een auto die niet op autopilot staat en waar niemand achter het stuur zit zomaar ergens op een weg terechtkomt en tegen een boom rijdt.

Opmerkelijk dat Tesla dit soort dingen überhaupt meteen wereldkundig maakt. Ik snap hun belang, maar het voelt voor mij nogal ongemakkelijk dat wanneer ik een ongeluk zou krijgen met mijn auto de autofabrikant daar van alles over gaat melden aan de hele wereld. Beetje respect voor de privacy van hun klanten zou ze sieren (hypothetisch gezien dan, ik heb geen Tesla).

[Reactie gewijzigd door Vizzie op 20 april 2021 09:40]

Je gaat er even aan voor bij dat er genoeg idioten zijn.
Ik kan me ook een situatie voorstellen dat ze de illusie willen wekken dat de auto zelfstandig aan het rijden was.
Dus auto op gewone cruisecontrol en dan op de bijrijdersstoel gaan zitten en met het linker handje sturen.
Idioten genoeg, zeker weten, en in jouw scenario hebben ze hun Darwin-award wel verdiend, maar dat scenario kan toch bijna niet?

Telsa's zijn best geavanceerde dingen en vrijwel alle auto's die ik de laatste 10 jaar gehad heb gingen helemaal over de zeik als ze ook maar het idee hadden dat je even niet oplet, laat staan dat je van de bestuurderstoel naar die van de bijrijder zou kunnen klimmen tijdens het rijden...
Klopt, het was ook maar een mogelijke optie.
Tesla (Musk) heeft alleen wereldkundig gemaakt wat ze wisten: deze auto had geen FSD en die had uberhaupt niet gewerkt op dit traject. Meer hebben ze volgens mij niet gezegd.
Elon Musk zegt dat de Tesla geen FSD (Full Self Driving) pakket heeft. Echter heeft de Tesla dan mogelijk Autopilot (afhankelijk van model, jaartal en opties). Dat is ook een rijhulp assistent die de auto op de weg houdt en afstand houdt tot voorganger en snelheid vasthoudt. Dus de auto kan dan beperkt zelf rijden.

En daarnaast, er zijn ook mensen die dit soort kapriolen uithalen met een auto die gewoon helemaal geen optie heeft tot zelf rijden. Baksteen op het gaspedaal of cruise control aan en op de passagiersstoel gaan zitten en het stuur een beetje vasthouden. Ik heb er genoeg filmpjes van voorbij zien komen.
Tja dan is het een gevalletje van dat er toch een cure for stupid blijkt te zijn, maar dan een heel definitieve :'(
Iemand verkoopt hier onzin: of er was een bestuurder of die auto was zelf aan het rijden. Het kan niet zo zijn dat een auto die niet op autopilot staat en waar niemand achter het stuur zit zomaar ergens op een weg terechtkomt en tegen een boom rijdt.
Mogelijk ging hij achterin zitten, het hield dan snel op maar goed dan beland hij wel op de achterbank.
Wat alcohol en stupiditeit mogelijk maken...
Het is natuurlijk ook afwachten of het inderdaad klopt dat er niemand achter het stuur zat. Na zo’n klap wordt alles in de auto door elkaar geschud. Een eerste conclusie van misschien de brandweer was dat er niemand achter het stuur zat. Of dat klopt zal nog moeten blijken.
Naar verluid zijn de airbags van de bestuurder niet afgegaan.
Deze gaan alleen af als de druk sensor in de stoel geactiveerd word. en deze kan dan ook nog eens het gewicht bepalen voor een beter effect van de airbags.

Dus als die echt niet af zijn gegaan, Wat is er gebeurt...
Zou kunnen, maar zoals gebruikelijk worden er direct na zo’n ongeluk ook geruchten verspreid. We moeten gewoon afwachten op de resultaten van het officiële onderzoek.
Opmerkelijk dat Tesla dit soort dingen überhaupt meteen wereldkundig maakt. Ik snap hun belang, maar het voelt voor mij nogal ongemakkelijk dat wanneer ik een ongeluk zou krijgen met mijn auto de autofabrikant daar van alles over gaat melden aan de hele wereld. Beetje respect voor de privacy van hun klanten zou ze sieren (hypothetisch gezien dan, ik heb geen Tesla).
Welke gegevens heeft Tesla gepubliceerd waardoor dit ongeluk te herleiden is tot een enkel persoon?

Verder koop je bij Tesla een licentie. De auto is fysiek van jou, de software en de bijbehorende diensten niet.

Praktisch gezien dan, ik heb geen Tesla. En het bovenstaande is één van de redenen. Het zullen ongetwijfeld goede leaseauto's zijn, maar privé wil ik mijn auto echt bezitten en niet afhankelijk zijn van de grillen van een Tony Stark-wannabe. ;)

[Reactie gewijzigd door The Zep Man op 20 april 2021 09:42]

Als je deze Tros Radar-reportage ziet, met nota bene een Nederlandse Tesla-dealer die vertelt dat er bij 15 km/u een wielophanging afbrak en dan een taxibedrijf wat massaal problemen heeft met de Tesla’s die ze in grote getale hebben gekocht, dan is het met de kwaliteit én garantie bij Tesla wel heel slecht gesteld, ja.

cc @The Zep Man
Dit is wat de rechtbank er over dacht:
De chauffeurs schaften in 2014 de Tesla Model S aan om met voorrang passagiers vanaf Schiphol te mogen vervoeren. Al snel bleken de auto’s volgens de chauffeurs diverse gebreken te hebben: van loslatende knipperlichten, een in de bocht openslaande deur en niet goed werkende remmen tot een uitvallende motor. De chauffeurs dienden een lange lijst mankementen in bij de rechtbank, waarvoor de autobouwer volgens hen verantwoordelijk was. Ze eisten terugbetaling van de aanschafprijs van ruim 86.000 euro.

Daarvoor ziet de rechter geen aanleiding. Tesla leverde weliswaar de wagens, maar deed dat aan Mercedes-Benz Financial Services (MBFS), die de auto’s doorverkocht aan de chauffeurs. Zij hadden MBFS moeten dagen als ze het aankoopbedrag terug wilden zien.

Voor een schadevergoeding voor misgelopen inkomsten – volgens de chauffeurs veroorzaakt door de mankementen – zou Tesla volgens de rechter wel de aangewezen partij zijn, maar op dat punt kregen de eisers evenmin gelijk. Zo konden de mannen niet aantonen dat de auto’s al bij aflevering gebreken vertoonden en kon daarmee niet worden vastgesteld dat ze op dat moment niet geschikt waren als taxi. Volgens de rechter hebben de chauffeurs verder niet aangetoond dat de gebreken waar zij over klaagden ongebruikelijk zijn bij normaal gebruik van een auto als taxi. Daarbij weegt de rechter mee dat „drie van de vier eisers ruim vijf jaar na de aanschaf van de auto’s deze nog steeds als taxi gebruiken en daarmee inmiddels gemiddeld 380.000 kilometer hebben gereden”.

Het kwartet stelde ook door Tesla te zijn afgeknepen doordat het batterijbereik bij een tussentijdse update ineens zou zijn teruggelopen. Het Amerikaanse bedrijf bracht daar tegenin dat het normaal is dat een batterij bij intensief gebruik slijt. De rechter gaat daarin mee. De rechter verwerpt ook de andere klachten over de door Tesla geboden garantie, hoge laadkosten en onrechtmatig gebruik van persoonsgegevens.
Bron: NRC (achter betaalmuur)

Stellen dat de auto niet geschikt is als taxi en het aankoopbedrag terug te vragen om vervolgens de auto toch gemiddeld dik 3 ton als auto te gebruiken is ook een beetje ongeloofwaardig. Ze proberen van twee walletjes te eten, zowel de EV-voorrang bij schiphol als de slachtoffer rol.
Gemiddeld 380.000km als taxi gereden
Gezien de reputatie van Tros Radar zou ik me niet zo'n zorgen maken. Die overdrijven regelmatig. Dat wil niet zeggen dat Tesla feilloos is, maar een taxibedrijf is natuurlijk een bedrijf en geen particulier. Voor de EU garantie maakt dat uit.
cc @The Zep Man
Particulier en taxibedrijf zijn inderdaad een verschil, ook juridisch / qua garantie, maar juist een taxibedrijf, wat veel kilometers maakt én heel veel dezelfde auto’s heeft, krijgt een betere indruk van hoe het met de kwaliteit / bouwkwaliteit zit, dan een paar particulieren die vrijwel altijd veel minder rijden.

Natuurlijk maakt een taxi veel meer km, dus meer slijtage, maar dat doen ze ook met hun niet-Tesla’s, dus ze krijgen wel degelijk een beter beeld.

Het taxibedrijf klaagt met name over het feit dat op reparaties (na de garantie) ook geen garantie wordt gegeven en dat hetzelfde onderdeel keer op keer kapot gaat.

Daarnaast is Radar / taxibedrijf bij Schiphol / ene Tesla-dealer niet de enige die kritiek hebben op de bouwkwaliteit. Verschillende berichten over te vinden online. Tesla komt bijvoorbeeld heel slecht uit de JD Power lijst: https://www.jdpower.com/b...initial-quality-study-iqs

Er is echt heel veel kritiek op Tesla wat dit betreft.

Opvallend is ook dat Musk zelf dit onlangs ronduit toegaf, toen er een vergelijking met de kwaliteit van Kia in de jaren negentig gemaakt werd. Pikant detail is dat Kia tegenwoordig juist bij de beste zit in de JD Power lijst.

[Reactie gewijzigd door laptopleon op 20 april 2021 14:02]

Maar daar hadden we het niet over. Het ging hier om het licentie model van de software en diensten. Dat is bij VW EV line up exact hetzelfde.

De issues van BIOS groep ben ik mee bekent en dat is wel schandalig ben ik met je eens. Die hebben echt de slechtste batch ooit gehad.
De Tesla-dealer is een N=1.

Een taxibedrijf is natuurlijk niet representatief voor de gemiddelde Teslarijder.

Verder schrijf ik niets over de kwaliteit van Tesla's. Zoals ik noem, ik heb er geen één. :+
Autopilot is ook een hulpmiddel net als b.v. cruise control. Gaan we ook nieuws lezen over alle auto's die verongelukken die cruise control misschien wel of niet aan hadden staan? Uiteindelijk is de bestuurder altijd verantwoordelijk!!
Waarom noemen ze het dan autopilot, en geen advanced autoassist oid? Ze kiezen er zelf voor om de term autopilot te gebruiken, wetende wat voor connotaties dit oproept bij mensen. Het is marketinggepraat om de hype rondom hun auto's te laten toenemen, wetende dat ze niet volledig aan hun marketingterm kunnen voldoen.
ja maar dit was een magische auto zonder autopilot EN zonder bestuurder. Nieuwswaardig!
Het lijkt me dat de bestuurder gewoon gevlucht is.

e: mocht ik gelijk hebben, zal dat ongetwijfeld uit de logs blijken.

[Reactie gewijzigd door coen254 op 20 april 2021 09:46]

Dacht ik ook aan, maar als ik het autowrak zie op de foto dan denk ik niet dat die ver gekomen is...
Dat wrak op de foto is nog wel vier uur aan het branden geweest, ik denk niet dat dat de looks ten goede kwam
Ook dat was niet waar blijkbaar, de Chief van de Kazerne aldaar heeft aangegeven dat ze de auto snel geblust hadden, en dat hij daarna alleen nog een tijd gekoeld is geweest. Dat is toch wat anders dan de 4 uur inferno die eerder in de media voorbij kwam.
Palmer Buck, fire chief for The Woodlands Township Fire Department, said the Tesla fire was an example of how “we need to keep up with technology” in regard to both rescuing people possibly trapped in the new electric vehicles or merely putting out possible fires from the vehicle’s intensive battery package.

Buck also said contrary to some reports in the media, the Tesla involved in the April 17 fire did not burn out of control for four hours.

He also said no one from the township’s fire department called Tesla asking for help with the blaze, noting that he is not aware of the company having such a service.

“With respect to the fire fight, unfortunately, those rumors grew out way of control. It did not take us four hours to put out the blaze. Our guys got there and put down the fire within two to three minutes, enough to see the vehicle had occupants,” Buck said of inaccurate claims the vehicle burned for hours. “After that, it was simply cooling the car as the batteries continued to have a chain reaction due to damage.”
Bron
Dat zou wel heel bijzonder zijn denk je niet? Een crash waarbij twee passagiers op slag dood zijn maar de bestuurder vrolijk weg kan rennen.
Ik denk niet dat ie vrolijk geweest zal zijn. Maar ja, het zou bijzonder maar ook niet de eerste keer zijn dat zo iets gebeurd.
Het is vooral raar dat een CEO (?) blijkbaar in de logs van 1 klant kan gaan zoeken, en ook nog dat hij dat dat de wereld in 'Twittert'.
Elon is druk bezig in Texas om de fabriek te bouwen en daarbij is en blijft een goed imago van groot belang.

Dat hij dan, niet zelf de logs ophaalt, maar vraagt naar de details van het ongeluk vind ik heel logisch.
Dat zij de info inzien die het bedrijf zelf heeft is normaal, dat hij dat vervolgens publiceert mag alleen met toestemming van de autoriteiten omdat het een lopend onderzoek betreft, en Musk weet dit ook want ze zijn al eerder op de vingers getikt voor een soortgelijk geval.
Klopt, a.d.a.k. wordt Tesla wel tegen een andere maatlat gehouden dan andere automerken. Dat Elon dan de imagoschade beperkt en daarmee het risico van een tik op de vingers name, lijkt me ook afgewogen door Elon/ Tesla.
Ohkeee.. Dus je koopt een auto, krijgt een ongeluk en vervolgens leest de fabrikant zonder toestemming op afstand de gegevens van je auto uit en je wordt door de CEO op sociale media te drogen gehangen.. En dat nog voordat de autoriteiten zich erover hebben kunnen buigen. Sjiek..
Ohkee
vervolgens leest de fabrikant zonder toestemming op afstand de gegevens van je auto uit
Dus je doet een paar ongefundeerde aannames, veroordeeld de fabrikant daarmee en krijgt nog plusjes ook?
Voor de duidelijkheid, dit zijn in mijn ogen jouw aannames;
- Zonder toestemming
- Op afstand
- Voordat de autoriteiten zich erover hebben kunnen buigen.

Misschien kun je uitleggen hoe je daar allemaal bij komt?
Zeker bijzondere aannamens.

Wat ik weet van het volgen van wat er nu allemaal is gebeurt is,

De politie werkt samen met Tesla en heeft de computers self met Tesla bekeken. Tesla heeft hieruit de data kunnen versturen naar het hoofdkantoor of iets om deze ook echt uit te lezen.
Tesla werkt met elk ongeluk samen met de politie om zo snel mogelijk alles te achter halen. Dit is niks nieuws en is top dat dit gebeurt vind ik. Vooral omdat Tesla altijd door het slijk gehaald moet worden want bij elk ongeluk lees je tegenwoordig wel, Autopiloot of FSD stond aan!!!! omg!

En toch blijkt dat weer 6-8 van de 10 keer niet waar te zijn.
Waarom is dit nieuws? Tesla's mogen/horen niet te crashen?

Ik begrijp niet helemaal waarom het lijkt alsof Tesla enige blaam treft in dit noodlottige ongeval?
Sommige mensen zijn ook echt dom of gewoon onder invloed van? Waarschijnlijk de handleiding niet goed gelezen. Triest natuurlijk het hele geval voor de nabestaanden.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True