'Data van Tesla-klokkenluider vermeldt duizenden storingsgevallen Autopilot'

Het Duitse nieuwsmedium Handelsblatt zegt 100GB aan data van Tesla in handen te hebben gekregen via een anonieme bron. Daarin staan onder andere rapporten over duizenden gevallen van onnodige en automatische acceleratie, noodstops, uitwijkmanoeuvres en ongevallen.

Het zou gaan om 2400 gevallen van ongewenste, automatische acceleratie, 1500 problemen met remmen, waaronder 139 'onbedoelde noodstops' en 383 gevallen van 'stops vanwege potentiële botsingen die niet aan de orde waren'. In een deel van de gevallen konden bestuurders de macht over het stuur terugkrijgen, maar in andere gevallen eindigde het met een eenzijdig of tweezijdig ongeval. Dat is meer dan 1000 keer voorgekomen. De data stamt uit de periode van 2015 tot maart 2022, schrijft Handelsblatt in een zeer uitgebreid artikel.

De krant omschrijft verder Tesla's beleid omtrent terugkoppeling aan de klant. Het zou zaak zijn om de klant 'zo min mogelijk attack surface te geven', oftewel zo weinig mogelijk gevoelige informatie. De volledige rapporten zijn 'alleen voor intern gebruik' en terugkoppeling aan de getroffen klant mag alleen verbaal. Informatie voor klanten vastleggen in e-mails, sms-berichten of een voicemail wordt verboden.

Handelsblatt stapte naar Tesla met 65 vragen naar aanleiding van de data. Tesla zou geëist hebben dat de informatie zou worden verwijderd nadat het bedrijf een kopie had ontvangen. Het spreekt verder van datadiefstal. De Duitse, maar ook Nederlandse gegevensbeschermingsautoriteiten zijn erbij betrokken. Die laatste omdat Tesla's hoofdkwartier voor Europa in Nederland staat.

Een Tesla Model 3

Door Mark Hendrikman

Redacteur

26-05-2023 • 08:37

390 Linkedin

Submitter: Roelant

Reacties (389)

389
385
148
12
1
197
Wijzig sortering
Natuurlijk is de discussie of dit nu veel of weinig is gezien het grote aantal Tesla's, gereden kilometers en gemeten dagen in de data super interessant en het is verleidelijk daarin mee te gaan.
Ogenschijnlijk lijkt het aantal incidenten laag, zeker in vergelijking tot menselijke bestuurders.

Maar, we gaan dan voorbij aan de ethische vragen, die volgens mij veel belangrijker zijn:
  • Heeft Tesla al het mogelijke gedaan deze incidenten te voorkomen, of kan men Tesla nalatigheid ten laste leggen?
  • Heeft Tesla de verantwoordelijkheid genomen omtrent deze incidenten en klanten en publiek duidelijk en transparant geïnformeerd over deze incidenten?
Gezien de gepubliceerde data is het antwoord op de laatste vraag een overduidelijk: 'Nee'. En daar begint denk ik de verantwoordelijkheid voor een overheid die hier wat regels voor op mag stellen.
Net zoals een datalek moet worden gepubliceerd, zou ook dit soort incidenten publiek beschikbaar moeten komen. Niet alleen voor de eventuele slachtoffers, maar ook voor andere fabrikanten om zo ook hun systemen te kunnen aanpassen waar nodig. Het is belachelijk als we hier mensenlevens boven het beschermen van intellectueel eigendom zouden stellen.
Ogenschijnlijk lijkt het aantal incidenten laag, zeker in vergelijking tot menselijke bestuurders.
Het aantal incidenten ligt juist ongelofelijk hoog.

Schoolbuschauffeurs in de US rijden voor elk dodelijk ongeval, 500 milioen mijl zonder zo'n ongeval. In de US worden 100 miljoen mijl weggereden per dodelijk ongeval, en de meesten daarvan zijn dronkenschap en onoplettendheid, twee dingen die een Autopilot niet kan.

Waymo redt het nog geen 20 miljoen mijl zonder dodelijk ongeval en Tesla is gestopt met rapporteren.

https://www.bloomberg.com...ng-cars-are-going-nowhere
https://pluralistic.net/2...-youre-talking-real-money

[Reactie gewijzigd door martijn.vw op 26 mei 2023 09:59]

Niets in dit artikel gaat over dodelijke ongevallen. Als je simpelweg kijkt naar het aantal gereden kilometers en het aantal incidenten waarom het hier gaat is dat laag. Er is in de VS een ongeluk per 700k mijl.

In dit artikel gaat het om 1000-2000 ongevallen over pak hem beet 50 miljard mijl. (Ervan uitgaande dat de noodstops en collission avoidance e.d. ook plaatsvonden zonder AP, aangezien dat standaard is in Tesla's) Dat is dus 1 ongeval op 25-50 miljoen mijl. Maar een fractie van de eerder genoemde 1 op 700k.

We zijn het er allemaal over eens dat Elon geen fijne vent is en de AP niet aan de beloften voldoet. Maar er is geen enkel bewijs gevonden (tot nu toe), qualitatief noch empirisch, dat deze onveiliger is dan menselijke bestuurders. (Jaja, we denken allemaal dat we zelf die ene top bestuurder zijn die dit nooit zou overkomen)
Precies zeker in nl kun je nig geen 25km rijden op de snelweg zonder bijna ongeluk en nog geen 10km zonder bumper klevers.
[...]
Tesla is gestopt met rapporteren.
Staat gewoon hier hoor: https://www.tesla.com/VehicleSafetyReport
Waar staan de dodelijke ongelukken? Blikschade rapporteren kan ik ook.

[Reactie gewijzigd door martijn.vw op 26 mei 2023 10:14]

Als je enkel gaat kijken naar ernstig letsel van een ongeval, dan weegt de crashbestendigheid van een auto mee, waardoor de prestatie van de auto pilot tov menselijke bestuurder weer minder goed in beeld is.

Wat mij overigens opvalt is dat de waarden van de Tesla's varieren, maar de US average stabiel is.
Ik zou bijvoorbeeld in bepaalde seizoenen meer of minder verwachten in de US average.

[Reactie gewijzigd door sircampalot op 26 mei 2023 10:23]

Dat maakt het alleen maar slechter voor Tesla want die auto’s scoren consistent vijf sterren.
Het gaat dus om de vergelijking van de mate van ongewenste situaties in automaat vs mens.

Wat een ongewenste situatie is, valt nader te bepalen.
Wat acceptabel is, is wat mij betreft als de automaat het minstens zo goed doet als de mens.

[Reactie gewijzigd door sircampalot op 26 mei 2023 11:15]

Vijf sterren als het fout gaat.
De autopilot (klaar voor level 5 in 2018/2019/2020/2021 èn 2022 volgens Musk) scoort met enige moeite twee sterren (level 2 zelf driving).
Dat is voor Tesla-auto's in het algemeen. Hier gaat het over Autopilot.
Staat er toch, Teslas met en zonder autopilot en gemiddelde van Amerika.
Ah, sorry! Je hebt gelijk. Wat suf van me. Strafpuntje bij begrijpend lezen. :)
Tja, de vraag is hoe betrouwbaar of representatief die data is. Fabrikanten in het algemeen staan er om bekend een zo rooskleurig mogelijk plaatje van hun eigen product te geven (wij van WC eend adviseren WC eend). Het zou eigenlijk bepaald moeten worden door een volledig onafhankelijke organisatie die de resultaten ook nog een in context plaatst (c.q. niet allen kwantitatief, maar ook kwalitatief). Ja kan appels namelijk niet altijd met peren vergelijken.
Daar heb ik wel kanttekeningen bij. Die schoolbuschauffeurs rijden vaste routes, langzaam en met veel stops. Ze rijden net als alle andere Amerikanen ook een hoop mijlen door niemandsland. Moeilijk een ongeluk te maken als je de enige op een weg bent. Dus dat idee van vele mijlen zonder ongeluk is enorm vertekend door het feit dat er nog steeds veel lange ritten zijn daar, daar absoluut lege omgevingen. De geografie van dat land vertekend het cijfer. Beperk het tot een stad als new York en het cijfer word heel anders.

Wat ik vooral erg vind in het artikel is het proberen te verbergen van data, maar dat is niets nieuws voor bedrijven in het algemeen.
En daarbij komt dat de regels bij schoolbussen ook andere zijn, in het voordeel van de bus.
Zo mag je bijvoorbeeld een schoolbus niet inhalen als deze aan het in- of uitstappen is, wat botsingen bij het wegrijden enorm verminderd.
Inderdaad, op het moment dat iedereen moet wijken als een Tesla wil invoegen van een busstrook, zal het ongetwijfeld ook minder ongelukken hebben. Appels en peren.
Het is juist niet vertekend, want ik lees niet dat de argumenten die je noemt relevant zijn om maar niet te vergelijken. Je toont namelijk niet de omstandigheden aan bij de fouten van die Tesla's. Terwijl iets een onnodige noodstop noemen dus net zo goed op een rustige weg of vaste route kan zijn. Of de onnodige acceleraties iets met drukte te maken hebben.
Het is niet alleen erg dat een bedrijf de situaties probeert te verbergen maar ook geen verklaring geeft voor de omstandigheden dat het fout is. Want dat lijkt net zo goed tot doel te hebben wat jij met de kanttekeningen probeert: vergelijken moeilijk tot onmogelijk proberen te maken.
En jij denkt dat een buschauffeur nooit zo maar even op de rem trapt, omdat hij denkt dat er een beest oversteekt of iets dergelijks, alsof mensen nooit stomme fouten maken. En dat wordt allemaal haarfijn gerapporteerd? Natuurlijk niet. Komt ook vaak genoeg voor dat ze hun voorrang pakken terwijl ze het niet hebben, want groot vierkant voertuig, anderen stoppen wel (iig, met mijn ervaring met nederlandse bussen), dat is ook een "voordeel" dat zo'n voertuig heeft ten op zichte van een persoonsauto, het "wint" vaker van twijfelgevallen/fouten (maar niet per se correct of veilig) en zie je ook niet per se terug op een blackbox. Het is een vreselijk scheve vergelijking dat niks bewijst. Vergelijk het dan met een gemiddelde bestuurder van een reguliere persoonsauto, wat de Tesla zelf ook is, en dan komen we wellicht ergens.

Dit is absoluut niet om Tesla te verdedigen ofzo, maar met deze cijfers kan je gewoon niks.

[Reactie gewijzigd door Zoop op 26 mei 2023 12:47]

Dit is absoluut niet om Tesla te verdedigen ofzo, maar met deze cijfers kan je gewoon niks.
Je kan er duidelijk wel iets mee, de reactie was namelijk er beweringen bij doen die net zo goed niet onderbouwd zijn, om het in twijfel te trekken. Daarbij werd geen alternatief gegeven wat dan wel redelijk is en waarom. Het gevolg is dat het in de eerst plaats Tesla aan het verdedigen is. Het nieuws is dat het bedrijf probeert te voorkomen dat er duidelijkheid is om conclussie op te baseren die mogelijk in hun nadeel zijn.
Als de reactie alleen was dat er niet zomaar valt te vergelijken zonder duidelijkheid over de omstandigheden waarom tesla het fouten noemt dan was het anders geweest.
En Tesla's rijden enkel en alleen maar in druk stadsverkeer?

Het zou natuurlijk beter zijn om Tesla te vergelijken met (andere) vergelijkbare gebruikers.
Probleem is tesla heeft telemetry

Veel autos hebben dat niet.

Ik kan in nl als ik me aan de regels houdt ook geen 25 km rijden zonder een bijna ongelijk laat staan 1000 mijl.

Van de week nog een vracht wage op de 3de baan die mij inhaalde op de 2de en me van de weg wou drukken omdat hij vond dat de 80 limiet ook wel 90 kon rijden.
Ik rij 'slechts' een paar honderd kilometer per week, regelmatig in de spits regelmatig op de snelweg en ik heb maar zelden 'bijna ongelukken'. Misschien helpt een defensieve(re) rijstijl meer dan een AI?
Dan wil ik wel eens mee rijden met je want dan klassificeer jij waarschijnlijk heel weinig als een bijna ongeluk of je bent de gene die ze veroorzaakt en het dus niet inziet.

Tel komende week maar eens hoeveel autos er werkelijk voldoende afstand houden ol de snelweg. Als dat er meer dan 20 zijn heb je een noeuw record.
Vrijwel niemand houdt (altijd) twee seconden afstand. Als dat telt als bijna ongeluk moet ik het wel met je eens zijn.

Maar ik maak slechts zelden mee dat ik plotseling hard moet remmen om een aanrijding te voorkomen, of plotseling moet uitwijken.
Ik hoor zulks ook zelden om me heen, dus misschien ben ik wel blind en doof en levensgevaarlijk.
Vijfentwintig schadevrije jaren suggereren anders. (Twee jaar geleden zag een vrachtwagen mij niet in de file en dat kostte een nieuwe achterbumper. Ik reken dat mijzelf niet aan: hij was degene die invoerde en letterlijk over mij heen keek.)
Deze week weer van limburg naar utrecht.

2 keer een auto die me inhaald en dan over het verdrijvings vlak de afslag probeert te halen waardoor de cruise control hard ingrijpt.

Stuk of 5 keer inhalers die zo kort voor je invoegen dat de cruise control ook weer hard moet ingrijpen.

Stuk of 10 slapende vrachtwagens die ver over de vluchtstrook gaan.

Allemaal potentieele ongelukken die gelukkig nog goed gaan.
Vooral voor wat betreft vrachtwagens op de vluchtstrook ben ik het met je eens: het is bizar hoeveel vrachtwagens je tegenwoordig kilometers lang half op de vluchtstrook ziet cruisen. Intussen waarschijnlijk lekker op hun smartphone bezig.
Levensgevaarlijke idioten.
Schoolbuschauffeurs in de US rijden voor elk dodelijk ongeval, 500 milioen mijl zonder zo'n ongeval.
Schoolbuschauffeurs zijn in het algemeen zeer ervaren, rijden in de bebouwde kom, dus langzaam, in een ongelooflijk opvallende grote gele bus en ik neem aan dat er juist bij hen wordt ingeramd dat ze geen ongelukken mogen veroorzaken. Slechte vergelijking.
In de US worden 100 miljoen mijl weggereden per dodelijk ongeval
In amerika wordt 100 miljoen mijl weggereden per dodelijk ongeval. Het artikel over de Teslaproblemen gaat over incidenten die zo simpel kunnen zijn als onverwacht remmen op een volledig lege weg. Weer een erg slechte vergelijking.

Dus, waar baseer jij die "ongelooflijk" op?
Teslaproblemen gaan ook over onverwacht niet remmen voor een stilstaand obstakel.
Een onnodige noodstop is vervelend, maar meestal zonder gevolgen. Geen noodstop als het wel nodig is, is meestal ernstig en vaak dodelijk.
Mijn Mercedes bouwjaar 2020 heeft een autonoom level 2 waarbij het meest "fancy" gedeelte het automatisch wisselen van rijvak na eens kort op de richtingsaanwijzer te tikken (EU verplichting voor level 2, rijvak wisselen moet altijd door de bestuurder gestart worden).

Mijn auto negeert stilstaande obstakels indien mijn snelheid hoger is dan 70 per uur voor het autonoom rijden. Dat wilt zeggen dat als ik 90 rijd en voor mij staat een auto stil aan de lichten dat hij niet gaat remmen. Wel gaat op het laatste moment de noodstop afgaan maar een dergelijke noodstop heeft geen garantie dat de wagen op tijd stil gaat staan.

Dat is allemaal geen probleem gezien het een level 2 is alsook staat dit ook vrij duidelijk vermeld in de handleiding alsook is Mercedes vrij duidelijk dat de huidige systemen hulp systemen zijn waarbij de bestuurder ten alle tijde de hoofdcontrole heeft alsook de verantwoordelijkheid.

Alle Tesla's zijn op dit moment tevens level 2, het systeem van Tesla doet technisch niet meer dan van Mercedes. Echter dat van Mercedes is van bij de start aangepast naar de EU regels die sterke beperkingen oplegt aan een level 2 systeem terwijl Tesla het systeem alles laat doen wat het kan. Daar komt dan ook de discussie vandaan dat Tesla claimt dat ze verplicht worden een handicap in hun systeem te steken op de EU markt, volgens Tesla omdat "de EU hun eigen markt wilt beschermen".

De US is echter een geheel ander rechtsysteem waarbij vrijheid/freedom op nr 1 staat dus Tesla kan daar doen en laten wat ze willen. Echter om te vermijden dat het volledig fout loopt treed de US reactief keihard op. Je mag dus doen wat je wilt maar als er achteraf problemen van komen procederen ze je de grond in, kwestie van een voorbeeld te stellen aan de rest van hun maatschappij wat er gebeurd als je die vrijheid misbruikt.

Dus Tesla laat hun systeem volledig vrij in de US, brengt het aan de man als een echte autopilot terwijl het level 2 en u eigen verantwoordelijkheid wel in de kleine lettertjes staat maar voor de rest vooral over gezwegen word. Ga ervan uit dat gebruikers dom zijn (belangerijke regel in de IT) en je gaat problemen krijgen waarbij Tesla gaat zeggen, schuld van de gebruiker want die was verantwoordelijk.

Dat de juridische dienst van Tesla dan uitdrukkelijk verbied om ook maar iets traceerbaar te communiceren met klanten hoeft niet te verbazen, die weten maar al te goed dat ze vroeg of laat in een rechtbank gaan staan in de US waarbij de gevolgen gigantisch kunnen zijn. (zich over the top juridisch indekken is vrij standaard voor de US)
Een Tesla met een Mercedes vergelijken moet je natuurlijk wel een klein beetje mee oppassen aangezien Mercedes flink veel verder is met autonoom rijden (de eerste met een Level 3 en de eerste met Level 4 certificering) dan veel andere merken.

Je kunt dan denk ik Tesla beter vergelijken met een meer doorsnee fabrikant die ongeveer even ver is. Dan zie je of er een duidelijke afwijking is die je eventueel de bedrijfsvoering van Tesla aan kunt rekenen.
Ik weet niet of schoolbuschauffeurs dan wel het meest eerlijke vergelijkingsmateriaal zijn. Ten eerste omdat dit professionele bestuurders zijn (je mag van een professional op elk vlak toch wel wat meer verwachten dan de gemiddelde persoon), maar ook dat een bus natuurlijk heel andere karakteristieken heeft waardoor vergelijken lastig is. Zo rijden deze doorgaans veel langzamer, is je zicht door je hogere positie boven de weg veel beter en wordt je (zeker die felgele dingen in Amerika) veel beter door andere bestuurders opgemerkt.

Neemt overigens niet weg dat de km/ongeval bij een Tesla wel eens hoger dan gemiddeld zou kunnen liggen hoor, daar heb ik mij totaal niet in verdiept. Ik vond alleen je keuze om het te vergelijken met een schoolbuschauffeur niet helemaal representatief.
Dat en juist bij autonoom rijden of ingrijpen van software verwacht je transparantie van de maker en geen "we vegen zoveel mogelijk onder het tafelkleed" beleid.
Transparantie is zeker belangrijk! Maar de realiteit laat ook zien dat cijfers heel snel een eigen leven gaan leiden. Kijk alleen al naar de aanname hierboven over dat het om dodelijke aanrijdingen gaat. De interpretatie van cijfers is ook heel erg belangrijk en dat is meestal niet zo eenvoudig als het lijkt.

Tevens verbaasd het mij steeds dat Tesla een bepaalde media waarde heeft en dat over de grote merken die ook gewoon lane assist en andere hulpmiddelen aanbieden je vrijwel niets hoort.

Dus aan de ene kant zou ik ook heel graag transparantie zien, maar aan de andere kant begrijp ik die bedrijven ook wel. Trial-by-media lijkt wel steeds meer de norm i.p.v. naar de feiten kijken.
Tevens verbaas[t] het mij steeds dat Tesla een bepaalde media waarde heeft
(Stam+t. :))

Dat verbaast mij eigenlijk helemaal niet. Tesla heeft de "intelligente" kant van de auto consistent naar voren geschoven. "Je auto wordt een taxi die geld voor je vedient terwijl je slaapt" enzo. Dan worden mensen daar extra kritisch op.
Musk heeft autopilot/fsd consequent als marketingpraatje gebruikt. "We zijn bijna klaar, volgend jaar ..." en dat vijf jaar lang.
Een buitengewoon succesvol verkoper van loze beloftes.
En inder tussen zijn ze verder dan welk bedrijf dan ook
Dat denkt iedereen.
Het enige waar Tesla verder in is, is 'marktacceptatie' van een falend systeem. We vinden het prachtig als er weer een bijna-ongeluk van een Tesla op YouTube verschijnt terwijl zoiets van bijvoorbeeld Mercedes absoluut niet geaccepteerd zou worden.
Dat is zeker zo, en de kritische blik is dan ook zeker niet onterecht.

En dat is m'n punt juist: Tesla blijft een beetje in het midden steken terwijl merken als Mercedes en BMW ze al voorbij zijn gestreefd. Daar hoor je weinig van, want die merken zetten hun rij-assistentie niet in de markt als bewijs van hun leiderschap in de 21e eeuw.

[Reactie gewijzigd door Spatienazi op 26 mei 2023 17:14]

Je vergeet te vermelden dat BMW en Mercedes die zogenaamd Tesla voorbij zijn, dat echt alleen zijn bij de allerduurste modellen, terwijl het bij Tesla overal standaard op zit (basis autopilot).
De auto's in dezelfde prijsklasse als een Tesla zijn echt niet voorbij aan Tesla. Voorbeelden te over in dit topic inmiddels hoe 'goed' het allemaal werkt bij de traditionele merken.
Dat vergeet ik niet; het is gewoon niet relevant.
Dat is het wel, je bent nu appels en peren aan het vergelijken.
Nee, dat doe ik niet. Ik, of liever gezegd de Amerikaanse tegenhanger van de Consumentenbond, vergelijkt een technologie met een technologie. Dat de ene poging in goedkopere auto's terecht komt dan de andere is verder irrelevant.
Ten eerste wat anderen ook al opmerkten was intelligentie en autonoom rijden een verkoopspeerpunt. Ten tweede zie je dat trial by media dan nu alsnog gaat plaatsvinden. Je kunt het beter voor zijn door gewoon een goed verhaal te hebben. Ten derde krijg ik uit het stuk de indruk dat de terugkoppeling naar de klant die iets overkomt ook minimaal is. Dát is iemand die heeft betaald voor een product en feitelijk de boodschap krijg "sorry maar niks aan de hand".
Waarom noem je ineens het aantal doden? Dat zegt helemaal niets over het soort ongelukken en incidenten waar het artikel over gaat.

Ik tel in het artikel 5500 incidenten van verschillende ernst in 7 jaar tijd. Dat zijn er ongeveer 2 per dag. Wereldwijd? Op hoeveel miljoen autos die samen hoeveel miljard kilometer hebben gereden?

[Reactie gewijzigd door Alxndr op 26 mei 2023 10:45]

Hoe weet je dat het hoog is? Je zegt zelf dat ze gestopt zijn met rapporteren. Daarbij is het nogal appels met peren vergelijken. Een schoolbus rijdt langzaam en iedereen houdt rekening met een schoolbus, want kinderen.... Die 100 miljoen mijlen per dodelijk ongeval, is dat alleen voor personen autos? Of voor alle vormen van vervoer? Lijkt me raar om vrachtwagens erbij te vergelijken....
Nee man, zet je radio maar aan met het verkeer nieuws en je hoort dat een of andere prutser weer een ongeluk heeft veroorzaakt. Geef mij maar die Tesla’s, liever dat dan 9 van de 10 bestuurders
Negen van de tien bestuurders veroorzaken ook vrijwel nooit ongevallen. Ik ken een heel rijtje mensen met maximale no-claim korting plus meerdere extra treden.
De veel voorkomende ongelukken worden door een relatief kleine groep bestuurders veroorzaakt. Meestal degenen die per jaar ook minstens vijf boetes voor te snel rijden scoren.
Je hebt dus liever een Tesla dan één op de tien bestuurders - je moet de discussie wel zuiver houden.
Om eerlijk te zijn, een psychologie professor quoten over DL, en dan deze quote nemen
As NYU psych prof Gary Marcus told Chafkin, "deep learning is something similar to memorization…It only works if the situations are sufficiently akin."
Geeft wel aan hoe ongelofelijk biased dat artikel is. Het sta echt vol van boute opmerkingen en foute vergelijkingen.
Gemiddeld heeft een Amerikaan elke 700k mile een ongeluk, maar een tesla met AP aan elke net geen 5 miljoen.

Autopilot is veeeeeel veiliger dan niet autopilot.
Autopilot kan niet dronken worden, maar wel onoplettend. Camera's kunnen uitvallen, verwerking kan even vastlopen, of gewoon crashen en rebooten. Dat is niet helemaal onoplettend in de menselijke zin van het woord, maar de computer is er om één of andere reden toch niet helemaal bij. Net zoals je van een inschattingsfout kan zeggen 'keek niet goed'. Een onterechte noodstop is een interpretatiefout, kortom de computer keek niet goed.
Niet helemaal zeker wat je hiermee bedoelt. En ja cameras kunnen uitvallen en in dat geval zullen die systemen errors geven en ofwel de camera niet meenemen / dode hoek hebben of totaal besturing aan mens overlaten. Niet het ergste wat kan gebeuren. Zolang de cameras wel werken hebben ze zover ik weet een compleet dubbel systeem wat de berekeningen doet. Als 1 van de 2 iets anders zegt dan hebben ze slimme trucjes om hier weer mee om te gaan. Ik denk ook in de meeste gevallen terug besturing naar mens.
Voordeel aan een computer/systeem is dat het totale netwerk over de hele wereld na een week bijvoorbeeld alweer leert van die ene fout.
Dat is te verwachten, maar wat is er dan veel of weinig?

Dat kun je enkel vergelijken met andere autopilots.
Niet met zelf rijden.

Dat het voorkomt is natuurlijk niet goed.
En daar begint denk ik de verantwoordelijkheid voor een overheid die hier wat regels voor op mag stellen.
Waarschijnlijk is het wat 'simpeler' omdat de bestaande wetgeving al voldoet: het hangt er van af hoe Tesla hun autopilot aan de consument heeft gebracht, welke beloftes, welke disclaimers, hoe duidelijk gemaakt, hoe geadverteerd. M.a.w. Tesla biedt een product aan, en in hoeverre voldoet het product aan de door Tesla geboden informatie naar de klant toe.
Ik weet alleen niet welke weg naar meer veiligheid sneller is: via een nieuwe wet (plus test standaarden ontwikkeling en uitvoering), of via bestaande wetgeving (onderzoeken en rechtszaken).

[Reactie gewijzigd door Fireshade op 26 mei 2023 09:34]

Dat heeft er juridisch gezien niets mee van doen. Ook al wordt de auto neergezet als een zelfrijdend autonoom stuk blik op wielen, zolang jij je nog achter het stuur dient te begeven ben je ten allen tijde verantwoordelijk voor de handelingen ervan. Ongeacht het nu zelf kan rijden of niet.
Dat is maar de vraag. Als de autopilot op een snelweg opeens besluit vol te gaan remmen, dan kun jij misschien nog wel snel reageren als je alert bent, maar toch is er al een gevaarlijke situatie onstaan die heel goed tot een ongeluk kan leiden.
Dat waren/zijn de zogeheten phantom brake situaties. Die heb ik in mijn Model 3 ook wel eens gehad.

A15 bij Geldermalsen. Vrij rustig op de weg. Ik rij onder het viaduct door en ineens gaat mijn M3 vol in de ankers. Niet een beetje remmen, maar echt "rempedaal op de bodem" hard remmen. Ik kon ingrijpen door weer te accelereren, maar ik was van 100km/u naar pakweg 60km/u afgeremd (exacte getallen weet ik niet meer). Dat was echt schrikken. Heb daarna ook een hele tijd met een extra alert voetje op het acceleratiepedaal gereden.

Paar keer voorgekomen (denk 3x) op vrijwel exact hetzelfde punt. En na een tijdje was het probleem weg, waarschijnlijk via een update of zo.
Leuke is… meerdere keren gebeurd in m’n polo (met een kusje van vrachtwagen tot gevolg) en m’n golf heeft ook al paar keer (onnodig) de noodrem er op gegooid.
Die brakes zijn natuurlijk vrij kwalijk, dat had in de eerste plaats nooit mogen gebeuren en het is goed dat deze verholpen zijn.
Wat ik in het artikel mis is de daadwerkelijke oorzaak. De 'stops vanwege potentiële botsingen die niet aan de orde waren' kunnen veroorzaakt zijn doordat het op bochtige wegen soms lijkt alsof die ene fietser voor de auto terecht komt. De software moet dan uiteraard beter getuned worden dus Tesla wil ik zeker niet vrijpleiten, maar het lijkt dan meer op een gebruikersfout dan op de schuld van Tesla.

Of zijn dit soort gebruikersfouten de in het artikel genoemde 'onbedoelde noodstops'?
Zonder diepgaand onderzoek snap ik best dat Tesla dit liever intern houdt, een onderzoek dat wel publiekelijk gepresenteerd kan worden zou uiteraard wel moeten volgen

[Reactie gewijzigd door Lothlórien op 26 mei 2023 12:12]

De software van auto’s staat overwegend erg (lees: te) voorzichtig afgesteld. Dus waar ik als bestuurder met gemak en veilig langs een fietser/paaltje/whatever kan, wil de software nog wel eens waarschuwen of zelfs ingrijpen terwijl er daadwerkelijk niets aan de hand is.
Dat bedoel ik. Een waarschuwing is vreselijk irritant, maar de software die te vroeg waarschuwt werkt averechts. Een noodstop ronduit gevaarlijk.

Ik noem dit voor het gemak een "gebruikersfout" omdat de automobilist de beperkingen van het systeem zou moeten kennen, als je dat in de gaten hebt kun je rekening houden met dat paaltje en de voet bij het gas houden. Dit soort dingen komt bij Toyota ook voor, alhoewel ik persoonlijk nog nooit heb meegemaakt dat het pre-crash system ook daadwerkelijk tot een noodrem overging. De adaptieve cruise control heeft daarentegen wel eens geremd, maar dat gaat minder heftig.
Phantom braking heb ik ook telkens weer op een vast punt hier in België, net nabij een afrit, of komt het door de brug boven me heen die ik net voorbij was, ik weet het niet maar ik ben er al op voorbereid als ik in die richting rij. En soms doet de M3 ook normaal. Maar wat ik wel zag is dat de max km plots op 70 kwam ipv de normale limiet. Ik zou zeggen, let daar eens op, misschien is het omdat de M3 de snelheid begrensd op basis van lokalisatie...

Op andere random plaatsen waar ik nog nooit geweest ben kan dit ook gebeuren maar als ik het aantal keren moet tellen over alle km die ik gereden heb vanuit België tot Texel, Zwitserland, Italië, Spanje(Barcelona), UK(Londen), geheel Frankrijk, Wit-Rusland, Polen, Duitsland, dan is het wel zeer beperkt.
Ligt eraan, als ik op de cruise control rijd, dan ben ik natuurlijk verantwoordelijk voor wat er gebeurt. Maar als de cruise control opeens besluit te accelereren zonder mijn input, dan is er toch iets mis met de functionaliteit van het ding, en dan is het volgens mij de fabrikant. (Was toch een paar jaar geleden het geval met een Prius?)

Lijkt me trouwens wel spannend; als zo'n plaid besluit zelf te accelereren; Ik neem aan dat er een limiet zit op de hoogte van de automatische acceleratie :P
Dat heeft er juridisch gezien niets mee van doen.
Zeker wel :)
Dit is namelijk hetzelfde als adverteren en aan de klant vertellen dat een auto in de specs 200 km/u kan, maar de auto blijkt maar 100 km/u te halen volgens de officiële test standaard. Dan kan de consument claimen misleid te zijn. Helemaal los van of er ongelukken zijn gebeurd.
Dus eigenlijk is het nog simpeler, en kan het los worden gezien van 'verantwoordelijkheid'.
Kijk, ik sta er neutraal in en persoonlijk vind ik dat je ten alle tijden verantwoordelijk en aansprakelijk bent en moet blijven zolang je de stoel achter het stuur moet bezitten. Ongeacht of het voertuig autonoom is of niet, als jij de eerste handeling moet uitvoeren om hem autonoom te laten rijden ben jij de verantwoordelijke persoon. 1 zonder 1 wordt geen 2.
Absoluut, bestuurder is nog altijd eindverantwoordelijk. Maar je kan Tesla nog steeds aanspreken op ondeugdelijke producten, niet waargemaakte beloftes, etc...
Heeft Tesla de verantwoordelijkheid genomen omtrent deze incidenten en klanten en publiek duidelijk en transparant geïnformeerd over deze incidenten?
Dit is een heel belangrijk punt. Want uiteindelijk draait het om de vraag: wie is er aansprakelijk als er een ongeluk gebeurt op het moment dat autopilot een storing heeft?
Tesla heeft tot nu toe iedere keer de schuld afgeschoven op de bestuurder, met het argument dat die geacht wordt altijd op te letten, handen aan het stuur te houden etc, ook als hij op autopilot rijdt.
Het is maar de vraag hoe lang ze dat vol kunnen houden. Mocht de rechter eindelijk een keer Tesla aansprakelijk stellen dan wordt dat waarschijnlijk het einde van Tesla's autopilot, want schadeclaims in de US zijn niet mals.
Op die vraag zijn hele duidelijke antwoorden. Rijondersteuningssystemen zijn onderverdeeld in bepaalde klasses. Een Tesla is klasse 2 wat betekent dat de bestuurder altijd verantwoordelijk is. Pas vanaf klasse 3 is dat anders.

https://images.synopsys.c...ve$&fit=constrain&dpr=off
Dat is wel zo, maar wat als je autopilot op de snelweg met 130km/u opeens besluit het stuur om te gooien? Misschien ben je super alert en kun je de actie nog corrigeren, maar toch heb je dan al een rare slinger gemaakt die genoeg kan zijn voor een serieus ongeluk.
Dit lijkt me een voorbeeld van een geval dat Tesla aansprakelijk is doordat ze een ondeugdelijk product hebben geleverd.
Wat betreft die transparantie en openheid. Ik ben het helemaal met je eens dat dit beter moet. Helaas zie ik daar een grote sta-in-de-weg in de vorm van de Amerikaanse aanklaag cultuur.
Het is mede daardoor dat veel bedrijven een 'de klant zo min mogelijk attack surface geven' beleid voeren.
Sorry hoor maar uw 2 etische vragen zijn echt te belachelijk voor woorden.
* Natuurlijk, of denk je dat ze express zaken stuk laten TESTEN en geen probleem hebben met imagoschade?
* wordt letterlijk overal vermeld dat sommige zaken BETA zijn, dat de BESTUURDER ALTIJD de verantwoordelijke is...
Je bedoelt wanneer een fabrikant de beslissing maakt om radar/lidar/sensoren achterwege te laten om enkel te vertrouwen op camera beelden voor de automatische functies. Wetende uit eigen onderzoek dat dit slechter zal presteren enkel en alleen om de winstgevendheid van een product te vergroten?

De vraag is hoe verantwoordelijk men kan zijn voor een 'black box'.
Ik maakte ooit een proefrit in een Citroën, toen ik het knipperlicht aanzette, ging de radio aan. :o
Ik neem aan dat men niet verantwoordelijk is voor 'black box' systemen die niet reageren zoals je als gebruiker redelijkerwijs kan verwachten.
Dat zijn claims van de lidar fabrikant hé, de wagens die lidar gebruiken hebben lang niet de gpu power in de wagen die teslas hebben zodat ze met cameras 'hetzelfde' kunnen.
Ik vind lidar subjectief gezien ook superieur, maar kwa use case en kosten/baten en veiligheid volg ik tesla om eerlijk te zijn.
De keuze voor Lidar heeft niet te maken met GPU power (dat kunnen ze bij Google ook wel aankomen), maar meer waar je de prioriteit legt:
- Het interpreteren van het verkeer om je heen (en de beslissingen) op basis van een 3D beeld uit de lidar
- Of eerst het interpreteren van 2d beelden om er een 3d model van te maken en op basis daarvan weer beslissingen maken.

Met lidar koop je tijd om later eventueel over te kunnen schakelen op cameras. (Of lidar wordt goedkoper)
de vorige teslas hadden lidar en cameras, sinds kort enkel cameras.
Voor mij betekend dit dat ze me cameras een voldoende goed resultaat behalen om lidar weg te halen, is toch simpel?

één van de grote redenen waarom iedereen blijft schreeuwen dat lidar beter is is omdat de grootste lidar fabrikant ter wereld deals=partnerships heeft met oa Volvo en BMW...

[Reactie gewijzigd door killerbie op 26 mei 2023 16:16]

Tesla's hadden radar, geen lidar.
Radar zijn ze pas in 2021 mee gestopt dus het grootste deel van deze incidenten zal gewoon met radar geweest zijn.
Wat een super gebalanceerde reactie.

Ik zou ook de deze vraag beantwoord willen zien:

* hoe verhouden deze aantallen zich tot de aantallen bij andere fabrikanten met equivalente systemen.

Het is makkelijk om over te gaan op Tesla bashing, maar bijna elke fabrikant op de planeet levert soortgelijke systemen, ook in conventionele ICE auto's. Het is prima mogelijk dat deze aantallen laag zijn in vergelijking met andere leveranciers.
Je benoemd goede punten, maar gaat dat niet op voor alle autofabrikanten? En inderdaad..daar zouden dan regels voor opgesteld moeten worden.
Ik vind het belangrijk dat deze data uitgelekt is; dit is data die voor een class action suit gebruikt kan worden door de slachtoffers die door het onveilig handelen van hun auto een ongeluk gehad hebben. Dit kan echt niet door de beugel. Ik bedoel meer dan tien jaar geleden was er een rechtszaak omtrent de matten in Toyota auto's waar het gaspedaal achter vast kwam te zitten; ze hebben daarvoor meer dan een miljard aan schadevergoeding betaald en een recall van 4 miljoen auto's gedaan, zie hier.
Tussen de gelekte data zitten onder meer burgerservicenummers van medewerkers. Ook dat van CEO Elon Musk zou erin zitten. Verder bevat het lek volgens Handelsblatt privé-mailadressen, telefoonnummers en salarissen. Van klanten zijn bankgegevens gestolen.
Een vraag, hoelang voordat deze "klokkenluider" naar de gevangenis gaat.
Het is belachelijk als we hier mensenlevens boven het beschermen van intellectueel eigendom zouden stellen.
Het gaat niet eens om intellectueel eigendom. Verplicht publiceren van incidenten zoals je voorstelt is een uitstekend idee. Het is natuurlijk gevoelige info, potentieel slecht voor je merk (afhankelijk van wat andere merken doen). Maar dan wordt hun code of goede idee nog niet gepikt of zo.
Ik denk dat teveel mensen de laatste 2 alinea's negeren in dit artikel.

Ja, het klopt dat er soms fouten gemaakt worden, dat kun je niet altijd 100% voorkomen, maar het grotere probleem lijkt te zijn dat Tesla alle verantwoordelijkheid probeert te ontlopen en koste wat het kost geheim wil houden hoe de fout heeft kunnen gebeuren.

Ik vraag mij hierbij ook af om wat voor soort fouten het precies gaat. Als een software bug voor een ongeluk zorgt in 2015 en dit ook al destijds bekend was, heeft diezelfde bug ook voor een ongeluk in 2022 gezorgd, waarbij Tesla dus 7 jaar in feite er niets aan heeft gedaan, of dit geen prioriteit heeft gegeven boven andere software ontwikkelingen zoals abonnementen op batterijcapaciteit?

Als een fout gemaakt wordt zal door iemand verantwoordelijkheid genomen moeten worden, en ik vermoed dat uit die dataset blijkt dat Tesla hiertoe niet bereid is, zelfs al kost het de levens van klanten.
Zolang Tesla alle verantwoordelijkheid bij de eigenaar van de auto legt voor fouten die komen door de automatische besturing vertrouw ik ze niet.

Als je gelooft dat je product zelf kan rijden dan neem je de verantwoordelijkheid voor fouten.
Dat gaan 'ze' nooit doen. Ook al zou er een 100% perfect zelfrijdende auto ontwikkeld worden.
Wie is dan verantwoordelijk?
Diegene die de locatie ingeeft en op de knop drukt of zo?
Het bedrijf dat de automatische besturing heeft gemaakt.

Als je een product koopt en je gebruikt het correct maar er ontstaat schade (aan jou of aan een kleuter die op straat liep) dan ligt de verantwoordelijkheid 99% van de tijd bij het bedrijf dat het maakte.

[Reactie gewijzigd door Parrotmaster op 26 mei 2023 10:10]

Eindeverantwoordelijke lijkt mij nog altijd de gene die het voertuig op de openbare weg loslaat, de bestuurder dus. Die kan het dan proberen te verhalen bij de fabrikant, sure. Maar volgens mij is wetgeving toch echt nog zo dat diegene achter het stuur verantwoordelijk is voor het voertuig, autonoom of niet.
Omdat de wetgeving uit gaat van niet autonome voertuigen dekt de wet nu inderdaad autonome voertuigen. Maar wetten spreken ook van een "bestuurder". Wie is dat wanneer de software van een bedrijf aan het rijden is?

Plus ik heb het niet over de wet. Ik heb het over de verantwoordelijkheid van de fabrikant. Wetten kan je aanvechten in de rechtzaal.
Diegene die het voertuig op de openbare weg loslaat is de fabrikant.
Die verkopen het aan de "bestuurder" om het te gebruiken op de openbare weg.

U zou een punt hebben als de fabrikant het enkel zou verkopen om op privaat eigendom te gebruiken, en de koper die dan op de openbare weg gebruikt.
Deze wetgeving bestaat al, als er een Boeing uit de lucht valt door een software fout is Boeing aansprakelijk, niet de piloten.
Dan rijd ik nooit in hun auto. Als een persoon rijd en ik zit er naast dan is het tenminste hun verantwoordelijkheid.
Dat schijnt Volvo dan weer wel te hebben beloofd.
Volvo heeft dat al lang medegedeeld aan de pers, als Volvo met zelf rijden auto's komt neemt Volvo de volledig verantwoordelijkheid bij ongelukken, het zal iets genuanceerder zijn. Maar Volvo gaat hun verantwoordelijkheid niet ontlopen
Dan gaat het nog heel lang duren eer Volvo met een volledige autonome auto komt.
Autopilot is niet zelfrijdend. Het rijdt tussen de lijnen en houdt afstand met je voorganger. Je bent ten alle tijde nog verantwoordelijk.
Dan hoef je ook de concurrentie niet te vertrouwen. Want je bent ook bij hen ten alle tijde verantwoordelijk.
Ik zei niet dat ik naar de concurrent ga omdat ik Tesla niet vertrouw. Ik zei dat ik niet in een automatische auto van Tesla zou rijden omdat de verantwoordelijkheid voor het automatische gedeelte bij mij ligt.

Dat statement dekt alle auto makers die de verantwoordelijkheid bij de klant leggen. Ik ben geen fanboy die een regel heeft voor Tesla maar die negeert bij mijn favouriete auto merk (heb geen favouriet automerk).
Ik denk dat weinig mensen weten hoeveel doden er jaarlijks vallen door het gebruik van normale cruise control
De verantwoordelijkheid bij de bestuurder plaatsen is zo vreemd niet. Dat is bijna overal zo. In auto's, in industriële automatisering etc etc... Uiteindelijk is een mens verantwoordelijk. Die moet opletten en die is de baas.
De verantwoordelijkheid ligt bij de bestuurder omdat hij dan bestuurt.

Automatische piloot is alsof je een bestuurder huurt van Tesla die voor je gaat rijden. Als die dan faalt en schade aan mijn auto brengt of andere personen/eigendom dan zou ik verwachten dat Tesla aanspraakelijk is.
Mensen blijven maar hangen op die naam "automatische piloot" Het is gewoon een combinatie van lane assist en adaptive cruise control etc. Zelfs tesla zegt dat het in zijn huidige vorm geen vervanging is voor de bestuurder.
Je moet je handen op het stuur houden, je moet blijven opletten. Zijn ze heel duidelijk in en is ook niet anders dan in elke andere auto met dezelfde mogelijkheden.
De persoon achter het wiel blijft altijd wettelijk de bestuurder. Dus die huur analogie kan je wel vergeten. Die gebruiken alleen mensen die niet weten wat auto-pilot (nogmaals klote naam) werkelijk is.

Ze hadden duidelijk een betere naam moeten kiezen, maar dat veranderd niets aan de werkelijkheid.
Ok maar ik heb het niet over wat er nu in de auto's zit. Ik heb het over automatische besturing.
Als je het hebt over in de toekomst dan staat de discussie nog open. Er is geen idee nog wie er verantwoordelijk gaat zijn voor AI. En als dat ding bewust zou zijn word de vraag nog moeilijker.
Dan wordt de vraag simpel.

Als het bewust is en het is legaal om mee te rijden dan wordt het bewuste ding (de auto AI) gestraft, tenzij we wetten maken dat kunstmatige intelligentie geen eigen verantwoordelijkheid heeft. Hoe die straf er uit gaat zien is een heel ander verhaal.
Zelfs als het bewust is, is het ook nog steeds een product. Scherpe lijnen trekken zoals jij lijkt te proberen werkt zelden goed in dit soort gevallen. Onze wetten zijn niet voorbereid op deze situatie.
Juist dat onze wetten niet zijn voorbereid op de situatie is wat het simpel maakt.
Dat iemand iets maakt dat betekent niet dat het een "product" is van dat persoon, en je kan niet zomaar iets wat bewust is verkopen.

Bewustzijn neemt voorrang over eigendom.
Maar ghosts not stops kun je als bestuurder niks aan doen, en die persoon die er achter op rijd eigenlijk ook niet.
EDIT: delete

[Reactie gewijzigd door killerbie op 26 mei 2023 11:09]

En Tesla mag dat gerust proberen, maar er zal een enorme rechtszaak aankomen waarbij ze verantwoordelijk gehouden worden voor alle ongelukken die met Autopilot te maken hebben. Of tenminste, degenen waarbij Autopilot een fout gemaakt heeft.

Ik bedoel als de cruise control bij een auto vast zit is dat ook een probleem van de fabrikant van de cruise control.
Wat anderen al schrijven: deze getallen zijn alleen zinnig als je ze relativeert aan het totaal. Dat totaal staat nergens vermeld. De uitspraak 'meer dan 1000 keer voorgekomen' heeft een hele andere betekenis als het totaal aantal gevallen 10000 is, vergeleken met bijvoorbeeld 1 miljard gevallen.

Nog een verschil: de Autopilot van Tesla is altijd actief, ook als je niet met Autopilot rijdt. Tesla houdt dus altijd bij hoe Autopilot zou rijden, altijd. Tesla gebruikt die informatie om verschillen te analyseren met de bestuurder die op dat moment zelf rijdt. Mogelijk komen er dan situaties uit waar de bestuurder gewoon doorrijdt, terwijl Autopilot een uitwijkmanoeuvre of zelfs een noodstop zou hebben gemaakt. Of andersom. Die verschillen zijn uitermate waardevol om de autopilot te verbeteren. Die informatie wordt ook constant naar het hoofdkwartier van Tesla gestuurd, zoals gezegd dus voor analyse. Nergens staat vermeld of deze gevallen van een 'slapende' Autopilot ook meetellen in de genoemde statistieken.

In mijn Hyundai Ioniq 5 heb geen autopilot, maar wel afstandafhankelijke cruise control en lane follow assist. De auto kan in principe zelf op dezelfde baan op de snelweg blijven rijden, ik hoef alleen het stuur vast te houden. Poor man's autopilot. En als je zelf rijdt, blijft het systeem waakzaam. Bij dreigend gevaar wordt gasgeven tegengehouden, en zelfs geremd. De auto denkt soms dat er obstakels zijn op een verder lege weg en houdt daar in, terwijl er dus niks voor de auto zit. In sommige bochten ziet de auto denkbeeldige lijnen en 'corrigeert' de rijrichting, om vervolgens te klagen dat ik over de lijnen heen rijdt. Het zijn telkens dezelfde plaatsen op de snelweg, op de vaste route naar werk. Het verschil met Tesla is dat Tesla actief leert, en dat Hyundai dat niet doet. Overigens rijdt de auto voortreffelijk, de rijhulpsystemen zijn alleen niet altijd even volwassen.

Of het goed is dat Tesla deze informatie van je bewaart, en misschien eeuwig opslaat, laat ik even in het midden. Het idee om met deze informatie de autopilot te verbeteren is in elk geval goed bedacht.
In mijn Hyundai Ioniq 5 heb geen autopilot, maar wel afstandafhankelijke cruise control en lane follow assist. De auto kan in principe zelf op dezelfde baan op de snelweg blijven rijden, ik hoef alleen het stuur vast te houden. Poor man's autopilot.
De marketing van Tesla mag dan wat anders doen vermoeden, maar dat is precies wat je bij een Tesla ook moet doen.
Tot nog toe is Mercedes met de s-klasse de enige die iets heeft wat in de richting gaat van een 'echte' autopilot...
Automatische noodstop is dacht ik altijd actief.

"Wanneer een botsing niet voorkomen kan worden, zorgt Automatic Emergency Braking ervoor dat de remmen worden geactiveerd om het voertuig af te remmen en de gevolgen van de botsing te verminderen. "
Met een boel waarschuwingen dat je zelf ervoor moet zorgen dat de sensors schoon zijn, en dat het geen botsing voorkomt.

Maar als je auto ergens vol in de remmen gaat omdat hij een spook ziet, dan hoor je dus in bovenstaande dataset. Het beroerde is dus dat als je dat meerdere keren overkomt op de zelfde plek, je zelf niks kunt aanpassen.
Maar als je auto ergens vol in de remmen gaat omdat hij een spook ziet, dan hoor je dus in bovenstaande dataset. Het beroerde is dus dat als je dat meerdere keren overkomt op de zelfde plek, je zelf niks kunt aanpassen.
Precies dat dus, je hebt er inderdaad geen invloed op. Behalve bij Tesla, aangezien die er dus van leren.

Het is zelfs zo dat elke keer als je in een Tesla toetert, de beelden van alle camera's vanaf een aantal seconden terug bewaard worden, tot een aantal seconden erna. Zo ook bij een aanrijding. Al die gegevens gaan ook naar Tesla voor analyse en voor integratie in autopilot.
De krant omschrijft verder Tesla's beleid omtrent terugkoppeling aan de klant. Het zou zaak zijn om de klant 'zo min mogelijk attack surface te geven', oftewel zo weinig mogelijk gevoelige informatie.
Dat is dus het omgekeerde van het veiligheidsbeleid zoals het in de luchtvaart wordt gehanteerd (en we hebben inmiddels ondervonden dat die laatste goed werkt), in de luchtvaart is het zo dat wanneer er een kwetsbaarheid gevonden wordt, die met IEDEREEN gedeeld wordt en er juist het maximale wordt geprobeerd om als gevolg van die kwetsbaarheid een onveilige situatie te veroorzaken. Want dan weet je waar er nog ergens een gat zit (namelijk niet in de attack surface, maar in het gevolg daarvan) en kun je het gat wat een gevaarlijke situatie veroorzaakt dichten.

In de IT security is het geheim houden van attack surfaces nog altijd schering en inslag, maar als je een veiligheids-systeem bouwt is dat juist niet wat je zou moeten doen. Geheimen zijn dan juist de dingen die levens kosten.

[Reactie gewijzigd door Stoney3K op 26 mei 2023 09:43]

Dat is inderdaad wel een correcte opmerking. Als alle fabrikanten van rijhulpmiddelen verplicht worden data te delen zal dat de veiligheid van iedereen op de weg waarschijnlijk ten goede komen.

Vandaag zijn er wel heel grote technologische verschillen tussen de fabrikanten, wat in de luchtvaart niet zo is. De achterlopers zullen veel meer baat hebben dat de data verplicht publiek moet worden gemaakt.

Luchtvaartincidenten zijn er zo zelden (in vergelijking met auto incidenten), dat men er telkens een diepe analyse van kan maken en lessen uit kan leren. Dat wordt veel moeilijker met de honderden of duizenden auto incidenten per dag. Al denk ik wel dat het in zijn geheel een positief effect zal hebben.

Dit is wel iets om op internationaal niveau te regelen en verplicht te maken voor alle fabrikanten, niet alleen Tesla.
De aantallen lijken hoog, maar helaas zegt het artikel niets over het aantal ritten waarbij dat niet gebeurt. De data gaat over de periode 2015-maart 2022. Het aantal incidenten lijkt mij dan ook best laag.
Uiteraard willen we allemaal dat automatisch rijden 100% perfect is. Ik denk dat je het beter kan vergelijken met menselijke bestuurders. Hoe vaak zie je niet een auto met menselijke bestuurder onverwacht/onnodig remmen, per ongeluk naar links of rechts zwaaien en andere ongewilde en ongewenste acties.

Zonder vergelinking met het totaal aantal ritten én de vergelijking met het aantal fouten van menselijke bestuurders zeggen deze aantallen helaas niet zoveel.
Volgens mij is de nieuwswaarde niet het aantal gevallen of percentage, maar het beleid en de transparantie erom heen.

Elke keer als er melding wordt gemaakt van een zogenaamd op hol geslagen Tesla wordt, hier bij tweakers en Tesla, de fout bij de bestuurder gelegd. Wat waarschijnlijk ook zo is, maar we moeten altijd Tesla op de blauwe ogen geloven. Terwijl in dit artikel gesteld wordt dat Tesla een beleid heeft om aansprakelijkheid te minimaliseren/ voorkomen. Mocht waar zijn wat gesteld word, hoe blauw zijn dan de ogen van Tesla?

Maar verder lijkt het me interessant om inderdaad een vergelijk te hebben met menselijke bestuurders en welk percentage of aantal ongelukken door een falende auto is acceptabel?
Ik snap de reactie van Tesla om dit onder de pet te houden wel enigszins. Want elk ongeluk met een Tesla dat in het nieuws komt roept de volgende vragen op: 'stond autopiloot aan' en 'had de autopiloot dit kunnen voorkomen of was het juist de oorzaak'.

Het is voor een merk natuurlijk heel vervelend om zo in het nieuws te komen elke keer en uit te moeten leggen wat er gebeurd is. Helemaal omdat het een van de weinige fabrikanten is waar dit zo in het nieuws komt; veel ernstiger gebreken aan andere auto's komen veel minder of niet in het nieuws.

Ik noem maar een Kia Soul die spontaan in de fik vliegt, en waar dat niet 1 keer gebeurde, maar tot april 2019 blijkbaar al ruim 3000 keer.

Aan de andere kant snap ik de media ook wel weer; Tesla heeft wel een handje van overdrijven en grote claims doen qua veiligheid; als die niet helemaal blijken te kloppen mag je als media daar echt wel iets van zeggen. Ik mis alleen vaak wel de context of ze daardoor nu minder veilig zijn dan andere fabrikanten (waarvan auto's spontaan in de fik vliegen) of dat ze alleen minder veilig zijn dan dat ze zelf beweren.
Of veegelijking met de concurrenten?
Uiteraard willen we allemaal dat automatisch rijden 100% perfect is
Zodra het (een stukje) veiliger wordt dan mensen die zelf rijden ben ik er zelf al positief over.

Vooralsnog zijn de cijfertjes heel erg biased met snelwegverkeer, ingrijpende bestuurders e.d. Dus volgens mij zijn we er nog niet.

Maar zou best hard kunnen gaan zodra verzekeraars merken dat ze minder hoeven uit te betalen aan autonome auto's.
Een belangrijke toevoeging als het een stukje veiliger wordt dan mensen die zelf rijden;

Men kan het accepteren als er een (dodelijk) ongeluk gebeurd door menselijk handelen, als een naaste van je overlijdt of je ligt voor de rest van je leven in de kreukels door het handelen van een autonome machine ligt het wel anders.
We accepteren het ook niet als mensen door handelen een dodelijk ongeluk veroorzaken en proberen iedere factor die ook maar de kans geeft op dergelijke narigheid (te hard rijden, rijden onder invloed, vermoeidheid etc) uit het verkeer te houden.
Geef eens 1 goede reden waarom we autofabrikanten die zelf rijden beloven niet aan dezelfde zware eisen zouden willen laten voldoen? Het 'warrige rijgedrag' van huidige generatie auto-AI is net zo gevaarlijk als rijden onder invloed en vereist continu supervisie van de verantwoordelijke chauffeur die daar niet voor opgeleid is en niet in staat is acuut op onverwachte situaties in te springen.
Ik denk dat hier eigenlijk meer gaande is. Enerzijds pitched Musk autopilot als iets fantastisch dat je van A naar B rijdt zonder problemen. Dit is gewoon niet zo. Niet alleen dat Tesla kiest voor technisch zwakkere oplossingen om kosten te besparen maar dit gaat dus ten gunste van onze veiligheid. Daarnaast beta-test Tesla met alle gebruikers, enerzijds mooi zo zitten ze op een gigantische berg data, maar tegelijkertijd dit is wederom wel ten gunste van onze veiligheid.

Ik verwacht niet dat alles perfect is, maar ik verwacht wel wanneer een product wordt verkocht dat die veiliger is dan wanneer ik zelf zou rijden en zo niet dan dien ik dat gewoon te weten. De realiteit is dat wij geen autopilot meer gebruiken omdat die gewoon inferieur is vergeleken met onze Mercedes.

Waar ik ook mee zit en als ik dit lees verbaast me dit niets, is hoe Tesla zich richting zijn klanten opstelt. Dit is toch totaal onacceptabel dat ze ten gunste van onze veiligheid zichzelf juridisch veilig proberen te stellen?
Waar ik ook mee zit en als ik dit lees verbaast me dit niets, is hoe Tesla zich richting zijn klanten opstelt.
Ik begrijp de klanten ook niet. Als ik 7k euro voor "full self driving" had betaald had ik ook niets minder dan dat verwacht. Volgens de beloftes van Musk zou een Tesla die je 5 jaar geleden kocht nu een full-time robotaxi zijn die geld voor je verdient...
Het maakt volgens mij niets uit voor de acceptatie (door de nabestaanden) wat de oorzaak van het dodelijk ongeval is. Menselijk falen (onachtzaamheid, te hoge snelheid, telefoon of dronken achter het stuur) is net zo goed niet acceptabel als een technisch mankement (motor stopt er mee, geen remmen of software fout).
Inderdaad. De data gaat over een periode van 7 jaar waar er in totaal 3,5M tesla's verkocht zijn [0].

Hoeveel miljarden kilometers zijn er in die periode gereden met al die wagens? Hoe evolueert het aantal fouten per gereden kilometer? Hoe verhoud deze false-positive rate zich met andere auto makers?

[0] https://www.statista.com/...terly-vehicle-deliveries/
Er staat hier niet bij of dit de gegevens zijn van alle Tesla's, of slechts een handjevol. Als het een aantal auto's zijn, zijn dat random auto's? Of zijn ze cherry picked omdat deze heel erge fouten gemaakt hebben?
Als ik kijk hovaak mijn niet tesla false positives heeft om te remmen op de Adaptive cruise control en daar bij optel de verhalen die ik hoor van wel Tesla rijders kan ik mij niet indenken dat dit alle issues zijn van alle 3.5M Tesla's over 7 jaar en al hun kilometers.
dat weten we niet, omdat tesla die informatie geheel voor zich zelf houd.
op zich natuurlijk niet zo gek, zijn willen niet dat hun concurrenten weten wat ze doen.

maar dat betekent ook dat de consument niet weet wat tesla doet, of juist niet doet.
en omdat we het niet weten, moeten we of op tesla vertrouwen, of op dit soort onderzoeken.

de waarheid ligt in het midden, maar dat midden is verduisterd
Als je op een normale drukke dag op de autostrade richting Antwerpen, een tesla op de linker rijstrook opeens een noodstop maakt omdat hij een tunnel inrijdt, dan zorgt dat voor heel gevaarlijke situaties.

Als je zelf geen controle hebt om 'over te nemen' dan is enkel bidden dat niemand achteraan inrijdt of met manoeuvres andere ongelukken veroorzaakt.

Je kan nu wel zeggen 'maar het heeft al zoveel keer goed gewerkt', kheb al meer dan 20 jaar geen tesla en 0 ongelukken...
Je kan nu wel zeggen 'maar het heeft al zoveel keer goed gewerkt', kheb al meer dan 20 jaar geen tesla en 0 ongelukken...
Alleen jammer dat jij een samplepopulatie van 1 bent
Dat klopt, maar die sample population wordt wel een ongeluk ten laste gelegd. Iets wat Tesla dus willens en weten wil voorkomen, ook al is hun eigen sample population waarin het voorkomt wellicht ook maar 1.
Als er een papagaai land op mijn voorruit net voor die tunnel dan is dat ook gevaarlijk.

Als en dan. Je hebt er niks an
Bij het programmeren is als en dan toch wel erg belangrijk :P
Uit het artikel blijkt dus dat de kans op een onverwachte noodstop veel groter is dan de kans dat er een papegaai op je voorruit landt. Bovendien is de eerste situatie nauwelijks overmacht te noemen: je kunt er heel simpel wat aan doen door gewoon koers en snelheid te houden zolang er geen acuut gevaar is.
Is dat dan anders dan elke idioot die dagelijks vol op de rem gaat staan omdat er een flitspaal staat aan elke tunnel ingang? Omdat er ergens een magisch snelheidsbord staat dat ongecontroleerd op eender welk snelheid en moment kan vernaderen. Mensen die denken dat je zonder marge daar moet inrijden terwijl je eigenljik een afdaling hebt en dus automatisch sneller gaat (tenzij cruise control) dat geen kat gebruikt en niet kan anticiperen op afstand en snelhied. Die op de rem gaat omdat de rijlijn ernaast ook op de rem gaat staan? dagelijkse kost....

Hoeveel fouten hebben er niet gezeten in de cruise control en adaptive control tot er massa adoptie was? Zelf vandaag is die adaptieve een ramp van een feature want als je gewoon daarmee op de baan bent ga je nog 80-90 rijden in massa omdat er wederom iemand midden blijft plakken tegen erbarmelijke snelheid.

Als laatste, wie is er dan verantwoordlijk voor dit akkefietje?
https://www.vrt.be/vrtnws...25/craeybeckx-afgesloten/
hoeveel zullen er hier niet vol op de remmen gegaan zijn? waar zijn de security maatregelen ifv automatisatie? Als ze zo fantastisch werken als allle andere borden van wegen en verkeer in BE dan heb je minder kans dat er iets fout gaat in een tesla dan op een weg rijden in BE. Gisteren nog maar eens het gevalletje gehad aan oosterweel werken... 50 -70- 70 - 90 - 50 -50 -90 en dit terwijl er 3 rijstroken beschikbaar waren en ik het aantal auto's op 1 hand kon tellen in de ruime km rond mij.

[Reactie gewijzigd door d3x op 26 mei 2023 10:03]

dat deed die van mij dus bij de werkzaamheden op de A9 rond Amsterdam/Schiphol, gelukkig niemand dicht achter me toen die gewoon noodstop maakte.
dat was inderdaad schrikken
Ik heb een auto, geen tesla met adatieve course en ook noodstop functie. Als het warm weer is en ik heb een lange rit van een uur of meer dan weet ik dat de auto ergens op de snelweg ineens denkt dat er een auto stilstaat voor hem en daardoor aangeeft dat je moet remmen en begint dan langzaam aan te remmen, even het gas indrukken en het is weg.

Er zijn al meerdere systemen vervangen, ik accepteer het nu maar als een ding. Maarja als deze data iedere keer erin komt met iedere rit en ik rij twee keer per week een enkele rit van 220km dan loopt dat in 52 weken wel lekker op.
Mijn Audi a3 e-tron grijpt ook soms totaal onverwacht (en onnodig in) door remacties, bijvoorbeeld als ik op de snelweg links een vrachtwagen voorbij rij met een snelheidsverschil van misschien 10km/h. Dat is al zeker 10x voorgekomen in een jaar. Omdat ik mijn voet altijd op het gaspedaal heb kan ik dat meteen onderdrukken, maar het is wel onprettig.
En ook andere situaties komen voor dat de autosteering - vooral bij invoegstroken - ineens een ruk naar links of rechts geeft.

Wel slecht natuurlijk als een leverancier (Tesla in het geval van dit bericht) niet transparant is.
Wij hebben ook zo'n auto met allerlei dingetjes die het eigenlijk nét niet zijn.

Het afstand houden vind ik persoonlijk te weinig, zeker als je op een 100-weg rijdt met alleen een groene middenstrook.
Als er voor je een frontale botsing gebeurd en de tegemoetkomende auto rolt door, sta je zéker niet op tijd stil.

Dat invoegstrook rukken :+ hebben wij ook en als de weg hoogteverschillen heeft lijkt het systeem ook niet helemaal soepel te werken.

Het noodstop systeem piept wel eens bij wegversmallingen, na het piepen zou het nog in moeten grijpen, dat heeft het twee keer gedaan bij een kamikaze fietser en omdat we op een file inreden nadat we werden ingehaald en geen zicht meer hadden wat op zich wel prettig was.

De polderwegen hebben onderbroken lijnen aan de bermzijde, bij stukken waar een doorgetrokken streep is gaat de lane assist waarschuwen en ook tegensturen!!!!! Dat systeem staat altijd aan en is zacht gezegd, even wennen...
Lekker richting het tegemoetkomende verkeer sturen want er is een lijntje 8)7

Dat remmen naast vrachtwagens hebben wij dan weer niet, heeft dat misschien met hoogteverschillen te maken?
Bij het omhoog gaan van een hobbel lijkt de middenstrook even een stukje verder weg, en bij het omlaag gaan komt het rap dichterbij.

Het is het gewoon (nét) niet, ik heb sowieso altijd mijn handen aan het stuur en een voet op de rem, vinger op de knop om het systeem uit te schakelen en heb het sowieso niet aan waarvan ik verwacht dat er rare situaties kunnen ontstaan.
Ik heb het wel eens aan bij file waar je bijv. moet ritsen, nou dan houdt ie echt niet genoeg afstand om iemand anders er tussen te laten, komt zo frustie over :P
Klopt.

Maar hoe transparant is Audi hierover dan?
Het grote verschil is dat andere automerken geen absurde uitspraken doen over zelfrijdende autos en dat heel erg benadrukken.

https://electrek.co/2022/...la-self-driving-changing/
Ik denk zelf dat dit niet alle data is, dat is echt heel weinig over die periode. Ik heb zelf al een aantal keer een onnodige rem actie ervaren. Niet erg omdat je toch oplet en direct tegenmaatregelen kan nemen maar ik denk niet dat de gegevens van mijn auto in deze data zitten.
Dit nieuwsbericht en deze aantallen gaan ook niet over wat de cijfers zeggen. Het gaat over dat er mogelijk sprake is van grotere risico's dan Tesla doet voorkomen. En over de vraag in hoeverre Tesla hierover zelf proactief had moeten communiceren, gelet op dat nu kennelijk een klokkenluider meent dat zelf te moeten doen.
De aantallen lijken hoog, maar helaas zegt het artikel niets over het aantal ritten waarbij dat niet gebeurt.
Vergelijk het met 1 persoon die wat teveel gedronken heeft en toch achter het stuur kruipt. Die ene persoon is in vergelijking met de rest van het verkeer maar een heel klein percentage. Toch willen we allemaal bijzonder graag dat die ene persoon uit het verkeer gehouden wordt.

Laten we ook niet vergeten dat elke Tesla van een bepaald type hetzelfde is als de andere Tesla van datzelfde type. Dus als er een probleem is met 1, dan hebben ze daar allemaal last van.

Wat mij vooral tegenstaat is hoe het bedrijf Tesla ermee omgaat. Hush hush en keep it under the pet. Vooral de klant en bij extentie de medeweggebruikers zo min mogelijk vertellen over een potentieel levensgevaarlijke situatie. Tesla is overduidelijk meer bezogd dat ze aangeklaagd worden dan over de veiligheid van mensen.
En waarom word er geen onafhankelijke bron geraadpleegd ? namelijk de verzekeraars ?
Die zouden het moeten weten..
https://tesla360.nl/waaro...-autoverzekering-zo-duur/
Als je een autoverzekering afsluit voor je nieuwe Tesla, dan merk je dat de autoverzekering omhoog schiet. Je betaalt – in vergelijking met andere auto’s in dezelfde prijsklasse – al snel twee tientjes extra premie per maand. Waarom eigenlijk?
In dat artikel verwachten ze dat de verzekering goedkoper zou zijn omdat Tesla's veiliger zouden zijn. Maar daar geven ze verder geen enkel bewijs voor. Wel wordt er gespeculeert dat Tesla's vaker bekrast worden. Mja.

Tesla verzekeringen zijn dus al duurder dan die van vergelijkbare auto's. Dat geeft denk ik antwoord op jouw vraag?
Het is wel kort door de bocht om de indruk te wekken dat het statistisch allemaal wel meevalt. De toeslagenaffaire betrof ook maar een klein deel van de balstingplichtigen, dus het zegt niet zoveel toch?

Er staat dat het tot eenzijdige en tweezijdige ongevallen heeft geleid. Daarnaast zijn onbedoelde noodstops en acceleraties doodeng en kan het de bestuurder verwarren, met verdere fouten tot gevolg.

Fouten worden gemaakt en komen voor. That’s life. Maar als men deze onvoldoende oppakt om te verbeteren en/of zeer ontransparant is wordt het gevaarlijk. En dat is de indruk die hier gewekt wordt: klanten moeten zo weinig mogelijk info krijgen, en het blijven roepen dat FSD “volgend jaar komt”.

Dat accepteren we van Boeing niet met haar 737 neo. Van de belastingdienst niet met toeslagenaffaire. Van de foutieve Takata airbags niet.
Uiteraard willen we allemaal dat automatisch rijden 100% perfect is. Ik denk dat je het beter kan vergelijken met menselijke bestuurders.
Maar die vergelijking wordt nooit gemaakt. Bij een mens staat een fout gelijk aan een vergissing, een inschattingsfout, een fysiek probleem (bijv. slecht geslapen) etc. Bij een computer staat een fout gelijk aan een mankement waarvan we vinden dat het er nooit had mogen zijn.

Wij mensen rijden massa's mensen dood per jaar. Als een computer 1 mens aanrijdt, komt dat gelijk in het nieuws.

De vraag is of we ooit gaan accepteren dat een computer nooit perfect zal zijn, ook al doet hij iets 1000x beter en sneller dan de mens.
Als bestuurder kan ik mij inleven in andere bestuurders en anticiperen op wat ze doen.
Een computer die ineens besluit op de linkerbaan stil te gaan staan is compleet onvoorspelbaar en daardoor gevaarlijker. Daar kan niemand goed mee overweg.
Zou je als gebruiker je eigen gegevens niet kunnen opvragen op basis van het inzagerecht zoals opgenomen in de avg?

Als genoeg gebruikers dat doen wordt deze data vanzelf publiek.

Overigens vind ik de getallen niet zo schokkend. De gemiddelde bestuurder maakt volgens mij meer fouten.
In de mate dat de data informatie is over jouw rijgedrag, lijken mij dat persoonsgegevens en moet je dus op basis van de AVG daar inzage en kopie van kunnen vragen.

Zelfs als het geen persoonsgegevens zijn, heb je de Data Act, die stelt dat data gegenereerd door "connected devices" (waaronder dus ook auto's) ook toegankelijk moet zijn voor de gebruiker.

Zie: https://ec.europa.eu/comm...rner/detail/en/ip_22_1113
Measures to allow users of connected devices to gain access to data generated by them, which is often exclusively harvested by manufacturers
Het zijn niet je eigen gegevens denk ik. Het zijn de gegevens van de auto. In mijn auto rijden meerdere mensen (soms zelfs collegas) dus het opvragen van de gegevens terwijl mijn collega in mijn lease auto reed zou ook een probleem zijn.

Ik weet niet of je bij Mercedes bijvoorbeeld alle data die door de auto verzameld wordt ook raw mag opvragen. Misschien wel je account gegevens, maar de gegevens van de auto zelf ... Ik weet het niet. Iemand hier ervaring mee?
in mijn lease auto
In eerste instantie zou de focus moeten liggen op een auto die je volledig in eigendom hebt.

Jouw eigendom = jouw data ?

Blijkbaar is dat nu niet zo.
Jouw eigendom = jouw data ?
ik denk niet dat je dat zo stellig en absoluut kan stellen. Ik ben geen jurist maar het gaat niet om je persoonlijke data maar om metrische data. Je koopt bijvoorbeeld ook een software pakket maar dat geeft je niet het recht om ook de broncode op te eisen. Telemetrie die een service genereerd die jij betaalt mag je bijvoorbeeld ook niet opvragen, ook al komt die telemetrie door acties die je zelf hebt uitgevoerd. Alleen de gegevens die specifiek zijn voor jouw persoon zoals account gegevens zou ik denk ik wel als opvraagbaar (niet eigendom) beschikbaar kunnen stellen.

edit:
In eerste instantie zou de focus moeten liggen op een auto die je volledig in eigendom hebt.
Maar ook in dat geval kunnen er andere mensen in de auto rijden dan de eigenaar. Geef je daarmee impliciet toestemming aan de eigenaar om alle data, inclusief locatie gegevens, op te vragen bij de maker van de auto?

[Reactie gewijzigd door david-v op 26 mei 2023 10:31]

Je zou, buiten de maker van de auto, zelf alle data uit de auto moeten kunnen lezen. Waarom zou de maker van de auto meer rechten op die data hebben dan de eigenaar?
Als je software koopt ben je ook de eigenaar van de broncode, anders koop je alleen maar een licentie om de software te mogen gebruiken.
Als je software koopt ben je ook de eigenaar van de broncode, anders koop je alleen maar een licentie om de software te mogen gebruiken.
Als je een software pakket koopt ben je niet de eigenaar van de broncode, en dan bedoel ik in de normale zin van het woord zoals dat voor de meeste mensen van toepassing is. Asl ik een auto koop ben ik ook niet de eigenaar van alle software of data in de auto lijkt mij. Ik ben niet de eigenaar van het audiovisuele software pakket, van de navigatie, van de music software of van welke extra software pakket die er geïnstalleerd is. De simpele stelling dat je iets koopt en dus standaard eigenaar bent van alles wat erbij hoort, inclusief data/software is niet zo eenvoudig en ik denk in 99,9% van de gevallen ook niet het geval. Denk bijvoorbeeld aan aansturingssoftware van een apparaat die jee koopt.

Wel een interessante discussie overigens ;)
Eigenlijk zou je dan bij de auto ook een licentieovereenkomst moeten tekenen voor alle software. :+
Maar ik blijf van mening dat de data die door de eigenaar (of door degene die toestemming heeft van de eigenaar om van de auto gebruik te maken) wordt gegenereerd, ook eigendom is van die eigenaar.
Geldt dit recht op inzage ook voor buitenlandse bedrijven? Of zou je dit dan via Tesla's hoofdkantoor in Nederland kunnen spelen? De kans bestaat dan dat zij geen toegang te hebben tot de gegevens in Amerika en je alsnog niets kunnen aanleveren.
Het zijn geen persoonsgegevens.
De auto stuurt die data anoniem. Pas als ze de auto zouden koppelen aan een rechtmatige eigenaar zou het persoonsgegevens kunnen worden, maar valt het gedrag van de auto daar weer waarschijnlijk buiten.
Windows logboeken geven ook best vaak meldingen dat er iets niet werkt, maar toch draait windows in de meeste gevallen gewoon.
En daarnaast is het ook belangrijk om dit in verhouding te zien. Duizenden storingsgevallen, neem bijvoorbeeld zoiets zoals automatische acceleratie. Wat moet ik me daar precies bij voorstellen? Welke marge is daar aangehouden? Is dat 1 seconde geweest of 5 seconden en hoe gevaarlijk is dat geweest? Helaas kan ik het artikel verder niet lezen.

Maar stel dat dit om bijvoorbeeld 100.000 auto's gaat waar dit gemeten is. Zouden 100.000 'normale' autorijders deze problemen ook niet onbedoeld of bewust tegen aan lopen. Dat men wel eens teveel gas geeft of een verkeerde inschatting bij van baan wisselen.

Dan zou ik die scores wel eens naast elkaar willen zien. Wie weet komt een deels geautomatiseerde auto (niet per se Tesla) dan nog beter uit de bus dan alle volledig door mensen bestuurde auto's. Stel dat Tesla-autorijders 98% van de tijd 'storingsvrij' rijden en mensen in 'normale' auto's op 95% van de tijd 'storingsvrij' (lees: binnen de ideale marges), dan vraag ik me af in hoeverre dit een groot probleem is. Daarnaast is de software voor alle auto's makkelijk bij te werken zodat alle auto's in één keer minder storingen hebben. Probeer alle mensen maar eens in één keer aan te leren dat ze 'storingsvrij' moeten autorijden.

[Reactie gewijzigd door Tjeerd op 26 mei 2023 09:18]

Het gaat om meldingen van klanten aan Tesla, dus het incident is impactvol genoeg geweest dat klanten het nodig vonden om te melden. Het zal dus nog veel vaker voorkomen, maar dan op zo'n manier dat klanten niet de moeite nemen het te melden.

Het schokkende hier vind ik meer dat Tesla bewust klanten alleen zo wil informeren dat het geen bewijsmateriaal oplevert, dat geeft nou niet heel veel vertrouwen.
Maar als Windows crasht is wel even iets anders dan als een auto crasht :p

Maar dat terzijde; wat Tesla aan het doen is lijkt me ook niet zonder kleerscheuren mogelijk. Ze zijn aan het proberen echt een autonome auto te bouwen en willen dat zo vroeg mogelijk in de praktijk brengen. Als je kijkt naar de hoeveelheid auto's die verkocht worden, valt dit misschien nog wel mee.

En zijn er ook cijfers voor het tegenovergestelde: hoe vaak heeft een ingrijp van het systeem (dodelijk) letsel voorkomen?
Maar dat terzijde; wat Tesla aan het doen is lijkt me ook niet zonder kleerscheuren mogelijk.
Wellicht, maar het zouden niet de kleerscheuren van het publiek moeten zijn.
Ze zijn aan het proberen echt een autonome auto te bouwen en willen dat zo vroeg mogelijk in de praktijk brengen. Als je kijkt naar de hoeveelheid auto's die verkocht worden, valt dit misschien nog wel mee.
Gezien hun bewuste keuzes voor (beperkte) hardware, doen ze dat niet. Tesla verkoopt beloftes, bedoeld om de beurswaarde hoog te houden.
En zijn er ook cijfers voor het tegenovergestelde: hoe vaak heeft een ingrijp van het systeem (dodelijk) letsel voorkomen?
Hoe vaak een moordenaar een moord voorkomt doet niets af aan hoeveel moorden de moordenaar zelf heeft gedaan.

Er is een bestaand speelveld met regels. Al kan je daar niet in spelen binnen de regels, dan ga je je best doen om de regels te (laten) veranderen of je speelt niet mee.

[Reactie gewijzigd door The Zep Man op 26 mei 2023 08:53]

Een moordenaar doet het natuurlijk moedwillig.

Als jij iets hebt wat 100.000 levens redt, maar 100 levens kost, denk ik dat er toch statistisch over gedacht wordt en gekozen wordt voor die 100.000 en het ingevoerd wordt dan dat iemand denkt "we moeten het niet invoeren, want het kost 100 levens"
Een moordenaar doet het natuurlijk moedwillig.
Tesla ook, gezien de genoemde getallen in het lek en de doofpotcultuur.
Als jij iets hebt wat 100.000 levens redt, maar 100 levens kost, denk ik dat er toch statistisch over gedacht wordt en gekozen wordt voor die 100.000 en het ingevoerd wordt dan dat iemand denkt "we moeten het niet invoeren, want het kost 100 levens"
De vraag is niet of iets wat ik heb in deze hypothetische situatie, maar wie gemachtigd is om die keuze te maken. Waarschijnlijk ben ik dat niet met iets wat ik heb, want mijn mening zal gekleurd zijn over datgene wat ik heb, zeker als het ook mijn eigen belang dient. Dan zal het zelfs zo zijn dat het voor mij (als commerciële, beursgenoteerde organisatie) interessant kan zijn om creatief met getallen om te gaan.

Tesla is niet de partij om deze keuzes te maken.

Om een vergelijkbare drogreden toe te passen:
"Mevrouw, uw zoon is doodgereden/door Nazi-wetenschappers in de 2e Wereldoorlog aan nare en fatale experimenten blootgesteld. Maar hey, van deze informatie hebben wij veel geleerd en daarmee kunnen wij in de toekomst vele levens redden! Zie het dus als iets positiefs! Ow, en onderteken even deze NDA..."

De techniek waar je naar refereert (volledig autonome auto's) komt vanzelf. Dat hoeft echt niet sneller te komen enkel om de beurswaarde van een bedrijf te spekken, als het al sneller komt door waar Tesla mee bezig is.

[Reactie gewijzigd door The Zep Man op 26 mei 2023 09:11]

Ja, statistisch gezien heb je zeker gelijk. Totdat jouw geliefde bij een ongeluk betrokken zou zijn doordat een zelfrijdende auto iets fout doet... Statistisch is dat geen enkel probleem, maar ja.

Op zich ben ik er verder zeker niet op tegen hoor, maar het gebrek aan (understatement) transparantie richting de klant, de bèta testers, dat kan m.i. echt niet.
Vooralsnog blijkt uit niets dat zelfrijdende auto's veiliger kunnen rijden dan mensen. De situatie die je schept is een droom, voorlopig zijn er vooral domme en vermijdbare ongevallen, veroorzaakt doordat de automatische piloot de bestuurder zijn aandacht doet verliezen.
Je beschrijft daar min of meer dezelfde situatie als die geldt voor vaccins en de afgelopen jaren heel publiek werd.
Vaccins zijn bedoeld om mensen tegen (ernstige) ziekte en overlijden te beschermen. En er zijn helaas ook mensen waarbij dat vaccin hen juist (ernstig) ziek maakt of zelfs komt te overlijden.

Maar zoals @The Zep Man al aangeeft, wordt nu in deze situatie door de "vaccin-maker" besloten dat dat risico voor die tweede groep wel acceptabel is. Terwijl dat bij vaccins door (diverse) overheidsinstantie(s) wordt gevalideerd en daarna wel of niet wordt toegelaten (en er zijn vast ook daar voorbeelden waar het toch niet (helemaal) ging zoals bedoeld). En in principe bestaat er ook al zo'n proces voor auto's (in NL is daar o.a. de RDW voor), maar Tesla lijkt daar toch (deels) omheen te (kunnen) werken.

[Reactie gewijzigd door ACM op 26 mei 2023 09:07]

Hoe vaak een moordenaar een moord voorkomt doet niets af aan hoeveel moorden de moordenaar zelf heeft gedaan.
Er zijn ook duizenden gevallen bekend waarbij een airbag iemand om het leven heeft gebracht.
Is een airbag nu ook een moordenaar in jouw ogen? Het doet niets af aan het hoeveel moorden dat de moordenaar zelf heeft gedaan toch?
Het zijn niet degenen die een airbag hebben uitgebracht die bepalen of airbags verplicht zijn, noch degenen die de cijfers aanleveren van hoeveel levens gered worden door airbags en hoeveel levens ze kosten.
Dus je argument rust geheel op het feit dat je denkt dat Elon zijn autopilot verplicht stelt?
Ik snap niet dat je Elon Musk erbij haalt. Die naam heb ik niet genoemd, noch was die een onderdeel van het discussiedraadje.

Het gaat er niet om dat autopilot verplicht wordt gesteld. Het gaat erom dat Tesla zich begeeft in een ongereguleerde markt, en bij een gebrek aan veilige ontwerpkaders van autopilots (airbags) en centrale metingen van de resultaten ervan, geneigd zal zijn om de eigen belangen voor te laten gaan.

[Reactie gewijzigd door The Zep Man op 26 mei 2023 13:24]

Nieuws bericht gaat over een datalek van storingsgevallen van de tesla autopilot.
Jij benoemt de autopilot als jouw onderwerp.
Alleen biologich organismes kun geclassificeerd worden als moordenaar.
Elon is eigenaar van Tesla en tevens eigenaar van de autopilot in het nieuws bericht.
1+1 = jij vindt Elon een moordenaar
Zo moeilijk is dat niet hoor.

Ik had je nog de voordeel van twijfel gegeven door een vergelijking te maken met een ander veiligheids object in auto's om zo goed mogelijk appels met appels te vergelijken maar je reactie is:
Het zijn niet degenen die een airbag hebben uitgebracht die bepalen of airbags verplicht zijn, noch degenen die de cijfers aanleveren van hoeveel levens gered worden door airbags en hoeveel levens ze kosten.
Waar gaat dit over??? Waar haal je opeens het "verplicht" argument vandaan? Hoe staat dat in verhouding met de autopilot?
Het punt dat de anderen maken is dat er soms wat fout gaat maar in de basis er zoveel meer goed is gegaan.
Als je gaat kijken naar "domme ideeen" zoals de autopilot, waar jij je zo druk over maakt, wie dacht dat het een goed idee was om een explosief gericht op je hoofd in een auto te plaatsen??? Als er ook maar iets afwijkt in dat systeem dan breek je direct je nek.
Toch hebben we geleerd van de fouten en hebben het totale fatale ongelukken niveau drastisch verlaagt.

Daar gaat het om en niet of je vindt dat de uitvinder van de airbag een moordenaar is.
En zijn er ook cijfers voor het tegenovergestelde: hoe vaak heeft een ingrijp van het systeem (dodelijk) letsel voorkomen?
Sorry maar dat vind ik altijd zo'n dom argument. M'n dierbare ligt tussen 6 planken aangereden door een op hol geslagen Tesla maar gelukkig heeft die ook veel ongelukken voorkomen (waarschijnlijk).

Denk niet dat de nabestaanden daar genoegen mee nemen.
Onderbuik argument.

Ik denk trouwens dat ik net zo een probleem zou hebben als mijn dierbare zo ligt als het gevolg van een te hoge snelheid, dronken bestuurder, telefoon in de hand, onachtzaamheid, afgeleid etc.

Ieder dodelijk ongeluk heeft wel een oorzaak die met een mits... voorkomen had kunnen worden. Want ja, als ik niet te hard gereden had, dan had ik tijdig kunnen remmen. Als ik voldoende onderhoud had gepleegd, dan hadden mijn remmen wel gewerkt. Had ik maar op tijd mijn auto vervangen dan viel de motor niet midden op de snelweg opeens uit.

Dat ik of een techniek fout zit, en dat ik mogelijk zelfs de gevangenis in ga, dat troost de nabestaanden in het geheel niet.

Er is geen verschil tussen menselijk falen en technisch falen. Niet voor de nabestaanden.
Ben ik absoluut niet met je eens. Als een mens jouw dierbare doodrijdt bij een ongeluk wat hij onmogelijk had kunnen voorkomen is dat in mijn ogen minder erg dan wanneer de techniek van een Tesla dat doet en de CEO gewoon zijn schouders ophaalt en zegt ja ach we hebben er ook zoveel voorkomen.

Nog een voorbeeld: Als een terrorist 15 mensen doodschiet vindt iedereen dat super erg. Maar er vallen per jaar 1000 doden in het verkeer en daar hoor je niemand over. Dat wordt gewoon geaccepteerd als onvermijdelijk, het hoort erbij.

Dus wat jij eigenlijk zegt is, of je dierbare nou door een terrorist wordt doodgeschoten of door een auto-ongeluk om het leven komt er is geen verschil voor de nabestaanden?

Mensen weten dat mensen fouten maken en dat wordt geaccepteerd. Maar van machines verwachten we dat ze feilloos opereren.

[Reactie gewijzigd door Marve79 op 26 mei 2023 10:37]

Ik spreek niet goed wat Tesla doet. (Het schouderophalen). Of dat ze onvoldoende aandacht zouden schenken aan het voorkomen (en oplossen) van fouten. Dat staat echter volledig los van de discussie.

Software / techniek is niet onfeilbaar. En zal het nooit zijn. Maar zolang je daar in wilt geloven, ik gun het je van harte. En hoop dat je er nooit in teleurgesteld wordt.

Qua beleving, de dood van mijn ouders en de (verwijtbare) dood van mijn broer, zijn ze gelijk. Je leert er mee om te gaan, maar accepteren doe je het nooit. Verwijtbaar, vermijdbaar of onvermijdelijk maakt allemaal niets uit. Wil niet zeggen dat ik geen straf of zelfs wraak wil in het geval van verwijtbaar. (Of dat de opgelegde straf ooit goed genoeg zal wezen). Om maar te zwijgen of ik de dader ook zal willen of kunnen vergeven.

Maakt het uit of ik doodgeschoten wordt door een terrorist of dat ik (door mijn eigen stomme schuld) platgewalst wordt door een tram? Maakt het wat uit of ik kom te overlijden door een voorrangsfout van een ander, door een glad wegdek (ijzel) of dat iemands zijn remmen weigerde? Niet voor mijn nabestaanden. Cru gesteld: dood is dood.

Straf / wraak / haat / gerechtigheid staan daar volledig los van.
Je haalt het argument iemand die het ongeluk niet had kunnen voorkomen. Dat is een noodlottige ongeval maar iemand die een dierbare aanrijdt vanwege dronkenschap, te hard rijden wat met fsd had kunnen voorkomen. Hoe denk jij daar tegenover.

[Reactie gewijzigd door lighting_ op 26 mei 2023 12:39]

Ik weet niet hoor, maar ik vind het niet acceptabel om het echte verkeer als speeltuin te gebruiken voor het ontwikkelen van je product. Hoeveel ongevallen moeten er nog gebeuren voordat dit een keer verboden wordt? We willen geen beta-tests met ons leven. Al helemaal niet voor iets dat we eigenlijk niet nodig hebben, zoals zelfrijdende auto's. De mogelijke opbrengst zijn de risico's niet waard.
Het echte verkeer is dagelijks een speeltuin. Iedereen die lest doet dat gewoon in het dagelijks verkeer.
Ja, met een ervaren persoon ernaast die alles in de gaten houdt en in kan grijpen wanneer het fout gaat... Wie gaat de automatische piloot in de gaten houden? De gemiddelde bestuurder denkt "laat die auto maar rijden".
Tenslotte heeft het crashen van notepad net zo’n groot gevolg als een onnodige noodrem door een Tesla voor het overige wegverkeer.
maar toch draait windows in de meeste gevallen gewoon.
“In de meeste gevallen” is nou net niet voldoende voor een auto
“In de meeste gevallen” is nou net niet voldoende voor een auto
Toch is dat wel wat we accepteren van menselijke bestuurders. Die zitten niet altijd op te letten, rijden zonder de juiste verlichting met een te hoge snelheid, drank op en een telefoon in de hand. De automatische piloot hoeft niet perfect te zijn, alleen maar beter dan de menselijke bestuurders. :)
[...]

Toch is dat wel wat we accepteren van menselijke bestuurders.
En daarvoor hebben wij wet- en regelgeving om de schade daarvan toe te wijzen en te spreiden, en het moedwillig weigeren van het volgen van regels te ontmoedigen.

De automatische piloot is niet onderhevig aan deze wet- en regelgeving, waardoor andere belangen zwaarder spelen. Die andere belangen zijn niet altijd die van de slachtoffers of de eigenaar van de auto.

[Reactie gewijzigd door The Zep Man op 26 mei 2023 09:02]

Een mens kan ik vergeven, een machine niet. Rationeel heb je misschien helemaal gelijk maar emotioneel zit er voor mij een flink verschil tussen.
Wat jij noemt accepteren we ook niet van menselijke bestuurders maar die nemen dan hun verantwoordelijkheid ook niet en daar staan boetes/straffen op.

Raakt een Tesla zijn rijbevoegdheid kwijt bij zware nalatigheid? En is Tesla verantwoordelijk bij dergelijk handelen?
Dat is het verschil. Autopilot lanceren maar 0 verantwoordelijkheid nemen als het mis gaat, daar wringt het.
Met Windows rij je niet zo snel iemand dood als er met een subsysteem iets mis gaat. Tevens zijn de eisen aan besturingssystemen zelf, en het onderhoud en gebruik ervan niet zo zwaar en gereguleerd als bij auto's.

[Reactie gewijzigd door The Zep Man op 26 mei 2023 08:44]

En eigenlijk is het gek dat we zo strikt zijn met een auto, maar een systeem dat we gebruiken om energie-netten, financiële transacties, ziekenhuizen, burgerregistratie enzovoorts gebruiken wordt aan een aanzienlijk lagere standaard gehouden, terwijl een grote verstoring aan die systemen een veel grotere impact heeft dan een enkel auto ongeval. Het probleem met auto ongevallen is dat het nogal visueel is en daarmee tastbaarder is.
Dat soort kritieke systemen moet wel degelijk voldoen aan strenge eisen. Het vergelijk ging zich met consumenten PCs/
Als de fout ervoor zorgt dat 10% van het wagenpark opeens noodstoppen maakt op de snelweg met dodelijke ongelukken tot gevolg dan is dat wat erger dan als iedereen z'n koelkast even 10 minuten geen stroom heeft.
Hoe kom je daat nou bij? De eisen aan financiele systemen zijn zeer streng. Worden jaarlijks gecontroleerd door externe auditors.
Inderdaad, ik heb met windows nog nooit een eenzijdig of tweezijdig ongeval gehad.
maar in andere gevallen eindigde het met een eenzijdig of tweezijdig ongeval. Dat is meer dan 1000 keer voorgekomen.
Bijna hetzelfde...
Windows kachelt niet met 50 of 80 km/uur over de weg gemiddeld genomen.

Dat dit in Duitsland uit komt kan leiden tot een onderzoek door de Duitse overheid. Het resultaat van een dergelijk onderzoek zal afwachten zijn en duurt naar alle waarschijnlijkheid jaren. Maar het kan zijn dat de beleidsvoering van Tesla omtrent het verstrekken van data aan bestuurders dient te worden aangepast en in extremere gevallen dat de auto-pilot wordt getroffen door verdere regulatie.
En toch, als ik een blue screen of death krijg.... Dan maar liever op mijn computer. Anders wordt het zo letterlijk.
Echter zijn de logboeken wel gewoon volledig in te zien voor elke gebruiker, mits voldoende systeem rechten.
Bij Tesla is dit dus niet het geval. Toch een duidelijk verschil.
Windows brengt me niet naar mijn afspraak ;) Vergelijking slaat de plank volledig mis.
Klopt maar dat hoeft niet dodelijk te zijn. In geval van een auto kan dat wel zo zijn toch.
Het lijkt allemaal zo mooi, maar autonoom rijden is nog decenia ver weg. Voor alsnog blijkt dat de humane bestuurder superieur is, voor hun rijgedrag.
Interessante uitspraak, want er zijn nog altijd vele malen meer onnodige ongelukken welke juist door menselijk handelen worden veroorzaakt. Alleen lijken we daar gewoon aan gewend te zijn, we hebben het over bijna duizend ongevallen en doden per jaar! Ook al zou autonoom rijden her en der een onbedoeld ongeval veroorzaken, dan is het altijd nog beter dan wat de mens presteert. Nu al. Dit rapport gaat ook over 7 jaar en niet is het altijd met dodelijke afloop, 7x bijna duizend is rond de 6000 nog wat door menselijk handelen in diezelfde tijd.

[Reactie gewijzigd door vgroenewold op 26 mei 2023 08:56]

Het grote probleem is dat we het niet weten. Hoeveel ongevallen worden er voorkomen doordat de bestuurder ingrijpt wanneer een hulpsysteem een fout maakt? Want vergeet niet dat er nog zo goed als geen enkel autonoom systeem is en dat je als bestuurder verantwoordelijk blijft en moet blijven opletten.

En zolang het hulpsystemen zijn gaan we dus nooit weten wat hun invloed is net omdat ze niet autonoom mogen werken. En je kijkt nu naar de statistiek van alle doden op de weg. Maar een fietser die een ongelukkige val maakt en daardoor overlijdt in het ziekenhuis wordt daar ook bij opgeteld bijvoorbeeld. Een ongeval veroorzaakt met een oldtimer die geen enkel hulpsysteem heeft wordt daar ook bij opgeteld. Er worden veel meer kilometers gereden met wagens zonder zulke systemen dan met, en omdat het slechts hulpsystemen zijn kan je vandaag geen enkele zinnige uitspraak doen of het verkeer veiliger zou zijn als alles en iedereen met autonome systemen zou rijden.

Daarbij is alles en iedereen ook alleen maar mogelijk als alleen nog voertuigen met zulke systemen op de openbare weg mogen verschijnen. Fietsen? Vergeet het maar. Te voet? Enkel op plaatsen die niet in directe verbinding staan met de openbare weg.
Toch ben ik liever zelf verantwoordelijk voor een ongeluk. Van mijn eigen fouten kan ik namelijk leren, mits de fout niet te ernstig is natuurlijk. Ik denk ook dat het voor eventuele nabestaanden makkelijker te behappen is wanneer een persoon het ongeluk veroorzaakt. Mensen maken nou eenmaal fouten. Je kunt een persoon verantwoordelijk houden, en straffen. Bovendien kan een persoon spijt betuigen. Wanneer het ongeluk door een (softwarefout van een) bedrijf als Tesla is veroorzaakt, en je ziet Elon Musk daarna nog gewoon vrij rondlopen geeft dat toch een ander gevoel denk ik. Niet per se een reden om helemaal van autonoom rijden af te zien natuurlijk. Maar het lijkt me wel goed om over na te denken.
Gevoelsmatig snap ik dat zeker, maar ik zie vaak genoeg dat de straffen altijd te laag worden geacht door de nabestaanden en alsnog veel leed veroorzaken. In allebei de gevallen krijg je je geliefde niet terug en heelt geen enkel argument echt. Of iemand als persoon mijn dochter omver heeft gereden of een autonoom ding, ik denk niet dat het mij veel zal uitmaken. Ik denk juist dat we sneller naar een situatie moeten waarbij zoveel mogelijk van het woon-werk-boodschappen verkeer, autonoom moet. Niemand geniet er echt van en je zou de auto's ook nog met elkaar kunnen laten communiceren om de rit soepeler (geen tot weinig files) en veiliger te maken (dat is nog wel ver weg, maar overduidelijk de toekomst). Dan hou je race-tracks open voor de mensen die ook nog wat plezier willen hebben.
Of iemand als persoon mijn dochter omver heeft gereden of een autonoom ding, ik denk niet dat het mij veel zal uitmaken.
Ik denk dat je je daar echt in vergist. Alleen al het kunnen aanwijzen van een dader doet een hoop voor nabestaanden. Daarbij, een gevangenisstraf voor een persoon, al dan niet te kort, voelt echt anders dan een geldboete voor een miljardenbedrijf. Vergelding is in zaken als deze, zeker voor de slachtoffers, zeer belangrijk. Of we moeten straks programmeurs gaan opsluiten, ben ik niet per se tegen overigens.
Vergelding is in zaken als deze, zeker voor de slachtoffers, zeer belangrijk. Of we moeten straks programmeurs gaan opsluiten, ben ik niet per se tegen overigens.
Vergelding is in zaken als deze niet rationeel. Waarom accepteert men wel dat een bestuurder een fout maakt, maar een programmeur die indirect een fout veroorzaakt niet?

Vergelding tegen (de makers van) autopiloten die de potentie hebben om betere bestuurders te worden dan mensen kan zelfs immoreel genoemd worden. Uiteindelijk zullen autonome auto's minder doden, letsel en materiële schade veroorzaken dan mensen. De ontwikkeling van autopiloten frustreren is daarom gewoon ongewenst.

Dat wil niet zeggen dat er geen aansprakelijkheid voor schade moet zijn, maar vergelding tegen personen is gewoon niet zinvol.
Mijn opmerking over het opsluiten van programmeurs was een grap. Maar blijkbaar niet duidelijk genoeg.
Dat beweert Tesla zelf ook. Maar de data is niet vergelijkbaar tussen wel en niet automatisch rijden. Autopilot schakelt zichzelf uit als het niet meer weet hoe met een situatie om te gaan. Voorheen werkte het alleen op bepaalde wegen waar relatief weinig ongelukken gebeuren. Er zijn een beperkt aantal op veilig rijden geselecteerde FSD testrijders. Dus ik neem dat voordeelverhaal met een vaatje zout. Het is niet wetenschappelijk aangetoond.
Hoeveel mensen rijden, ten aanzien van autonoom rijden op de weg, doe dat gedeelt door een factor zoveel. Dan valt het nog best mee.
Dan zou de berichtgeving ook die trend kunnen volgen en zouden vrijwel niet over autonoom rijden moeten lezen. Dat bedoel ik een beetje met, dat we die statistieken van menselijk handelen gewoon accepteren en niet eens meer interessant lijken te vinden.
Grootste voordeel en probleem is dat de humane bestuurder situationeel de regels aanpast. Bv iemand voor laten gaan ook al heeft die geen voorrang, afstand aanpassen, snelheid aanpassen als het hard regent (omdat je aan het stuur voelt dat je tegen aqua planning aanzit).
Dat zorgt in veel situaties voor een betere doorstroming dan je 'strikt' aan de regels houden. Probleem is natuurlijk dat hetzelfde gedrag ook af en toe voor ongelukken zorgt.

Omdat een autonoom systeem altijd alert is, is de kans op ongelukken kleiner. Maar ik betwijfel of het situationele stuk ooit gerealiseerd kan worden (zonder een big brother die alle bewegingen coordineert)
Humane bestuurder superieur? Neem aan dat je sarcastisch bent. Ik rij geen EV, maar ik weet wel dat mensen nou niet de beste bestuurders zijn, zeker wat betreft hun rijgedrag niet. Kom je weleens op de weg? Veel gevaarlijke situaties, asociaal rijgedrag, en menig ongeluk veroorzaakt door de mens zelf.
Ik rijd dagelijks minimaal 2 uren.
Humane bestuurder superieur is een ego, ik rijdt, dus regels gelden niet voor mij.
Zelfde afgelopen week, allemaal tegen het verkeer in, de oprit af ipv erop :F
Vrijwel alle ongelukken op de weg worden veroorzaakt door mensen. Als mensen superieur waren, dan hadden auto's ongelooflijk veel goedkoper, lichter, zuiniger en kleiner kunnen zijn. Want dan zou je al die veiligheidssystemen niet nodig hebben.

En dat is dus precies wat er mist aan dit artikel: hoeveel Tesla's zijn betrokken geraakt bij ongelukken *zonder* dat Autopilot was ingeschakeld en er dus een mens aan het stuur zat?
En soms crasht Windows net als een Tesla met autopilot

Was niet als reactie op Patrick, sors

[Reactie gewijzigd door bapemania op 26 mei 2023 08:43]

Ik weet niet of je Windows als referentiekader wilt gebruiken voor een auto.
Wordt feest in de medische wereld als “soms crashes” als de normaalste wereld wordt gezien.
Nouja. In de medische wereld zijn er ook enorme blunders gemaakt met software hoor. Ook met dodelijke afloop. Selfs na bugfixes.
Da's raar, want Colruyt doet momenteel al testen met zelfrijdend bestelwagens.
https://www.vrt.be/vrtnws...enbare-weg-in-londerzeel/
Dat denk ik niet, het gaat vrij rap als je naar de Amerikaanse FSD kijkt.
Wat we hier wettelijk mogen gebruiken is niet echt serieus te nemen. Het is leuk voor op de snelweg en verder niet.

[Reactie gewijzigd door jip_86 op 26 mei 2023 10:12]

Alles om reputatieschade te voorkomen.

Dit is ook het gevolg van het feit dat de eigenaar van de auto niet meer de eigenaar is van de (beschikbare) data.
Alles om reputatieschade te voorkomen.
Iets wat op alle niveaus van onze samenleving (tot het individu aan toe) ingebakken is. Dat is dus niets om je aan te ergeren, tenzij je zelf altijd heel open bent over de fouten die je maakt.
Dus als jouw kind wordt doodgereden door een fout van een autonome auto, moet je jezelf daar maar niet aan ergeren (omdat de fabrikant die kennis heeft van deze glitch dat liever voor zich houdt dan de data deelt).

Ik zoek het extreme op, maar iets wat volgens jou de standaard is, is nog niet juist.

Als iedereen bij mij op de stoep komt schijten, moet ik me daar maar niet aan ergeren. Want het is blijkbaar de standaard geworden.
Oh god, "het zal je kind maar wezen!". Hét argument om elke discussie gierend tot stilstand te doen komen... Oftewel: de emotiekaart. Normaliter een reden voor mij om niet meer te reageren maar fruit:

Nee, zoals je duidelijk kunt zien, reageerde ik op de opmerking over reputatieschade. Openheid moet je afdwingen, dat zit niet in de genen van ons, mensen, en dus ook niet in de genen van de bedrijven die we oprichten. En in die zin ja, het is een zinloos argument om te gebruiken in dit soort discussies.
Openheid over ongelukken, oorzaken en remedies wordt wereldwijd (in westerse landen zeker) afgedwongen door overheden en andere instanties.

En ik zei ook duidelijk dat je je overal aan mag ergeren, zolang je niet zelf dat gedrag vertoont. Als jij niet op stoepen schijt, dan mag je je daar aan ergeren. Als jij nooit moeite doet schade aan je eigen reputatie te beperken, dan mag je je ergeren. Zoals ik ook al zei. Maar ik vermoed dat jij, net zoals ik en iedereen, wel degelijk wil voorkomen dat je in een slecht daglicht komt te staan en dus ook liever niet hebt dat bepaalde acties van jou openbaar worden.
Hoeveel kinderen zijn er doodgereden door NIET autonome auto's ??
Juist.. ook relatief gezien zijn de (duurdere) auto's die assistenten aan boord hebben veel en veel veiliger.

Een beetje Mercedes stopt voor een kind op straat, een Tesla ook.Maak maar eens een proefrit.

Hoe zou jij je voelen als iemand met een domme auto op een domme manier je kind doodrijdt ?

Juist.. je zou wensen dat het een dure Merc was geweest, of een Tesla, of een BYD, dan was de kans veel en veel kleiner.
Je kunt proberen elke discussie dood te slaan met een inhoudelijk waardeloos argument, maar het punt blijft dat het moreel verwerpelijk is dat we geen eigenaar zijn van dergelijke data.
Nee, dat is het helemaal niet. Het enige dat wij als klanten moeten weten is of het probleem opgelost wordt, als het allemaal erg au heeft gedaan moeten we gecompenseerd worden en in het ideale geval nemen potentiele klanten op basis van correcte informatie een geinformeerde beslissing om eventueel ergens anders te shoppen.
Als klant heb je meestal weinig aan die data en bovendien (en dat zie je onder dit artikel gewoon gebeuren) gaan "gewone" burgers, niet gehinderd door erg veel kennis, met dit soort informatie aan de haal.
Dat je als individu minder open bent is een grondrecht: privacy. Als je als bedrijf b3ewust gegevens achterhoudt wat er toe kan leiden dat, zoals in dit geval beschreven, een kind komt te overlijden, dan heb je het over totaal andere zaken. Bedrijven hebben veel minder recht om gesloten te zijn dan een individu. De vergelijking gaat daaro niet op.
Niet alleen reputatieschade, veel mensen nemen onterecht aan dat autopilot betekent dat je niet meer hoeft op te letten, en wijzen naar Tesla als ze alsnog in de problemen komen.

Het is een vergevorderde rijassistent die in veel gevallen autonoom kan werken, maar geen AI die feilloos is.
Volgens het artikel gaat het vooral over gevallen waarin de autopilot in de fout gaat.

Als het om menselijke fouten gaat, denk ik dat Tesla vooraan staat om met data aan te tonen dat het niet aan de auto gelegen heeft.

Dat is ook mijn grootste probleem, als eigenaar van de auto kun je zelf niet (zomaar) bij die data. Weet niet of dit alleen bij Tesla voorkomt, maar ik zou het logisch vinden dat de bewijslast van onschuld in eerste instantie bij de fabrikant ligt. @Airw0lf Geen idee hoe dat nu in de wet is vastgelegd.

Daarbij hoort dan het secure vastleggen van logging. Daar heb ik helemaal geen zicht op
Daarom haal ik de luie mens aan: het is geen onfeilbaar systeem.
Het is een vergevorderde rijassistent die in veel gevallen autonoom kan werken, maar geen AI die feilloos is.
En dat maakt het volgende des te zorgwekkender:
In een deel van de gevallen konden bestuurders de macht over het stuur terugkrijgen
Zolang het systeem nog niet veel en veel betrouwbaarder is, moet de bestuurder altijd de volledige controle over het voertuig kunnen krijgen. Als dat niet zo is en het heeft een ongeval tot gevolg dan moet de fabrikant wel degelijk aansprakelijk kunnen worden gesteld.
Het is een commercieel bedrijf, dus lijkt me eerder de standaard dan verbazingwekkend.
Dit werkt overigens in beide richtingen; dat de anonieme klokkenluider bij een Duits autoblad aanklopt... ipv enig ander land kan ook geen toeval zijn. De VAG groep zit nou niet bepaald in Canada.
Mijn BMW heeft ook al onnodige noodstops gemaakt of geremd omdat hij dacht dat een geparkeerde auto plots op de straat stond.
Deze hack geeft tenminste aan dat Tesla op de hoogte is van de issues in hun software, ik betwijfel of dit bij BMW en andere merken het geval is.
Mijn Passat had ook aardig wat phantom breaking met de adaptive cruise control. Ook aantal keer in moeten grijpen toen hij door bleef accelereren terwijl er toch echt een auto voor me reed. Alleen bij VW had ik geen mogelijkheid om dit te rapporteren. Bij Tesla kun je even 5 sec je auto icoontje ingedrukt houden en er wordt feedback teruggestuurd naar Tesla.
Maar bij Tesla heb je geen mogelijkheid om gewoon cruise control te gebruiken. De adaptive cruise control rijdt als iemand die nog aan het lessen en trapt rustig hard op de rem (met verkeer achter mij) voor een auto die op een andere baan rijdt of een fietser die netjes staat te wachten op een eilandje tussen twee rijbanen. Dat ik dan feedback kan versturen is leuk maar de problemen spelen volgens mij al jaren dus wordt er dan ook werkelijk wat mee gedaan?

Bij mijn vorige auto's kon ik ieder geval nog gebruik maken van de gewone cruise control.

[Reactie gewijzigd door Caayn op 26 mei 2023 09:04]

Ik heb het gevoel dat het systeem elk jaar beter wordt. Dus volgens mij doen ze echt wel iets met die data.
Maar bij Tesla heb je geen mogelijkheid om gewoon cruise control te gebruiken.
Dat had ik bij mijn Passat ook niet. Dat was alleen Adaptive Cruise Control of helemaal niks. Je kon niet terug schakelen naar een traditionele Cruise Control.
Autopilot is nog net wat meer dan alleen adaptive cruise control. Het is ook een rijbaanassistent, kan automatisch van rijbaan wisselen en nog een paar dingetjes.
Dingen die jouw VW ongetwijfeld ook kan, maar in de VW zijn er knopjes waarmee je features zoals de rijbaanassistent en rijbaan wisselen kunt uitschakelen (in mijn KIA in ieder geval wel).
Ik heb nu een Tesla en ik heb een Passat gehad en ik weet heel goed wat beide systemen kunnen. Bij een tesla heb je ook verschillende opties. Standaard is cruise control niet meer dan ACC. Pas als je speciaal de extra autopilot aanzet heb je stay in your lane. Automatisch rijbaan wisselen is géén autopilot optie. Dat zit alleen in Full Self Driving. En in Nederland is dat ook nog eens niet echt automatisch, want je moet zelf je richting aanzetten voordat de auto daadwerkelijk wisselt van rijbaan.
Klopt niet helemaal wat je zegt... FSD werkt nog niet in Europa, maar er zijn ook Tesla's op de weg met 'Enhanced Autopilot'

Navigeren met Autopilot
Auto Lane Change
Automatisch inparkeren
Summon
Smart Summon

Dat je zelf knipperlicht moet gebruiken voor de zelfstandige lane change plaats vind is zo gek nog niet.
Maar het is wel zo als je in een situatie komt waarin jij je auto op cruise control hebt en jij in een dodelijk ongeval betrokken bent. Dan is de eerste vraag die het Forensische Opsporing Verkeer stelt aan jouw waarom heb jij niet gereden met het systeem aan want dit systeem had dit ongeval kunnen voorkomen. Dus de verantwoordelijkheid ligt in dat geval in jouw handen en niet in de autofabrikant.
Dus je ervaart bizar gedrag van je auto en meldt het niet aan je dealer? Of terloops bij een beurt? Niet heel erg, normaal worden bij de meeste moderne auto’s dit soort situaties lokaal opgeslagen en gedeeld zodra het voertuig wordt uitgelezen bij onderhoud. Hoef je zelf helemaal niets voor te doen. Ook niet 5 keer op een icoontje drukken of zoiets.
Ik heb het gemeld bij de dealer, maar de gemiddelde dealer haalt zijn schouders op en zegt: ja dat kan wel eens gebeuren. Ook moet je bewust zijn van het feit dat het allemaal vrij domme systemen zijn die ACCs. Als er iemand afslaat naar links dan denkt het systeem, oh ik mag niet rechts inhalen dus ik trap vol op de rem. Of dat je richting een object boven de weg reed en dat de weg heel snel omlaag gaat. De auto is dan bang dat hij ergens opklapt. Het is gewoon een radar in dat geval.

Het blijven ondersteunende systemen en je moet altijd je aandacht erbij houden en op elk moment in kunnen grijpen.
Goh ik vind het bijzonder om te horen. Ik heb zelf bijvoorbeeld een Mazda en een Alfa met alle toeters en bellen, nog niet kunnen betrappen op fouten eerlijk gezegd. En ik rijd toch wel best veel eigenlijk, minimaal 60.000km/a.

Nouja, 1 “fout” wel en dat is dat de Mazda soms denkt dat ik te hard op een heg of muur afrijd bij het parkeren. Dan gaat het plots in de ankers. Maar ik beschouw dat niet echt als een fout, immers, het is puur preventief en bij minder bruuske parkeeracties, gaat het prima.

Maar als jij zoveel fouten ervaart met eigenlijk dezelfde apparatuur en software (immers, vrijwel allemaal gemaakt door een klein clubje fabrikanten), dan denk ik dat er iets mis is gegaan bij schadeherstel.

Bijvoorbeeld sensoren niet correct gekalibreerd. Of niet opnieuw gekalibreerd bij vervanging voorruit.
Of iemand die op een parkeerplaats tegen je voorbumper is gereden en het cluster aan sensoren daarin beschadigd heeft.

Vind het wel echt bijzonder dat je daarover niet je beklag hebt gedaan bij de dealer of simpelweg VW niet hebt gecontacteerd. Ik hoop dat de volgende eigenaar het wel tijdig opmerkt en meldt.
Beide auto's nieuw en nooit schade gehad. En dit hoor ik echt van heel erg veel mensen dat die dezelfde soort dingen tegen komen. Volvo rijders, VW rijders, Mercedes rijders, BMW rijders, allemaal hebben die wel eens dit soort dingen met de ACC.
Vind het wel echt bijzonder dat je daarover niet je beklag hebt gedaan bij de dealer of simpelweg VW niet hebt gecontacteerd.
Zoals ik al aangaf, heb ik dit aangegeven bij de VW dealer en die gaf aan dat het wel eens gebeurd. Het is hulpmiddel, wat ook nog wel eens foutjes kan maken.
Okay, apart. Is het misschien door te weinig afstand houden? De BMW X6 van de buurman wilt soms ook wat raar doen als je minder dan een vrachtwagenlengte afstand instelt (afstand 3 of 4 ACC) op hogere snelheden.

Dan kan het wat “bruusk” remmen maar dat is normaal omdat bij een bepaalde afstand/snelheid verhouding, de remmen geprepareerd worden. Ofwel de remblokken ietwat dichter op de schijven en de rembekrachtiger wordt preventief op druk gebracht.

Om je een idee te geven hoe dat voelt; pomp je rempedaal op tot het zeer hard aanvoelt en het nog maar weinig “travel” heeft. En laat dan los en geef een beetje gas en rem dan. Gefeliciteerd, je hebt een whiplash. Maar hoe vervelend ook, het is geen defect, het systeem werkt exact zoals bedoeld.
Natuurlijk heb ik dit wel eens gemeld toen ik nog naïef was en dacht dat ze dit gingen noteren en doorsturen naar het hoofdkantoor. Meer dan een "oei, dat is niet goed!" kwam er niet uit.

Ik betwijfel ook ten zeerste dat de meeste moderne auto's dit opslaan en later delen. En zelfs al zouden ze dit doen, zonder dat ik kan aangeven dat de actie van de auto fout was, kunnen ze niet weten dat de auto fout gereageerd heeft.
Deze hack geeft tenminste aan dat Tesla op de hoogte is van de issues in hun software
Ligt er maar net aan wat zij met die informatie doen. Gezien de huidige manier van handelen door Tesla, heb ik er mijn twijfels over dat er bij Tesla hard aan gewerkt word om deze op te lossen. Nu heb ik geen ervaring met andere merken EV's, dus over hoe goed of slecht zij dit dit soort issues op proberen te lossen kan ik niet oordelen.

Autonoom rijden met passagiers op de openbare weg is inderdaad nog erg ver weg.
Daf heeft ook jarenlang problemen ondervonden met hun noodstopsysteem. In de tijd dat zei alleen vertrouwde op hun radarsysteem en nog geem camera voorop hadden maakte het systeem voortdurend een kleine noodstop bij bepaalde bruggen. Je praat hierover vrachtwagens die op de snelweg met 50.000kg massa rijden. Volgens mij is het nu verholpen door het toevoegen van een camera.

Andrej Karpathy heeft in het verleden uitgelegd bij een recruiting event hoe dat radar sensors om de haverklap bij remmen en accelereren en bij bruggen hun sensor verward raakt vandaar dat Tesla camera only systeem hanteerd totdat er mischien betere radar sensoren beschikbaar zijn in de toekomst.
Er zijn veel tegenstrijdige berichten, dus een bron vinden is lastig. Maar volgens mij werkt Tesla niet meer met camera only.
Model 3 / Y wordt vanaf levering maart/april 2023 terug met parkeer sensoren geleverd
Mijn Tesla Y doet ook soms 'rare' dingen bij viaduckten. Zeker in een bocht. Bijvoorbeeld bij Tilburg A58. Dan heb je een lange bocht naar links onder een viaduct. Heel vaak als ik de auto op autopilot heb staan (ik heb geen FSD) dan remt ie en moet ik meteen ingrijpen.
En zo meer situaties die er voor zorgen dat ik altijd mega alert rijd met AP aan.
1 2 3 ... 6


Om te kunnen reageren moet je ingelogd zijn

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee