Tesla schikt in rechtszaak rond fatale Autopilot-crash

Tesla heeft besloten om een schikking te treffen in een rechtszaak rond een auto-ongeluk met Autopilot waarbij in 2018 een Apple-ingenieur om het leven kwam. Het is niet bekend hoeveel Tesla betaalt als onderdeel van de schikking.

Tesla zou deze week voor de rechtbank verschijnen om zich te verdedigen nadat het werd aangeklaagd door de familie van Wei Huang, de overleden ingenieur. Nu het een schikking heeft getroffen, zal dat niet gebeuren. Dat Tesla schikt in de zaak, blijkt uit rechtbankdocumenten die onlangs openbaar zijn gemaakt.

De voorwaarden van de schikking en het bedrag dat Tesla betaalt, zijn niet bekend. Volgens de rechtbankdocumenten blijkt dat beide partijen hebben ingestemd met de schikking. Tesla heeft verzocht om het bedrag vertrouwelijk te houden. De schikking moet nu nog worden goedgekeurd door een rechter.

Huang overleed in maart 2018 toen hij tegen een vangrail botste met zijn Tesla Model X. Na de crash werd vastgesteld dat hij Autopilot gebruikte toen het ongeluk plaatsvond. Tesla was in de rechtbank van plan om te argumenteren dat Huang Autopilot had misbruikt, doordat hij op het moment van de crash aan het gamen was op zijn telefoon. Volgens Huangs familie liet hij games passief draaien op zijn telefoon tijdens het rijden, maar speelde hij niet actief.

Door Andrei Stiru

Redacteur

09-04-2024 • 12:01

169

Submitter: cariolive23

Reacties (169)

Sorteer op:

Weergave:

Nu gaan mensen zeggen "zie je wel, Autopilot is onveilig" maar het is belangrijk om te bedenken dat geen enkel systeem fail-safe is. Daarbij komen systemen met voorwaarden waaraan je je moet houden en de vraag is of dat hier gebeurd is.

Verder moet je kijken naar miles-driven versus ongevallen ratio en die blijkt nog steeds enorm gunstig.

https://thedriven.io/2023...than-us-average-with-fsd/

[Reactie gewijzigd door Odie op 22 juli 2024 14:28]

Verder moet je kijken naar miles-driven versus ongevallen ratio en die blijkt nog steeds enorm gunstig.
Zolang autopilot vooral op snelwegen en buiten de bebouwde kom gebruikt wordt is het nogal krom om dit te gaan vergelijken met de totale kans op een botsing.

Als ze in het rapport gezet hadden wat de kans op een ongeluk bij highway miles met FSD, met autopilot en zonder FSD of autopilot is dan heb je een appels met appels vergelijking, maar op deze manier zeggen de cijfers niet zo veel.
Dat niet alleen, de gemiddelde veiligheid van auto's op de weg is ook veel lager dan de veiligheid van nieuwe auto's. Dat soort links zijn dan ook vooral marketing. Het probleem met autopilot is niet zozeer dat het kan falen, het probleem is dat we ongelukken zien waarbij het onacceptabel is dat het systeem in die situaties die beslissingen nam. De conclusie is dan echt dat het systeem niet veilig kan rijden en dat is de hoofdreden dat FSD nog altijd niet toegestaan wordt.
Maar met die theorie zouden mensen überhaupt niet mogen rijden. Veel ongelukken zijn simpelweg te wijten aan menselijk falen. Van onoplettendheid, tot te hard rijden voor de situatie, tot simpelweg niet toepassen van verkeersregels.

Ik denk dat we af moeten stappen van de utopie van vervoer zonder ongelukken. Als FSD minder ongelukken maakt dan een menselijke bestuurder doet, is dat al winst. Elk leven dat we ermee redden is winst, zo simpel ligt het. En ja, soms maakt de software alsnog domme beslissingen, net als veel mensen dat ook doen.

Even los van of FSD nu wel of niet in die staat is overigens. Dat zou in elk geval het doel moeten zijn en mijn inziens ook het moment van goedkeuring.

[Reactie gewijzigd door Cybje op 22 juli 2024 14:28]

Probleem is denk ik schuldvraag.

Als FSD wettelijke is toegestaan en vervolgens door een verkeerde beslissing iemand dood rijd, wie is er dan schuldig? De fabrikant die zich aan alle regelgeving houd? De programmeur(s) die het algoritme hebben gemaakt? De RDW die de auto heeft toegelaten?

Bij een mens die een fout maakt is dat antwoord simpel, namelijk degene die de fout heeft gemaakt, bij FSD daarentegen, niet zo makkelijk.
Als de FSD niet deugt en daardoor een ongeluk veroorzaakt, lijkt het me duidelijk dat de fabrikant verantwoordelijk is.

Als ik een nieuwe auto koop en bij de eerste kruising een ongeluk veroorzaak doordat de remmen niet werken, is de fabrikant van de auto ook verantwoordelijk.
Ding is, je kan niet alle situaties inprogrammeren, je zal een systeem moeten maken die onafhankelijk beslissingen kan maken en dat betekend dus dat die foute beslissing kan maken. Geen enkele fabrikant zal daar verantwoording voor willen nemen en dus verwachten dat er vanuit overheid/keuringsdiensten een set aan eisen komt waar zo'n systeem aan voldoet, zodat ze, wanneer er een foute beslissing gemaakt word, kunnen aangeven dat het systeem gewoon voldeed aan alle eisen en ze dus niet verantwoordelijk zijn.

Dat is wat anders dan een rem die vrij zwart-wit is, die werkt wel of niet. En zelfs dan is het niet zo makkelijk om de fabrikant de schuld te geven, kan net zo goed de dealer zijn die besloot remvloeistof te vervangen en dit verkeerd te doen, om maar 1 van vele mogelijke scenarios te schetsen.
Het is nog leuker om over ethische beslissingen te filosoferen. Wat nou als de auto moet kiezen tussen een kind op fiets aanrijden of ernaast het kanaal in rijden?
Ik denk persoonlijk dat de auto dat niet moet meewegen in de beslissing, net zoals dat nu ook nog niet gebeurd. Hooguit dat je verschil maakt tussen of je een fietser of auto raakt.
Die ethische keuzes zijn ze al heel lang mee bezig en is één van de grote dilemma’s die volledig autonoom nog in de weg staan. https://www.deingenieur.n...auto-maakt-ethische-keuze
Laat Tesla in de VS nu net FSD Supervised hebben geïntroduceerd. Daarmee is autopilot voor het eerst getraind met machine learning op basis van de enorme hoeveelheid video- en voertuigdata die Tesla bezit. Er was - anders dan bij bijv. Mercedes - al geen sprake van dat iedere verkeerssituatie apart moest worden ingeprogrammeerd, maar nu is daar dus al helemaal geen sprake meer van. In principe neemt het systeem daarmee al zelf en onafhankelijk beslissingen, maar vooralsnog blijft de chauffeur gewoon nog verantwoordelijk.

Over de vraag wie er aansprakelijk kunnen worden gesteld in het geval van ongevallen met zelfrijdende auto's wordt overigens ook in de rechtswetenschap flink gediscussieerd. Ik denk zelf dat het meestal de fabrikant zal zijn, zoals in deze casus Tesla denk ik ook aansprakelijk zou zijn gehouden, maar die vlag zal ook niet áltijd opgaan.
FSD is dus een verkeerde term. Het is SD of maximaal NFSD
Door de vele doorbraken op gebied van ai moet het toch niet meer moeilijk zijn om een systeem te maken die onafhankelijk beslissingen neemt?
Ja, maar dat betekend ook dat hij verkeerde beslissingen kan maken. Waar ik op focuste is het juridische aspect, niet of het technisch mogelijk ik.
Ik neem dat als er een wet komt die minimale eisen stelt aan het gebruik van een systeem, dat die wet dan ook duidelijkheid schept wat betreft verantwoordelijkheid indien een systeem, dat aan de minimale eisen voldoet, toch een ongeluk veroorzaakt.
Ik denk dat dat niet veel afwijkt van hetzelfde vraagstuk bij een menselijke bestuurder. Als iemand tijdens regen achterop een andere auto rijdt, wie is er dan aansprakelijk?

1. De mens, want die had de snelheid moeten aanpassen aan de omstandigheden, ondanks dat diegene nu niet te hard reed
2. De wegbeheerder, want die had een bordje moeten plaatsen dat je bij nat wegdek maar 70 mag ipv 100
3. Het bandenmerk, want deze banden functioneren gewoon niet zo goed in de regen, terwijl er met een setje dure Michelins wel op tijd was gestopt
4. De autofabrikant, want die heeft deze auto afgeleverd met deze matige banden
5. De RDW, want die heeft deze auto goedgekeurd met deze matige banden

Uiteindelijk zeggen we in het algemeen gewoon: de bestuurder is aansprakelijk en die moet ervoor zorgen dat er een WA verzekering is. Datzelfde kun je bij FSD ook doen.
Klopt maar dan kom je dus bij wat @Odie zegt, FSD is volgens mij al toegestaan onder die voorwaarde, de bestuurder moet opletten. (correctie, in EU nog niet toegestaan, maar eerste wetgeving is goedgekeurd: https://www.mistergreen.n...ijk-al-toegestaan-in-2024)

Het ging (tenzij ik je initieel verkeerd begrepen had) volgens mij meer om volledige toestemming, dus FSD zonder menselijk ingrijpen. En dan krijg je dus een best lastig vraagstuk.

[Reactie gewijzigd door DdeM op 22 juli 2024 14:28]

FSD is ook in de VS niet toegestaan zonder op te letten. Het grote verschil is dat je het stuur niet vast hoeft te houden, want met AP (in de VS en hier) wel moet. FSD geeft geen level 5 autonomie.
FSD is momenteel toegelaten onder voorwaarde dat je actief oplet, in enige vorm (kijken, meesturen, afhankelijk van het exacte product en de regio waarin je bent). Als je dan gaat zitten gamen en niet oplet dan gebruik je het product buiten de specs en dan ben jij als bestuurder gewoon schuldig. Dat was ook de hamvraag in deze zaak: kon bewezen worden dat de bestuurder niet zat op te letten.

Dat Tesla nu de zaak afkoopt kan twee dingen betekenen: men heeft geen trek in een slepende en dure zaak of men ziet toch in dat het systeem te foutgevoelig is en trekt off the record het boetekleed aan.
Ik denk er toch anders over, want uiteindelijk is het het autopilot-systeem van Tesla dat dit dodelijke ongeluk heeft veroorzaakt. Dat systeem is namelijk tegen de vangrail aangereden, niet de bestuurder zelf. In beginsel hoort dat natuurlijk niet te gebeuren. Als de bestuurder inderdaad niet zat op te letten, waarom heeft het systeem dan niet gewoon afgeremd en de auto stilgezet, zoals dat normaal bij autopilot gebeurt?

Verder is het ook nog maar de vraag of de bestuurder het ongeval had kunnen voorkomen als hij wel had opgelet - er even vanuit gaande dat hij inderdaad niet aan het opletten was..
Ik wil Tesla en AP helemaal niet vrij pleiten, ik stel alleen dat AP gemiddeld gezien in mijn beleving meer ellende heeft voorkomen dan veroorzaakt. Ja in de huidige vorm doet het soms hele rare dingen bij mij (phantom breaks, nog steeds, ook op mijn HW4 based Highland) en slingert het nóg steeds eerst half over een uitvoeg strookje bij m8j hier in de wijk, elke keer weer, ondanks alle reports en ondanks HW. Het is een tool, geen doel. Nog niet.
Nu bedenk ik ineens een leuke situatie... Stel, die nieuwe FSD (een getrainde AI) leert ook bij, op basis van nieuw materiaal tijdens je eigen ritten. En stel dat je maar 500km per maand rijdt. Kan dan gesteld worden dat er een (gedeelde) schuld bij de eigenaar ligt omdat die z'n AI niet goed heeft opgevoed? :)
Maar met die theorie zouden mensen überhaupt niet mogen rijden. Veel ongelukken zijn simpelweg te wijten aan menselijk falen. Van onoplettendheid, tot te hard rijden voor de situatie, tot simpelweg niet toepassen van verkeersregels.

Ik denk dat we af moeten stappen van de utopie van vervoer zonder ongelukken. Als FSD minder ongelukken maakt dan een menselijke bestuurder doet, is dat al winst
Dit is achteruit redeneren vind ik persoonlijk.

Als het doel is om het verkeer veiliger te maken, dan zijn er 1001 eenvoudig te implementeren manieren om dat te doen. Ik ga niet eens beginnen met voorbeelden geven want het zijn er echt veel te veel. Een zelfrijdende auto bouwen en er dan net zo lang aan te gaan zitten tweaken in de hoop dat hij ooit veiliger kan worden dan de 'gemiddelde bestuurder' is echt een van de minst efficiente manieren om het verkeer veiliger te maken, dat er zo hoog op ingezet wordt vertelt mij vooral dat het eigenlijk helemaal niet om veiligheid gaat maar om iets anders (het wegbezuinigen van dure chauffeurs en het verhogen van de productiviteit die verloren gaat als mensen auto moeten rijden).

Bedenk ook dat er niet zoiets bestaat als 'de gemiddelde bestuurder' en dat je dus ook echt niet op basis van 'km per ongeluk' kunt concluderen dat FSD veiliger zou zijn als we alle automobilisten met FSD zouden vervangen. Hoe goed mensen autorijden is zwaar bimodaal verdeeld, dat wil zeggen, een kleine groep slechte bestuurders is verantwoordelijk voor het overgrote deel aan ongelukken. Veruit de meeste automobilisten veroorzaken veel minder ongelukken per km dan dat nu kan worden geconcludeerd op basis van FSD statistieken, maar een klein percentage trekt het gemiddelde zwaar omlaag. Als je al die veilige bestuurders nu met FSD zou vervangen dan weet ik zeker dat het verkeer dat absoluut niet veiliger van zal worden.
Je krijgt je rijbewijs als de instructeur van mening is dat jij adequaat kan rijden en geen onacceptabele ongelukken veroorzaakt. Mocht jij een ongeluk veroorzaken wat gegeven de situatie totaal onaanvaardbaar is, bijvoorbeeld iemand dood rijden bij een totaal normale wegsituatie, dan kan ik je verzekeren dat de politie je rijbewijs direct zal innemen en je dat niet zo maar weer terug zult krijgen.
Goed punt. Mensen halen een rijbewijs maar een significant deel kan dan nog steeds eigenlijk niet verantwoordelijk rijden. Net als FSD, het mag blijkbaar de weg op maar maakt te veel brokken die makkelijk voorkomen hadden kunnen worden.

Beiden moeten een stuk strenger beoordeeld worden, voldoet het niet dan mag het de weg niet op.

Ik rij motor en het aantal mensen dat het risico voor mij veel en veel groter maakt dan het al is door onverantwoordelijk rijgedrag, is echt belachelijk hoog. En mensen beseffen het niet eens...
Veel ongelukken zijn simpelweg te wijten aan menselijk falen.
Absoluut! No question about it.

Maar, dat is elke keer een N=1 situatie. Met FSD is het een N=X miljoen. Met FSD zit zo'n fout in álle auto's waarin FSD is geactiveerd.

Zowel Tesla als Musk doen voorkomen dat FSD geheel zelfstandig kan auto rijden. En dat is gewoon niet waar. Dat staat ook wel op hun website, maar is zo'n beetje het tegenovergestelde van wat de marketing in eerste instantie beweert. Daarnaast is de mens lui en gaat wat anders doen wanneer de verveling toeslaat. Of je dan gaat gamen, even het nieuws door gaat nemen of wat emails gaat versturen, in al deze gevallen ben je geen bestuurder meer. Dat gaat heel lang goed, tot het moment dat je wel had moeten ingrijpen. Alleen ligt dat moment al achter je. En kunnen ze jou van de vangrail schrapen.

De mens is het probleem. Persoonlijk denk ik ook dat de mens niet uit de voeten kan met iets wat meer kan dan een level 2 systeem, maar nog geen level 5 is. Bij niveau's 3 en 4 wordt verwacht dat de bestuurder in kan grijpen, alleen is die wat anders gaan doen en valt er niks meer in te grijpen. Dankzij de mens, de bestuurder, worden levels 3 en 4 levensgevaarlijk.
Mijn situatie is ietwat uniek, ik rij niet zelf maar ik heb twee Tesla's, geïmporteerd vanuit de VS in China. Nou zijn de wegen hier niet allemaal niet zo doordacht als in Nederland, rijdt men ook niet zo netjes en zijn de omstandigheden door weg medewerkers vaak ronduit onveilig. Neemt niet weg dat autopilot hier werkt en tot twee maal toe in mn S de auto niet een slechte inschatting maakte maar gewoon een block helemaal niet zag en zonder ingrijpen van mn chauffeur de gevolgen desastreus zouden zijn geweest. Safe to say, geen autopilot voor ons en binnenkort helemaal geen Tesla meer. Ik heb veel betaald voor loze beloftes en een functie dat gewoon gevaarlijk is. En dan heb ik het nog niet over het belabberde presteren in gewone situaties. Natuurlijk zullen een tal van fanaten hier mij vertellen dat Tesla qua techniek superieur is, maar zoals we ook hier zien toekomst/potentie is geen drol waard wanneer je auto zich in een truck probeert te drukken.

[Reactie gewijzigd door n4m3l355 op 22 juli 2024 14:28]

Bij heel wat ADAS systemen (wat Autopilot ook is) worden stationaire objecten genegeerd vanaf een bepaalde snelheid.

Voorbeeldjes die ik even snel vond van een Mercedes S-klasse met rijassistent pakket:
Uit 2014:
Tot een rijsnelheid van circa 70 km/h reageert de BAS PLUS op:
- in de lijn van de auto stilstaande obstakels,bijvoorbeeld stilstaande of geparkeerde auto's
- in de lijn van de auto stilstaande voetgangers
- kruisende obstakels.
En dit is ondersteuning van het remmen, niet automatisch remmen. Je moet dus zelf ook wat doen.

De nieuwste (2023) kan de auto met rijassistentiepakket automatisch remmen tot 100 km/h voor voertuigen en bijv. voetgangers tot 70 km/h. Of hij ook op tijd stil staat weet ik niet. Neem je het pakket niet dan remt hij zelfstandig tot 50 km/h.

Kortom, hopelijk let de chauffeur in je toekomstige niet-Tesla ook goed op.

[Reactie gewijzigd door styno op 22 juli 2024 14:28]

Classic:
Dat soort links zijn dan ook vooral marketing.
De conclusie is dan echt dat het systeem niet veilig kan rijden en dat is de hoofdreden dat FSD nog altijd niet toegestaan wordt.
De conclusie is niet dat het systeem onveilig is.

Rijhulpsystemen van zowel niveau 1 (ABS, tractiecontrole) als niveau 2 (lane assist, automatisch remmen) vergroten de veiligheid aanzienlijk. Technologie kan bijvoorbeeld dodelijke kop-staartbotsingen in files bijna volledig voorkomen. Niveau 1 en 2 zijn toegestaan zolang de bestuurder oplettend blijft, met ogen op de weg en handen aan of dicht bij het stuur.

Deze rechtszaak betreft een niveau 2 autopilot, niet FSD niveau 4 of 5.

Volgens de familie van Huang liet hij spellen op zijn telefoon draaien tijdens het rijden, maar was hij niet actief aan het spelen. Dit, samen met het feit dat hij te hard reed, toont aan dat de auto bij een splitsing rechtdoor reed, terwijl de bestuurder genoeg tijd had om in te grijpen, mits hij aandachtig was.

Rijhulpsystemen functioneren dus wel degelijk en helpen aantoonbaar bij het voorkomen van ongelukken, inclusief de autopilot van Tesla die de auto automatisch binnen de rijlijnen houdt. Veel merken bieden vergelijkbare technologie, maar Tesla was in 2018, ten tijde van het ongeval, een van de voorlopers. Bij niveau 2 moet de bestuurder altijd in controle blijven. Van een lane assist mag bijvoorbeeld niet verwacht worden dat het foutloos werkt bij onduidelijke wegmarkeringen.

De huidige systemen zijn in essentie geavanceerde cruisecontrols. Ze houden de auto in de rijstrook, geven een waarschuwing als je van rijstrook wisselt zonder richtingaanwijzer of als er iemand in je dode hoek zit terwijl je wel richting aangeeft, en remmen automatisch als de auto voor je plotseling stopt of vertraagt, ook voor voetgangers en andere auto's in de stad. Ze maken simpelweg minder fouten dan mensen.

Elk merk heeft zijn eigen implementatie en mogelijkheden, maar ze hebben gemeen dat ze bestuurders effectief behoeden voor fouten. En dat is maar goed ook, want mensen maken absurd veel fouten.
Het probleem met autopilot is niet zozeer dat het kan falen, het probleem is dat we ongelukken zien waarbij het onacceptabel is dat het systeem in die situaties die beslissingen nam.
Lees je zin nog eens, eerst is het geen probleem dat het faalt, plots is het compleet onacceptabel dat het systeem faalt. Elk rijhulp syteem van level1 en level2 heeft zijn limitaties. De enige wie hier gefaald heeft is die man die zijn ogen niet op de weg had, hij is van zijn baan afgeweken op een splitsing en is zonder het te beseffen tegen een betonnen muur gereden. Hij was verantwoordelijk voor zijn voertuig en besloot aan hoge een snelheid een smartphone game te spelen.
En dat is de hoofdreden dat FSD nog altijd niet toegestaan wordt.
De hoofdreden dat FSD nog niet toegestaan is, is omdat het nog niet bestaat. Enkel Waymo heeft een licentie voor level 5 in een zeer beperkte regio.
Neem dan ook even in het rapport mee of de Human het beter had kunnen doen dan de autopilot want vaak is dat nl ook niet zo.
FSD wordt in de VS in bepaalde steden weldegelijk toegestaan, en wordt ook toegepast. Er rijden daar auto's rond zonder dat er iemand in zit.
Het gaat niet alleen om autopilot maar om alle rijhulp systemen die ook binnen de bebouwde kom werken en aanrijdingen of escalaties voorkomen. Zo zal een Tesla niet met vol gas op mensen inrijden als je het pedaal vol intrapt (obstacle aware throttle noemt Tesla het. Maar ook dat het systeem in de gaten houdt of jij wel op tijd het gas los laat als je voorganger remt en jij niet en dan vol alarm slaat. Of lane departure warnings, eventueel met een assist in de vorm van een duw terug. Allemaal systemen die altijd aan staan, ook binnen de bebouwde kom, en de kans op aanrijdingen verminderen.

Maar als je puur naar Autopilot kijkt dan is de kans op ongelukken per miljoen gereden kilometers gewoon ontzettend laag.
Dit is een drogreden, sorry dat ik het zo moet zeggen, maar ik kan niet begrijpen hoe mensen zo kill kunnen denken. Het gaat hier om mensen levens, Huang was de zoon van... Heel kill naar statistieken kijken (FYI ondertussen zijn er al 700 FSD doden) heb jij niks aan als jij net in die ene Tesla zit die besluit om het die dag niet goed te werken.

Een fout in een ontwerp is 100% voorkombaar en daarom is de dood ook onnodig. Hoe het kan dat een Tesla harder rijdt als is toegestaan en ineens naar links stuurt, is een hele grote vraag, een vraag waar het NTHSB nog steeds een antwoord voor moet vinden.

Wat jij zegt, is gelijk aan een brandweer die een hoop mensen redt, maar eenmaal thuis aangekomen zijn vrouw vermoord. Hij heeft een hoop mensen gered, dus moeten we die ene moord maar door de vingers zien. Zo werken die dingen niet he, 1 dood en zeker als hij voorkombaar was, is er al 1 teveel.

De vereiste om je handen op het stuur te houden is vrij recent geïntroduceerd, toen het nog Autopilot hete was dat er niet. Wat jij nu zegt, is dat je uit de voorruit moet staren met je handen ergens en op het moment dat er iets mis gaat hopen dat je snel genoeg bent om in te grijpen.

Geen enkel mens gaat dat voor elkaar krijgen, je aandacht zal afwijken naar andere dingen op het moment je niet actief bezig bent met een taak. Dat is gewoon de menselijke aard. Als autofabrikant je vervolgens schuilen achter kleine letters is iets waar je echt niet mee wegkomt, dat is wat Tesla nu essentieel ook zegt. Als het echt zo was dat hun zaak ijzersterk was dan hadden ze dit wel uitgevochten, het is van fundamenteel belang voor hun.

De aanname dat FSD niet veilig is tot anders bewezen is terecht in deze. Statistiek is geen argument. En, zolang Tesla niet zegt dat zij in alle gevallen verantwoordelijk zijn (zoals Mercedes dat nu doet) dan mag je er ook niet van uitgaan dat het veilig is.

[Reactie gewijzigd door TechSupreme op 22 juli 2024 14:28]

Bijzonder dat je FSD er bij haalt, want Autopilot is niet FSD. Autopilot is de domme lane assist versie die rustig de weg afrijd als je niet ingrijpt.
Autopilot is FSD. Tesla is door meerdere autoriteiten op de vingers getikt vanwege de term Autopilot en is het daarom FSD gaan noemen. Dat ze het ondertussen door hebben ontwikkeld is een andere zaak.

nieuws: Toezichthouder Californië: Tesla misleidt consument met reclame voor ...
nieuws: Duitsland onderzoekt of rijstrookassistent van Tesla's Autopilot toeg...

[Reactie gewijzigd door TechSupreme op 22 juli 2024 14:28]

Nee Autopilot is het gratis deel wat op elke auto zit en is leuk voor op de snelweg als de belijning in orde is. FSD is de suite waar je in Amerika naar ik meen 15.000 euro voor mag aftikken en overal rond kan rijden.
Jij hebt het over Enhanced Autopilot, daar vragen ze tegenwoordig 6k voor trouwens... niet dingen door elkaar halen. Autopilot was in de eerste Tesla's een betaalde optie.

[Reactie gewijzigd door TechSupreme op 22 juli 2024 14:28]

Nee Enhanced Autopilot zit er tussenin en kan onder andere van rijstrook wisselen en automatisch parkeren. Dat onderscheid word ook duidelijk gemaakt in de links die je in de edit toegevoegd hebt.

[Reactie gewijzigd door jip_86 op 22 juli 2024 14:28]

Nou laat het dan eens zien, link even naar de Tesla site, lijst van opties, iets, waar letterlijk op staat dat er een onderdeel "Autopilot" is wat inbegrepen is in de prijs (gratis is het niet trouwens).

Ik wacht.
Hier staat letterlijk het overzicht van de 3 verschillende versies:
https://www.tesla.com/nl_nl/support/autopilot

"Autopilot is een bundel Driver Assistance-systemen die standaard aanwezig is op een nieuw voertuig of die na de aflevering van het voertuig kan worden aangeschaft."

Dat laatste is met name van toepassing op de oudere Model S en X en dan de eerdere versies. Alle auto's sinds 2018 hebben standaard Autopilot inbegrepen.

[Reactie gewijzigd door Fab1Man op 22 juli 2024 14:28]

Autopilot wordt standaard geleverd op elke nieuwe Tesla.
https://www.tesla.com/nl_...p%20elke%20nieuwe%20Tesla.

En in de configurator ook als je bij de FSD optie kijkt:
Alle functies van Standaard Autopilot en Enhanced Autopilot

[Reactie gewijzigd door jip_86 op 22 juli 2024 14:28]

Lees de hele paragraaf eens. Ze hebben het over de hardware die aanwezig is en een update die je kan kopen om het te activeren.

[Reactie gewijzigd door TechSupreme op 22 juli 2024 14:28]

Autopilot en Enhanced Autopilot zijn een soort adaptive cruise control met nog wat trucjes.

FSD Bèta (Full Self Driving Bèta) dat vorige week net hernoemd is naar Full Supervised Driving, draait op een geheel andere softwarestack en kan dan ook gewoon deelnemen in het verkeer, rotondes nemen, voetgangers voor laten gaan, etc. Maar wel supervised. Er zijn zo'n 400.000 vaste gebruikers van die versie en dankzij de 1 maand gratis proefperiode, ineens een stuk meer.

Dat doet Autopilot allemaal niet, dat is gewoon een adaptive cruise control met trucjes zoals lane changes, etc, zoals ik al eerder zei.
Ondanks dat ik het eens ben met je eerste opmerking, is deze erg makkelijk te vinden.
Enhanced inderdaad 6k en FSD 12k.
https://www.tesla.com/modelx/design#overview
Er zijn 3 niveaus, waarbij enhanced inderdaad 6k kost.

Echter:
Full Self-Driving Capability
$12,000
Your car will be able to drive itself almost anywhere with minimal driver intervention and will continuously improve
All functionality of Basic Autopilot and Enhanced Autopilot
Autosteer on city streets
Traffic Light and Stop Sign Control
En daar komt de belasting nog bij.

Mensen blijven niet scherp wanneer een systeem 99.99% van de tijd prima werkt. Die 0.01% van de tijd dat de bestuurder moet ingrijpen, is deze iets anders aan het doen. Dat is dan niet de fout van FSD, maar wel de realiteit.

Wat FSD biedt en pretendeert te bieden, is niet iets waar miljoenen bestuurders mee uit de voeten kunnen. Mensen kunnen met level 1 en wellicht level 2 systemen uit de voeten, maar niet met level 3 of 4 waarbij ze zelf nog enige verantwoordelijkheid hebben. Wanneer de bestuurder zonder FSD een fout maakt, is het een N=1 situatie. Wanneer FSD een fout maakt, heb je een N=X miljoen situatie. Want alle auto's met FSD hebben dezelfde fout/beperking in zich zitten.

En daarom loopt Tesla nu weg bij deze rechtszaak, hebben ze gekozen voor een schikking.
En de meneer die omgekomen is, hoe triest ook, gebruikte het product 'out of spec' en zat niet op te letten. Het is niet 100% bewezen maar wat nu bekend is wijst daar wel op. Dat Tesla nu schikt heeft waarschijnlijk te maken dat het product niet flawless is en men een lange slepende zaak wil afkopen.
AP is nooit als flawless geadverteerd.
Je bent ten alle tijd verantwoordelijk en dient je handen aan het stuur te houden.
Wordt je herhaaldelijk aan herinnert als je AP activeert. Elke 15 seconden moet je je stuur bewegen.
Zelfs deze engineer had zijn bedenkingen over AP en vond het niet veilig. Toch negeerde hij alle veiligheid maatregelen.
Het punt is, dit was in 2018 en toen was dat dus niet. De vereiste om je handen aan het stuur te houden kwam pas later.
Dat is niet waar.
AP nags were introduced back with the roll out of v8.0 in September 2016, and Tesla has been refining its alert system since then.
Dat je handen op het stuur moet houden was pas in 2019 verplicht en pas vorig jaar hebben ze dat op last van de NTHSB aangepakt want je kon gewoon een sinaasappel gebruiken om die check te bypassen.

nieuws: Tesla updatet Autopilot-onderdeel in VS na onderzoek van toezichthouder
Probleem is wat mij betreft dat de human factor niet lijkt te worden meegenomen door Tesla hier: een mens is niet geschikt om op deze manier zijn auto alleen maar te "controleren". Dan houdt je gewoon je focus niet vast, en als je dat wel zou (moeten) doen, is de hele feature onzinnig. Je kan wel in je voorwaarden zetten dat je altijd zelf verantwoordelijk blijft en op moet letten, maar dat helpt dus niet.

Je hebt denk ik veel meer aan een systeem dat andersom werkt: jij rijdt, maar als het mis dreigt te gaan grijpt de autopilot in.
Dat doet Tesla ook
Krijg regelmatig melding als voorganger opeens remt. Lichte stuur correctie als ik over de lijnen rij. Maar meestal klopt dat niet.
AP op snelweg is zeer handig. Je blijft keurig tussen de lijnen rijden.
Afstand houden met je voorganger en stopt ook als er een file is.
Je kan veilig even je aandacht verplaatsen zoals radio afstemmen.

[Reactie gewijzigd door lighting_ op 22 juli 2024 14:28]

Ja dat weten jij en ik, maar er zijn hordes mensen die de AP (ook in Nederland) als FSD gebruikten door een gewicht aan het stuur te klemmen die torque genereert en daarmee de aanwezigheid van handen simuleert. Tegenwoordig kan dat al niet meer zo makkelijk, maar ik ken een persoon die verbolgen was dat Lane Departure dan niet meer goed werkte (want de auto voelt torque en denkt dus dat je bewust over de lijn stuurt).

Dat is wel het gevaar van AP: men zoekt de grenzen op. In mijn nieuwe tesla krijg ik al een bestraffing als ik überhaupt al naar mijn telefoon in de cradle kijk... tenzij ik mijn zonnebril op heb 8-)
iedereen weet dat je met alcohol op niet moet rijden
Toch heb je legio personen die het risico nemen en anderen bewust in gevaar brengen.
Hetzelfde geldt voor hard rijders of bumper klevers.

[Reactie gewijzigd door lighting_ op 22 juli 2024 14:28]

Dit is een drogreden, sorry dat ik het zo moet zeggen, maar ik kan niet begrijpen hoe mensen zo kill kunnen denken. Het gaat hier om mensen levens, Huang was de zoon van... Heel kill naar statistieken kijken (FYI ondertussen zijn er al 700 FSD doden) heb jij niks aan als jij net in die ene Tesla zit die besluit om het die dag niet goed te werken.
Als er met FSD 700 doden zijn gevallen en het zouden er zonder 710 zijn dan is dat toch een prima argument om het wel toe te staan.
Je hebt er inderdaad niks aan als FSD precies niet werkt als jij over een zebrapad loopt, maar je hebt er evenmin iets aan als je door een appende bestuurder wordt doodgereden. Waarop baseer je dat doodgereden worden door FSD erger is dan door een mens, het resultaat is in beide gevallen hetzelfde.

Dat betekend niet dat er geen kritiek mag zijn op FSD, of dat er niet constant geprobeerd moet worden het nog beter te maken. Maar eisen dat FSD 100% probleemloos werkt kan juist voor meer verkeersdoden (gaan) zorgen.
Stel dat er over 20 jaar een FSD is die 10x zo weinig ongelukken veroorzaakt dan een menselijke bestuurder per gereden kilometer, dan zou op dat moment het heel veel levens kosten om FSD niet toe te staan omdat het niet perfect is.
Wat jij zegt, is gelijk aan een brandweer die een hoop mensen redt, maar eenmaal thuis aangekomen zijn vrouw vermoord. Hij heeft een hoop mensen gered, dus moeten we die ene moord maar door de vingers zien. Zo werken die dingen niet he, 1 dood en zeker als hij voorkombaar was, is er al 1 teveel.
Dat is een valse vergelijking omdat er bij moord opzet in het spel is.

Eerlijker zou zijn je af te vragen of het acceptabel is dat er tijdens de rit naar een brand met hoge snelheid wordt gereden en er hierdoor een hoger risico is dat er iemand wordt aangereden en overlijd.
Dat dit risico hoger wordt is op zichzelf natuurlijk onwenselijk, maar het alternatief is dat de brandweer zich aan de maximale snelheid houdt en altijd later arriveert, wat ook heel veel levens zou kosten. Het is van twee kwaden de beste kiezen, en als je de ene niet wil kies je dus automatisch voor de andere.
Het zijn geen FSD doden, het zijn dodelijke ongelukken waarbij Autopilot mogelijk een rol heeft gespeeld.
Autopilot is geen FSD, het zijn 2 verschillende softwarestacks. Het enige dat ze gemeen hebben is dat ze dezelfde camera's en hardware gebruiken in een Tesla.

FSD is Full Self Driving Bèta (en sinds kort Full Self Driving Supervised) en dat is een ander product, dat is niet waar het hier om ging in de rechtszaak of bij die onderzoeken van de NTSHA.
Hoe het kan dat een Tesla harder rijdt als is toegestaan en ineens naar links stuurt, is een hele grote vraag, een vraag waar het NTHSB nog steeds een antwoord voor moet vinden.
De auto stuurde niet naar links maar volgde de belijning rechtdoor. (Vrijwel?) elke cruisecontrol kan hoger ingesteld worden dan de maximum snelheid, de verantwoordelijkheid voor de snelheid ligt bij de bestuurder. Als dit bij wet verboden zou zijn, dan had dit simpelweg niet gekund (waarom een auto bouwen die harder kan dan de maximum snelheid zou je ook kunnen vragen.) Geen wonder dat de NTHSB geen antwoorden op jouw vragen heeft gegeven.
Ik kan me dit ongeval nog goed herinneren. Vlak na het ongeluk, en de eerste afwijzende verklaringen van Tesla, hebben eignenaren op hetzelfde stuk snelweg getest met Tesla autopilot ingeschakeld, waarbij het op dezelfde manier mis ging, en ingegrepen moest worden.

https://www.youtube.com/watch?v=B2pDFjIvrIU
Ja en dat kan dus meespelen in de schikking. En het gedrag wat je ziet op de video herken ik en merk ik ook wel eens, autopilot (de oude versie, niet FSD12) heeft soms moeite lijnen te herkennen of om te gaan met slecht zicht situaties. Neemt niet weg dat de bestuurder altijd moet kunnen ingrijpen en dat je dus niet moet gaan zitten gamen.

Ik heb ook flink wat kilometers op de 101 gereden en soms is het lijnenspel gewoon een zooitje. Sowieso is de staat van de US highways soms slecht, veel vuil op de weg compleet met stukken van banden etc. De laatste keer moest ik midden in de nacht ineens complete hooibalen ontwijken.
Neemt niet weg dat de bestuurder altijd moet kunnen ingrijpen en dat je dus niet moet gaan zitten gamen.
Daar zit imho het hele probleem! Wanneer jij dagelijks leert dat FSD prima werkt, ga jij vroeg of laat vanzelf iets anders doen. 100km/h is bijna 28 meter per seconde. De reactietijd van de bestuurder is al snel 1 seconde, dan ben je al weer 28 meter verder en begin je net met remmen. 1 seconde niet opletten + 1 seconde reactietijd = 56 meter. En daar komt de remweg dan nog bij. En die is afhankelijk van het weer, de staat van de banden en de staat van de weg, maar ook dat is al snel een meter of 50.

Ik zie niet hoe mensen veilig met FSD kunnen rijden waarbij ze permanent blijven opletten. Zonder FSD hebben mensen daar al moeite mee!
Ik heb ook flink wat kilometers op de 101 gereden en soms is het lijnenspel gewoon een zooitje. Sowieso is de staat van de US highways soms slecht, veel vuil op de weg compleet met stukken van banden etc.
Dat zorgt er dus voor dat FSD nog meer afhankelijk wordt van de bestuurder. Jij als bestuurder moet dus actief blijven rijden. Alleen leert FSD je dat juist af... En volgens de marketing van Tesla doet FSD ook alles wat je maar kunt bedenken, behalve koffie zetten.
De laatste keer moest ik midden in de nacht ineens complete hooibalen ontwijken.
In Nederland eens een wild zwijn aangereden, evenmin een pretje...
Laten we AP en FSD even uit elkaar halen. Met AP moet je inderdaad actief blijven meesturen. Met AP hoeft dat niet, maar je moet wél elk moment kunnen ingrijpen. Als je daar niet toe bereid bent moet je het niet gebruiken, punt.
Niemand is daar toe bereid, je leert dat af. Wanneer FSD, want volgens mij heb je het daar over, 99.99% van de tijd het perfect doet en geen enkele ingreep nodig heeft, leer jij heel snel dat je niet zo hoeft op te letten. Stel dat jij 10 uur per week auto rijdt, dan is dat 3600 is dat 36,000 seconden. Je hoeft maar een paar seconden niet op te letten om in een dodelijk ongeval te geraken...

Of FSD nu wel of niet goed is, doet er niet toe: Het is niet geschikt voor mensen omdat mensen niet in staat zijn om actief te blijven wanneer er vrijwel nooit iets is te doen. Mensen grijpen nu al naar de telefoon wanneer ze zonder cruise control etc. op de snelweg rijden, mét FSD gaat dat echt niet beter worden.

FSD levert level 2, wat nu dus al gevaarlijk is vanwege de afhankelijkheid van de mens. Pas wanneer die afhankelijkheid weg is met level 5, heb je een bruikbaar systeem. En dan kun je auto's maken zonder stuur en pedalen, want die zijn dan totaal overbodig.
In de nieuwe model 3 leert AP je heel snel af om niet op te letten. De interne camera kijkt waar jij naar kijkt en even niet opletten is strafpunten. Vijf strafpunten is een week geen AP.
wauw, dat is wel essentieel om te zien om de rechtzaak beter te begrijpen.

En dat de bestuurder op die weg geen gevaarlijke situatie zag waarbij beter opgelet moet worden wat de autopilot doet is ook begrijpelijk.

Geen enkele waarschuwing van de autopilot dat ie niet meer kan zien waar de lijnen lopen.
Zo, hé. De rechtdoorgaande belijning is veel beter te zien dan de schuin weglopende lijn. Ik kan me goed voorstellen dat zelfs zelfsturende bestuurders die splitsing over het hoofd zien, wat dus ook regelmatig gebeurde op die plek: de bots-aborber functioneerde niet door een recente eerdere crash.
The crash attenuator (designed to crumple and absorb accident energy) had been already crushed in another accident 11 days before, making things far worse.
Bron

(Edit: was bedoeld als een reactie op Prop-er)

[Reactie gewijzigd door styno op 22 juli 2024 14:28]

Verbaast me niks eigenlijk, als je de kwaliteit van vele wegen ziet wereldwijd. We hebben het best goed hier in Nederland. Dan nog zou ik niks met autopilot willen doen, maar ik ben dan wel iemand die graag alles zelf doet :P
Ik kan me dit ongeval nog goed herinneren. Vlak na het ongeluk, en de eerste afwijzende verklaringen van Tesla, hebben eignenaren op hetzelfde stuk snelweg getest met Tesla autopilot ingeschakeld, waarbij het op dezelfde manier mis ging, en ingegrepen moest worden.

https://www.youtube.com/watch?v=B2pDFjIvrIU
Ik ben het trouwens eens met de 'engineering professor' in het filmpje, dat de rijbanen daar niet duidelijk gemarkeerd waren.
Nevertheless... persoonlijk vind ik dat je FSD pas mag gebruiken als het elke verkeerssituatie kan handlen. Ook deze.

[Reactie gewijzigd door kimborntobewild op 22 juli 2024 14:28]

Ik vind dat de marketing daar gewoon schuldig aan is. Het is opzettelijk verkocht als meer dan het was, en er zijn concurrenten die vergelijkbare systemen aanbieden alleen word het dan rij hulp genoemd (in Europe tenminste). Lane assist en adaptieve cruise control zijn twee onderdelen van autopilot die in mijn ogen de grootste stap in veiligheid bieden. Dat de auto daarnaast dus (en daar door ook) grotendeels zelf kan rijden is niet wat meer veiligheid oplevert.

De veiligheid gaat echter significant omlaag als je het anders behandeld (als zelf rijdende auto) en mensen dus niet meer opletten en vol vertrouwen op het systeem dat juist heel goed een bestuurder kan ondersteunen bij het voorkomen van ongevallen.

Ik denk dat cijfers van auto's met ADAS er overal wel uit zullen springen qua veiligheid ten opzichte van het hele wagenpark.

We zijn overigens over complexe systemen aan het bouwen om auto's te laten rijden in de meest uiteenlopende situaties terwijl het veel simpeler zou zijn als we gewoon aparte infra voor zelfrijdende auto's hadden. We hebben immers al werkende systemen waarin autonome karretjes gewoon hun ding doen en onderling afstemmen. Door ze op de openbare weg tussen alle andere verkeer te zetten creëer je een praktisch onmogelijke situatie waarin het altijd 100% zou werken.
Onvoorspelbaar ander verkeer, verkeersborden in 100 verschillende staten en misschien tijdelijk vervangen door een ander bord met tekst, een legio aan verkeersituaties waar de gemiddelde chauffeur nog niet eens zeker weet wat hij er mee aan moet want het ziet er anders uit dan in een andere gemeente.

Dat moet nu allemaal door camera's bepaald worden terwijl het zo veel gemakkelijker is om die situatie gewoon naar de auto te communiceren.

Het is eigenlijk te dom voor woorden dat we proberen een digitaal systeem in een analoge visuele wereld te laten werken.
Het probleem is dat autopilot letterlijk werd verkocht als de toekomst als een functie dat van A naar B reed zonder persoonlijk ingrepen. De software was er nog niet maar het komt. Sterker nog je kunt je Tesla als taxi inzetten terwijl je thuis op je bank zit.

Het helpt ook niet dat we idiote filmpjes zagen van influencers dat ze lagen te slapen in hun auto en musk iedere kans om autopilot als geweldig te verlopen dat aangreep.

Ik heb autopilot en gebruik het niet, het is gewoon gevaarlijk en onderhand inferieur. Maar ik heb hier wel dik voor betaald. Ik hoop stiekem dat Tesla en specifiek musk in de grond wordt geprocedeert. Wat ze verkocht hebben is zoals ik al zij gewoon onzin. Het is een leuke auto, maar dat geld extra zeker niet waard en Musk wist dit gewoon. En gezien hoeveel data Tesla verzameld lijkt het me raar dat dit rapport een verrassing is, Musk weet gewoon dat Tesla verantwoordelijk is voor honderden doden.
Maar kun jij wat Musk verkocht hier in NL hebben ???

Autopilot met FSD is helemaal niet verkrijgbaar in NL. Je hebt hier alleen een aftreksel wat alleen gebruikt mag worden onder gelimiteerde voorwaarden en met verminderde capabilities.
Omdat ik niet hier in NL zit.
Het is eigenlijk te dom voor woorden dat we proberen een digitaal systeem in een analoge visuele wereld te laten werken.
We hebben nu eenmaal geen digitale wereld en hoe je het ook wendt of keert, er zal altijd een vertaalslag van analoog naar digitaal moeten plaatsvinden. Zelfs als er een aparte infrastructuur is voor zelfrijdende auto's.
Ik ben het helemaal met jou eens dat de naamgeving "autopilot" verwachtingen wekt die het hele systeem nog voor vele jaren gewoon niet kan waarmaken.
Helaas zijn niet alle mensen zo intelligent om te begrijpen dat je het niet letterlijk zo moet opvatten.
Ken genoeg mensen die tegen beter weten in beweren dat je dan niks meer hoeft te doen.
Het is natuurlijk een grote marketing truc maar jammer dat de EU Tesla niet dwingt het om te benoemen naar "rijhulp systeem".
Niet voor niks dat de NHTSA Tesla nu voor de rechtbank heeft gedaagd i.v.m. meerdere ongevallen waar hun "feilloze auto pilot" een grote rol heeft gespeeld.
Grootste probleem is dat ze het Autopilot noemen, een marketing ding dus. Want het is hooguit assisted driving, zeker omdat je per wet nog gewoon dient op te letten om in te grijpen. Geeneen systeem zal foutloos zijn, klopt, maar dat mag dan ook beter benadrukt worden door Tesla zelf. Die vechten dan ook gelijk aan dat die meneer het wel niet goed gebruikt zou hebben.
Geen een systeem zal foutloos zijn, klopt, maar dat mag dan ook beter benadrukt worden door Tesla zelf.
Wat moeten ze naast het label beta, het verplicht akkoord gaan bij inschakelen met de beperkingen en daar boven op de constante nags aan het stuur (en tegenwoordig het vooruit blijven kijken) nog meer doen?

Volgens mij weet zo goed als iedereen die het systeem langer als een week gebruikt dat het beperkingen heeft. Je mag toch verwachten dat "bestuurders van een auto" bovenstaande begrijpen?

Persoonlijk denk ik dat het gewoon aan de laksheid van de gebruiker ligt. Iedereen weet dat je niet afgeleid moet zijn tijdens het rijden. Als ik in de spits om me heen kijk, is het echt schrikbarend, hoeveel mensen andere dingen aan het doen zijn.

[Reactie gewijzigd door jordy5 op 22 juli 2024 14:28]

Wat moeten ze naast het label beta, het verplicht akkoord gaan bij inschakelen met de beperkingen en daar boven op de constante nags aan het stuur (en tegenwoordig het vooruit blijven kijken) nog meer doen?
Het systeem behoorlijk testen met hun eigen testdrivers die miljoenen kilometers moeten afleggen in de echte wereld om alle fouten er uit te halen.

Maar dat kost natuurlijk centjes, dus je kan ook gewoon je klanten als beta-testers inzetten en hopen dat de marketingafdeling de schade beperkt als een paar klanten overlijden.
Alle dingen die jij nu noemt, zijn er pas later bijgekomen. Toen het nog Autopilot hete waren die vereiste er niet, er was niet eens een vereiste om je handen op het stuur te houden. Pas toen ze op de vingers zijn getikt door meerdere autoriteiten zijn ze die dingen in gaan bouwen.
Het heet nog steeds Autopilot. Je bent in de war met FSD wat een ander product is en op een andere softwarestack draait. De naam van Autopilot is niet veranderd, FSD is erbij gekomen als Bèta product en FSD gaat om volledig autonoom rijden. Autopilot bestaat nog steeds en dat is niet meer dan een veredelde Adaptive Cruise Control.
Iedereen weet dat je niet afgeleid moet zijn tijdens het rijden.
Klopt!

En iedereen weet ook dat wanneer je autopilot of lane assist (of wat de term ook mag zijn) activeert, dat mensen dan minder goed opletten.

Dus als je niet minder mag opletten als zo'n systeem aan staat, dan zou je het systeem niet moeten aanbieden in een auto. Want het is 100% zeker dat mensen dan minder opletten.

Daarom dat ik het ook nooit activeer in mijn auto. Ik zet het hoogstens even aan als ik wat andere muziek opzoek. En dan alleen op een stuk kaarsrechte weg waar geen enkel risico zichtbaar is voor die paar seconden.
Wat is er mis aan de term Autopilot? In de luchtvaart, waar de term van afgeleid is, heb je ook autopilot systemen die alleen koers en hoogte vasthouden. Bij visual flight rules moet je, ook met autopilot, altijd zelf verkeer en terrein in acht nemen.
In de luchtvaart moet een piloot ook aan veel strengere eisen voldoen als je het vergelijkt met de doorsnee automobilist.
Een automobilist mag (iig in Nederland) nooit een telefoon in zijn hand hebben. Dus dan ben je in mijn ogen sowieso fout.
Verder ben ik enorm benieuwd hoe je op je mobiel passief een game kunt spelen? Maar hoe het ook is, je bent met je telefoon bezig en of je nu naar je telefoonscherm kijkt en gamed, of dat je naar je telefoon kijkt die voor je gamed. In beide gevallen let je niet op de weg.
Op de achtergrond door laten draaien om loot te grinden wellicht?
Bij een autopilot in de luchtvaart mag je de controls loslaten. Beter nog, als je de controls vasthoud is de kans groot dat de autopilot zichzelf uitschakeld, afhankelijk weliswaar van het systeem.

Tesla hun systeem is een level 2 drive assist, dat wilt zeggen dat je ten alle tijde je stuur moet vast hebben en dat de auto zal beginnen zeuren en zichzelf stil zal zetten als je het stuur niet vast hebt. Tesla kon hier dus perfect zeggen eigen schuld maar toch hebben ze betaald, waarom, hoe ze het systeem verkopen en de systemen die moeten controleren of de bestuurder wel zijn stuur vast heeft zijn zwaar ondermaats te noemen, althans voor de versie van 2018 want van wat ik gezien heb bij recente versies is daar al veel verandering in.

Een geheel ander probleem welke zeker niet zuiver een Tesla probleem is, we krijgen alsmaar meer assist systemen, hier is de sleutel, have fun!

Hoeveel bestuurders weten dat hun nieuwe auto verplicht met een noodstop systeem komt? Hoeveel bestuurders weten hoe te reageren als die onterecht afgaat en plots de remmen wilt dichtslaan? (een klein tikje tegen het gaspedaal is het antwoord)
Ik heb een Mercedes level 2 assist systeem, die remt automatisch af tot stilstand en zal automatisch terug vertrekken zonder dat ik een pedaal ingeduwd heb wat handig is tijdens druk verkeer op de autostrade en file verkeer, van 120 tot stilstand en terug naar 120, geen pedaal aangeraakt. Kom ik aan 90 per uur af waarbij een auto stilstaat aan de lichten => mijn auto gaat niet automatisch remmen, hoogtens zal last minute de noodstop geactiveerd worden. Immers als ik boven de 70 rijd worden stilstaande objecten genegeerd, dat is een limitatie van het systeem maar tenzij ik een nerd ben die de details heb gelezen weet niemand daarvan.
Volgens mij komt de term eerder al voor in de zeevaart. Zie mijn post hierboven.
Marketing ding? Dit is een zeer gebruikelijke term voor voertuigen voor systemen die een aanzienlijk gedeelte overnemen, maar zeker niet alles.

Deze term is zeer correct gezien het gebruik in andere voertuigen. Of je de term in het algemeen twijfelachtig vindt, dat mag, maar dat kan je niet Tesla kwalijk nemen.

Verder kan niemand schuilen achter marketing verhalen, want iedere eigenaar weet dat je moet blijven opletten enz.

Wat er precies in die auto is gebeurd weet ik niet, maar op basis van 'autopilot' en andere marketing kan je Tesla niet de schuld geven.

Er valt veel op te merken over Tesla, maar hierop is het gewoon duidelijk wat die niet doet.
Er zijn weldegelijk systemen op bepaalde luchthavens waarmee op autopilot geland kan worden.
Ik ben het met je eens dat het eigenlijk geen autopilot mag heten als het helemaal geen autopilot is. En dat de term autopilot in andere takken van sport wel geaccepteerd is, terwijl dit ook alleen maar hulpmiddelen zijn, doet hier niets aan af. De term verbieden omdat dit mensen op het verkeerde been zet. En kleine lettertjes ook maar gelijk verbieden.
Ik durf te zeggen dat 'Tesla Autopilot' onveilig is. Tenminste als je het gebruikt als autopilot, wat volgens Tesla niet de bedoeling is. Tesla Autopilot is assisted driving en niet een volledige autopilot lvl. 5. Een lvl. 5 autopilot heeft de potentie om veiliger te rijden dan de doorsnee mens of de Tesla Autopilot lvl. 5, welke Musk ons al 10+ jaar belooft, veiliger zal zijn dan de doorsnee mens moeten we nog maar zien...

Of de bestuurder het correct gebruikte is eigenlijk de belangrijkste vraag. Maar omdat Musk zelf waarschijnlijk gedagvaard zou worden voor diens uitspraken over de Tesla Autopilot 'beloftes' denk ik dat Musk heeft gezegd, "Not gonna happen! Pay the people!"...
Daar heb je veel aan als je tussen zes planken ligt. Ja maar statistisch gezien is het veiliger!
Verder moet je kijken naar miles-driven versus ongevallen ratio en die blijkt nog steeds enorm gunstig.
En dat blijft nog steeds een gigantische appels en peren vergelijking.

Die algemene ongevallen ration neemt namelijk ook alle situaties met slecht weer mee. Storm, hagel, sneeuw ijzel.
En situaties op gevaarlijke wegen, of in drukke steden etc etc etc.
Daar gebeuren de meeste ongelukken. NIET op snelwegen in mooi weer.

Die laatste situatie is echter waar autopilot gebruikt mag worden en ook het meest gebruikt word.
Verder moet je kijken naar miles-driven versus ongevallen ratio en die blijkt nog steeds enorm gunstig.
Dat is een te vage metric. Als jij een auto traint over 1.000.000 in een van de woestijnstaten van de VS, wil dat niet zeggen dat ie het goed gaat doen in NYC in de spits. Of, erger nog, Amsterdam Centrum.

Punt is dat Autopilot helemaal geen automatische piloot is, en ook niet als zodanig gebruikt mag worden. Maar ja, het is erg moeilijk om precies aan te tonen wat er aan de hand was, dus Tesla schikt ipv een paar maanden advocaten te onderhouden.
Wat mij vooral stoort is dat mensen zo'n blind vertrouwen in relatief nieuwe techniek hebben. Mercedes is al decenia bezig om autonome auto's te ontwikkelen & dan zou een (toenmalige) startup in een paar jaar tijd ineens iets veel betrouwbaarders op de markt brengen?!? Musk weet de media goed te bespelen met diverse beloftes & foute marketing-termen, zoals Autopilot. Feit blijft dat het nog steeds op beta-software draait & dat er in de loop vd. jaren urgente sensors zijn verwijderd, uit het basisontwerp, wat in feite een doodordinaire bezuiniging is. En van 1 vd. meest betrouwbare/accurate sensors; Lidar wil Musk niet eens weten.

Vraag mij trouwens af welke gamers er passief een game spelen, in een auto...
Fantastisch, maar het gaat om: wie is verantwoordelijk als het misgaat. Zover ik weet is hierover geen jurisprudentie en had het mooi geweest als die er wel gekomen zou zijn. Effe kort door de bocht: als bij een bedrijf winstmaximalisatie het belangrijkste is en daardoor de kwaliteit van iets als AutoPilot minder is dan verwacht had mogen worden, dan zou een bedrijf daar zeker voor verantwoordelijk voor mogen gehouden worden.

Ik weet niet in hoeverre je kunt zeggen dat op een zeker moment niet de bestuurder, maar de techniek van de auto (en daarmee de autofabrikant) verantwoordelijk is voor fouten. Het gaat hier volgens mij helemaal niet over 'is Autopilot (al dan niet) veiliger dan mensen'. Nog los van het feit dat stomme softwarebugs een situatie kunnen veroorzaken die een bestuurder wel makkelijk had kunnen opvangen.
Datzelfde zie je met vaccinaties. Er wordt heel erg ingezoomd op de eventuele bijwerkingen, maar men laat buiten beschouwing wat het alternatief zou zijn, namelijk geen vaccinaties. Dan zijn de gevolgen een stuk dramatischer.
Exact dat dus, zo zit ik er ook in. AP heeft mij meermalen uit de penarie gehaald, waaronder een keer waarbij een motorrijder als een malloot tussen mij en een ander door sjeesde. De Tesla zag dat er links ruimte was en duwde mij rapjes een centimeter of dertig naar links.
Verder moet je kijken naar miles-driven versus ongevallen ratio en die blijkt nog steeds enorm gunstig.
There are 3 kinds of lies: lies, damned lies, and statistics.
Tesla durft het niet aan om deze rechtszaak voor de rechter te laten komen. Ze hebben blijkbaar meer te verliezen dan te winnen. Een fout/beperking in FSD is een systeemfout/beperking die wellicht miljoenen auto's raakt en hun sales midscheeps kan torpederen.
Volgens Huangs familie liet hij games passief draaien op zijn telefoon tijdens het rijden, maar speelde hij niet actief.
Dit klinkt als een mager verweer. Waarom schikt Tesla hier in? Veel te veel mensen gaan blind op autopilot.
Grappige zin: “Veel te veel mensen gaan blind op autopilot.”.

Misschien hadden ze het geen autopilot moeten noemen als dat het niet is. Noem het gewoon naar wat het is, assisted driving, meer niet. Dan gaan mensen er ook minder verwachtingen bij hebben. Zolang Tesla verwacht dat je je aandacht erbij blijft houden dan is het dus een assisterend stuk software:

The literal meaning of autopilot is a device that steers a ship, plane, or spacecraft by itself, without a person. To do something on autopilot means to do it without focusing on it, without thinking about what is happening.
We gaan het toch niet hebben over de interpretatie van een woord? Vliegtuigen gaan ook op autopilot, maar daar zitten ook niet voor niks meerdere piloten in de cockpit. Met een auto heb je veel meer riscio en onvoorspelbare factoren. Je moet gewoon opletten en anders neem je een groot risico.

Als je meer dan een halfuur in een Tesla hebt gezeten, weet je dat autopilot bij lange na niet feilloos. Er is nooit geadverteerd of gezegd dat je niet hoeft op te letten. Het tegenovergestelde zelfs.

Was het niet die techdrol Vincent Everts laatst die liep te huilen dat zijn Tesla geen autopilot meer doet omdat met de camera in zijn auto was vastgesteld dat hij niet op de weg lette? Helemaal terecht. Het is niet gemaakt om een dutje te doen of op je telefoon te kloten.
We gaan het toch niet hebben over de interpretatie van een woord?
Als het over zoiets belangrijks gaat als leven of dood dan lijkt me dat de fabrikant verantwoordelijkheid heeft om geen valse verwachtingen te scheppen, dus geen termen te gebruiken die makkelijk anders dan bedoeld kunnen worden geïnterpreteerd.
Ipv "full self driving" of "autopilot" kan het beter iets van "drive assist" worden genoemd - maar dat klinkt minder geavanceerd dus dat zal wel de verkoopcijfers drukken.
Tesla zou in augustus dit jaar (over 4-5 maanden dus al) met een nieuw product uitkomen. Robotaxi (zelfrijdende taxi’s).
Het zou mij verbazen als dit gegeven niet minimaal meespeelt. Ongeacht wat de uitkomst is, moet het Autopilot-mechanisme (en daarmee het ‘zelfrijdende mechanisme’) zo weinig mogelijk smetten hebben. Al zou Tesla de rechtzaak winnen, dan heeft Autopilot blijkbaar een fout gemaakt.
Of die fout verwijtbaar is, maakt niet uit. Of de bestuurder verantwoordelijk bleef, maakt niet uit. Het mechanisme maakte de fout. De correctie/het ingrijpen van de bestuurder zou utopisch gezien niet nodig moeten zijn.

Als ze zelfrijdende taxi’s willen laten rondrijden, dan moet het mechanisme natuurlijk niet dit soort dingen op z’n naam hebben. Over vier maanden is het grote publiek dit ongeval wel weer vergeten. Stel dat de rechtzaak wat langer duurt, en dat er week tussen zit, dan is dat niet goed voor de marketingcampagne van Tesla tegen die tijd. :)
Autopilot is geen FSD. FSD is geen Autopilot. Het zijn 2 verschillende producten.
Klopt helemaal. En toch zal de marketingmolen het er lastig mee hebben als die Robotaxi’s uitkomen een week na een positieve of negatieve uitspraak.

Zie je het al voor je:
Schreeuwkop: Tesla brengt revolutionaire Robotaxi uit
Onderaan het artikel:
Gerelateerd nieuws: “Nabestaande Apple ingenieur ontvangen 3 miljoen van Tesla na dodelijk ongeluk met Autopilot.” of “Tesla wint rechtszaak na tragisch ongeval met Autopilot.”

En vergelijkbare dingen op TV: CNN News: Nabestaande Apple blablabla….. Eerste reclameblok “Tesla’s nieuwe Robotaxi blablabla”. Is niet handig! :)

Hier zie je dus dat de commerciële productnaam Autopilot tegen ze gebruikt wordt.


Het is voor Tesla gewoon veel praktischer dat dit nu klaar is, dan over 4 maanden.
Iemand 3 miljoen geven omdat hij met autopilot is gecrasht, is ook schuld bekennen. Terwijl hij gewoon met zijn telefoon zat te kloten.
Gerelateerd nieuws: “Nabestaande Apple ingenieur ontvangen 3 miljoen van Tesla na dodelijk ongeluk met Autopilot.” of “Tesla wint rechtszaak na tragisch ongeval met Autopilot.”
Je hebt ongetwijfeld gelijk hoor, het zal vast een grote rol spelen in hun keuze. Maar mij klinken deze quotes even ernstig. Het zou me ook niet verbazen dat de baan van het slachtoffer een factor heeft gespeeld.
Ik bedoelde met de eerste dus dat Tesla inderdaad ‘schuldig’/‘fout’ is bevonden. En dat de nabestaanden dus 3 miljoen ontvangen als voorbeeld. Goede kans dat ‘Apple ingenieur’ ook meespeelt voor de media. Ik hoop dat dat het gerechtshof daar minder mee heeft, maar voor de media is dat blijkbaar een belangrijk feit.

Kijk maar naar Tweakers. Daar moest het ook in het inleidende verhaal staan. Alsof het anders (erger of minder erg) zou zijn als het een effectenhandelaar, fabrieksmedewerker, brandweerman of sociaal werker was. Als je er op zoekt in andere nieuwsberichten wordt er inderdaad verbazingwekkend veel aandacht besteed aan het feit dat het een Apple-medewerker was.


Maar goed. Het meest essentiéle blijft natuurlijk, dat er iemand dood is door het falen van een stuk techniek. Wat ik elders al schreef. De bestuurder blijft natuurlijk zelf verantwoordelijk, maar het zou natuurlijk niet nodig moeten zijn. Het is gewoon een triest verhaal.
Nee hoor, is gewoon hetzelfde product. Tesla (Elon) mocht het van verschillende autoriteiten geen Autopilot noemen, dus is het hernoemd naar FSD.
Dat is onzin. Autopilot en FSD zijn 2 verschillende producten, ieder draaiend op een andere softwarestack.
ieder draaiend op een andere softwarestack.
Mijn nerd-alarm gaat nu wel even af hoor...

Microsoft verkoopt sinds jaar en dag Windows en Excel. En ongeacht de software stack noemt iedereen het Windows of Excel. En dat weet je zelf ook wel. Op de site van Tesla worden er 3 termen sámen gebruikt, te weten Basic Autopilot, Enhanced Autopilot en Full Self-Driving Capability.

En vervolgens staat er bij:
The currently enabled features require active driver supervision and do not make the vehicle autonomous.
Dus wat Tesla in eerste instantie benoemt als "full self-driving" is in de praktijk géén full self-driving. En dat is wat Tesla er zelf over schrijft, niet iets wat ik verzin.
Dat is toch precies het punt? @TechSupreme beweert dat Autopilot hernoemd is naar FSD. En dat is onzin. FSD is een later ontwikkeld product, een geheel ander stuk software met een eigen software stack en het komt zo dicht bij autonoom rijden in de buurt als dat mogelijk is. Dat het nog toezicht nodig heeft (het is nog niet perfect) doet daar niets aan af. Autopilot bestaat gewoon nog, wat al aangeeft dat het niet hernoemd is.

[Reactie gewijzigd door BlueTooth76 op 22 juli 2024 14:28]

Dus volgens jou is FSD van level 4 niveau? En bijna level 5?
Nee. Dat is ook helemaal niet het punt. Je bent met semantiek bezig en de discussie op een ander spoor aan het zetten door met opzet te doen alsof ik degene ben die het niet snapt. FSD is en wordt ontwikkeld met de intentie (!) om autonoom rijden mogelijk te maken. Dat kan het nog niet, niet zonder toezicht. Maar die intentie is er wel.

Autopilot daarentegen is niet meer dan een Adaptive Cruise Control met wat trucjes en dus een heel ander product. Autopilot wordt niet ontwikkeld met de intentie om autonoom te rijden. Het is niet uitgesloten dat in de toekomst, als FSD wél level 4 of 5 is, dat Autopilot verdwijnt of dat de stacks worden samengevoegd. Maar dat is giswerk.

Zo reed tot ~2 jaar terug FSD nog met de Autopilot stack zodra je op highway zat en werd er naar de FSD stack geschakeld als je van de highway af ging. Dat is destijds samengevoegd en nu heb, als je met FSD ingeschakeld rijdt, zowel FSD op de highway als daarbuiten. Voor bijzondere verrichtingen (inparkeren of "summon" functie) zal dat later ook nog wel gebeuren.

[Reactie gewijzigd door BlueTooth76 op 22 juli 2024 14:28]

Wat ik zo her en der lees, is dat FSD momenteel level 2 is. Dus geen level 3, 4 of 5. Persoonlijk zie ik levels 3 en 4 als een hoog risico, juist omdat ze al zo goed zijn, maar niet goed genoeg. En wanneer er dan een ingreep nodig is, de bestuurder ook te laat is met ingrijpen.

Wanneer een fabrikant level 5 levert, en dan auto's zonder stuur en pedalen, dan is ook de discussie over aansprakelijkheid over: Dat is dan altijd de fabrikant. En het is nu deze discussie die Tesla uit de weg gaat met de schikking. En dat snap ik wel, je verkoopt level 2, doet voorkomen alsof het level 5 is en dan wat kleine lettertjes dat je als bestuurder zelf verantwoordelijk bent en blijft. Zo'n rechtszaak gaat hoe dan ook verkeerd aflopen voor Tesla, levert hen altijd schade op. Zelfs wanneer ze de zaak winnen, ook dan is er marketing schade.
Laat ik er nog maar eens een poging aan wagen: de persoon die verongelukt is en waar deze rechtszaak om ging had geen FSD. Deze persoon had Autopilot.

Deze persoon had dus geen product "waarbij gedaan werd of het level 5 is". Het is een adaptieve cruise control met lane assist en nog wat trucjes.

Nogmaals, de rechtszaak ging niet om FSD.

Sterker nog, FSD ging in publieke bèta in Oktober 2020. Het ongeluk stamt uit 2018.

[Reactie gewijzigd door BlueTooth76 op 22 juli 2024 14:28]

De schikking zoals ik het lees gaat ook al lang niet meer om 'schuld', maar om de afhandeling van. Zelfs als schuld wel/niet is vastgesteld, kan er wel een schadevergoeding zijn en dat is het aspect waar Tesla dus nu in schikt in plaats van ze zaak door te vechten en uiteindelijk bedragen gaan worden vastgesteld door expert/rechter welke mogelijk factor hoger uitvallen dan ze nu bereid zijn.

'Schuldig' is bij zulke zaken (helemaal in US) een compleet ander niveau, waarom denk je dat magnetron fabrikanten zaken als 'stop je kat niet in de magnetron om op te drogen' moeten opnemen in hun voorwaarden? Stukje veiligheid/logica bestaat niet in zo'n principe, zelfs als Tesla zou stellen 'handen aan het stuur', dan zijn er 26 loopholes waaruit de gebruiker zou kunnen opmaken dat zoiets niet nodig/moet, en kan je via compleet andere kant de 'schuld' aanvechten.

De zaak zelf is volgens mij ook nooit in detail naar buiten gekomen, dat er mogelijk wel zaken zijn die Tesla aan te rekenen zijn, als je bij doorprocederen deze informatie boven water krijgt, is dat weer munitie voor elk toekomstige zaak die gaat spelen.
(edit, staat mij bij dat het in de trand 'de software deed wat werd verwacht' was, als daar onderdeel 'crashen' een verwachte uitkomst is, klopt de zin wel.. maar in zo'n situatie, zeer slecht voor jouw verdediging).

[Reactie gewijzigd door SinergyX op 22 juli 2024 14:28]

Omdat alles om alles, het word geadverteerd als zijnde "auto pilot" en ze waarschijnlijk bang zijn wat er gebeurt als hij wint, dat opent hun namelijk voor veel meer van dit soort rechtszaken.
Tesla schikt niet omdat het bang is dat het de schuld krijgt van dit ongeluk, Tesla schikt om koste wat het kost te voorkomen dat er een uitspraak (en dus jurisprudentie) komt zoals "in dit geval is het de fout van de bestuurder, dus hoeft Tesla niet te betalen, maar als hij geen spelletjes speelde was Tesla aansprakelijk"

[Reactie gewijzigd door Helium-3 op 22 juli 2024 14:28]

En daarom zal er nooit 'echte' autopilot bestaan.
Bij een 'echte' autopilot moet de piloot ook gewoon alert blijven en ingrijpen indien nodig.
Dit lijkt dus aardig op een echte autopilot.
Dat is niet gezegd, we zijn in 6 jaar een heel eind verder met autonoom rijden.
Je kan niet op basis van een ongeval met een product dat niet bedoeld is om autonoom te rijden, stellen dat er nooit autonoom rijden komt.
Dat verwacht ik wel om eerlijk te zijn. En het zal mettertijd ook ‘perfect’ werken. Maar dan pas als alle auto’s het hebben. Dan kunnen auto’s ook met elkaar communiceren. Iedere auto verteld tegen de ander wat het wilt doen. Verkeerslichten (voor auto’s) zijn niet meer nodig. Ze kunnen desnoods met 80km/u kris kras langs elkaar heen scheuren. Je hebt maar een centimeter marge nodig om geen botsing te hebben.

Er zal altijd een factor blijven met fietsers/voetgangers/enz. Ook rijassistentie bij motorfietsen zal dan een ding moeten worden. (Voor het stukje van die kruisingen zonder verkeerslichten)

Uiteraard gaat dit er dus niet binnen 10 jaar zijn, maar het gaat er over een x-aantal jaar echt wel komen.

[Reactie gewijzigd door lenwar op 22 juli 2024 14:28]

Het kan wel, maar dat gaan wij waarschijnlijk niet meer meemaken. Alleen als alle verkeer en verkeersdeelnemers onderdeel zijn van een strikt gereguleerd en geautomatiseerd systeem, kan het werken. Maar zolang er mensen, die onvoorspelbaar gedrag vertonen, onderdeel zijn van 't systeem, zullen er ongelukken gebeuren.
Ik vermoed juist van wél. Tenminste wanneer we het hebben over level 5. En dan ook een auto zonder stuur en pedalen, want die zijn dan niet meer nodig.

Wat ik als risico zie, zijn de levels 3 en 4, waarbij je in slaap wordt gesukkeld doordat de auto het zo goed zelf doet. Totdat er een keer een ingreep nodig is, dan geeft de bestuurder niet thuis.
Lees dit eens

Ik zou jouw "nooit" nog maar eens heroverwegen. Of jezelf beloven dat je over 10 jaar nog eens checkt of deze voorspelling is uitgekomen :)
Zonder emotie kan je oordelen dat een "auto pilot" systeem dat voor minder doden/gewonden in het verkeer zorgt veiliger is dan zelf rijden. Als het echter mis gaat is het natuurlijk de schuld van de auto fabrikant (ongeacht het merk).

Als een persoon een ongeluk veroorzaakt zonder aanwijsbare nalatigheid ( telefoon, drugs, drank oid) of opzet dan wordt het als onmacht gezien en wordt het de bestuurder al snel "vergeven".

Ik vraag mij nu af of deze dubbele maat ooit verdwijnt.

[Reactie gewijzigd door k-janssen op 22 juli 2024 14:28]

Nee die dubbele maat verdwijnt nooit. En dat is logisch. Als je in de krant leest, bestuurder reed de plomp in want de navigatie zei sla links af, dan denk je, lullig voor de bestuurder maar wat dom. Je kijkt toch voordat je reageert? Het zal mij niet overkomen. Zo denken mensen, het zal hun niet gebeuren.

Als een auto pilot systeem een fout maakt door een niet bestaande afslag te nemen, dan kan je dikke krantenkoppen verwachten. Dan vertrouwd men de auto pilot niet meer.

Het is echt niet zo anders dan in de luchtvaart. Een ongeluk ten gevolge van pilot error heeft niet zoveel gevolgen, een crash ten gevolge van een fout met de auto pilot kan een hele vloot aan de grond zetten voor maanden totdat het probleem is opgelost.
Je laat de dubbele maat over algemene aannames zelf bestaan door het er over te hebben alsof het relevant is.

De rechtzaak en schikking gaan niet om algemeen (on)veilig zijn of algemene verantwoordelijkheid. Het gaat om de situatie rond het ongeval zelf. Dat valt niet zomaar breder te trekken.

Natuurlijk kan iemand dat proberen, bijvoorbeeld door het met andere situaties te vergelijken, maar daarin zal dit ongeval niet zomaar verschil maken.
Dat is toch niet zo heel raar? We hangen nu een maal hogere eisen aan systemen die zaken voor ons doen dan aan ons zelf, anders deden we hert zelf wel. Voor een systeem dat zorg draagt voor de veiligheid hangen nu een maal heel hoge eisen.

Ik vind het overigens niet meer dan terecht dat er zo kritisch gekeken word naar een systeem dat zonder tussenkomst van een partij die de veiligheid kan beoordelen uitgerold word naar de openbare weg.

Als er iets mis gaat en er zijn slachtoffers is er immers aansprakelijkheid. Als een persoon een ongeval veroorzaakt word er gekeken waardoor dat kwam en of die het had kunnen voorkomen. Het zelfde geld voor autopilot.

Bij een automatisch systeem is het ook lastig om onmacht aan te tonen. Het systeem heeft meer input dan een menselijke bestuurder (camera's, informatie van de auto zelf etc.), dus als die dan een ongeval veroorzaakt die een mens voorkomen zou hebben is dat wel een ander verhaal.

Ik verwacht van een apparaat dat die doet wat het belooft, elke keer. Het is een apparaat, die word dus niet moe, die heeft geen emoties die zijn functioneren beïnvloeden en die zou ook niet afgeleid moeten zijn door zaken waar wij als mensen gevoelig voor zijn. Dus ja, dubbele maat. En die word alleen maar groter naarmate het product als beter en zelfstandiger verkocht word.
Het extra lullige van dit ongeluk is dat er een paar weken eerder een Toyota Prius op dezelfde locatie gecrasht was. En ze hadden de vangrail (invouwbare crash absorber) na die crash niet hersteld, zodat deze Tesla met volle snelheid op de betonblokken (die als vangrail dienden) reed.
Het grootste probleem met (volledig) autonoom rijden blijft wie er in geval van een ongeluk aansprakelijk is. Technologie kan je oplossen, maar aansprakelijkheid zal altijd blijven bestaan. Of er moet wetgeving komen die het afdekt, en dan is het nog maar de vraag: hoe?
ik denk dat Tesla deze case gebruikt om te beoordelen wat de eventuele kosten zijn bij een crash met FSD.
Immers de fabrikant zal volledig de verantwoordelijkheid moeten nemen als je FSD aanbiedt.
Dat toont het vertrouwen in je product.
Mijn Tesla is 4 weken geleden voor onderhoud geweest. Nieuwe voor aandrijfassen/ophanging (na 6 jaar hard optrekken rammelde het iets :) ) en nieuwe camera's geupgrade camera's

De X ligt nu als een dweil en gevaarlijk op de weg . Camera systeem waren ze vergeten te resetten dus bij opdraaien van de snelweg na ophalen bij ze en aan zetten van de auto pilot reed mijn auto me direct vol in op een Mercedes busje op de andere baan. Kon net op tijd een ruk naar rechts geven. Advies camera reset uitvoeren, na de melding via de app. Telefonisch waren ze hier niet voor bereikbaar en al helemaal te lui om te bellen na de melding dat ze bijna doodslag door schuld hadden veroorzaakt.

Nu heeft "hij" de afgelopen 3 weken me reeds 2 keer de greppel in willen laten rijden op de snelweg in auto pilot modus. En wat zegt Tesla .... Nee meneer dat is omdat de camera upgrade van betere kwaliteit is en heeft nu last van laag hangende zon en vergelijkbare.

Na veel berichten in de service app , want ze zijn tegenwoordig te lui om te bellen blijven ze volhouden dat het normaal is dat ik nu een auto heb die me regelmatig dood wil rijden en als een dweil op de snelweg ligt...... Binnenkort gaat hij voor de 3de keer terug .... Maar niet zonder dat ik een zogenaamde kosten beraming moet goedkeuren voor arbeidsloon. Om Knoeiwerk dat direct meerdere mailen gemeld is op te lossen. (Uiteraard gaat dat niet gebeuren , rij liever 100K in volle vaart in Amsterdam de showroom in voordat ze een cent krijgen om hun prutswerk op te lossen :) )

Tesla Nederland is in ieder geval gevaarlijk bezig met hun service level en procedures . Het vergeten van de camera kalibratie / reset is levensgevaarlijk om dan nog maar de rest van het knoeiwerk niet aan te halen.

[Reactie gewijzigd door m-ruiter227 op 22 juli 2024 14:28]

Volgens Huangs familie liet hij games passief draaien op zijn telefoon tijdens het rijden, maar speelde hij niet actief
Dat klinkt wel een beetje raar, wat is daar het praktisch nut van en wordt je dan niet alsnog afgeleid?
Tesla was in de rechtbank van plan om te argumenteren dat Huang Autopilot had misbruikt, doordat hij op het moment van de crash aan het gamen was op zijn telefoon. Volgens Huangs familie liet hij games passief draaien op zijn telefoon tijdens het rijden, maar speelde hij niet actief.

Bijzonder dat je games passief laat draaien op je mobiel, maar niet actief speelt. Los daarvan: zelfrijdende functies als bijvoorbeeld een Autopilot zorgen m.i. alleen maar voor meer afleiding in het verkeer. Kijk eens om je heen hoeveel mensen met dingen bezig zijn, behalve autorijden. En het gros heeft nog niet eens een zelfrij functie beschikbaar.

Benieuwd hoe dit verder ontwikkeld en in hoeverre de autofabrikant verantwoordelijk is voor toekomstige ongevallen met de dood tot gevolg.
Los daarvan: zelfrijdende functies als bijvoorbeeld een Autopilot zorgen m.i. alleen maar voor meer afleiding in het verkeer.
Het is nu gewoon een verdrongen feit aan het worden dat een groot deel van de mensen afgeleid is tijdens het rijden om welke reden dan ook. De vraag is of Autopilot functies het risico in deze situaties verminderd. Ik zelf denk dat het zeer zeker bijdraagt aan het verminderen van onveilige situaties door afleiding van de chaffeur.

[Reactie gewijzigd door jordy5 op 22 juli 2024 14:28]

Bijzonder dat je games passief laat draaien op je mobiel, maar niet actief speelt.
Dat is niet bijzonder, er zijn diverse mobiele spelletjes die "door spelen" zonder input van de gebruiker. Blijkbaar komt het zoveel voor dat Samsung het nodig vond om er een speciale game mode voor mobiel en tablet voor te maken waarbij het scherm gedimd maar actief blijft maar toch gelocked is en niet op aanrakingen reageert.

Wat ik me afvraag is vooral of de overheidsinstanties daar geen onderzoek doen naar het ongeval? En spelletjes spelen of niet, heeft de autopilot invloed gehad op het ongeval?
Er zijn spellen die je aan moet hebben staan om te draaien, maar verder afk te spelen zijn. Bij dit soort spellen die je wat dingen aan klikken voor nog geen 5 min om progressie te maken per dag
Eens... Al denk ik wel als je autopilot promoot, je er dan wel vanuit mag gaan. Noem het dan geen autopilot. Marketing hier is misschien dan ook wel van belang. Verder ben ik het wel met je eens.

Ik verwacht dat een situatie wanneer er wel autopilot is, en nog veel manueel, dit wel vaker nog blijft voorkomen. Maar wanneer alles automatisch is, het wel beter zal worden.

Mensen zijn zeker afgeleid in het verkeer, en vaak met verkeerde dingen bezig. Niet alleen autos, ook fietsen. Gamen/appen etc. Drukte en snelheid helpt dan zeker ook niet.

Blijft een lastige situatie, maar persoonlijk hoop ik meer op meer zelfrijdende auto's. Verreweg meeste ongelukken gebeuren in het verkeer. Ik denk dat het nooit waterdicht zal zijn, maar beter als met.

Ik denk wel dat het dan lastiger zal zijn voor fabrikanten; zeker als de bestuurder, of waar het ongeluk mee plaats vind (in geval van andere auto); hier niet verantwoordelijk meer is voor de besturing van de voertuigen. Ik blijf ook benieuwd naar de ontwikkeling.

Op dit item kan niet meer gereageerd worden.