Onderzoek: Tesla's Autopilot en afgeleide bestuurder zijn oorzaak Model X-crash

De Amerikaanse National Transportation Safety Board concludeert in een rapport dat de dodelijke crash uit maart 2018, waarbij een bestuurder op een Amerikaanse snelweg een barrière raakte, onder meer te wijten is aan een afgeleide bestuurder en beperkingen van de Autopilot.

In het rapport neemt de NTSB onder meer Tesla op de korrel. Volgens de onderzoeksraad was de Autopilot van Tesla onvoldoende in staat om te monitoren in hoeverre de bestuurder zich daadwerkelijk bezighield met de taak van het rijden. Daarbij was de timing van de waarschuwingen van het systeem onvoldoende om de bestuurder zover te krijgen dat hij zou reageren en zo de crash zou voorkomen of minder erg maken. Volgens de NTSB zijn nieuwe eisen nodig voor rijassistentiesystemen die deels zelfrijdende functies aanbieden conform level 2. Tesla moet van de raad applicaties ontwikkelen die de mate van betrokkenheid en oplettendheid van de bestuurder effectiever monitoren.

Daarnaast stelt de NTSB op basis van verschillende onderzochte crashes vast dat de Autopilot van Tesla stelselmatig door bestuurders wordt gebruikt in omstandigheden waarvoor het systeem niet is bedoeld. "Ondanks de bekende limieten van het systeem, beperkt Tesla niet waar de Autopilot kan worden gebruikt", aldus de raad. Volgens de raad moet Tesla op dit punt veiligheidswaarborgen inbouwen.

Ook de bestuurder wordt specifiek als oorzaak genoemd in het rapport. Volgens het rapport was hij waarschijnlijk afgeleid tijdens het rijden door het spelen van een game op zijn mobiele telefoon. Daardoor had hij niet in de gaten dat de Autopilot de Model X naar een gedeelte van de snelweg manoeuvreerde dat niet voor auto's was bedoeld. Dit gebeurde in de weken voorafgaand aan de crash ook al een paar keer.

Zijn telefoon was een door Apple aan de bestuurder verschafte iPhone; hij was bij Apple werkzaam. Volgens de NTSB treft ook Apple in de hoedanigheid als werkgever enige blaam, omdat het bedrijf geen beleid had om het gebruik van mobiele telefoons tijdens het rijden te beperken. Volgens de raad hebben de fabrikanten van elektronische apparaten de mogelijkheid om zeer afleidende functies op draagbare apparaten te vergrendelen als ze tijdens het rijden worden gebruikt. Zo'n functie moet in de ogen van de NTSB standaard op alle apparaten komen.

De rimpelbuisobstakelbeveiliger die voor aan de betonnen barrière zat en de impact van de botsing had kunnen beperken, bevond zich in een beschadigde staat door een eerder ongeluk en functioneerde daardoor niet goed. Waarschijnlijk had de bestuurder nog geleefd als die rimpelbuisobstakelbeveiliger in een goede staat had verkeerd, stelt de NTSB. De organisatie verwijt Tesla ook dat de botsingsvermijdingssystemen van de Model X niet ontworpen waren om de rimpelbuisobstakelbeveiliger te herkennen. De raad maakt op dat punt ook een verwijt aan de National Highway Traffic Safety, die dit niet als harde eis heeft gesteld.

Bij het ongeluk was sprake van een scheiding in de snelweg, waarbij een barrière de snelweg scheidde van een afslag. De Model X kwam op het stuk terecht recht voor de barrière, wat er voor de camerasystemen van de Tesla waarschijnlijk uitzag als een normale rijbaan. Mede doordat de rimpelbuisobstakelbeveiliger niet werd herkend, crashte de auto tegen de barrière, waarna de Model X nog door twee andere auto's werd geramd.

Door Joris Jansen

Redacteur

26-02-2020 • 09:54

414

Submitter: TheVivaldi

Reacties (414)

414
404
200
22
0
170
Wijzig sortering
Ik ga dan toch even zeuren, maar merk wel de laatste tijd dat als er een nieuws bericht komt over tesla die een crash voorkomt dan staan de comments vol met goede woordjes.

Maar als er dan een negatief bericht is, dan word er niet ingegaan over het artikel.
Dan word er gesproken over clickbait en andere niet relevante dingen.

Ik vind juist dat we moeten leren van dit soort rapporten, dat de autopilot hier mogelijk te kort heeft geschoten. Dit moet worden door ontwikkeld om de veiligheid van auto's hoog te houden.
Daarnaast blijft het een discussie punt (wat goed is dat we het erover hebben). Wat we wel en niet mogen doen achter het stuur tijdens bijvoorbeeld een autopilot.
Klopt, het is een feit dat de autopilot de situatie verkeerd heeft beoordeeld en daarmee het ongeluk heeft veroorzaakt.
De bestuurder heeft niet opgelet en hij was verantwoordelijk voor het ongeluk. Hij kende bovendien de situatie en wist dat de Tesla moeite had met de belijning en het houden van de juiste rijbaan.
De Tesla dwong de bestuurder onvoldoende om actief te blijven opletten.
Apple heeft informatie verstrekt dat de bestuurder een game op de iPhone zal te spelen ten tijde van het ongeluk.

De veiligheidsbarriere was al 11 dagen eerder platgereden en niet tijdig gerepareerd door de wegbeheerder (Caltrans). Dit is waarschijnlijk een belangrijke reden waarom het ongeluk dodelijk was
Op dezelfde plek waren overigens al 11 keer eerder auto's verongelukt dus een beetje urgentie was belangrijk geweest.

De belijning op dit punt was slecht uitgevoerd.
Voor de veiligheidbarriere was ook geen verdrijvingsvak geverfd.
De Tesla kon dus niet goed de juiste baan aanhouden op basis van de wegbelijning en moest dus de specifieke (beschadigde) veiligheidbarriere herkennen en deed dat niet.
Een onduidelijk punt is misschien of de interne kaart van de Tesla de complexiteit van dit punt goed representeerde.

Normale barrier:
https://zh-prod-1cc738ca-...parator.jpg?itok=iN2eVGqu
Barriere ten tijde van het ongeluk:
https://cdn.arstechnica.n.../thursday-march22_0-1.png

[Reactie gewijzigd door TWyk op 22 juli 2024 17:23]

Vergeet ook niet dat de Tesla na het ongeluk door twee andere auto's werd aangereden. Dit zullen geen Tesla's zijn geweest anders had dat wel in het rapport gedaan..

Als gewone automobilisten al moeite hebben met de situatie - getuige het grote aantal ongelukken op dit punt - dan kun je erop wachten totdat het fout gaat met verkeershulpsystemen..

Mijn Mercedes heeft adaptive cruisecontrol (inclusief stuur functie in bochten), maar als ik mijn handen langer dan 5 minuten van het stuur haal, krijg ik een melding op het scherm (plus een soort van piep), 5 seconden later (10 seconden nadat ik het stuur losliet), schakelt de adaptive cruise automatisch uit..

Maar volgens mij had Tesla de autopilot op dit punt ook al aangepast..
Joh, in NL wordt je helemaal gek van AP als je de handen niet aan het stuur hebt. Eerst een melding op het scherm na ongeveer 2 minuten na ongeveer 20 seconden, dan begint het scherm na enkele seconden te knipperen en later volgt er een geluidssignaal en wordt AP zelfs uitgeschakeld (zo ver heb ik het zelf overigens nooit laten komen).

Ik rij zelf ook regelmatig op AP met mijn handen aan het stuur, maar als je een lang stuk rechtdoor heb, hoef je vrijwel geen kracht op het stuur te brengen. Gevolg is dat AP denkt dat je de handen los hebt en dus komt de melding. Klein rukje aan het stuur en AP weet dat je er bent.

Ik krijg de melding overigens zelden.

[Reactie gewijzigd door PdeBie op 22 juli 2024 17:23]

Joh, in NL wordt je helemaal gek van AP als je de handen niet aan het stuur hebt. Eerst een melding op het scherm na ongeveer 2 minuten
Zeg je nou dat je op een gemiddelde NL snelweg zo'n 4 kilometer kunt rijden zonder je stuur aan te raken (en dus god weet wat aan het doen bent) zonder dat je Tesla zegt "Yo, doe es opletten ofzo?" ?
Het is tegenwoordig 15 seconden, dus bij 100 km/u maximaal 400 meter.
Dat is een stuk geruststellender. :)
Handen wel aan het stuur, maar geen draaimoment uitgeoefend is voor AP hetzelfde als geen handen aan het stuur. Daarom heb ik nu drie manieren gevonden waarin zwaartekracht daarmee assisteert.
Welnee man, 30 seconde is je eerste melding
Ow kijk, dus al veel sneller. Ik heb mijn handen altijd aan het stuur, dus krijg hem vrijwel nooit :)
2 minuten? Ik krijg die melding al na 20 seconden. De tijd tot aan de eerste blauwe flits op het scherm is ook korter geworden; begin vorig jaar kon je het stuur langer los laten (al weet ik niet precies hoe lang dat was - voor mijn gevoel eerder een halve minuut). Autosteer slaat overigens bij Tesla niet uit - het blijft hard piepen en visueel waarschuwen maar als je gas blijft geven blijft autosteer doorsturen.
Bovendien kon autosteer (begin) vorig jaar de scherpere bochten zoals snelweg op- en afritten zelf nog door sturen; dat is dankzij de EU-regelgeving ook minder geworden (max .3g centrifugaalkracht oid).

Hoop dat ze in Brussel iets minder strengere regelgeving op dit vlak doorvoeren want dit komt de veiligheid niet ten goede...
Mijn Mercedes heeft adaptive cruisecontrol (inclusief stuur functie in bochten), maar als ik mijn handen langer dan 5 minuten van het stuur haal, krijg ik een melding op het scherm (plus een soort van piep), 5 seconden later (10 seconden nadat ik het stuur losliet), schakelt de adaptive cruise automatisch uit..

Maar volgens mij had Tesla de autopilot op dit punt ook al aangepast..
5 minuten is wel heel lang, vind ik. Dat is (bij 100 km/h) ruim 8 kilometer.
Bij Tesla is dit (binnen de EU in ieder geval) tegenwoordig nog maar 15 seconden, dan beginnen de meldingen en moet je snel iets doen.

[Reactie gewijzigd door Bazi op 22 juli 2024 17:23]

Sorry, moet 5 seconden zijn..
Was wss ook al duidelijk aanzien de cruise control uitschakelt na 10 seconden in totaal..
De 'time-to-alert' (bij Tesla iig) is toch snelheidsafhankelijk?

En is het sinds een recente update niet zo dat de alerts sneller en korter op elkaar komen wanneer de betrokken ECU bemerkt dat bestuurder gedrag niet aanpast, cq niet tijdig actie onderneemt?

EDIT: Meen me ook te herinneren in één vd updates dat er soort 'three-strikes-your-out'-systeem kwam? Dwz dat je na 3 alerts AP niet meer kon activeren totdat je X periode stil had gestaan, of zelfs pas nadat ie aan lader hing? Of misschien was dat alleen bij FSD/NoAP.

[Reactie gewijzigd door shufflez op 22 juli 2024 17:23]

Hij zou mij inderdaad niet verbazen als Tesla de autopilot via updates al lang heeft aangepast op dit punt.
Maar het blijft goed dat de NTSB zich in dit soort zaken stort. Want de overgang van volledig zelf rijden, naar zelfstandig rijdens auto zal de komende jaren voor wel meer situaties zorgen welke daarvoor eigenlijk niet voorkwamen.

Op mijn Mercedes is de de twee keer 5 seconden termijn vast. Daarbij maakt niet uit of ik 30 rijd of met 180 over de autobahn..

Een three strikes systeem kan op zich goed werken, maar misschien moet je dan nog een stap verder gaan dat als het systeem zich te vaak binnen een bepaalde periode bijv 3 keer binnen 3 maanden uitschakeld (tot reset moment), de auto pilot dan bijvoorbeeld een maand niet te gebruiken is..
Vergeet ook niet dat de Tesla na het ongeluk door twee andere auto's werd aangereden. Dit zullen geen Tesla's zijn geweest anders had dat wel in het rapport gedaan..
In het Tweakers artikel zit een link. Daar kan u op klikken, dan kan u de 1e paragraaf lezen.

Er staat vrij vertaald: "De Tesla draaide tegen de klok, brak in twee stukken, batterijpakket beschadigde en ging in brand, werd aangereden door twee auto's"

Als de auto voor u door een botsing in twee stukken breekt en over de weg rondtolt, en u rijdt ertegenaan, heeft dat vervolg-ongeval toch op geen enkele manier met de situatie / staat van de weg te maken? Of is er een weg die 100% goed is, waarbij u als achterop komend verkeer veilig bent voor in stukken brekende en in brand vliegende auto's?
Een oplettende bestuurder ziet dat de auto voor hem op een niet bestaande baan rijdt en mogelijk gaat verongelukken. Ik hoop altijd dat ik in zo’n geval oplettend genoeg zou zijn. Regelmatig zie ik iemand over de vluchtstrook heen zwabberen en ben ik extra alert bij het inhalen van die auto, maar dat geeft natuurlijk ook geen enkele garantie.
Punt is, dat het niets met de weginrichting te maken heeft, zoals totaal ongefundeerd beweerd wordt door degene waar ik op reageer.

Of jij op degene botst die op de vluchtstrook voor jou rijdt en in twee stukken rondtolt heeft voor jou inderdaad meer met oplettendheid te maken dan met hoe de lijnen staan, het is niet zo dat die lijnen brokstukken gaan tegenhouden.

[Reactie gewijzigd door kidde op 22 juli 2024 17:23]

Ik had dat met mijn vorige skoda ook voor "uitgeschakelen van cruise control als je te lang niets doet"
Maar dat maakte net alles gevaarlijker.
De nieuwe generatie heeft een feature emergency assist en deze zorgt er voor dat je nog steeds tussen de lijnen blijft maar hij zet je wagen helemaal tot stilstand als je niet reageerd.
Als normale bestuurders hier al geen fatsoenlijk overzicht hadden is de wegbeheerder wel degelijk in gebreke te stellen. Het is immers zijn verantwoordelijkheid dat je direct kunt zien wat er de bedoeling is.

Daarnaast is de bestuurder hier zelf gewoon echt verkeerd bezig geweest. Ik snap niet dat zelfs Apple de schuld hier krijgt. Als ik de deur open trek zegt mn iPhone al dat ie niks meer doet. Ontgrendelen kan je vergeten, melding idem dito. Je moet echt actief moeite doen om dat te omzeilen.

Nee dit is echt een typisch amerikaans dingetje denk ik. Iedereen is schuldig behalve diegene die stom deed.

Ik hoop niet dat ze de boel nu in Europa nu ook gaan nerfen.
Als ik de deur open trek zegt mn iPhone al dat ie niks meer doet. Ontgrendelen kan je vergeten, melding idem dito. Je moet echt actief moeite doen om dat te omzeilen.
Dan moet je wel die instelling voor niet storen tijdens autorijden op "Auto" of "Via bluetooth in de auto" hebben staan (in jouw geval het laatste denk ik, als die gelijk wanneer je de deur open doet al verbonden is via bluetooth), standaard staat dit op "Handmatig". En dan nog, je hoeft alleen maar te ontgrendelen, en dan op de knop te klikken dat je niet aan het rijden bent, of je klikt op de melding en klikt dan op die knop.
Ja maar dat "je hoeft alleen maar" is juist exact het punt. er is altijd een weg omheen of je het nou wil of niet. Ik weet hoe het werkt en waarom en dat is voldoende. Ik vind het uberhaupt netjes dat smartphonemakers dit soort functionaliteit maken.
Het punt is nu juist dat je heel eenvoudig kunt ontgrendelen. Als je dan op autopilot rijdt in zo'n tesla, is de verleiding alleen maar groter om éven wat op je telefoon te doen (of in dit geval zelfs een spelletje te spelen), dan houdt die automodus je niet tegen.
De functie is vooral nuttig om meldingen stil te houden, maar oproepen wel te laten zien/horen als je verbonden bent met een carkit.
De meeste mensen die in de auto met hun telefoon bezig denkt te moeten zijn worden niet tegengehouden door 1 extra tik op het scherm.
Nee, maar waar ligt dan de grens? Ik snap best dat 1 klik niet echt een bariere is, maar ik wil ook niet dat Apple je 26 keer laat klikken om de NTSB tevreden te houden. Dat slaat namelijk nergens op.
Nee dat klopt, maar ik bedoel te zeggen dat de functie meer bedoelt lijkt om gewoon geen meldingen te krijgen, en niet echt om je er van te weerhouden om de telefoon te gebruiken. Wel een beetje natuurlijk, maar de verantwoordelijkheid blijft bij de gebruiker.
Wat ik grappig vind aan die foto is dat er geen verdrijvingsvlak op de weg geschilderd is.
Naar mijn weten is dit normaal in de VS (?).. lijkt me érg onwenselijk.
Ik vind de verdrijvingsvlakken hier in NL wat dat betreft prima.. mooi dikke witte strepen op de weg en je 'voelt' als je per ongeluk uit je laan rijd dat je over de lijn rijd (bobbels) dus zelfs met je ogen dicht zou je nog voelen wanneer je over een lijn rijd.. tenzij je natuurlijk super geweldige vering hebt die dat 100% absorbeert... gelukkig heeft mijn auto dat niet. :P
Wegennet/infrastructuur in VS is dramatisch verouderd en in enorm slechte staat in vergelijking met Nederland (en vele andere ontwikkelde landen). Er is geen centrale organisatie voor beheer/onderhoud. Eén van de redenen voor de vrij soepele vering van gemiddelde Amerikaanse auto denk ik ;)

Federaal worden alleen de interstates onderhouden afaik, en die zijn ook behoorlijk in verval ivm bezuinigingen (nou is 't dan ook iets van 70K KM :)).

[Reactie gewijzigd door shufflez op 22 juli 2024 17:23]

Tesla geeft zelf al aan dat je niet 100% moet vertrouwen op de auto pilot. Dit is meer de schuld van de bestuurder dan de auto pilot. Aan de ene kant werd de bestuurder niet optijd gewaarschuwd en de auto pilot maakte een fout maar als meneer zich aan de regels hield was er niks gebeurt. Er moeten zeker betere regels komen als het gaat over auto-pilots.
Tesla geeft zelf al aan dat je niet 100% moet vertrouwen op de auto pilot. Dit is meer de schuld van de bestuurder dan de auto pilot.
Dit is enerzijds waar, maar anderzijds ook een misrepresentatie van hoe aggressief Tesla de autopilot zelf in de markt heeft gezet. Ze roepen al sinds 5 jaar geleden dat 'volledig autonoom rijden' met een Tesla al praktisch een opgelost probleem is, dat je binnen een jaar heel de VS autonoom kunt doorkruisen, dat het nog maar heel even duur voordat je de auto overal kunt summonen, dat 'elke tesla voorzien is van hardware voor volledig autonoom rijden', etc. enz. Tot niet heel lang geleden was het zo ongeveer het eerste statement op de landing page, dat op alle Tesla modellen de benodigde hardware zat. Je moest echt op zoek naar de disclaimers dat het autopilot systeem dat nu geleverd wordt die hardware alleen nog niet op die manier kon gebruiken.

Ik vind dat je Tesla wel degelijk iets kwalijk kan nemen, ze gebruiken autopilot namelijk vooral als een marketing instrument. Ja het zal absoluut veiliger zijn dan helemaal geen functies om automatisch te remmen en in je baan te blijven etc, maar het is gewoon bij lange na niet goed genoeg om als 'autonoom rijden' te vermarkten, en die indruk wordt wel gewekt. Als Tesla echt zo begaan was met de veiligheid dan hadden ze een veel conservatievere aanpak gekozen, zoals andere merken doen (beginnen met fatsoenlijk functies voor automatisch volgen en remmen bijvoorbeeld, iets wat bij 'normale' auto's in het duurdere segment al jaren veel beter werkt dan op zelfs de allernieuwste Tesla's, waarschijnlijk omdat die puur vision-based werken).

[Reactie gewijzigd door johnbetonschaar op 22 juli 2024 17:23]

Pardon? Andere merken gebruiken juist LIDAR terwijl Tesla RADAR gebruikt wat superieur is.

Bovendien is dit weer een staaltje hypocrisie van de bovenste plank omdat hier nu een nieuwsbericht aan gewijd wordt en het uitgebreid in de media komt omdat de media hiervan leeft.

Maar heb je een nieuwsbericht gelezen met het aantal levens dat autopilot heeft gered?

Nee.

Omdat dat geen lezers trekt, het krijgt geen media aandacht dus "bestaat dat niet"

Het is simpelweg hoe de media door selectieve berichtgeving dingen exact 180 graden de andere kant op kan belichten.

Want reken maar dat er een hoop mensenlevens en/of ongelukken zijn voorkomen door autopilot en reken maar dat je daar nooit iets over zult lezen.
Pardon? Andere merken gebruiken juist LIDAR terwijl Tesla RADAR gebruikt wat superieur is.
Dat is simpelweg onjuist. LIDAR is op sommige aspecten beter (gedetailleerder, hogere resolutie), en RADAR weer op andere punten (slecht zicht, langere afstand). Dus geen van beide is superieur.

Waar Tesla op inzet, is de combinatie Radar + Visueel. Dáarvan geloven ze dat die beter is dan Lidar. Maar daarover is het laatste woord nog niet gezegd. Misschien krijgen ze gelijk, misschien niet. Het is nog te vroeg om harde conclusies te kunnen trekken. Het is niet voor niets dat veel concurrenten blijven investeren in LIDAR, die doen dat ook niet zomaar.
Maar heb je een nieuwsbericht gelezen met het aantal levens dat autopilot heeft gered?
Ja. Een aantal voorbeelden:
https://topgear.nl/autoni...lot-redt-een-leven-crash/
https://www.bright.nl/nie...e-gezinnen-tegelijkertijd
https://www.want.nl/tesla-redt-leven-voorbijganger/
https://www.ad.nl/auto/ze...e-man-het-leven~a29b7aa7/
https://www.want.nl/tesla-autopilot-veiligheid/
https://nos.nl/artikel/21...emiddelde-bestuurder.html

[Reactie gewijzigd door Bazi op 22 juli 2024 17:23]

Anoniem: 1304886 @Bazi29 februari 2020 17:03
Ja dus wil je dan een definitieve conclusie trekken?

Want het staat 100% vast dat met LIDAR ook doden zullen vallen.
Je kan het ook anders zien, tesla bestuurders zijn proefpersonen voor het optimaliseren van de autonome software. Ze weten heel goed dat de systemen misbruikt worden maar daar leren ze op jou kosten, in dit geval een dode ook weer uit. Het is een snelle manier om vooruit te komen waar echter wel een prijskaartje aan hang. Ethisch kun je er zeker ook vraagtekens bij stellen maar kritiek op tesla is als vloeken in de kerk, hoe redelijk die kritiek ook is.

Zie dat hier in deze thread heel voorspelbaar keer op keer terugkomen bij commentaren.
Ja, technisch gezien is het de schuld van de bestuurder. Maar het is een bekend gegeven dat als mensen de mogelijkheid wordt gegeven om iets te doen en het alleen maar op papier wordt verboden men toch gebruik maakt van de mogelijkheid. Vergelijkbaar met wetgeving, zonder handhaving betekenen veel wetten maar zeer weinig.

Tesla kan wel leuk aangeven dat auto pilot hier niet voor bedoeld is, maar als er verder nauwelijks controle is op het goed gebruik van auto pilot dan betekend dat niet zo veel. Om maar even een open deur in te trappen, een veiligheidssysteem is pas veilig als het de situatie ook daadwerkelijk veiliger maakt. Dat is in het geval van auto pilot dus lang niet altijd het geval. Tesla's hebben een sloot hardware en software aan boord om een hoop zaken te monitoren, het zou in dat opzicht dan ook niet meer dan logisch zijn als ze een gedeelte hiervan ook beter inzetten om de bestuurder te monitoren op het het correcte gebruik van autopilot.

Overigens is dit niet alleen zo voor Tesla, ook andere fabrikanten voegen vaak systemen toe zonder eigenlijk gebruikers goed in te lichten over de werking waardoor er in sommige gevallen juist onveilige situaties ontstaan.
Maar het is een bekend gegeven dat als mensen de mogelijkheid wordt gegeven om iets te doen en het alleen maar op papier wordt verboden men toch gebruik maakt van de mogelijkheid.
Tja, een zeker gevoel van zelfbehoud is op het vlak van evolutie en het voortbestaan van onze soort een essentieel iets gebleken.

Als sommige mensen daar niet voldoende van hebben, schaar ik het onder 'natuurlijke selectie' als ze daardoor het loodje leggen. Weinig compassie mee. En je doet ook maar, zolang je niemand anders meeneemt in het graf/ziekenhuisbed.

[Reactie gewijzigd door Tokkes op 22 juli 2024 17:23]

Je reactie is niet meer dan een sentiment gebaseerd op een ongefundeerde basis. Het iets doen wat technisch niet mag is wat we allemaal in meer of mindere mate doen. Het is menselijk natuur om makkelijk afgeleid te worden als je het gevoel hebt dat waar je op moet letten door iets/iemand anders wordt waargenomen. Dat heeft sowieso niets met evolutie te maken (en ook niet echt hoe evolutie werkt maar dat is een heel andere verhaal).
zolang je niemand anders meeneemt in het graf/ziekenhuisbed.
Wellicht nog belangrijker, soms moet je mensen niet tegen zichzelf beschermen voor die mensen maar de invloed die ze op anderen kunnen hebben met hun gedrag. Nu zat de Tesla tegen een betonnen plaat, voor hetzelfde zat er nog een motor oid tussen.
ongefundeerde basis
Nee, survival instinct (en deel daarvan, fight or flight response enz) is gewoon bewezen met evolutie theorie... Niks ongefundeerd.

Als ik met de auto rijd, rijd ik met de auto en doe ik niets anders. Omdat ik weet wat het kan betekenen als ik 2 ton tegen 120 kph tegen een betonnen plaat/ander voertuig parkeer.

Als je dat als bestuurder niet beseft, maak dan gewoon (al dan niet permanent) plaats voor zij die het wel kunnen. We spenderen zoveel tijd en middelen om mensen tegen zichzelf te beschermen - tijd en middelen die dan dus niet gebruikt worden om als samenleving vooruit te gaan.

[Reactie gewijzigd door Tokkes op 22 juli 2024 17:23]

Evolutie dus als je iemand zichzelf kapot laat rijden omdat hij een systeem misbruikte, er teveel op vertrouwde en het toch misging. Met natuurlijke selectie heeft dit weinig te maken dat zijn hele andere zaken.
Volgens die redenatie kun je ook zeggen 's avonds alleen als vrouw over straat verkracht worden, tja natuurlijke selectie. Of beroofd worden, in elkaar geslagen jammer dan maar, natuurlijke selectie had je daar maar niet moeten komen.
Nogal een scheve vergelijking.

Een systeem misbruiken en daardoor in de problemen komen vind ik totaal iets anders dan dat IEMAND anders zoals in jou geval iets doet wat niet mag.
In het eerste geval is het de persoon zelf die het veroorzaakt in jou gevallen een derde persoon.

Situatie 1 is Darwin award waardig.
Situatie 2 en 3 niet.
Ik reageerde op:
Maar het is een bekend gegeven dat als mensen de mogelijkheid wordt gegeven om iets te doen en het alleen maar op papier wordt verboden men toch gebruik maakt van de mogelijkheid.

Tja, een zeker gevoel van zelfbehoud is op het vlak van evolutie en het voortbestaan van onze soort een essentieel iets gebleken.

Als sommige mensen daar niet voldoende van hebben, schaar ik het onder 'natuurlijke selectie' als ze daardoor het loodje leggen. Weinig compassie mee. En je doet ook maar, zolang je niemand anders meeneemt in het graf/ziekenhuisbed.
Ik lees de bestuurder zijn dood is natuurlijke selectie, eigen schuld, of begrijp ik dat verkeerd.

Als we het over natuurlijke selectie hebben hebben wij mensen daar al heel lang een stokje voor gestoken omdat je als mens opgevoed bent met bepaalde ethiek. Tenminste dat is de bedoeling als je samenleeft. Dat betekend ook dat je mensen beschermd tegen domme dingen.
Deelnemen aan een samenleving en geaccepteerd worden door soortgenoten is evenzeer een zeer belangrijke evolutionaire factor gebleken in het voortbestaan van een (dier)soort. Dat valt dus ook gewoon weer onder 'zelfbehoud'.

Daarbij zijn je 2de en 3de voorbeeld een beetje stroman-argumenten. Je mag in onze maatschappij toch stilaan wel verwachten (maar niet aannemen) dat je om 5 uur 's ochtends even door het park kan gaan joggen zonder aangerand te worden? Zo'n verkrachter of overvaller is ook een relatief buitengewone situatie - ik wil het niet minimaliseren maar zowat iedereen rijdt met de auto, iedereen moet naar werk/school/whatever. Schijnbaar kunnen 99% ofzo van de Tesla rijders zich blijkbaar wel weerhouden van zich te laten afleiden.

Als je er dan hebt, die, na alle nieuwsberichten over Tesla ongevallen met slapende bestuurders (en Tesla-rijders zullen dit nieuws waarschijnlijk eerder opmerken dan Nissan of Toyota-bestuurders), ALSNOG denken dat zoiets hen niet kan overkomen?

Nee, daar heb ik niets mee. If anything: Good riddance, spijtig van de Tesla.

[Reactie gewijzigd door Tokkes op 22 juli 2024 17:23]

Ja, technisch gezien is het de schuld van de bestuurder. Maar het is een bekend gegeven dat als mensen de mogelijkheid wordt gegeven om iets te doen en het alleen maar op papier wordt verboden men toch gebruik maakt van de mogelijkheid. Vergelijkbaar met wetgeving, zonder handhaving betekenen veel wetten maar zeer weinig.
Als je niet de discipline op kunt brengen om je met één ding tegelijk bezig te houden, moet je misschien niet gaan autorijden? Het is namelijk niet alleen op papier verboden, in de praktijk kan het ook best vervelende gevolgen hebben, en niet alleen voor jezelf. Geldt overigens in het algemeen voor automobilisten. :)
Tja dat is een hele andere discussie want volgens die redenatie mogen sowieso hele volksstammen niet autorijden. Het punt is wel dat auto pilot je nog meer mogelijkheden geeft om de aandacht te laten verslappen omdat het zoveel van je overneemt. Uiteraard is de bestuurder verantwoordelijk, neemt niet weg dat mensen in het algemeen erg slecht zijn met verantwoordelijkheid bewust nemen. Sterker nog, een groot gedeelte van de wetten, regelgeving en de handhaving daaromheen zijn zaken waarvan je kan zeggen "mensen moeten gewoon de discipline op kunnen brengen om". Als het gaat om verkeer heeft hier ook een aardig filmpje die ingaat op een gedeelte van het waarom.

In het geval van auto pilot is het zo dat je in principe je handen aan het stuur moet houden en moet blijven opletten. Maar zelfs als de bestuurder niet op zijn telefoon een spelletje zit te letten vind ik het knap als de gemiddelde persoon nog echt alert is en kan acteren op onverwachte zaken als de auto pilot het meeste werk doet tijdens een lange rit.

Als het systeem nog niet compleet genoeg is om volledig autonoom te rijden en tegelijk niet genoeg doet om de bestuurder betrokken te houden bij het verkeer dan zit er wel degelijk een gat in de implementatie van het systeem.

In het kort, ja wederom technisch gelijk want discipline is belangrijk hier maar tegelijk negeert dat simpelweg menselijk natuur.
Tja dat is een hele andere discussie want volgens die redenatie mogen sowieso hele volksstammen niet autorijden.
Dat vind ik dan ook. 😇
In het kort, ja wederom technisch gelijk want discipline is belangrijk hier maar tegelijk negeert dat simpelweg menselijk natuur.
Dat snap ik wel hoor. Alleen als bekend is dat veel mensen nogal snel afgeleid zijn, is het dan handig "de kat op de 120km/u rijdende spek te binden" - ik weet het niet. Het is natuurlijk een ontwikkeling (autonoom rijdende auto's) die niemand tegen gaat kunnen houden en dat hoeft ook helemaal niet, deze fase vind ik alleen soms best eng. :)
Het is natuurlijk een ontwikkeling (autonoom rijdende auto's) die niemand tegen gaat kunnen houden en dat hoeft ook helemaal niet, deze fase vind ik alleen soms best eng.
Volgens mij zijn we het dan ook met elkaar eens. Juist bij deze fase is het van belang dat ook in de tussenliggende fases naar autonoom rijden het veilig blijft of minimaal niet minder veilig wordt. Bij Tesla krijg ik persoonlijk de indruk dat op dit gebied er relatief weinig aandacht voor is geweest juist omdat het maar als een fase wordt gezien waar men zo weer voorbij is.
Je ziet hier ook dat het voor een deel de schuld is van de wegbeheerder.
Er zijn hier op dit punt 12 ongelukken gebeurd.
Dat betekent dat de weg zelf gewoon gevaarlijk is.
Betere belijning en duidelijker signalering zouden helpen.
Ook zou achter de veiligheidsbarriere niet meteen een platte betonnen wegscheiding moeten staan maar een zachtere wegscheiding.
Ik denk dat het vooral een waarschuwing is naar de toekomst dat naar mate auto's meer gaat vertrouwen op automatisering dat de kwaliteit van wegen ook naar een hoger niveau zal moeten.

En specifiek hier is een situatie waar al 11 eerder ongelukken gebeurd zijn toch wel een teken aan de wand dat de verkeerssituatie niet overzichtelijk/veilig is.

Het lijkt me potentieel ook wenselijk dat bedrijven met semi-autonome auto's als Tesla informatie verzamelen en delen met wegbeheerders over onveilige situaties adhv gegevens uit auto's die regelmatig met deze situaties van doen hebben.

[Reactie gewijzigd door TWyk op 22 juli 2024 17:23]

Dit slaat nergens op. Ook vooraf was het belang van alle dingen die @TWyk noemt al bekend. Maar door nalatigheid van de beheerder waren deze maatregelen niet op orde. Kennelijk waren 11 eerdere ongelukken ook nog steeds niet voldoende voor de beheerder om de urgentie in te zien.
Helaas is dat in amerika nogal moeilijk. Het is een enorm land.
Het blijft een hulpmiddel dus gamen ipv op de weg letten is niet de manier om een auto te besturen.
Maar dat is nu net het probleem van autopilot. Wat moet je doen terwijl je autopilot opstaat? Het is gemakkelijk te zeggen dat je moet opletten maar als je al een jaar met die auto rijdt en dat altijd vlot gaat verlies je op de duur het besef dat je moet opletten.
Precies, dus dan is de conclusie dat de techniek niet deugt als dat leidt tot verslapping van aandacht bij de bestuurder.
Het gevaar schuilt hem in het vertrouwen van de techniek. Het gaat (heel) vaak goed, "dus kun je best een spelletje spelen" is de gedachte. De desastreuze gevolgen worden niet overzien. Hetzelfde geldt voor appen op de fiets.

Daar moet ik wel bij zeggen dat ik benieuwd ben naar de kansberekening dat het fout gaat, en hoe die staat tov ander vervoer zoals handmatig auto, bus, trein, enz. En daar kun je ook nog onderscheid maken. Per land, snelheid verkeer, level van automatische piloot, enz.

Wat je vaak ziet bij een nieuwe techniek is een gebrek aan wetgeving. Die loopt (per definitie) achter de feiten aan. De touchscreen smartphone was bijvoorbeeld al 10 jaar gemeengoed voor het verbod op appen met de fiets werd ingesteld.
Je kan zeker een kansberekening maken en die zal uitwijzen dat deze deels autonome systemen zeker een grote verbetering zullen zijn.

De vraag is en blijft echter hoe snel moet je deze systemen invoeren en hoe je misbruik actief kan voorkomen. Heb het hier al meer geschreven. We staan pas aan het bgin met deze systemen, je ziet ze in steeds meer auto's en over 5 jaar zullen deze level 2 of 3 systemen ook in goedkopere auto's voor de massa zitten. Als deze hulpsystemen dan toch misbruikt kunnen worden om deels autonoom te rijden zal de ellende pas goed beginnen. Veel mensen zullen het proberen, het is handig, risico is klein dus doen.

De vraag blijft dus mag je ondank een betere kansberekening toch niet eisen dat de systemen meer veiligheden tegen misbruik inbouwen. Een mensenleven blijft een mensenleven ondanks de statistieken.

Het is ook ethisch niet te verkopen om te zeggen laten we nu maar experimenteren, hup nog 500 extra doden de komende jaren maar daardoor leren we sneller waardoor we op termijn minder doden hebben en die 500 maar opgeofferd moeten worden.
Het is ook ethisch niet te verkopen om te zeggen laten we nu maar experimenteren, hup nog 500 extra doden de komende jaren maar daardoor leren we sneller waardoor we op termijn minder doden hebben en die 500 maar opgeofferd moeten worden.
Klopt, maar dat experimenteren gebeurd in dat vrije veld "omdat het kan" en "omdat er geen regelgeving is". Er hebben ook eerst heel wat verkeersongevallen moeten gebeuren voor smartphonegebruik op de fiets verboden is geworden. En dan hebben we het nog niet eens over de handhaving. Het spijtige is dat er sprake is van "collateral damage" bij de early adopters. Het is hierbij wel de vraag hoeveel dat er concreet zijn, en hoe groot de schade is (er is een verschil tussen tijdelijk gewond zijn zoals gebroken arm vs verkeersdode).

Er is niet echt een goed alternatief. Het alternatief is namelijk om al die innovaties maar te verbieden (al dan niet in het openbaar).
Een mensenleven blijft een mensenleven ondanks de statistieken.
Nou, ook dat is relatief. Schijnt dat de NL overheid tot een miljoen EUR losgeld wil bieden in geval van ontvoering. Dus weet je ook meteen wat je waard bent.

[Reactie gewijzigd door Jerie op 22 juli 2024 17:23]

Het alternatief is niet innovaties verbieden maar er wel voor te zorgen dat er duidelijke regels zijn qua veiligheid waar ze aan moeten voldoen.
In dit geval lijkt het me vrij eenvoudig een camera in de auto te hebben die kan zien wat een bestuurder doet. Blik op de weg is tracken van de ogen, gezicht, idem handen aan het stuur. Zelf het herkennen van telefoon in je hand moet niet zo moeilijk zijn.
Blijkbaar lokt de autopilotfunctionaliteit bij sommige bestuurders wel uit dat ze ff wat anders kunnen doen dan op de weg letten. Alle partijen moeten hiervan leren en hun systemen aanpassen. Ongelukken kunnen we niet voorkomen, hoe we ermee omgaan wel.
Achter het stuur op je telefoon gamen is in mijn ogen wel echt iets anders dan "ff wat anders doen".
Als je op de snelweg op onderzoek gaat waar nou dat stukje augurk is gebleven dat net tussen je Big Mac uit is gevallen, kan je zomaar 3sec je ogen *niet* op de weg hebben.

Die 3 sec staat zomaar gelijk aan 100m rijafstand, waarin vanalles kan gebeuren.
Niet actief opletten, ook 1 sec, kan op dergelijke snelheden snel een serieus probleem worden.

Overigens maak ik zelf (soms) ook gebruik van de autopilot in een Tesla en vind ik het qua functie best OK dat het bestaat. Heel af en toe gebeurt het dat dat er toch een correctie volgt, die door de autopilot een fractie eerder wordt gezien/afgehandeld dan ikzelf zou kunnen. Aan de andere kant geloof ik ook wel dat de autopilot juist wat meer passief gedrag uitlokt als het gaat om 'actief rijden'. Bottomline: het systeem is gewoon niet idiot proof en daar mag beter voor gewaarschuwd worden wat mij betreft.
True maar het gaat erom dat bestuurders denken dat ze ermee weg kunnen komen. Verwachtingsmanagenent dus en daar moet wat aan gedaan worden.
Dat gebeurt al decennialang met drank en verkeer: ook daarvan worden met (bijna) jaarlijkse campagnes duidelijk gemaakt dat men niet de verwachting moet hebben met drank op even goed te kunnen reageren als zonder drank.
Desondanks rijden er jaarlijks tientallen figuren zichzelf en anderen aan flarden met een flinke slok op. ;(

We zitten in een overgangsfase tussen zelf rijden en volledig autonoom rijden. Dat zal nog wel een aantal jaren duren en tot die tijd zullen er dit soort ongelukken gebeuren omdat mensen domweg niet begrijpen dat we nog geen echt autonoom rijdende auto's hebben.
Je wordt als bestuurder van een auto geacht om volwassen te zijn en je volwassen te gedragen. Deze bestuurder was bekend met de technische specificaties en limitaties van het rijhulp-systeem en zat desondanks als een klein kind spelletjes te spelen op een mobiele telefoon.

En nu ga ik speculeren, maar waarschijnlijk deed hij het niet niet eens "omdat het kan", want ik zou meteen wagenziek worden, maar vooral omdat andere mensen het dan kunnen zien.

Prima dat dit soort hulpsystemen beter worden en -ooit- volledig autonoom kunnen functioneren, maar zo lang het nog niet 100% betrouwbaar is ben je een volslagen debiel wanneer je het je eigen leven en dat van anderen toevertrouwt.

Mijn auto heeft ook veiligheidssystemen. Maar no way dat ik op een woonerf met mijn mobieltje ga spelen omdat ik erop vertrouw dat 'ie toch wel automatisch remt als er een kind op de straat springt.
Bij anderen is due drempel blijkbaar lager en hoe debiel ook, autopilots moeten ook bij gebruik door debielen zo min mogelijk gevaar opleveren.
Als hij jouw partner of kind schept piep jij wel anders.
Problemen oplossen met mensenlevens serieus ?

Tot het geen eenzijdige ongelukken meer betreft maar er andere slechtoffers vallen of jij meerijd op de achterbank en dan slachtoffer bent.
Auto-pilot heeft niet tekort geschoten. Auto-pilot is namelijk niet bedoeld om te gebruiken zonder zelf toezicht te houden. Zonder Tesla fan te zijn vind ik dat een nogal essentieel onderscheid; het is nooit in de markt gezet als systeem dat volledig autonoom is. Zover is het systeem simpelweg nog niet.
Maar het wordt wel "autopilot" genoemd. Ik denk dat minstens driekwart van de bevolking daar een bepaalde invulling aan geeft en dit verwachtingen kweekt.

Voorstel: we noemen het vanaf nu copilot :Y)
Dat lijkt me een slecht idee aangezien een Co-pilot heel wat capabeler is dan een autopilot...
Auto-pilot deed veel te weinig volgens te NTSB om te voorkomen dat mensen het voor andere doeleinden gebruiken. Dat is onder andere de bevinding. Hier moet Tesla dus iets aan doen.
Ik vind juist dat we moeten leren van dit soort rapporten, dat de autopilot hier mogelijk te kort heeft geschoten. Dit moet worden door ontwikkeld om de veiligheid van auto's hoog te houden.
Daarnaast blijft het een discussie punt (wat goed is dat we het erover hebben). Wat we wel en niet mogen doen achter het stuur tijdens bijvoorbeeld een autopilot.
Helemaal mee eens, de discussie moet zo neutraal mogelijk zijn, en van de fouten toen moet geleerd worden. Zowel fouten van Tesla als van de bestuurder!

Wel een punt is wat de exacte omstandigheden waren, zoals bijvoorbeeld welke hard- en software versie van AP werd gebruikt. Het gaat om een ongeluk nu 2 jaar geleden, in de tussentijd is AP flink doorontwikkeld en veranderd.
Ik heb laatst ook iemand rustig een krant zien uitvouwen in een Tesla model 3 in de rechter rijbaan van de A1 om en nabij afslag hoenderloo.

Auto had moeite met baan vast te houden leek alsof hij gezopen had.

We zijn nog niet op het niveau dat zelfrijdende auto's dit zelfstandig kunnen.
Hier moeten we echt op gaan waken tot de technologie op lvl5 autonomie zit
Tot de techniek op level 5 zit zijn alle systemen hulpsystemen en moet misbruik als autonoom gebruik niet mogelijk zijn. Dat betekend actieve controle handjes aan het stuur, blik naar voren. Camera in de auto met beetje software lijkt me niet zo moeilijk om dat te bereiken.

[Reactie gewijzigd door bbob op 22 juli 2024 17:23]

Fair enough, prima punt volledig mee ens.
Dit moet worden door ontwikkeld om de veiligheid van auto's hoog te houden.
Niemand heeft beweert dat de ontwikkeling af is. Niemand heeft beweert dat autopilot, of enig ander hulpmiddel van welke fabrikant dan ook, zo goed is dat je spelletjes kan spelen tijdens het autorijden.
offtopic:
Hetzelfde geld voor autocorrect van bijvoorbeeld telefoons. Ze zijn goed, maar niet zo goed dat als een correctie van ‘doorontwikkeld’ naar ‘door ontwikkeld’ wordt voorgesteld, je deze blind moet vertrouwen. Je hebt zelf ook verantwoordelijkheid

[Reactie gewijzigd door 84hannes op 22 juli 2024 17:23]

Probleem is echter dat er te weinig actieve controlesystemen zijn om te voorkomen dat je het systeem anders kan gebruiken waardoor je toch spelletje kan spelen.

Tot level 5 zijn alle systemen hulpsystemen, niets meer niets minder. Tot die tijd moeten de hulpsystemen controleren dat je ten alle tijde handen aan het stuur en blik op de weg hebt.
Er van leren is prima en dat doet Tesla echt wel want zij hebben er belang bij om hun concurrentie voor te blijven.

Ik vind het echter raar dat de NTSB Tesla (en Apple als werkgever) enigszins verantwoordelijk stelt voor het feit dat de bestuurder zich af liet leiden. En dat de rimpelbuisobstakelbeveiliger niet herkend wordt... een anti-bots-systeem is niet perfect. De meeste auto's op de weg hebben niet eens een dergelijk systeem. Het is dan raar dat wanneer je het wel hebt, dat je dan verantwoordelijk wordt voor het geval het systeem een situatie niet herkend

Dat gezegd te hebben, als advies is het goed.
Ik vind het echter raar dat de NTSB Tesla (en Apple als werkgever) enigszins verantwoordelijk stelt voor het feit dat de bestuurder zich af liet leiden.
Waarom is dit vreemd, ze zijn toch verantwoordelijk? Bij een ongeluk zijn er gewoonlijk meerdere oorzaken, niet alleen 1. Om een ongeluk te voorkomen zijn er dus vaak meerdere dingen mis gegaan. Te vaak wordt er gedacht dat er maar 1 "root cause" is. Er zijn er vaak meerdere.

Oftewel, ja, de persoon lette niet op. Maar daarnaast liet Tesla dat prima toe. Plus werkgever welke geen regels eromheen had. Allemaal meerdere mogelijkheden om een ongeluk in de toekomst te voorkomen of de kans op een ongeluk kleiner te maken.

Meerdere reacties op dit artikel doen net alsof maar 1 ding aangepakt zou moeten worden. Of zoiets als "had de bestuurder maar op moeten letten". Erg jammer, ik ben toch echt blij dat indien ik een foutje maak in het verkeer (b.v. auto over het hoofd gezien) de meeste mensen gewoon voor je compenseren.
En hoe zit dat dan met een auto zonder autopilot-achtige functionaliteiten? Ook daar kan iemand met 1 hand aan het stuur whatsappen. Elke autofabrikant kan daar sensoren en intelligentie inbouwen om de bestuurder te waarschuwen. Er is tegenwoordig een heleboel mogelijk, maar ik vind het dan raar om fabrikanten selectief te gaan verwijten dat ze deze mogelijkheden niet optimaal te hebben geïmplementeerd.

Meerdere zaken aanpakken, ja, natuurlijk. Maar verwijtbaar zijn alleen de bestuurder en de verantwoordelijken van het mogelijk defecte rimpelbuisobstakelbeveiliger (wat een woord...).
Waarom wil je überhaupt afhankelijk zijn van een geautomatiseerd systeem? Je kan beter zelf goed opletten
Jaren geleden (echt lang geleden) had ik ooit een discussie met iemand die maar niet kon snappen dat je zou willen vertrouwen op een ABS-systeem. Echte automobilisten remmen zelf altijd beter dan een computer.

Mijn schoonmoeder vertrouwt ook de thermostaat in de huiskamer niet. Ze draait nog altijd regelmatig aan de knoppen om de temperatuur constant te houden.

En mijn achteruitrijradar heeft me toch al veel kleine ongelukjes bespaard.
Ik rijd met een Tesla en ik heb de Full Self Driving package. Het probleem is dat mensen denken dat het een level 5 FSD systeem is en niets is minder waar, hoogstens level 3. Dus als je denkt dat jouw Tesla helemaal alleen gaat rijden en jou wakker maakt wanneer je bent aangekomen dan denk je verkeerd. Het systeem is een assist, dus je moet blijven opletten. Mensen die crashen en zeggen dat de autopilot niet goed werkt hebben zelf de fout gemaakt, niet goed opgelet.
Full Self Driving package zou in de toekomst toch echt richting level 5 FSD moeten gaan. Die toezegging heeft Musk gedaan echter is de update daartoe nog niet uitgerold. De hardware is er, de software nog niet.
Level 5 FSD is een droom die misschien nooit zal waar worden, of het duurt nog op zijn minst 10 jaar. Het probleem is dat de software nog moet ontwikkeld worden. En de hardware, die zal ook wel nog verbeterd moeten worden. De manier waarop mensen rijden, dat kan de dag van vandaag geen enkele computer nadoen en geloven dat dit de volgende jaren zal gebeuren is volgens mij een sprookje. Binnen dit en 10 jaar zitten we hoogstens op level 4. En dan mag de software en hardware het toelaten, de weginfrastructuur zeker niet. Bv. een stoeprand kan mijn Tesla niet zien of een voetganger die af en toe in beeld komt en dan weer verdwijnt. Of er komt een voetganger in beeld terwijl er geen voetganger is. Tijdens het rijden in de regen plots geen zicht meer op de camera, auto dus blind, etc. Ik kan zo nog lang doorgaan. Het systeem is leuk en doet al heel wat maar level 5 is nog steeds een droom.
Je hebt helemaal gelijk. Level 5 vraag nog veel meer van de hardware, d.w.z als je het echt level 5 wil hebben. We hebben nu radar, laser camera's. discussie over wat wel en niet zinvol is.
Wat is bijv mis is thermisch infrarood, nu nog te duur. Hiermee heb je een warmtebeeld en kun je dus ook in het donker herkennen of een obstakel levend is of vast.
Zo zijner nog veel meer zaken waarmee software en hardware rekening moeten houden. Ik vraag me dus ook af hoe lang echt level 5 nog zal duren. Laat die level 5 maar eens los in grote steden als Parijs, milaan. Op rotonde 4 breed staande auto's om dan naar 2 breed te gaan.
Je zegt het juist het is level 3 geen level 5.
Maar door gebrekkige controle kan het dus wel zo misbruikt worden. De mens zal altijd zoeken naar hoe kan ik het toch zo gebruiken. Dan kun je zeggen eigen schuld, nee dat zit in veel mensen. Daar moet je dus rekening mee houden en nog meer veiligheden inbouwen dat het zo niet gebruikt kan worden.

We staan daarbij pas aan het begin, level 5 is nog ver weg. Zal ook eerst in duurdere auto's komen, de level 2 3 4 zullen hun weg vinden naar goedkopere auto's. Dat begint nu pas heel langzaam. Straks rijden er miljoenen auto's met level 2 en 3 systemen rond. Als die dan toch misbruikt kunnen worden om autonoom te rijden, zul je zien dat het aantal ongelukken veel groter zal gaan worden.
Anoniem: 1304886 @Arnie9726 februari 2020 14:52
Nee het is hypocriet, als een ICE auto crasht kraait geen haan naar maar dit soort electrische auto's en dan voornamelijk trekt extra aandacht in de media en de media bericht er graag over waardoor het lijkt alsof het erger is dan het is.

Je ziet nu dus dat bij een crash het word behandeld als een vliegtuigcrash en er dus bij iedere crash met een Tesla er veiligheidsaanbevelingen of zelfs bevelen worden gedaan.

Dat betekent dus dat dit soort auto's bij iedere crash veiliger zullen worden, als ze dat nou de afgelopen 100 jaar bij ICE auto's hadden gedaan zou je wereldwijd op bijna nul doden zitten inmiddels.

Maar vreemd genoeg worden doden bij een ongeluk met een ICE auto gewoon voor vanzelfsprekend aangenomen. 8)7
Probleem is dat deze systemen de indruk wekken autonoom te zijn, ook al zegt de fabrikant dat het niet zo is. Toch kunnen ze zo misbruikt worden.
Extra systemen om dat te voorkomen had men al lang kunnen inbouwen, kosten geld, maken het duurder dus ach dan maar disclaimer en hup we gebruiken de mens als testpersoon.

Natuurlijk wordt er uit geleerd dat klopt. Dit had je echter kunnen zien aankomen. Mensen zijn mensen en als een systeem ander gebruikt kan worden zullen ze dat doen. Dat is ondertussen al keer op keer bewezen en had je kunnen weten. Je moet daar in de ontwerpfase dus al rekening mee houden. Door dat niet te doen neem je bewust een risico, een risico met mensenlevens.

Telsa doet alles snel snel snel en ook systemen die misbruikt worden als autonoom geven een schat aan data voor tesla. Data waar ze inderdaad van kunnen leren. Maar wel data waarbij men bewust mensenlevens als risico heeft ingecalculeerd. Ethisch kun je er dus zeker hele grote vraagtekens bij stellen.

Maar ICE heeft trouwens weinig te maken met dit probleem. Ook op ICE auto's kom je deze systemen steeds meer tegen en zullen ook daar dezelfde problemen optreden als ze actief misbruikt kunnen worden.
Anoniem: 1304886 @bbob26 februari 2020 15:57
Als men het zogenaamd "langzaam" had ontwikkeld en er pas in 2040 mee was begonnen waren er in de beginfase ook doden mee gevallen.

Dit is allemaal hindsight, er moet hoe dan ook van geleerd worden hoe autonoom het systeem ook is.

Men geeft nu de schuld aan Tesla maar in het artikel staat dus dat de wegbeheerder ook wat te wijten valt.

En de mensenlevens die gered worden door autopilot hoor je niemand over, want die zijn er echt wel.

Misschien red autopilot wel vele malen meer mensenlevens wat je nooit te horen krijgt, je hoort alleen maar de negatieve verhalen omdat de media daar graag over bericht.
Grappig hoe je voorzichtig meteen gaat uitdrukken in 2040, dat is dus totaal belachelijk maken wat je hiermee aan het doen bent.

Autopiloot of laten we liever ondersteunden systemen zeggen om de juiste worden te gebruiken zullen zeker actief bijgedragen hebben om slachtoffers te voorkomen.

Dat neemt echter niet weg dat deze level 2 of 3 systemen actief misbruikt kunnen worden. Deze systemen zitten nu op een heel klein deel van de auto's. Ze zullen naar goedkopere modellen komen. Als ze daar net zo als in dit voorbeeld misbruikt kunnen worden zullen de problemen alleen maar groter worden.

Waar het dus om gaat is dat deze systemen niet actief misbruik kunnen worden als autonome systemen.

Je verhaal over mensenlevens. Heel leuk maar dan kom je op het punt ethiek. Tesla weet heel goed dat deze systemen misbruikt worden om autonoom mee te rijden. Het geeft ze ook een schat aan data. Data die mensenlevens kost. Data die ook mensenlevens kan redden. De ethische vraag is dus mag zo zo een bedrijfsmodel hebben als je weet dat systemen misbruikt worden dat levens kan kosten maar met die data ook mensen kan redden. Speel je dan niet voor god ?
Anoniem: 1304886 @bbob29 februari 2020 17:00
Tuurlijk niet, als je dit soort systemen ten twijfel trekt dan zou je veel eerder smartphones moeten bekritiseren.

Anders ben je extreem hypocriet bezig.

Het is wel dweilen met de kraan open als je hulpsystemen als autopilot in twijfel trekt maar smartphones die juist de bestuurder afleidt totaal niet meeneemt in je overweging.

Way schiet je dan op?
NTSB neemt smartphone toch mee in haar overwegingen, d.w.z het bedrijf had geen policy voor gebruik in een auto. Een smartphone moet eerst weten of de eigenaar ook bestuurder is, immers zit jij er naast kun je gewoon op je smartphone bezig zijn. Locatie / gps moet altijd aan staan.

Het is niet dweilen met de kraan open, het is heel duidelijk hulpsystemen zijn hulpsystemen, als je die hulpsystemen kan gebruiken/misbruiken als autonome systemen zoals hier het geval is, ja dat is er een probleem. Een hulpsysteem moet zo beveiligd zijn dat het niet als autonoom systeem gebruikt kan worden.
Sorry maar dit probleem wordt juist veroorzaakt door regerings beleid, Juist door het half toestaan van autonoom en het inperken van full autonoom krijgen we nu systeemen die net niet alles mogen doen en afhankelijk zijn van de mens achter het stuur, maar die is druk met andere dingen bezig omdat hij half autonoom rijd.

Laten we gewoon zo snel mogelijk naar full autonoom gaan maar dan wel met fatsoenlijke bedrijven als Tesla en Wymo die serieuse autonoom rijden maken en niet met budget versies als die van Uber en waarschijnlijk in de toekomst andere merken die een goedkoper alternatief aan gaan bieden.

En zelfs dan nog als een autonoom systeem moet willig 100 man per jaar dood en aan de andere kant 1000 doden door verkeers ongelukken voorkomt moeten we ons afvragen wat beter is.

Als we niet iets achter het stuur willen dat mensen ombrengt in het verkeer moeten we JUIST de mensen niet laten rijden die heeft nl bewezen een maloot in het verkeer te zijn en een expert in het ombrengen van zichzelf en anderen op de weg dus die moet dan ook zo snel mogelijk een verbod krijgen om te rijden.
Ik vind juist dat we moeten leren van dit soort rapporten, dat de autopilot hier mogelijk te kort heeft geschoten.
Dat klopt maar zoals hier vaak genoeg vermeld wordt was autopilot niet de enige factor in dit ongeluk. Nu kun je alle blaam daar neerleggen maar ga je dan ook alle andere cruise control systemen verbieden? Daar kan dit ongeluk ten slotte ook mee gebeuren. Het systeem zelf geeft altijd aan dat je zelf op moet letten. We hebben het hier over een Level 2 systeem waarbij je heel vaak wordt gewaarschuwd dat je zelf op moet letten.

Dit moet worden door ontwikkeld om de veiligheid van auto's hoog te houden.
Een 100% veilig systeem bestaat niet. Hoe ver moet het door ontwikkeld worden om volgens jou veilig te zijn? Tweemaal zo veilig als een menselijke bestuurder? Want dat zijn we al gepasseerd.. Het is een complex dilemma.

Daarnaast blijft het een discussie punt (wat goed is dat we het erover hebben). Wat we wel en niet mogen doen achter het stuur tijdens bijvoorbeeld een autopilot.
De wet (en autopilot voorwaarden en waarschuwingen) is hier prima duidelijk over. Gewoon opletten en handen aan het stuur. Daar heeft niemand volgens mij een discussie over?

Zolang wij ons in voertuigen met gigantische snelheden voortbewegen zullen er ongelukken en slachtoffers vallen. We denken dat we goede chauffeurs zijn maar ondertussen gebeuren er verschrikkelijke ongelukken. Deze systemen ontwikkelen zich op ongekende snelheden en zullen in de toekomst echt veel levens gaan redden. Wil je deze systemen dan nu wel gaan verbieden of sterk beperken? Levert dat niet enkel meer slachtoffers op in de toekomst? Het is echt niet zo dat autopilot systemen de eerste kans die ze krijgen je recht tegen een boom aan rijden.
Wat ik vooral vervelend vind:
Laat ik voorop stellen: Ik ben absoluut geen Tesla liefhebber/fanboy, maar...

Elk issue met zelfrijdende auto's (nu is dat een Tesla) wordt dit breed uitgemeten in de media... niet persé tweakers, maar ook andere media als: "Zie je wel..."
In het verleden met Google zelfrijdende voertuigen, dat me dit vooral opviel.

Tesla is geen lvl 5 autonoom systeem... dat zeggen ze zelf ook en daarom moet de bestuurder altijd paraat blijven.
Het probleem is hier dan ook niet de autopilot, maar de bestuurder die met z'n telefoon liep te !$#!@#%!$% (ik censureer mezelf maar even.)
Die barriere is natuurlijk ook een punt, maar als de bestuurder voor zich had gekeken, ipv als veredelde passagier in de auto zat, dan had dit voorkomen kunnen worden.

Dit is vooral mijn eigen kijk op het issue...
Wat moeten we er van leren dan?

Dat de Tesla autopilot eigenlijk geen autopilot is en ook niet als dusdanig wordt verkocht?
Dat de wegen beheerders het wegdek niet op tijd hebben gefixd?
Dat een Tesla niet in staat is om een "Rimpelbuisobstakelbeveiliger" te herkennen wat door een ander voertuig recentelijk compleet vernageld is en niet eens meer de vorm heeft van een "Rimpelbuisobstakelbeveiliger"
Dat Tesla schijnbaar schuldig is dat Apple zijn telefoons niet blokkeert tijdens het rijden?

Ik wil graag leren van wat er gebeurt maar een situatie als dit was gewoon te bizar voor woorden en verdient een darwin award voor het overleden persoon.
Wat we moeten leren is heel eenvoudig.

Deels autonome systemen zijn niet autonoom, het zijn hulpsystemen. Daar ze echter zo te kunnen gebruiken, hetgeen gebeurt is, heeft de bestuurder te veel vertrouwen gehad in het systeem.
Wat als het systeem zo was geweest dat hij wel handen aan het stuur had gehad en blik op de weg omdat het de autopiloot anders niet gewerkt had. Waarschijnlijk had hij wel kunnen ingrijpen en uitwijken en geen spelletje gespeeld op de telefoon.

De les is heel eenvoudig. Level 5 is volledig autonoom rijden, auto zonder stuur waar jij bijrijder bent.
Tot die tijd zijn alle systemen hoe je ze ook noemt niet autonoom, misschien deels maar moeten er veiligheden ingebouwd worden om er voor te zorgen dat je ze niet autonoom kan gebruiken.
Bij aanschaf van een tesla wordt dat duidelijk verteld dat het hulp systemen zijn maar dat de doel uiteindelijk is om level 5 te halen in de toekomst dus niet NU.
Er zitten druk sensors in het stuur maar men gaat dit moedwillig omzeilen door bijv. een tennis bal tussen de sensors te klemmen. Dat is een "mens" probleem en niet dat van tesla. Er zal altijd wel iemand zijn die de beveiligingen gaat omzeilen hoe complex je het ook maakt.

Zou zoiets zijn als het veiligheid van bruggen in twijfel brengen om dat iemand eraf sprong en dan gaan zeuren dat de brugbouwer in gebreke is geweest omdat hij geen net onder het gehele brug heeft geplaatst want stel je voor dat iemand eraf springt of aan het slaap wandelen is op de rand.
Teveel blind staren op darwin awards zorgt juist voor vertraging van het ontwikkeling.
Ik lees de typische reactie van een tesla aanhanger.

De ntsb is duidelijk dat tesla had moeten kunnen weten dat systemen misbruik worden. Tesla heeft niet voldoende veiligheden ingebouwd om dat te voorkomen. Je kan mensen van alles vertellen dat is geen excuus om je systeem actiever tegen misbruik te beveiligen.

Als de camera nu aan de buitenkant al van alles kan herkennen hoe moeilijk is het dan met 1 of 2 camera's de bestuurder te volgen. Heeft deze zijn blik op de weg, volgen van de ogen. Handen aan het stuur kun je ook met camera zien. Je kan met camera zelfs zien of hij een mobieltje in zijn handen heeft.
Waarom bouwen we die camera's niet gewoon op alle fietsen? Zo kan de fiets ingrijpen als een persoon een kruispunt oversteekt terwijl ie bezig is op facetime. Een fiets zonder camera is toch gewoon een veiligheid risico?
Je moet realistisch blijven met wat een gemiddeld mens zal doen en dat helemaal dicht timmeren.
Als iemand bezig is met een snijtafel waarbij de activatie knoppen dusdanig uit elkaar staan dat je onmogelijk met je hand onder het mes kan komen en jij gaat als een imbeciel 1 van de knoppen vast zetten zodat je maar 1 knop hoef in te drukken ga je dan ook stellen dat er toch camera's op dat snijtafel hadden moeten staan?
Die camera's hadden toch echt kunnen zien dat je de beveiliging heb omzeild en zou je hand hebben kunnen redden dus de fabrikant van de snijtafel is schuldig...

Tesla aanhanger? Geen idee het concept aanhanger is weer dat hokjes gedrag waar je laatst tegen uitsprak tussen links en recht politiek.
Ik vindt sommige dingen goed van tesla en sommige dingen slecht maar ik zal altijd proberen een objectieve kijk er op na te houden.
Realistisch is kijken naar het hoeveelheid ongelukken in totaal. De huidige auto's hebben verhoudingsgewijs een astronomisch hoger kans op een ongeluk dan een tesla en we gaan een vergrootglas zetten op een situatie waarbij de mens 100% schuldig is met zijn apple telefoon spelletje en bal tussen de stuur.

Wat gaan we krijgen in jou situatie met je camera's?
-Het kijkt naar het stuur voor handen dus iemand klemt er nep handen op uit de fop winkel.
-Ja maar je had toch een flir camera kunnen gebruiken om te zien of de handen nep waren.
-Men stopt een verwarming element in de nep handen.
-Dan kijken wij toch naar het gezicht van een persoon en de persoon hangt een beugel op met een printje voor de camera.
enz....
Niks valt dicht te timmeren. Hoe complexer het beveiliging des te complexer wordt de hack. Als er 1 ding is wat het gedrag van de mens duidelijk laat zien is dat wel het internet.
Realistisch gezien komen dit soort level 2 en 3 systemen straks naar heel veel meer auto's lees naar de goedkopere auto's. De kans op ongelukken bij misbruik van deze systemen zal dan alleen maar toenemen.

Dat er mensen zijn die proberen een systeem te omzeilen zit in de mens, de uitdaging. In diezelfde mens zit dan ook de uitdaging dat te voorkomen.

In jou voorbeeld. 2 Camera's en zie daar je hebt diepte, dus foto kun je vergeten.
Nephanden, kan maar wat als die camera dan je echte handen ziet, 4 handen oeps dat gaat niet.
Stapje verder als jij je schouders beweegt maar de nephanden aan het stuur niet, oeps foutje, autopiloot uit.

Wat jij en vele zich niet realiseren is dat deze systemen level 2 en 3 nu in een heel klein deel van de auto's zitten. Over 5 jaar zitten level 2 en 3 in heel veel meer auto's lees de massa. Tegen die tijd moet het idd heel moeilijk gemaakt zijn om deze level 2 en 3 en zelfs 4 als level 5 te misbruiken, dat is waar het om gaat. Dat gaat dus niet om tesla maar om alle merken.
De vraag is: waarom wordt er verwacht dat er extra beveiligingssystemen ingebouwd worden in Tesla's (en vergelijkbare auto's), terwijl de gemiddelde ICE auto tegenwoordig ook al bulkt van de elektronische snufjes?
Dan gelijke monniken, gelijke kappen: dus op alle nieuwe auto's dergelijke extra beveiligingssystemen.

Want vergis je niet: bij de vorige 11 (!) ongelukken die daar plaats hebben gevonden heeft de NTSB blijkbaar niet geconcludeerd dat er beveiligingen ontbraken. Hoeveel van die auto's hadden de cruise control aanstaan op dat moment en in welke mate hebben die bijgedragen?
Wat mij betreft maakt het ook niet uit ev of ice hulpsystemen moeten op alle auto's veiligheid ingebouwd hebben.
Kortom : Helemaal de schuld van de bestuurder, hij zat te gamen in de auto. Komop zeg, dan kan je Tesla (of elke andere fabrikant) wel aanvallen in je rapport, maar die bestuurder was gewoon levensgevaarlijk bezig. Ik voel het volgende negatieve Tesla bericht alweer aankomen... zucht!
Dit en dan ook nog:
Zijn telefoon was een iPhone en volgens de NTSB treft ook Apple enige blaam, omdat het bedrijf geen beleid had om het gebruik van mobiele telefoons tijdens het rijden te beperken.
Gaan we dan Coca Cola aanklagen voor het feit dat een gebruiker een flesje opendraait tijdens het rijden en iemand doodrijdt? Of McDonalds omdat iemand een hap van een hamburger neemt achter het stuur, terwijl hij een ongeluk krijgt? Of mogen we de gebruiker zelf ook nog een verwijt maken? Je moet mensen blijkbaar volledig bij de hand nemen en alle risico's uit het landschap verwijderen. Zelf nadenken en verantwoordelijkheid nemen is er niet meer bij.
De NTSB is zoals onze onderzoeksraad voor de veiligheid. De analyse die ze maken is niet zozeer eentje over de juridische schuldige, maar over wat er fout is gegaan en hoe het voorkomen had kunnen worden.
Als je ooit Air crash investigation kijkt dan zie je een vergelijkbaar patroon dat er gewoon meerdere oorzaken ten grondslag liggen aan dit soort ongelukken. Dus juridisch gezien is waarschijnlijk de chauffeur de verantwoordelijke, maar door fouten in de sw van Tesla en een kapotte rimpelbuisobstakelbeveiliger (3x woordwaarde) is er iemand overleden. En dat had gewoon voorkomen kunnen worden als waarschijnlijk al 1 van de aanbevelingspunten was geïmplementeerd.
Zeker omdat die functie er ook gewoon op zit (maar niet default aan):

https://support.apple.com/en-us/HT2080

(Ok, dit is gericht op afleiding door notificaties. Spelletjes spelen kan je natuurlijk gewoon doen ‘while driving’ )

[Reactie gewijzigd door Madthijs op 22 juli 2024 17:23]

Een telefoon blokkeren bij het rijden is niet te doen. Hoe moet de telefoon weten dat jij degene bent die rijd en niet een passagier bent? Is onmogelijk.
"Onmogelijk" is wat overdreven. Makkelijk algoritme is dat de telefoon die zich via bluetooth met de auto heeft gekoppeld wel van de bestuurder zal zijn. De uitzonderingen kun je wel afvangen met een UI actie op de telefoon, een "ik ben niet de bestuurder" knopje dus.
Nog makkelijker: Als de passagierstoel niet bezet is (en dat weet de auto meestal wel via de "gordel om" detectie) dan is de telefoon vrijwel zeker van de bestuurder.

Met wat software zou je de telefoon ook wel kunnen uitpeilen, dus bepalen of hij zich nabij de bestuurdersstoel bevindt.
"Onmogelijk" is wat overdreven. Makkelijk algoritme is dat de telefoon die zich via bluetooth met de auto heeft gekoppeld wel van de bestuurder zal zijn. De uitzonderingen kun je wel afvangen met een UI actie op de telefoon, een "ik ben niet de bestuurder" knopje dus.
En dan zal legio drukken op 'ik ben niet de bestuurder' en lost het nog niks op. Bovendien heeft mijn auto vaak mij en mijn vriendin tegelijk qua telefoon gekoppeld, en kan ik aangeven dat muziek via haar telefoon moet gaan, en hands-free bellen via de mijne. Dus dat is niet de oplossing.
Nog makkelijker: Als de passagierstoel niet bezet is (en dat weet de auto meestal wel via de "gordel om" detectie) dan is de telefoon vrijwel zeker van de bestuurder.
Auto's weten dat zelfs door een druk sensor. (Daarom begint ie te mekkeren als de passagier geen gordel om heeft, tenzij die stoel leeg is. Wat overigens irritant is als je iets vervoert met gewicht en de auto denkt dat iemand op de stoel zit.)

Echter zullen dan alle telefoon fabrikanten EN auto fabrikanten moeten samenwerken voor één protocol. En dan nog werkt dit niet als je een passagier hebt, want dan zal geen enkele telefoon in 'rijden' modus gaan. Dit zou enkel werken als je echt alleen in de auto zit.
Met wat software zou je de telefoon ook wel kunnen uitpeilen, dus bepalen of hij zich nabij de bestuurdersstoel bevindt.
Moah dat is lastig. Auto's kunnen met de autosleutel ook niet peilen waar de sleutel is, enkel of deze in of buiten de auto is. (Zodra de auto aan staat, en ik stap uit, dan begint ie te mekkeren).

Die 30 cm meer of minder ga je niet meten. Wellicht met Bluetooth 5, maar dan zou het weer enkel op een combinatie werken van de allernieuwste auto met BT5 en de allernieuwste telefoon met BT5. Als één van deze twee niet overeenkomt, werkt het al niet.

Dus voor nu zeg ik; onmogelijk om dicht te timmeren.
En dan zal legio drukken op 'ik ben niet de bestuurder' en lost het nog niks op. Bovendien heeft mijn auto vaak mij en mijn vriendin tegelijk qua telefoon gekoppeld, en kan ik aangeven dat muziek via haar telefoon moet gaan, en hands-free bellen via de mijne. Dus dat is niet de oplossing.
In jouw geval dus kijken naar de "bel" stand en niet naar de audio koppeling.

Het gaat hier om gebruiksvriendelijk maken, niet om waterdicht af te timmeren. Doel is om de verleiding te verminderen om toch naar 't ding te grijpen onder het rijden. Als je handmatig je telefoon in de "auto" stand moet zetten wordt 't niks, maar als dat automatisch gaat is het wel praktisch.
Echter zullen dan alle telefoon fabrikanten EN auto fabrikanten moeten samenwerken voor één protocol. En dan nog werkt dit niet als je een passagier hebt, want dan zal geen enkele telefoon in 'rijden' modus gaan. Dit zou enkel werken als je echt alleen in de auto zit.
Alweer: Het hoeft niet waterdicht te zijn, als het maar makkelijk en handig is. Als ik zo 's morgens om mij heen kijk zit de bestuurder in 99 van de 100 auto's alleen.
Moah dat is lastig. Auto's kunnen met de autosleutel ook niet peilen waar de sleutel is, enkel of deze in of buiten de auto is. (Zodra de auto aan staat, en ik stap uit, dan begint ie te mekkeren).
Autosleutel is een ander protocol.
Die 30 cm meer of minder ga je niet meten. Wellicht met Bluetooth 5,
Is prima te meten met looptijd, 30 cm is meer dan een clock-cycle van de BT/Wifi frequentie (2.4GHz). Reflecties in de auto zijn lastiger denk ik. Onmogelijk is het zeer zeker niet, en het heeft niks met het protocol te maken. Je hoeft niet eens te koppelen met een device om zijn locatie te kunnen peilen.

Een eenvoudige implementatie met signaalsterkte zou ook al kunnen werken.

Niks onmogelijk aan, kwestie van gewoon doen. Alle benodigde techniek is algemeen beschikbaar.
Uuh dan zet ik Bluetooth uit toch
Het toverwoord is (Reasonably) foreseeable misuse.
De AP werkt (te makkelijk) op plekken waar je het volgens Tesla dus niet moet gebruiken.
Daarnaast is de driver alertness detectie onvoldoende geïmplementeerd.
Daarnaast is de driver alertness detectie onvoldoende geïmplementeerd.
Is, of was? Voorheen moest je alleen je kans op het stuur hebben, daar werd dan ook misbruik mee gemaakt met een stukje techniek die je op het stuur klemt, waardoor de auto denkt dat je je stuur vast hebt.

Later zijn ze over gegaan op een klein beetje aan je stuur trekken, wat veel efficiënter is, lijkt me. Ja je kan met je knie een tikje tegen het stuur geven, maar dat betekend dus wel dat jij op die melding reageer die op het scherm verschijnt.
Ja, in Amerika wel, onder andere door de heersende claimcultuur daar :+
https://en.wikipedia.org/...v._McDonald's_Restaurants
Niet bij het handje, er staat immers beleid. En dat werk wel.

Als je werkgever duidelijk benadrukt dat het not done is om tijdens het rijden de telefoon te gebruiken en dus ook niet verwacht dat je uit de auto appt of mailt heeft dat wel een Positief effect. Ja niet op iedereen, maar gaat erom dat je als werknemer dan ook makkelijker kunt zeggen (En grenzen aangeven) dat je niet direct terug kan mailen want je zit wel eens in de auto.

Je doet (naar mijn mening) nu wat makkelijk over maar het gaat er niet om dat Apple een iPhone beschikbaar stelt of Coca Cola een drankje. Maar dat een werkgever een middel beschikbaar stelt (telefoon, auto, walky talky, whatever) zonder er over na te denken en duidelijk te maken of en wanneer het vanwege veiligheid niet of anders gebruikt kan worden.
Even muggenziften. Zo kun je nog wel even doorgaan. Indirect vergoed de werkgever het flesje cola misschien ook wel via een lunchvergoeding o.i.d. ''zonder er over na te denken en duidelijk te maken of en wanneer het vanwege veiligheid niet of anders gebruikt kan worden.". Maar nu ligt de bal ineens bij de werkgever, omdat die iets levert waarmee gewerkt kan worden, maar wat onveilig gebruikt zou kunnen worden door een werknemer? Dat zou toch van de zotte zijn?

Stel je voor dat je met je bedrijfswagen met 200 km/u door de bebouwde kom racet en een ongeluk veroorzaakt. Tja.. de werkgever stelt de auto ter beschikking. Hadden ze maar beleid moeten hebben dat je niet moet racen in de bedrijfswagen. Of had de fabrikant van de auto de snelheid maar moeten maximeren. Dan kun je wel beroepen op algemeen geldende snelheidsregels, maar dat geldt voor het gebruik van een mobiele telefoon achter het stuur (Tesla of niet) net zo.

Dat is gechargeerd, natuurlijk, maar kom op mensen. Gezond verstand? In theorie kan de Tesla heel goed zelf rijden op Auto Pilot, maar de praktijk is weerbarstiger en dat wéét je als eigenaar / bestuurder. Je hebt immers zelf waarschijnlijk dat Auto Pilot aangeschaft en dan weet je ook wat je koopt.

[Reactie gewijzigd door Frituurman op 22 juli 2024 17:23]

Tesla wordt hier geloof ik op zn vingers getikt omdat ze dus wel checken dat de bestuurder ook echt oplet, maar dat dus niet echt goed genoeg doen. Of die check nu wettelijk is of niet, autopilot mist gewoon dingen en Tesla heeft niet door dat de bestuurder op dat moment dan gewoon wat anders aan t doen is.
Gechargeerd, maar: als Tesla claimt met autopilot andere weggebruikers in de gaten te houden als alles met 30 meter per seconden beweegt kan het vast ook wel wat beter in de gaten houden dat de bestuurder er een beetje bij is. Ook mooi dat je met Sentry-mode een vandalist op camera zet, dan kun je natuurlijk ook een sort omgekeerde dashcam instellen die haarfijn vastlegt dat jij niet op zat te letten. Verkoopt natuurlijk niet lekker als het autorijden een soort controle van de computer wordt en het je eigen privcay betreft en niet dat van een vreemde.

Naja, altijd mooie discussies. Weet niet waar de grens licht maar het flesje cola is misschien geen gereedschap. Een telefoon of auto is dat wel, je gebruikt t voor uitoefening van je werk. Tuurlijk zit er een redelijkheid ergens in de wet. Maar dat gezonde verstand is naturlijk iets dat evolueerd, zie het whatsappen op de fiets, niet handsfree bellen achter t stuur, een gordel omdoen (mijn Opa vond dat ook maar onzin), etc. Dat was "vroegah" iets wat volgens het gezonde verstand van de meensten gewoon moest kunnen. Een conclusie getrokken zonder enige hinder van kennis of ervaringen natuurlijk.

Ohw, ff toegevoegd: qua Apple is het ook wel enigzins hilarisch dat er een "do not disturb while driving" modus op zit. En dat ze dan blijkbaar haar eigen personeel niet verzoekt dat ook te gebruiken.

[Reactie gewijzigd door Flo op 22 juli 2024 17:23]

Het gaat hier niet om de telefoon maar omdat hij bij Apple werkt, dus een ontmoedigingsbeleid.

Voor de rest kun je nog steeds een flesje cola openmaken achter het stuur zonder je ogen van de weg te halen.
Nee, dit ben ik niet met je eens.

Observaties in de echte wereld leiden er toe dat er ongelukken gebeuren wanneer mensen de autopilot functie gebruiken. Of dit er meer, of juist minder zijn is nu even buiten beschouwing (dat kan later nog wel). Het product is (blijkbaar) nog niet op het niveau dat mensen de controle volledig uit handen kunnen geven. Echter lijkt dat niet overeen te komen met de aandachtsspanne van (sommige) mensen wanneer ze slechts ten dele in controle zijn van het proces van het besturen van een auto.

Dat verdient belicht en onderzocht te worden, omdat het mogelijk om een fundamentele eigenschap gaat van het besturingssysteem, namelijk de mens. De rest van het besturingssysteem moet wellicht zo ontworpen worden dat er rekening moet worden gehouden met die beperking. En, ja, dat is de ontwerper van dat deel van het systeem mogelijk wel aan te rekenen.

Het gaat hier natuurlijk om zeer nieuwe technologie, en dit soort onvoorzienigheden zullen af en toe naar boven drijven. Dat is onderdeel van innovatie, en het risico dat zulke bedrijven en ook early adopters nemen.
Helemaal mee eens. De mens maakt fouten en binnen het systeem moet daarmee rekening gehouden worden. Of zoals de beschrijving bij een podcast van Tim Harford over dit onderwerp zegt:
Galileo tried to teach us that when we add more and more layers to a system intended to avert disaster, those layers of complexity may eventually be what causes the catastrophe. His basic lesson has been ignored in nuclear power plants, financial markets and at the Oscars…all resulting in chaos.
http://timharford.com/201...la-land-galileos-warning/
Waar je ook rekening mee moet houden is dat deze systemen nu in duurdere auto's zitten. Ze zullen level 2 3 straks ook in goedkopere auto's komen waar de massa er dus echt gebruik of lees misbruik van zal maken.
Dat men nu kritisch naar deze systemen kijkt is niet meer dan logisch. Voordat ze echt in massa gaan zoals abs of esp, airbags in iedere auto moet het een systeem zijn dat niet misbruikt kan worden.
Het is altijd grappig en voorspelbaar hoe er op een aanval op tesla gereageerd wordt. Het is nooit de schuld van tesla. Het artikel c.q de uitspraak van de ntsb is gewoon heel duidelijk.
Daarnaast stelt de NTSB op basis van verschillende onderzochte crashes vast dat de Autopilot van Tesla stelselmatig door bestuurders wordt gebruikt in omstandigheden waarvoor het systeem niet is bedoeld. "Ondanks de bekende limieten van het systeem, beperkt Tesla niet waar de Autopilot kan worden gebruikt", aldus de raad. Volgens de raad moet Tesla op dit punt veiligheidswaarborgen inbouwen.
Dit lijkt me gewoon heel duidelijk. Het systeem wordt misbruik voor iets waar het niet voor gebruik mag worden. Tesla weet dit en heeft niet voldoende waarborgen om misbruik tegen te gaan.

Je kan wel roepen alleen de schuld van een bestuurder, die krijgt ook deels schuld. Deels krijgt tesla ook schuld en dat is zeker ook terecht. Maar ja de tesla gelovigen met oogkleppen op accepteren geen commentaar op hun geloof en alles wat tesla doet is goed en de fout ligt altijd ergens anders.

Maar het thema misbruik van de systemen is al veel vaker naar voren gekomen. Tesla weet dit en doet er gewoon niet genoeg aan.
Wat zou Tesla er nog aan kunnen doen dan? In zeer drukke situaties krijg je nu al vrij vaak een melding, en als je de melding negeert gaat het systeem uit en kun je het ook niet meer aanzetten.
Je geeft het al aan systeem uit als je het misbruikt, dan moet je gewoon zelf rijden.
Schijnbaar is het systeem nog zo ingesteld (toen) dat het veel meer marge had voordat het zichzelf uitschakelde.
Ik weet eerlijk gezegd niet hoe het met meldingen zat voordat dit ongeval plaatsvond. Maar mijn vraag blijft, licht aangepast dan, wel staan: wat moet Tesla verder nog doen dan nu?
Wat tesla moet doen. Lijkt me duidelijk misbruik van de systemen echt voorkomen. Hoe ze dat moeten doen ? Musk heeft toch overal een antwoord op dus dat zal hierop op geen probleem zijn lijkt me.
Waarom zou je onder het rijden de optie moeten hebben om het stuur los te laten? Ik heb geen autopilot en ik moet onder het rijden mijn stuur continue vast houden. Ik vind het ook raar dat fabrikanten die optie inbouwen om het stuur los te laten voor 7 seconden lees ik hier.

Dat kunnen dus de 7 kritische seconden zijn waarin het net mis gaat.

Als je zegt dat het systeem niet geschikt is om zelf te rijden zonder dat de bestuurder mee oplet moet er ook geen mogelijkheid zijn om iets anders te doen.

Nu zijn er situaties waarin er zelfs Tesla's rond rijden zonder dat er iemand achter het stuur zit, en mensen die menen dat ze dronken in kunnen stappen want de Tesla rijd toch zelf.
Je kunt sowieso een spelletje blijven spelen op je telefoon en zo nu en dan even het stuur aanraken, dat is voor de auto genoeg. Maar moet Tesla dan camera's gaan inbouwen om de bestuurder in de gaten te houden?
Ja ze moeten camera's inbouwen om jou in de gaten te houden als dat misbruik van het systeem voorkomt. Dat zegt de ntsb toch eigenlijk ook dat de systemen niet misbruikt moeten kunnen worden.
Wederom onzin, mensen kunnen het nu al niet betalen, weet je wat zo een systeem in de auto gaat kosten?
jank jank jank.

Waar je bij stil moet staan is dat dit soort systemen altijd veel geld kosten in het begin.
In kleinere auto's zit nu ook standaard abs esp en airbag. 40 jaar geleden bij Mercedes in de S klasse koste het ook een vermogen.

Probleem is dat als deze level 2 en 3 systemen straks in de goedkopere auto's komen en ze misbruikt kunnen worden zullen er nog veel meer slachtoffers vallen.

Wat een extra camera gaat kosten, camera paar euro, aansluiten op het computer in de auto, beetje software en oeps 10.000 euro verder zeker.

[Reactie gewijzigd door bbob op 22 juli 2024 17:23]

Maar wil je dat dan ook doen bij gewone auto's? Waar daar wordt ook hetzelfde delict gepleegd, namelijk het gebruiken van een telefoon. Dat veroorzaakt zeker ook ongevallen.

Je kunt niet altijd alles maar platreguleren zodat de praktijk onbruikbaar wordt. Mensen moeten zelf ook eens wat verantwoordelijkheid nemen.
Telefoongebruik is verboden tijdens het rijden.
Maar heel eenvoudig gezegd in een auto zonder hulpsystemen zal het heel veel moeilijker zijn een spelletje te gaan spelen dan in een auto zonder deze hulpsystemen. Hulpsystemen die ook niet controleren of je wel handen aan het stuur en blik op de weg hebt.
jank jank jank.

Waar je bij stil moet staan is dat dit soort systemen altijd veel geld kosten in het begin.
In kleinere auto's zit nu ook standaard abs esp en airbag. 40 jaar geleden bij Mercedes in de S klasse koste het ook een vermogen.

....
Dus bij een Tesla moet het wel ook al is het duur, maar bij een andere auto hoeft het niet want dat is moeilijk? Er zijn zat goedkope auto's met rijhulpsystemen, dat is niet moeilijk.
En telefoongebruik is verboden tijdens het rijden, dat is nou net mijn punt. Tesla zegt ook dat je je aandacht erbij moet houden. Maar daar moeten dan extra maatregelen voor komen. In beide gevallen ben je dom bezig en moet de bestuurder verantwoordelijk worden gehouden.

Neemt niet weg dat autopilot zeker nog wat defecten heeft.
Heb ik gezegd dat het bij andere auto's niet moet ?
Waar het om gaat zijn hulpsystemen die indien misbruik als autonoom gebruikt kunnen worden. Welk merk dat ook is, het moet onmogelijk ge maakt worden.
Dat is toch wat ik zeg, waarom is het nu en dan het stuur aan raken genoeg? Gewoon twee handen aan het stuur, en niet los laten net zoals bij een normale auto. Je hebt als bestuurder de zelfde taak, dus mag je het stuur ook niet los laten en iets anders doen.
Dit is alleen bij ons in de EU. In Amerika kun je veel langer rijden op autopilot. Bij ons wordt er elke 7s gecontroleerd of je je handen aanwezig zijn op het stuur.
In de VS schijnt het dynamisch te zijn: is het druk op de weg of is het een complexe weg dan krijg je veel vaker een melding. Lastig om goed over te discussiëren zonder dat precies te weten :{
Als het dynamisch is lijkt het me dus al een probleem. Dan weet jij dus als bestuurder als het minder druk is, is de controle om misbruik minder.
Een systeem moet duidelijk zijn, gebruiken waarvoor het gedacht is, als ondersteuning van jou rijden, dus niet autonoom. Handjes aan het stuur, blik naar voren.
Hoeft niet zo te zijn; stel je rijdt vaak rustige wegen, dan word je minder vaak herinnerd, maar is het druk en is het risico groter dan valt je ineens op dat je wel vaak wordt herinnerd. Volgens mij is dit een goede manier om het te doen, maar goed, wetenschappelijk onderzoek is de enige manier om daar uiteindelijk achter te komen.
Klinkt leuk maar ook op een minder drukke weg kan er plots iets gebeuren. Als jij dan weet op minder drukke weg kan ik weg 10 seconden op mijn telefoon kijken en wat doen, zullen veel mensen dat gaan doen.
Verkeer en ongelukken hebben vaak te maken en plotselinge veranderingen, iemand die toch nog denkt over te kunnen steken. Niet voor niets moet je gewoon altijd handjes aan het stuur, blik naar voren hebben.
Klopt, maar de kans is lager, en ik gok dat de kans op onverwachte events gekoppeld is aan de frequentie van waarschuwingen.

Verder geeft Autopilot direct audio-waarschuwingen als er iets raars gebeurt en de gebruiker al even niet gedetecteerd is, dit kun je in meerdere video's zien.
Maakt niet uit of de kans lager is, systeem dat geen level 5 is moet niet dynamisch jou de mogelijkheid kunnen geven om iets anders te gaan doen.
Fijne rant tegen Tesla.

Maar laten we naar de basis kijken: het gaat om autorijden. Als je de illusie hebt dat je een spelletje kan spelen achter het stuur, kan Tesla duizend beveiligingssystemen inbouwen: dat soort domheid zul je nooit met techniek kunnen compenseren.

En nee, dat heeft niks te maken met fanboy-ism, maar met gewone Hollandse nuchterheid
De ntsb komt toch echt tot de conclusie dat er meer beveiligingssystemen moeten zijn. Ook jij speelt drama door meteen duizend systemen te roepen.

Tot level 5 volledig autonoom zullen er zeker systemen moeten zijn dat level 2 3 en 4 niet als level 5 gebruikt kunnen worden.
Ik speel geen drama, maar fijn dat je het persoonlijk maakt.

De NTSB doet wat ze moet doen. Maar ik verbaas me over het feit dat Tesla wordt onderzocht en de andere 11 ongevallen niet.
Ieder systeem kan beter beveiligd worden, maar het is de vraag in hoeverre de beveiligingssystemen zin hebben als mensen die bewust negeren of omzeilen. Daar hoeft de NTSB geen antwoord op te geven, zij hoeven alleen aan te geven wat er volgens hun verbeterd *kan* worden. Daarmee is niet gezegd dat hun uitspraak de absolute waarheid is waarmee het ongeval voorkomen zou zijn.
de NTSB doet idd wat ze moet doen onderzoeken van een systeem dat als autonoom misbruikt kan worden zonder dat het daarvoor gebruikt mag worden.

De NTSB doet geen onderzoek naar de overige ongelukken omdat die andere oorzaak hebben die niets met autonoom rijden te maken heeft.

Ieder systeem kan idd beter beveiligd worden tot het punt dat ze bijna niet te omzeilen zijn. Daarnaast lijkt het me ook mogelijk toch omzeilen dan wordt het systeem als dat gedetecteerd wordt toch uit uitgezet. Voor die rit. Volgende keer gewoon 7 dagen uit, dan 2 weken enz.

Betere beveiliging zal voor de slimme koppen van tesla toch niet een hele grote uitdaging moeten zijn.
De NTSB doet geen onderzoek naar de overige ongelukken omdat die andere oorzaak hebben die niets met autonoom rijden te maken heeft.
Het lijkt mij dat de NTSB is opgericht om ALLE vormen van verkeersonveiligheid te onderzoeken. Door de andere ongevallen niet te onderzoeken wordt er dus heel erg de nadruk gelegd op het autonoom rijden, waardoor het lijkt alsof andere oorzaken minder belangrijk zijn. Terwijl de chauffeur een spelletje zat te spelen lijkt het alsof de NTSB het mogelijk ontbreken van een beveiligingssysteem net zo erg of misschien wel erger vond.

Betere beveiliging zal voor de slimme koppen van tesla toch niet een hele grote uitdaging moeten zijn.
Daar spelen verschillende dingen in mee. Ieder schroefje extra op een auto betekent een x hogere prijs. Nu heb je het niet over een schroefje, maar over een beveiligingssysteem. Tel dat maar uit :)
Teveel beveiliging zal potentiële kopers ook afschrikken. Ik wil bijvoorbeeld geen IPhone, ondanks dat ze goed zijn, stabiel en waardevast: ik wil namelijk de vrijheid hebben om mijn telefoon naar mijn smaak aan te kunnen passen. Auto's die zo ver dichtgetimmerd worden dat zelfs een blik opzij al resulteert in een waarschuwing van het systeem zal voor een hoop mensen de lol van het autorijden er ook wel vanaf halen.
Verder, zoals eerder geconstateerd: iedere beveiliging valt te omzeilen. Ik lees over mensen die flesjes water aan het stuur bevestigen omdat ze de melding dat ze het stuur vast moeten houden zo irritant vinden.
Dus jou conclusie is dat de NTSB naar zeg maar 100.000 ongelukken in de USA onderzoek moet doen ?

Ze doen onderzoek naar ongelukken die te maken hebben met technische problemen c.q waar een aanwijzing voor is van een technisch probleem. In het geval van tesla is dat duidleijk misbruik van een niet autonoom systeem als autonoom systeem.

Betere beveiliging mag niet meer kosten, 2 camera's en wat software ja dat maakt het vast 5000 euro duurder. Te veel beveiliging schrikt af, dat is juist de bedoeling dat het afschrikt dat je een systeem niet anders kan en mag gebruiken.

De lol van het autorijden, als je lol hebt in autorijden kun je dat gewoon doen zonder ondersteunende systemen. Als je kiest voor een ondersteunend systeem en dat als autonoom wil gebruiken en de auto zegt nee maar dat mag niet weet ik niet wat dat met lol van autorijden te maken heeft. Misschien is jou lol wel hoe je het kan omzeilen. Als ze die lol wegnemen waren de ontwikkelaar dus slimmer.

Handjes aan het stuur, als je gebruikt maakt van ondersteunende systemen is dat idd de consequentie. Maar je hoeft ze niet te gebruiken, dan heb jij vast meer lol. Zie het probleem niet.
Ze doen onderzoek naar ongelukken die te maken hebben met technische problemen c.q waar een aanwijzing voor is van een technisch probleem.
Snap ik. Maar hoeveel technische problemen blijven onopgemerkt als de NTSB alleen maar bij ongelukken onderzoek doet waar een semi-autonoom rijdende auto bij betrokken is?

In het geval van tesla is dat duidleijk misbruik van een niet autonoom systeem als autonoom systeem.
En dat is precies waar het om gaat.
De conclusie van de NTSB, namelijk dat er meer beveiligingssystemen moeten komen, is voorspelbaar en eigenlijk slaat die de plank mis aangezien de chauffeur bewust bezig was met andere zaken.

De lol van het autorijden kan ook bestaan uit genieten van de diverse systemen die aan boord zijn, de techniek. Lane assist, ACC, airco, en dergelijke: fantastisch om te zien en gebruiken. Maar als je iedere keer weer een piepje krijgt omdat de auto vindt dat jij... (vul maar in), gaat de lol er wel vanaf.

Maar ondersteunende systemen of niet, handjes horen sowieso aan het stuur :)
De Politie zal de eerste zijn die onderzoek doen naar een crash. Leeft de bestuurder nog hem verhoren, als deze aangeeft technisch probleem remmen deden het niet bijv dan neem ik aan dat dat reden is voor NTSB om te zaak te gaan bekijken.
Tijdje terug dacht ik verhaal van Prius die ineens versnelde zonder dat de bestuurder gas gaf.

Als de Politie geen aanwijzing heeft dat het iets met techniek te maken heeft maar menselijke fout lijkt me dat geen reden voor de NTSB om onderzoek te doen.

De opmerking voorspelbaar en je mag het er niet mee eens zijn de bestuurder krijg ook een deel van de schuld. Net als de wegbeheerder en zelfs apple of het bedrijf waar diegene werkte voor niet hebben van een policy om mob telefoon te gebruiken tijdens het rijden.

Maar ook jij geeft zoals vele de schuld alleen aan de bestuurder. Dat mag en klopt voor een deel. Het andere deel is en blijft dat een hulpsysteem misbruikt is, kan worden om er volledig autonoom mee te rijden.
Het andere deel is en blijft dat een hulpsysteem misbruikt is
Ik denk dat dat het enige is waar we het niet over eens zijn: jij bent het met de NTSB eens dat er meer beveiligingssystemen moeten komen om dergelijk misbruik te voorkomen, terwijl ik er vanuit ga dat als je een systeem bedenkt om te voorkomen dat domoren de boel vernaggelen, er altijd een nog grotere domoor op zal staan :)
Feit is dat het nu te eenvoudig is om de beperkingen die het systeem oplegt te omzeilen. Er zijn voldoende video's van die dat bewijzen. Dat er altijd een slimmerik is die het misschien weet te omzeilen kan zo zijn maar als het zo moeilijk is dat het in de praktijk niet mogelijk is heb je ook je doel bereikt.

Neem 2 camera's in de auto. Deze kunnen de bestuurder exact volgen, ze kunnen ook goed zien waar de handen zijn of nephanden. Volg de schouders als diegene met telefoon bezig is. Sterker nog een telefoon in de auto kan ook eenvoudig herkend worden.
Als men bezig is met herkennen van de omgeving voor level 2 3 4 en 5 dan is een camera in de auto met herkenning kinderspel voor de geniën van Tesla. 2 Camera's beetje software wat kost dat ?
2 camera’s kosten op zich niet veel.
Maar een schroef van een dubbeltje in de fabriek kost bij de dealer 25 euro omdat alle tussenliggende schijven er ook aan willen verdienen. Met camera’s is dat niet anders.
En de software op zich is ook niet heel spannend. Maar er moet opslagruimte voor zijn en het moet onderhouden worden.

Daarnaast: beveiligingssystemen die niet gehackt/omzeild kunnen worden? Ik moet ze nog tegenkomen. En geloof me dat er knappere koppen al langer mee bezig zijn als de engineers van Tesla.
Wat een drama al weer.

Je begint nu met prijzen van onderdelen om te zeggen hoe duur iets is. Het al al lang bekend dat als je een auto in onderdelen koop je 3 tot 5 keer de prijs van een nieuwe auto betaald.

Inbouwen in een nieuwe auto waar ik het hier over heb is een heel ander verhaal. Dacht je nu echt dat Tesla en andere automerken via via via via kopen. De marges van toeleveranciers aan de autobranche zijn uitgeknepen en er word top iedere cent gelet.

Beveiligingssystemen die niet gehackt kunnen worden. als dat je reden is dan maar niets te doen. Het pentagon zal best te hacken zijn maar hoeveel mensen kunnen dat. Een detectiesysteem in je auto die herkend wat je kan doen zal best te omzeilen zijn maar doe je dat goed zal het heel moeilijk worden. Nu is het te eenvoudig en dat was ook de conclusie van de NTSB.

Onderhouden software opslagruimte, ja natuurlijk daar is 100gb extra voor nodig, ook weer zo een drama. Het moet onderhouden worden ja ook dat klopt maar verdeel dat onderhoud over 1 miljoen auto's of meer en het ziet er anders uit. Nu moet tesla ook de hele software onderhouden, remmen, ramen, muziek en dat kost ook geld.
Daarbij als een systeem goed werkt zal het onderhoud ook minimaal zijn.
Wat een drama al weer.
Je weet niet wat drama is. En als je de illusie hebt dat dit een steekhoudende argument is moet je misschien toch eens na gaan denken. Hou op met dit soort onzinnige ad hominem, het maakt je ongeloofwaardig.

De rest: bagatelliseren van de aangedragen feiten. Prima, zoals ik al eerder aangaf zijn we het daar niet over eens en wordt nu dus nogmaals door jou bevestigd.

Goed weekend.
Dat we het niet eens waren is al duidelijk.
Dat je de typische voorspelbare argumenten gebruikt, getuigd van weinig inzicht maar dat kom ik wel vaker tegen in discussie. Jou feiten verzin je zelf.
succes
En opnieuw, een ad hominem.
Dieptriest dat je de illusie hebt daarmee iets te bewijzen.
Tipje: Beperk je tot de feiten. Door iedere keer domme persoonlijke aanvallen te openen ondergraaf je je eigen argumenten.
Onzin. Je kan toch ook gewoon sneller rijden dan de maximumsnelheid? Als je een boete krijgt om te snel te rijden, is het dan de fout van de autofabrikant die jouw auto te snel heeft gemaakt?
Wat is volgens jou dan de toegevoegde waarde van autopilot als je alsnog constant moet blijven opletten? Het gevaar van autopilot is dat mensen denken dat het foutloos werkt. Dit werkt dit soort gedrag in de hand. Daarom ben ik geen voorstander van dit soort techniek.
Dus je bent geen voorstander van dit soort techniek omdat het nog aan het ontwikkelen is? Je verwacht dat dit in één keer helemaal gemaakt is zonder fouten? Het duurt gewoon enorm lang om deze systemen alles te leren.
Het zal nooit zodanig werken dat je als bestuurder niks meer hoeft te doen. Kijk naar vliegtuigen, daar is autopilot al jaren normaal. Toch moet er altijd een piloot blijven opletten.

Mooie techniek, maar autopilot wekt de suggestie dat je niets zelf meer hoeft te doen. Dat is gewoon niet zo.
Zeg nooit nooit, of dat iets niet kan. Toen ik mijn Industrieel Design opleiding ging doen is mij als eerst afgeleerd om te zeggen dat iets niet kan. ALLES kan, alleen nu nog niet.

Met vliegtuigen praat je toch wel over een compleet ander caliber dan auto's.
Vroeger zeiden ze dat we uberhaupt nooit zouden kunnen vliegen, kijk waar we nu zijn.
En serieus, kijk hoeveel we nu bereikt hebben in zo een kleine tijdspan. We hebben in het informatie tijdperk zo ongelooflijk veel progressie geboekt. Bedenk je bijvoorbeeld dat we nog geen 20 jaar smartphones hebben. De eerste computer in 1938, pas mainstream eind jaren 90.
Dat is toch wel even wat anders als je kijkt dat we zelfs in de Tweede Wereld oorlog nog gebruik maakten van de postduif. En dit 5000 jaar geleden al, dus we hebben 5000!! jaar van de postduif gebruik gemaakt!

En jij denkt dat we nooit autonoom kunnen rijden of vliegen? Ik denk dat dit een eitje wordt voor ons.

Misschien niet in de komende 5 of 10 jaar, maar 20 jaar is al behoorlijk vlot en knap gezien onze geschiedenis. Nee we leven in een mooi tijdperk waarin steeds meer mogelijk wordt en dat moeten we (slim) ontarmen. Dit vereist echter wel wat vallen en opstaan.
En dat is waarom een complex product door meerdere disciplines ontwikkeld wordt en niet alleen maar door een industrieel designer. Je hebt vaklieden nodig die bepalen aan de hand van hun specifieke kennisgebied "wat nu nog niet kan". Dan krijg je een ontwerpproces waarin je uiteindelijk uitkomt op iets dat wel kan. Een autopilot die een Tesla kan besturen zonder menselijk ingrijpen, kan duidelijk nog niet. Dat had iets vaker en harder gezegd moeten worden, lijkt me.
Nee ik ben het volledig met je eens tot op het allerlaatste stukje. Het is ontzettend vaak en duidelijk gezegd, ik heb ook echt iedereen om mij heen erover gehoord dat het hartstikke knap is wat de autopilot nu al kan maar dat het nog niet volledig op zichzelf kan. Talloze nieuwsartikelen voorbij zien komen erover.

Sterker nog, Tesla waarschuwt zelf in de auto doormiddel van geluid en visuele signalen. Hoe duidelijker moet het nog worden?
Vallen en opstaan is leuk, in dit geval betekend vallen letterlijk doden. De vraag is dan hoeveel mensen moeten er omvallen ?
Misschien moet wetgeving en eisen strenger zijn, waardoor er minder mensen vallen en de ontwikkeling misschien langer duurt.
En dat is nu juist het probleem, waar trek je deze grens?

Jij suggereert nu dat ontwikkeling en evolutie ten koste moet gaan door de stupiditeit van de mens.
Die man was letterlijk aan het gamen op zijn smartphone... Een tesla doet er tegenwoordig alles aan om de bestuurder te waarschuwen, zowel visueel als geluid. En dan moeten we maar stil blijven staan omdat er ''idioten'' op de aardbol leven waar wij rekening mee moeten houden?

Ironisch gezien is Tesla er juist naar toe aan het werken dat die individuen straks geen stuur meer hoeven vast te houden. Ik weet niet wat ik liever heb; 1. Hij achter het stuur zonder autopilot die spelletjes speelt op zijn telefoon 2. Autopilot die straks volledig autonoom is en hij op de achterbank die spelletjes speelt.

Maar nee laten we het proces in vertraging zetten en alle alcoholisten en mensen die op hun mobiel zitten achter het stuur nog vrolijk hun gang laten gaan.
Een tesla doet er tegenwoordig alles aan om de bestuurder te waarschuwen, zowel visueel als geluid. En dan moeten we maar stil blijven staan omdat er ''idioten'' op de aardbol leven waar wij rekening mee moeten houden?
volgens de ntsb doet tesla er dus niet genoeg aan.
Jij suggereert nu dat ontwikkeling en evolutie ten koste moet gaan door de stupiditeit van de mens.
Jij trekt zoals vele hier je eigen conclusie uit wat ik schrijf. Jij noemt het stupiditeit van de mens maar is dat wel zo, is dat niet gewoon onderdeel van hoe wij als mens zijn. Ik kan ook roepen hoe dom is het om je door reclame te laten beïnvloeden maar de praktijk is dat reclame werkt en veel mensen en gevoelig voor zijn.

Als klap op de vuurpijl in een ultieme poging je mening recht te praten kom je dan met alcoholisten en mensen op hun mobiel.

Ook voor jou ethiek lessen. Zal dat voor jou conclusie trekken, jij denkt hup gas geven eigen schuld die paar mensen die dan doodgaan daarmee komen we sneller vooruit en redden meer mensenlevens. Dat is een menig die je mag hebben of die ethisch is, is een hele andere vraag.
volgens de ntsb doet tesla er dus niet genoeg aan.
Ja en volgens de EU moeten onze vingerafdrukken in de paspoortchips, volgens trump moeten we orkanen bestrijden met nukes. Oke beetje kort door de bocht, maar vond hem wel leuk. Nee ik ken die partij eigenlijk amper, maar ik ben van mening dat ze een beetje over protective willen zijn.

Noem het in de herhaling vallen maar wat meer wil je nog hebben dan waarschuwingen letterlijk in je auto?
Jij trekt zoals vele hier je eigen conclusie uit wat ik schrijf. Jij noemt het stupiditeit van de mens maar is dat wel zo, is dat niet gewoon onderdeel van hoe wij als mens zijn. Ik kan ook roepen hoe dom is het om je door reclame te laten beïnvloeden maar de praktijk is dat reclame werkt en veel mensen en gevoelig voor zijn.
Beetje scheve vergelijking als je het mij vraagt, ja reclame werkt. Nee ik zit niet op mijn mobiel in de auto...

Maar je slaat de spijper op zijn kop; ja het is blijkbaar een groot probleem van de mens. Laat autonoom rijden hier nou de perfecte oplossing voor zijn.
Als klap op de vuurpijl in een ultieme poging je mening recht te praten kom je dan met alcoholisten en mensen op hun mobiel.
Noem het kracht bij zetten, maar zeker weten.
Ik zie dit als de ultieme oplossing want het is een groot probleem. Ik sta dus 100% achter autonoom rijden als hiermee heel wat leed uit de wereld ontrokken kan worden.
Ook voor jou ethiek lessen. Zal dat voor jou conclusie trekken, jij denkt hup gas geven eigen schuld die paar mensen die dan doodgaan daarmee komen we sneller vooruit en redden meer mensenlevens. Dat is een menig die je mag hebben of die ethisch is, is een hele andere vraag.
Over conclusies trekken gesproken...
Nergens zeg of uberhaupt implicier ik ook maar ''hup gas geven''. Ik zeg letterlijk dat ik niet wil dat de ontwikkeling stil blijft staan, ik zou niet weten hoe je daaruit haalt dat ik wil dat de ontwikkeling moet versnellen. Nee ik vind het goed zo, zoals ik eerder al aangaf:
Misschien niet in de komende 5 of 10 jaar, maar 20 jaar is al behoorlijk vlot en knap gezien onze geschiedenis.
En nee inderdaad, ik weet niet of het ethisch is.
Wel ben ik van mening, en ik haal er even wat statistieken bij:
(dit is wat ik even snel kon vinden)

Nederland:
2018 = 36 verkeersdoden door alcohol
2018 = ~100 verkeersdoden door mobieltjes - gebaseerd op schattingen

Autonoom rijden wereldwijd ''casualties'': (Tussen 2016 en 2019)
Level 2 (Tesla) doden totaal = 5
Level 3 (uber) doden totaal = 1
(ook deze zat op haar mobiel)

Ik ben van mening dat als we 136 doden per jaar (en groeiend) mogen inruilen voor bijvoorbeeld 1 per jaar we dit zeker moeten doen, zonder twijfel. Noem het niet ethisch, maar goed daar sta ik dan achter ja.
Als je niet weet wie de ntsb is, tja snel uitgepraat en grappig en zo voorspelbaar er komt van alle bij om het belachelijk te maken.

Autonoom rijden is idd de goede oplossing, lees level 5. Tot die tijd is het geen oplossing als de mens het als level 5 kan gebruiken terwijl het dat niet is, dat is de kern van het probleem.

Je wil niet dat ontwikkelingen stilstaan, meer veiligheid is als ik het lees bij jou stilstaan. Meer veiligheid zou in dit voorbeeld een dode voorkomen kunnen hebben, dus ja die vergelijking met mensenlevens mag ik best maken.

Wat je vergeet is dat level 2 en 3 systemen nu in duurdere auto's zitten en langzaam naar goedkopere lees de massa komen. Als er geen veiligheden ingebouwd worden bij alle merken en er rijden er straks 50 miljoen rond met level 2 en3 die misbruikt kunnen worden, vul dan zelf de risico's daarvan maar in.

Je conclusie 136 inruilen voor 1 gaat niet op aangezien we niet massaal rondrijden met level 2 of 3. Is dat wel het geval en kan het misbruikt worden, zie hierboven, dat zal het risico veel groter zijn.

Maar het tellen in mensenlevens hetgeen ook geen zekerheid is, is spelen voor god.
Autonoom rijden is idd de goede oplossing, lees level 5. Tot die tijd is het geen oplossing als de mens het als level 5 kan gebruiken terwijl het dat niet is, dat is de kern van het probleem.
Daarover is mijn mening duidelijk; ik vind dat er genoeg gewaarschuwd wordt, jij vind dat het veiliger moet.
Je wil niet dat ontwikkelingen stilstaan, meer veiligheid is als ik het lees bij jou stilstaan. Meer veiligheid zou in dit voorbeeld een dode voorkomen kunnen hebben, dus ja die vergelijking met mensenlevens mag ik best maken.
Jahoor, dat mag. Ik doe het ook, we spelen beide voor god :)

Ik vind het een lastige kwestie, ik bekijk het net iets anders. Meer veiligheid is in mijn ogen langere ontwikkeling om in dit geval 1 dode te voorkomen maar misschien latere implementatie van level 4 of level 5 autopilot welke meer levens red (alcoholisten etc). Ethisch?
Wat je vergeet is dat level 2 en 3 systemen nu in duurdere auto's zitten en langzaam naar goedkopere lees de massa komen. Als er geen veiligheden ingebouwd worden bij alle merken en er rijden er straks 50 miljoen rond met level 2 en3 die misbruikt kunnen worden, vul dan zelf de risico's daarvan maar in.
Eens, maar ik zie dit als een apart hoofdstuk. Hier is het aan de fabrikanten om het goed te implementeren en een goede balans in te vinden. In principe is het bestaande tech erin gooien voor ze, moet niet al te lastig zijn om dit veilig te doen zonder dat het overige ontwikkeling (level 4 en 5) ophoudt.
Je conclusie 136 inruilen voor 1 gaat niet op aangezien we niet massaal rondrijden met level 2 of 3. Is dat wel het geval en kan het misbruikt worden, zie hierboven, dat zal het risico veel groter zijn.
Het geeft wel een mooi voorbeeld over hoe het doden drastisch terug kan brengen. Wanneer inderdaad goed geimplementeerd.

[Reactie gewijzigd door Xm0ur3r op 22 juli 2024 17:23]

NTSB is ook verantwoordelijk voor de luchtvaart als ze nu dus iets zeggen moet dat gewoon opgevolgd worden. Je kan het overbodig vinden, ze zijn tot een andere conclusie gekomen, eentje die ik ondersteun, jij niet.

De kwestie dat level 4 of 5 vertraging kan oplopen is misschien maar zo. Het is en blijft ethisch niet te verkopen om meer risico's te nemen om dan maar sneller tot een doel te komen.

In het verleden zijn er op mensen ook medische testen gedaan waaruit men geleerd heeft. Die testen hebben ook wat opgeleverd en waarschijnlijk ook levens kunnen redden. Nu weten we dat dat ethisch niet te verkopen is. Ik zie daarom geen verschil waarom het met ontwikkeling van autonoom rijden wel te verkopen is.

Als we ontwikkelingen en vooruitgang gaan meten in mensen levens kunnen we dus een waarde op een mens gaan plakken. Dan ben jij of ik niets anders dan een proefpersoon met een bepaalde waarde. wie bepaald dan die waarde en wie bepaald wie er proefpersoon in.

Als jij nu morgen de vraag krijg wordt proefpersoon, je gaat dood maar daardoor kunnen we 5 mensenlevens redden. Stel jij je vrijwillig ter beschikking ?
NTSB is ook verantwoordelijk voor de luchtvaart als ze nu dus iets zeggen moet dat gewoon opgevolgd worden. Je kan het overbodig vinden, ze zijn tot een andere conclusie gekomen, eentje die ik ondersteun, jij niet.
Goed punt, helaas.
In het verleden zijn er op mensen ook medische testen gedaan waaruit men geleerd heeft. Die testen hebben ook wat opgeleverd en waarschijnlijk ook levens kunnen redden. Nu weten we dat dat ethisch niet te verkopen is. Ik zie daarom geen verschil waarom het met ontwikkeling van autonoom rijden wel te verkopen is.
Goed punt. Alleen in je voorbeeld schets je met proeven af dat je niet weet wat voor effect het op mensen heeft, dat het daardoor niet ethisch verantwoord is.
Als we ontwikkelingen en vooruitgang gaan meten in mensen levens kunnen we dus een waarde op een mens gaan plakken. Dan ben jij of ik niets anders dan een proefpersoon met een bepaalde waarde. wie bepaald dan die waarde en wie bepaald wie er proefpersoon in.

Als jij nu morgen de vraag krijg wordt proefpersoon, je gaat dood maar daardoor kunnen we 5 mensenlevens redden. Stel jij je vrijwillig ter beschikking ?
Deels eens, enige fout die je maakt is dat je vergelijking weer erg krom is.

Hier leg jij een vraag op die garandeert dat je doodgaat.

De vraag zou anders zijn wanneer:
''We willen je als proefpersoon, we kunnen er 5 mensenlevens mee redden, als je meewerkt is er niks aan de hand en overleef je het en als je niet meewerkt ga je dood.''

Ik begrijp je stelling, het is nog steeds eng. En vaak is dat zo met nieuwe dingen. De eerste treinen waren ook eng, de eerste vliegtuigen ook. De eerste mensen die die dingen gebruikten waren praktisch proefkonijn, het ging regelmatig mis. Maar de mens kiest er zelf voor, en als de mens zich gewoon aan de opgegeven regels houdt dan is de kans aanzienlijk kleiner.
Verschil met het laatste is dat de techniek nu tig maar sneller gaat dan 100 jaar geleden. Als je als kijkt naar de laatste 50 20 10 of 5 jaar hoe snel het gaat.

Groter probleem is men hoort vandaag iets en denkt dat het morgen al beschikbaar is.
Sommige dingen hebben tijd nodig, die tijd is nu korter dan vroeger maar het moet allemaal snel snel snel. Te snel betekend veel hoger risico. Die risico's zijn nu met de kennis die men heeft ook veel beter in te schatten dan 100 jaar geleden.
Zeker waar, helemaal mee eens. Ik denk echter dat het in dit scenario nog wel meevalt. De doden zijn nog echt minimaal. Goed voorbeeld naar mijn mening waar het wel goed mis ging was bij de boeing max met zijn neus correctie software, daar hadden ze gerust nog wat meer tijd voor mogen uittrekken.

Maar goed we gaan het zien wat de toekomst brengt, ik vind het een interessante discussie.
Ik denk dat dit juist de auto's compleet gaat overnemen. Als je kijkt hoeveel vooruitgang er nu al wordt geboekt. Het wordt helemaal een goed systeem als de meeste auto's dit aan hebben en met elkaar kunnen communiceren. En een vliegtuig zelf laten landen is lijkt mij lastiger dan invoegen op een snelweg.
En hier een stukje van de site van Tesla zelf: "De functies die momenteel beschikbaar zijn, vereisen actief toezicht van de bestuurder en maken de auto niet zelfrijdend."
Staat toch vrij duidelijk dat het NIET zelfrijdend is.
Staat toch vrij duidelijk dat het NIET zelfrijdend is.
Dat is precies mijn punt. Wat is de toegevoegde waarde dan? Dit soort functies zorgen juist alleen maar voor schijnveiligheid omdat het bijna altijd goed gaat. Daardoor worden mensen lui en verveeld en gaan ze andere dingen zitten doen.
De toegevoegde waarde is dat je het als aanvulling moet zien op ons eigen kunnen.
Daar waar wij verkeerde beslissingen maken omdat we het complete plaatje niet meer kunnen zien.
De Autopilot kan bijvoorbeeld ingrijpen als er een kettingbotsing plaatsvind, het kan zien dat er enkele auto's voor hem botsen en op tijd stil staan daardoor, iets wat wij als mens een stuk moeilijker kunnen omdat we niet door of om auto's heen kunnen kijken.
Het kan veel meer objecten tracken, veel meer dan wij zouden kunnen volgen/zien.

[Reactie gewijzigd door S.Death op 22 juli 2024 17:23]

Daar heb je de autopilot van Tesla niet voor nodig. Andere auto's hebben daar ook systemen voor. Nieuwere modellen zitten vol met technische hulpmiddelen die je voor vanalles en nogwat waarschuwen of ingrijpen wanneer het mis dreigt te gaan. Echter, zelf rijden doen deze auto's dan weer niet.
Wat mij betreft blijft de vraag dus staan.
Zelf ingrijpen is natuurlijk een vorm van zelf rijden.
Al die systemen bij elkaar is hetzelfde als wat Tesla heeft, alleen heet het dan Autopilot.
Een auto met een parkeerhulp waarbij de auto zelf stuurt is maar een "kleine stap" naar zelf rijden, overigens rijdt de auto tijdens het inparkeren ook zelf/autonoom zonder dat je je handen aan het stuurt hebt.
Natuurlijk zijn er veel meer sensoren nodig om volledig autonoom te kunnen rijden, maar in de basis is het hetzelfde.
Het zelf rijden is gewoon een evolutie van al die systemen die jij bij andere merken wel normaal vind.
Ik snap de hetze niet zo tegen het merk Tesla, als een ander merk het doet is het normaal maar doet Tesla hetzelfde of beter dan is het onnodig en wordt alles uitvergroot.
Het einde van de discussie is level 5 autonoom rijden waar je als mens niets meer moet doen.

Heel eenvoudig gezegd tot level 5 zijn systemen niet betrouwbaar genoeg om zelf te rijden.
systemen mogen dan ook niet gebruikt worden om ze zelf te laten rijden zonder dat jij handjes aan het stuur en blik naar voren hebt. Dat soort veiligheden moet standaard worden ingebouwd om misbruik te voorkomen.

Nu hebben we level 2 en 3 systemen die vooral in duurdere auto's zit en langzaam naar goedkopere modellen, lees de massa komt. als de massa straks deze systemen krijgt en kan misbruiken zal dat gebeuren en zullen er veel meer ongelukken komen.

Dus voordat die systemen nu echt naar de massa komen moeten fabrikanten keihard zorgen dat ze niet misbruikt kunnen worden om autonoom te rijden.
''Zelf ingrijpen is natuurlijk een vorm van zelf rijden.''
Niet helemaal. Bij zelf rijden komt ook herkenning van verkeersborden (in alle vormen), verkeerslichten, sturen etc etc. Dat doen de meeste auto's nog niet. Een stuurcorrectie kunnen ze wel geven, maar echt zelf sturen nog niet. Tesla's met het autopilot pakket wel, maar nog te onbetrouwbaar. De systemen die wel al goed werken zitten ook steeds vaker in andere auto's. Maar daar wordt de bestuurder dus gedwongen om zelf op te letten.

Ik zeg overigens ook helemaal niet dat ik die systemen bij andere merken normaal vindt. De rijbaanassistent (of ''lane assist'' in het Engels) is overigens naar mijn ervaring vaker irritant dan behulpzaam. Misschien dat ik moet wennen na jaren van rijden in een "domme "auto.

Het autonoom rijden (even om verwarring met zelf rijden van de mens te voorkomen) is een combinatie van de eerder genoemde systemen. Niet alleen ingrijpen wanneer het volgens de computer mis drijgt te gaan, wat steeds meer auto's doen.
Ik denk dat er een hele grote toegevoegde waarde ervoor is, maar mensen moeten gewoon blijven opletten en dat gebeurt niet altijd. En het heeft gewoon nog tijd nodig om beter te worden. Hiernaast zijn er ook een heleboel ongelukken voorkomen door de software. Dit voorkomen gebeurt ook als autopilot uitstaat.
En hoe zie jij een motorrijder hiertussen?
De autopilot laat een vliegtuig niet landen!

De auto pilot laat het vliegtuig alleen een bepaalde koers, op een bepaalde snelheid en hoogte vliegen. Dat is wat de autopilot doet. Het is de FMC (geprogrammeerd via de MCU) welke de settings van de auto pilot continue aanpast en brengt het vliegtuig in principe tot het 'STAR' punt. Meestal heeft de crew dan al de STAR ingevoerd en deze zal het vliegtuig via de auto pilot brengen tot het punt dat het vliegtuig het ILS signaal herkent en onderschept waarna ILS het vliegtuig automatisch laat landen..

In de vliegtuig industrie kent men het concept 'situational awareness'. Ofwel weten waten er om je heen gebeurt. Het gebruik van de auto pilot en FMC zorgt ervoor dat de crew zich juist meer kunnen focussen op wat er om hun heen gebeurt dan het vliegen zelf.

Wat men vergeet is dat vlieg verkeer vele malen eenvoudiger is dan wegverkeer. Het gebeurt zelden dat piloten zich niet aan de regels van een ATC houden en afwijken van de procedures. Het zijn juist de procedures geweest welke de vergaande automatisering in de vliegtuig cockpit mogelijk hebben gemaakt..

Weg verkeer is heel anders. weggebruikers communiceren vaak zeer slecht met elkaar (hoe gaat geeft iemand geen of te laat richting aan) en houd een groot deel zich niet aan de maximum snelheid. Daarnaast wordt bij vliegverkeer in principe fixed wing en rotery craft niet gemengd waar bij wegverkeer auto's tussen fietsers en voetgangers een baan moeten vinden..
Daarom lijkt mij het juist dat de auto-industrie een voorbeeld kan nemen aan de vliegtuigindustrie:

Gebruik een auto pilot waar het veilig kan, en neem het zelf over als de situatie erom vraagt.

Daarbij helpt het niet als de wegmarkering zo slecht is weergegeven dat de autopilot denkt dat iets een rijbaan is, terwijl dat het niet is...er ligt hier wel degelijk een taak voor de overheid om de zaken op orde te hebben
Gebruik een auto pilot waar het veilig kan, en neem het zelf over als de situatie erom vraagt.
Probleem is juist daar waar het veilig kan, kan niet. Level 2 3 4 systemen zijn ondersteunende systemen. Ze zijn niet in staat te bepalen waar het wel of niet veilig kan. Probleem is dat ze niet 100% kunnen inspelen op plotselinge veranderingen, lees hier herkennen van de barrière.

Pas bij level 5 spreken we over autonoom rijden, zonder menselijk ingrijpen, zonder stuur. Daar moet nog een boel voor gebeuren. Tot die tijd is de mens altijd nodig als controle en dus moet de mens tot level 5 altijd handen aan het stuur hebben en blik naar voren.
Dit is dus waar het al mis gaat. De term "autopilot" duikt op en mensen denken dat ze, net als in een vliegtuig, niks meer hoeven te doen. Overigens is dat in een vliegtuig al niet waar, maar goed.

De belangrijkste reden dat een autopilot in een vliegtuig wel die illusie geeft: Air Traffic Control. Waar een vliegtuig vliegt, hoe hard en in welke richting, is bijna volledig gereguleerd, dus bijv afstand tot je voorligger is al voldoende. Bovendien zijn in de lucht geen zijwegen, geen overstekende voetgangers/fietsers, geen stoplichten, etc. etc.

Alle onvoorspelbare zaken die automatisch rijden op de weg zo lastig maken, zijn in de lucht zoveel mogelijk voorspelbaar gemaakt.
Het rapport lijkt me duidelijk over deze techniek. Geen probleem dat het er is maar de fabrikant moet voldoende waarborgen inbouwen dat het mis misbruikt kan worden. Tesla had/heeft die waarborgen volgens dit rapport dus niet en moet daar voor zorgen.

De techniek is idd niet foutloos en dus moet je die waarborgen hebben, vrij simpel toch.
Maar hoe moet je zorgen dat iemand niet op zijn telefoon gaat want dit mag überhaupt al niet. Dus ik zal niet weten hoe je dit moet waarborgen.
Bij een normale auto kun je dat niet zien maar zul je dat, als je het doet kort doen toch hand aan het stuur hebben.
Als je een systeem in je auto hebt waarbij je denkt dat het, het sturen kan overnemen zul je dus sneller wel op de telefoon gaan zitten.
Camera in de auto op op bestuurder zou al heel goed moeten kunnen zien waarmee deze bezig is, handen aan het stuur of beiden van het stuur en op de telefoon. Volgen van je ogen of deze op de weg gericht zijn of naar beneden op je tel. Technisch moet die niet zo moeilijk zijn ondertussen.
Bij een Tesla die op autopilot staat moet je om de zoveel tijd en stuur even vasthouden. Als je dit niet doet kun je voor een bepaald tijd de autopilot niet gebruiken. En ja dit kun je omzeilen door een flesje water er tegen aan te zetten. Maar dan omzeil je bewust een veiligheidssysteem. En al heb je een camera die kijkt of je richting de weg kijkt alsnog kun je een beetje gaan dagdromen en alsnog niet opletten.
Conclusie als het systeem zo eenvoudig te omzeilen is, werkt het dus niet en zal het verbeterd moeten worden. Exact dat is dus wat men ook schrijft als verbetering.
De 'nags' in Europa komen veel meer voor tijdens een rit dan in Amerika. Dat de NTSB hier gelijk heeft lijkt me duidelijk en zal er hopelijk toe leiden dat hetzelfde systeem in Amerika ook wordt geadopteerd, lijkt me voor iedereen veiliger.

Ik rij zelf regelmatig op Autopilot op de snelweg, maar zal het nooit in m'n hoofd halen om te gaan gamen op mijn telefoon. Zelfs al zou ik dat willen, wordt het me schier onmogelijk gemaakt door de vereiste om elke x seconden lichte kracht op het stuur uit te oefenen, waardoor ik toch blijf rondkijken tijdens het rijden.
-

[Reactie gewijzigd door Yormir op 22 juli 2024 17:23]

Je kunt ook stellen dat dit een impuls voor betreffende fabrikant kan zijn om juist betere veiligheidsfeatures te ontwikkelen die niet zo makkelijk te omzeilen zijn. Daar is op zich toch niks mis mee?
Klopt helemaal daar ben ik het ook mee eens. Maar ik ben het niet mee eens dat de fabrikant schuldig is wanneer iemand die iets anders gaat doen tijdens het rijden en daardoor niet oplet.
Het gaat niet per se om 'schuld' maar om 'oorzaak' volgens mij. Het hele woord schuld komt niet in het artikel voor. Een deeltje van de oorzaak is dat een systeem te omzeilen is, of in ieder geval niet correct ingrijpt als het niet naar behoren word gebruikt en voor dat deeltje van de 'oorzaak' ligt de bal bij Tesla. That's it.
De fabrikant moet dat idd, omdat de fabrikant ook weet dat zijn systeem verre van perfect is. De fabrikant weet ook dat het systeem actief misbruikt wordt en dat gebruikers en te veel vertrouwen in hebben.
Dat is wat de ntsb ook zegt. Maar ja die zullen het volgens alle tesla gelovigen wel verkeerd zien. Commentaar op tesla is vloeken, dat blijkt ook hier weer.

Je argument vertraging wow. Maar als je op die fiets wil beginnen kunnen we het ook zo stellen. Laten we 500 mensen zich nu maar te pletter rijden de komende 2 jaar, als proefpersoon, zodat we i.p.v binnen 10 jaar nu binnen 3 jaar alles veiliger kunnen maken. Hierdoor komen er misschien 5000 mensen minder om het leven. Zou zeggen 500 doden voor 5000 doden eenvoudige rekensom toch. Ethiek modus heb ik dan maar even uitgezet voor het gemak.

Wil jij je vrijwillig aanmelden als een van de 500 proefpersonen, je kind, je vrouw, jou vader, moeder misschien.

[Reactie gewijzigd door bbob op 22 juli 2024 17:23]

Ik bedoel dus niet dat ze er niks aan moeten doen. Ze moeten er wat aan doen daar heb je gelijk aan.
En van vorige reactie ik had iets verkeerd gelezen mijn excuses daarvoor
Bij een Tesla die op autopilot staat moet je om de zoveel tijd en stuur even vasthouden. Als je dit niet doet kun je voor een bepaald tijd de autopilot niet gebruiken.
Je schrijft het precies verkeerd om op.
Je moet je stuur altijd vasthouden, maar je hebt de mogelijkheid voor een aantal seconden even iets anders te doen, zonder dat je meteen gestraft wordt.
AP is een hulpsysteem, geen autonoom rijden.
In het begin van civiele luchtvaart gingen er ook nogal wat kisten de grond in, volgens mij hoort dat gewoon bij het ontwikkelen van nieuwe technieken? Een piloot gaat toch ook niet zitten gamen?
volgens mij hoort dat gewoon bij het ontwikkelen van nieuwe technieken?
Yup. Een hele berg dodelijke ongelukken is de prijs die we betalen voor vooruitgang.... zoiets bedoel je toch?
Hoeveel doden zijn er al voorkomen door deze systemen?
Daar hoor je niemand over, omdat dat allemaal net goed gaat.
De vergrootglas ligt op alle situaties die net niet goed gaan.
En mijn vermoeden zegt dat deze situaties veel minder voorkomen dan bij andere merken die dergelijke systemen niet hebben. Maar dat hoor je natuurlijk ook niet in het nieuws, dat zijn de gewone ongevallen, die komen op de stapel, een enkeling daargelaten die dan wel in de krant verschijnt.
Er zijn dagelijks 110 doden in Amerika door auto ongelukken, hoeveel hoor je daarvan hier in het nieuws, behalve als er een Tesla bij betrokken is.
Als het op lange termijn daardoor levens bespaard (wat het waarschijnlijk nu al doet maar dat terzijde) wat is dan het probleem precies?

Dit is zoals je kan lezen ook een samenloop van meerdere fouten/problemen en een deel daarvan ligt bij Tesla.
Bedenk je eens hoeveel mensen er dood hadden kunnen zijn als de bestuurder z'n spelletje deed en geen autopilot had. En zeg niet dat hij dan waarschijnlijk z'n mobieltje niet had gepakt onder het rijden, want die bestuurders zie ik meermaal per rit.
Wat is volgens jou dan de toegevoegde waarde van autopilot als je alsnog constant moet blijven opletten? Het gevaar van autopilot is dat mensen denken dat het foutloos werkt. Dit werkt dit soort gedrag in de hand. Daarom ben ik geen voorstander van dit soort techniek.
Zelfde waarde als van een cruise control e.d. Alleen kan ie meer. Dat rijdt ongetwijfeld (ik heb geen Tesla) ontspannender.

Het gevaar is dan natuurlijk ook groter. En dat bestuurders het zouden gaan gebruiken alsof het volledig self-drive is, was natuurlijk te verwachten. Dom dom dom van de bestuurder.
Nee, niet dom, maar te verwachtten...
Als jij een systeem hebt wat 99% uit zichzelf goed doet maar je moet toch iedere keer 100% geconcentreerd blijven omdat er een 1 % kans is dat het systeem wat fout gaat doen, dan sla je de plank mis.
Als jij iemand op jouw dak zou zetten met een tennisbal en zegt 'ergens in de komende 3 uur moet je die onverwachts naar me toe gooien' en jij gaat beneden staan, in complete vangmodus en hij zou na 2 uur 15 minuten en 10 seconden die bal opeens gooien...dan ben ik heel erg benieuwd of jij zo lang geconcentreerd in je stand kunt blijven staan om die bal daadwerkelijk te vangen.
Je kunt mensen niet een systeem in handen drukken waar ze in principe niets meer mee hoeven te doen en daarbij zeggen 'maar je moet wel altijd paraat staan'. Dat werkt simpelweg niet, zo zitten mensen niet in elkaar.
Nee, niet dom, maar te verwachtten...
Zeer zeker te verwachten. Net zoals het te verwachten is dat mensen onder het rijden zullen appen, bellen, makeup doen, en de krant zullen lezen. Ook als ze geen autopilot hebben. Net zoals het te verwachten is dat mensen met autopilot vaker en langer afgeleid zullen zijn (door iets wat ze buiten zien bijv.) Dat laatste is onvermijdelijk, en zou ik niet 'dom' noemen, maar een spelletje spelen en de krant lezen, en zo, tijdens het rijden, terwijl je weet dat je op moet letten, is gewoon wel echt dom. Of je nu een autopilot hebt of niet.
Als jij een systeem hebt wat 99% uit zichzelf goed doet maar je moet toch iedere keer 100% geconcentreerd blijven omdat er een 1 % kans is dat het systeem wat fout gaat doen, dan sla je de plank mis.
Absoluut. Dat kan een mens ook helemaal niet. Dus is ie vaker en langer afgeleid. Maar een spelletje spelen, of de krant lezen, of zo, is van een heel andere orde. Dan ben je geconcentreerd met iets anders bezig.
Als jij iemand op jouw dak zou zetten met een tennisbal en zegt 'ergens in de komende 3 uur moet je die onverwachts naar me toe gooien' en jij gaat beneden staan, in complete vangmodus en hij zou na 2 uur 15 minuten en 10 seconden die bal opeens gooien...dan ben ik heel erg benieuwd of jij zo lang geconcentreerd in je stand kunt blijven staan om die bal daadwerkelijk te vangen.
Inderdaad. Maar je maakt de situatie wel gelijk heel extreem: urenlang wachten, terwijl er helemaal niets gebeurt (in de auto gebeurt er van alles om je heen in het verkeer), in vangmodus, en niet ontspannen zittend, en dan toch een reactietijd eisen van een of twee seconden. Dat is niet vergelijkbaar.

Maar als we er vanuit gaan dat in bovenstaand voorbeeld mijn leven er misschien vanaf hing, dan zou ik in die tijd niet een spelletje gaan spelen, of een boek gaan lezen. Misschien zou ik de bal nog steeds niet vangen, dat klopt, maar als ik een spelletje ging spelen, dan zou ik dat 99.99% zeker weten. En dat zou dus heel dom zijn.
Je kunt mensen niet een systeem in handen drukken waar ze in principe niets meer mee hoeven te doen en daarbij zeggen 'maar je moet wel altijd paraat staan'. Dat werkt simpelweg niet, zo zitten mensen niet in elkaar.
Helemaal mee eens. Lees ook maar mijn andere reacties. Maar dan kunnen mensen er nog steeds op een domme manier mee omgaan, en op een slimme manier. In beide gevallen zijn de risico's in een onverwachte situatie groter, maar dom gedrag maakt de risico's in ieder geval onaanvaardbaar hoog, terwijl zonder dom gedrag de risico's netto misschien lager zijn, omdat het systeem ook ongelukken voorkomt.
o hij was zeker dom bezig ^^ dat zal ik absoluut niet ontkennen. Alleen vrees ik dat er zoveel meer mensen zullen zijn die onterecht 100 % op een nog niet uitontwikkeld systeem zullen gaan vertrouwen op den duur.
Hetzelfde reden waarom autopilot bij vliegtuigen was toegevoegd: om vermoeidheid van bestuurders tegen te gaan. Constant kleine correcties maken maakt dat je veel vermoeder wordt. (https://www.reddit.com/r/...ghts_on_teslas_autopilot/ 5de alinea, https://en.wikipedia.org/wiki/Autopilot)
De toegevoegde waarde is dat het systeem de enorme irritatie van filerijden wegneemt omdat het systeem remt en accelereert wanneer het nodig is. Je kunt je hoofd veel meer uitschakelen, en op het moment dat er ineens iets raars gebeurt dan ben je wel weer wakker. Omdat de Tesla alles doet is het veel minder irritant als er ineens iemand in je rijbaan komt, de auto remt dan zelf wel bij namelijk en het kost jou geen energie meer om andere weggebruikers te managen.

In de VS heb je navigate on autopilot waarbij autopilot op de snelweg 100% van de handelingen verricht, inclusief invoegen, zelfstandig van baan veranderen en uitvoegen.
Deze persoon wist exact de beperkingen. Hij wist zelfs dat zijn auto hem elke keer richting deze blokkade stuurde... Tja.. je kan het elke keer blijven "testen" voor persoonlijke leer, maar dan gaat het een keer mis.
Het maakt je gemakzuchtig waardoor je met andere dingen bezig bent, natuurlijk is de persoon uiteindelijk de schuldige neemt niet weg dat je gemakzuchtig wordt.
Bij de eerste vermelding van dit systeem maakte ik al een opmerking over mijn zorgen wat betreft afleiding als je "niks te doen hebt". Als je alleen maar opletten lukt niet over een langere periode.

Maar om hier Tesla de schuld te geven gaat te ver. Blijkbaar kennen ze het concept van "eigen verantwoordelijkheid" niet meer in de VS.
Amerika is toch het land waar het een nationale sport is om alles wat normaal gesproken zou moeten vallen onder 'eigen verantwoordelijkheid' zo snel mogelijk af te wentelen op 'andermans falen' (en nu: geld)?
Ik denk maar aan de waarschuwingen op een kop koffie dat de inhoud heet is? Natuurlijk is het heet... dat verwacht ik van mijn koffie.

En laten we even wel zijn... het gaat in een Tesla (en het gros van de andere slimme(re) autos's) om een rijassistentiesysteem. Tesla verkoopt dat als "Autopilot"... een vlag die de lading absoluut niet dekt. Combineer dat met het feit dat allerlei mensen niet meer zelfstandig lijken te kunnen denken, en je creeert dus situaties waarbij mensen aannemen dat hun Tesla net zo veilig is in het verkeer als een gemiddeld verkeersvliegtuig. Kortom... een beetje een Boeing 737 Max-situatie.

Natuurlijk is (was) de bestuurder een lul, dat zijn telefoon belangrijker was dan het verkeer. Maar dat neemt niet weg dat ook de techniek hier missers gemaakt heeft.
Dat klopt, ziets als het bijschrijft "may contain nuts" op een zakje pinda's. Mag ik toch hopen.

Desalnietemin staat in de handleiding van Tesla's blijkbaar dat de bestuurder verantwoordelijk blijft en op moet blijven letten. Zou de rechtzaak stand houden, puur en alleen vanwege de naam van het systeem?

De techniek heeft niet zozeer een misser gemaakt, maar de mens. In de eerste plaats de bestuurder en in de tweede plaats (al moet dus nog blijken of dit stand houdt) de marketing afdeling van Tesla door het systeem een "autopilot" te noemen.
Tesla market hun produkt met de naam autopilot, dan is het logisch dat mensen het als een autopilot behandelen.
Ze hebben toch vrij duidelijk op de site wat auto pilot kan. Hier een stukje wat ook op de site staat: "De functies die momenteel beschikbaar zijn, vereisen actief toezicht van de bestuurder en maken de auto niet zelfrijdend."
Schijnbaar zijn ze niet duidelijk genoeg omdat het systeem toch misbruikt wordt.
Schijnbaar hebben ze ook niet voldoende controles ingevoerd die er voor zorgen dat het systeem niet misbruikt kan worden.
Het systeem is niet perfect dus moet je er voor zorgen dat het niet misbruikt kan worden.
Schijnbaar zijn ze niet duidelijk genoeg omdat het systeem toch misbruikt wordt
Het niet weten en misbruiken in 1 zin gaat niet echt op, of je weet het niet en gebruikt het systeem verkeerd, of je weet het en doet het toch wat dan misbruik zou kunnen heten.

Daarnaast krijg je als het goed is ook een melding bij het activeren die nog eens benadrukt dat het nog niet perfect is...

[Reactie gewijzigd door watercoolertje op 22 juli 2024 17:23]

Daarnaast krijg je als het goed is ook een melding bij het activeren die nog eens benadrukt dat het nog niet perfect is...
De ntsb is duidelijk is haar rapport. Tesla wist dat het systeem misbruikt werd en heeft daar niet genoeg waarborgen voor ingebouwd. Die waarschuwing is leuk maar dus gewoon niet genoeg als het alsnog misbruikt kan worden.
Het rapport geeft ook de bestuurder de schuld maar ook tesla. Lijkt me duidelijk toch.
Beetje dooddoener. Je hebt altijd maloten die het misbruiken. Tesla doet er alles aan met vervelende nags, toeters en bellen en weet ik veel wat. Deze persoon wist dat het systeem op zijn weg niet werkte en gebruikte het elke dag alsnog om zichzelf in gevaar te brengen.

Het enige wat je kan doen is het systeem uitschakelen en meer doden voor je rekening nemen. Dat is nu eenmaal "normaal". Een dode door een Tesla met AP ingeschakeld, is nu ineens.. "abnormaal" ook al zou het meer levens kunnen redden. Mensen en verandering.. gaat altijd moeizaam.

Tesla moet gewoon beelden releasen van "bijna dood" ervaringen waar mensen zijn van gered :+ Die auto neemt toch alles op ;)

[Reactie gewijzigd door jordy5 op 22 juli 2024 17:23]

Ja en als je het wil aanzetten in je auto krijg je een hele dikke disclaimer met BETA(!!!) er boven.
Was dat maar zo, in plaats daarvan zijn er aardig wat mensen die "autonoom rijdende auto" lezen in plaats van automatische piloot.
Hoe kom je erbij dat piloten met hun voeten op het dashboard een krant zitten te lezen? Ik durf zelfs te verdedigen dat de autopilot van Tesla meer zaken uit handen neemt dan de automatische piloot van een commercieel toestel.

Dus wat dat betreft: konden mensen het maar behandelen als een automatische piloot.
Ik vind ook dat de bestuurder de meeste schuld draagt. Uiteindelijk zijn er veel partijen die iets van de schuld dragen.
Maar die rimpelbuisobstakelbeveiliger is niet door Tesla's autopiloot herkend, net als de wegmarkeringen daar naar toe, dus daar had Tesla beter in kunnen zijn.
Je vergeet dat tesla ook niet herkend heeft dat de bestuurder met iets anders bezig was, handen niet aan het stuur had en het systeem dus niet gebruikte waar het voor bedoeld was. Exact over dat deel is er dus de kritiek van de ntsb en de eis dat deel te verbeteren.

Je kan ook stellen dat als tesla wel herkend zou hebben dat de bestuurder met iets anders bezig was, had ingegrepen of duidelijk had gemaakt dat dit niet de bedoeling was hij nu misschien niet door geweest zou zijn.

Het is dus maar net van welke kant je dit probleem wil zien.
Ik heb genoeg voorbeelden en pogingen gezien van bestuurders om Tesla's checks te omzeilen. Soms zelfs per ongeluk. Inclusief met handen aan het stuur in slaap vallen. Mensen zijn zo random dat je moeilijk alles kan inprogrammeren.
Daarbij: zoals de NTSB zegt: oplettendheid detectie in verkeer kan je ook eisen van smartphone producenten. En laptop producenten. En dumbphone producenten. Etc. Je kan een miljoen dingen doen achter het stuur. Daar hoor ik je niet over :P

Weg en obstakel herkenning: dat is natuurlijk de crux van een autopiloot, ik vind dat Tesla juist daar de verantwoordelijkheid draagt. En de levens kan redden (zelfs met autopiloot uit).
grappig hoe je nu dus smartphone de schuld probeert te geven. Volgens jou redenatie moeten deze systemen dan eigenlijk niet beschikbaar zijn.
Dat doe ik niet; het NTSB geeft die (gedeelde) schuld aan Apple en andere apparaten, zoals staat in de tekst.
Ik geef aan dat mensen vrij willekeurig zijn, en daardoor wel verplicht zijn om zelf verantwoording te dragen. Want elke misdraging van een mens technisch te ondervangen lijkt me zeer lastig.

Het detecteren van dingen die mis zijn aan/op de weg, daar zou Tesla wél iets aan kunnen doen, gezien de selectie van sensoren die een Tesla autopiloot tot zijn beschikking heeft.
Ik vind het ook wel apart dat die rimpelbuisobstakelbeveiliger beschadigd was en niet was vervangen.
En over de autopilot het klopt dat die toen nog niet echt goed was. In 2018 was er nog een update om de auto in het midden van de weg te laten rijden.. Daarvoor kon de auto steeds naar links en rechts gaan op de weg
Nee, juist niet helemaal de schuld van de bestuurd. Deels zeker, grotendeels zelfs, maar Autopilot treft ook een stukje van de blaam. Tesla laat bestuurders nu veel meer doen met Autopilot dan waarvoor het systeem geschikt is, terwijl Tesla dat wel degelijk kan en zou moeten beperken.
EN terrecht mensen moet gewaarschuwd worden dat de reclame ten spijte deze systemen alles behalve genoeg zijn om alleen te kunnen rijden.

Daarnaast: het systeem ging ook op verschillende punten de mist in normaal dat men dit onderzoekt en raporteerd, zo kan het enkel verbeteren.
En hij zat te gamen in de auto omdat Tesla dat toe liet. Kom op man, er zijn zat gevallen met slapende bestuurders in Tesla's terwijl die lekker door gaat op "autopilot". Dat zou niet mogelijk moeten zijn, met al die tech in de auto, gooi een paar sensors in de cabine die een afgeleide bestuurder detecteren en even lekker een alarm inschakelen.

Tesla market een systeem met een naam die niet accuraat is maar wel een groot selling point is. En nog zat beperkingen heeft waardoor het de naam niet waardig is. En ze zetten zichzelf in de spotlight door een voorloper te willen zijn, maar nemen daarbij niet genoeg verantwoordelijkheid voor veiligheid zo blijkt. Dus ja, dan krijg je negatieve pers. Er is ook zat positieve pers en verhalen die klakkeloos uit Tesla persberichten worden overgenomen, een beetje balans is goed. Helemaal als het vanuit de NTSB komt, toch een zeer respectabel ongeval onderzoeks instituut.

Ik ben voor technische vooruitgang, maar niet ten alle koste. Als zo'n idioot in Nederland op pad gaat en een ongeluk veroorzaakt waar mensen die jij kent of misschien jijzelf het slachtoffer zijn, misschien krijg je dan een andere mening. We hebben juist veel lessen opgestoken van de luchtvaart en automatisering daar, waardoor we niet het wiel opnieuw hoeven uit te vinden, met alle slachtoffers en gevolgen vandien, als we dezelfde principes willen toepassen in grond vervoer.
Zit zo'n systeem serieus niet in de Tesla? Een paar jaar terug op de Uni nog een projectje gedaan waarin we een prototype hadden gemaakt van een eyetracking systeem wat lette op saccades en fixatietijd e.d. om te kunnen detecteren of een persoon aandacht begon te verliezen en te waarschuwen om z.s.m. een pauze te nemen van het rijden (was in onze usecase bedoeld voor truckers).

Zo moeilijk is het niet om op die manier een slaperig, en al helemaal een slapend persoon te herkennen en te waarschuwen. Of gewoon iemand te herkennen die de hele tijd naar een schermpje zit te staren i.p.v. de weg zit te scannen.

Wanneer je autopilot mogelijkheden in een auto zet, en je hierbij zegt dat het niet vervangend is voor een bestuurder en je dus moet blijven opletten, is het wel zo handig om er ook de mogelijkheid in te stoppen wat dit daadwerkelijk in de gaten houd. We weten dat mensen op allerlei manieren heel erg dom kunnen zijn, en dat enkel een bordje of een waarschuwing lang niet altijd het gewenste effect hebben. Hoe stom ook, maar ik kan mij voorstellen dat er bestuurders zijn die denken: ja ja, die waarschuwing staat er enkel voor legal reasons, ik ga gewoon lekker m'n spelletje spelen/mail checken/tukkie doen, komt wel goed. Tot dat het dus inderdaad niet goed gaat.

Ik kan mij ook enkel voorstellen dat het immens makkelijk is voor Tesla om zoiets te incorporeren, dus dat vind ik wel kwalijk.
Voer voor de lol maar eens "tesla driver sleeping" in op je favoriete zoekmachine. Lijkt er toch sterk op dat als er al systemen aanwezig zijn om dergelijke inattentie te voorkomen, die niet erg effectief zijn.

Men voert hier in de comments ook aan dat Tesla toch erg groot een disclaimer op het scherm zet... Ik zou zeggen dat dat net zo effectief is als alle End User License Agreements voor een willekeurig stuk software. Dus hier zou Tesla verantwoordelijkheid moeten nemen en gewoon maatregelen moeten invoeren die dit soort situaties onmogelijk maken, totdat volledige autonomie bewezen en veilig is.

Zoals jij noemde zijn er al effectieve systemen beschikbaar (zoals eyetracking) die kunnen voorkomen dat iemand zit te gamen op z'n telefoon tijdens het rijden, of in slaap valt. Echter is Tesla Autopilot en Full Self Driving een selling point en optie waaraan ze geld verdienen. Winst gaat voor veiligheid.

LET OP: Ik zeg niet dat de bestuurder geen blaam treft, uiteraard is dat een idioot. Maar Tesla treft ook deels blaam door dit toe te laten en de manier waarop ze hun systeem marketen. Veel bestuurders zullen gewoon de disclaimer wegklikken en nog steeds denken dat ze lekker weg kunnen dromen. Ik bedoel, een groot deel van de bestuurders denken al dat ze dat gewoon kunnen doen in autos zonder "autopilot". Dus zolang er geen adequate bescherming tegen dat soort gedrag is, zullen mensen het blijven doen. Dan moet je als fabrikant optreden.
Maar dan geldt dit net zo hard voor alle andere autofabrikanten. Vermoeidheid/in slaap vallen is een veelvoorkomende oorzaak van (dodelijke) ongevallen. Dan val ik liever in slaap in een Tesla met autopilot. Je kan waarschuwen tot je een ons weegt, als iemand ze negeert of erdoorheen slaapt, dan heb je er weinig aan.

De oplossing is naar mijn mening niet om ten alle tijden de aandacht van de bestuurder te eisen, dat gaat nooit lukken. Mensen zijn geen machines en zullen nu eenmaal in slaap vallen, dronken zijn en afgeleid raken door te gamen/appen. Of het dom is of niet is niet relevant, de realiteit is dat het gebeurt. De enige oplossing hiervoor is om dat nu eenmaal te accepteren en zorgen dat ze toch veilig op bestemming komen en daar zijn ze hard mee bezig met de zelfrijdende auto's.

Tot die tijd zullen er nog wel wat ongelukken volgen, maar die zijn er elke dag met auto's zonder autopilot. Die bestuurders letten ook niet allemaal goed op.
Dus het feit dat een bestuurder het systeem kan aanzetten en dan volledig negeren is de schuld van de bestuurder? Waarom slaagt Tesla er in de EU dan wel in om bestuurders aandachtig te houden terwijl ze dit in de VS tot op heden niet doen? Lijk mij dat Tesla wel degelijk actie kan ondernemen om het te verbeteren en dus ook wel wat verantwoordelijkheid draagt.
Nogmaals, als je het aanzet krijg je een hele vette disclaimer voor je neus dat je zelf verantwoordelijk bent en altijd je aandacht moet houden bij het rijden. Als je dat dan niet doet ben je gewoon een dikke pannekoek wat mij betreft.
Precies, dit zou hetzelfde zijn als je achterop iemand knalt, en dan je autofabrikant de schuld geven omdat hun auto's een sensor hebben die zo'n ongeluk moet helpen voorkomen. Verlichting niet aan hebben terwijl ze op automatisch staan, levert je nog steeds een bekeuring op en die ga je ook niet kunnen verhalen.

Je rijdt nog steeds zelf. En ook de handelingen die je aan je auto wil overlaten, voer je indirect zelf uit en ben je dus ook verantwoordelijk en aansprakelijk voor.

Je gaat een computerfabrikant ook niet aansprakelijk stellen voor de hacks die met hun computers uitgevoerd worden. Dit is exact hetzelfde. Hackers doen de hack niet zelf; ze geven commando's aan hun computer om iets te doen, en de computer doet de rest. Exact hetzelfde als een ongeluk maken met een zelfrijdende auto, of een auto met mindere mate van autonomiteit.

[Reactie gewijzigd door _Thanatos_ op 22 juli 2024 17:23]

stop met dit ideologische gezwets. mensen zijn geen rationele wezens. we maken domme keuzes. is dat onze fout, of de fout van de omgeving die er geen rekening mee heeft gehouden dat ze een situatie creeren waar domme keuzes maken verleidelijk en makkelijk wordt? er zit een hele wetenschap achter hoe meldingen gegeven moeten worden en hoe je dingen veilig krijgt. zijn tagouts dan ook onnodig? sinds het simpelweg dom is als iemand anders iets weer aanzet terwijl het in service is? nee natuurlijk niet. Dat is gewoon een fout die kan gebeuren. hetzelfde hier.
Zeker omdat deze bestuurder al enkele malen geklaagd had dat het systeem niet naar behoren werkte en hem op die plek al meerdere malen richting die betonnen splitsing had gestuurd... De man komt wat mij betreft zeker in aanmerking voor een Darwin award.... Het is natuurlijk wel spijtig dat het gebeurd is.. Maar iets vergelijkbaars kan je ook overkomen als je niet oplet en de 'normale' cruisecontrol aan hebt staan, gebeuren wekelijks genoeg ongelukken mee..
Hoe kan het helemaal (=uitsluitend) de schuld van de bestuurder zijn? In een andere auto was hij niet afgeleid geweest. Kennelijk is Tesla zich er zelf niet van bewust, of maakt zijn klanten er onvoldoende van bewust, dat de autopilot een hulpmiddel is, net als een automatische versnellingsbak, een lane assist of een cruise control. Door de naam autopilot en de over het algemeen vrij uitgebreide mogelijkheden,heeft men ten onrechte de verwachting dat de bestuurder niet hoeft op te letten. Het is niet alleen de bestuurder zelf die dat denkt, het lijkt me een bewuste suggestie - mogelijk vanwege marketingdoeleinden.

[Reactie gewijzigd door mae-t.net op 22 juli 2024 17:23]

Volgens mij is de 'hoofdschuldige' de bestuurder die met andere zaken bezig was dan op de weg te letten. En daarna de wegbeheerder die de rimpelbuisobstakelbeveiliger niet had gerepareerd, want als iemand anders hier tegenaan was gereden was hetzelfde effect opgetreden (uitzondering daar als dat ding eerder die dag stuk was gereden). En daarna pas Tesla lijkt me. Dat de software niet alles goed herkend kan gebeuren, maar de berijder is nog altijd (althans in NL) verantwoordelijk.
En wat Apple hiermee te maken heeft is natuurlijk helemaal onzin. Dan kan niemand meer die met een voertuig mee reist (auto, bus, trein, etc) zijn telefoon nog gebruiken.
Tijd dat Tesla de naam van Autopilot veranderd in Drive assist. Dat lijkt mij een betere naam omdat het begrip "assistant" duidelijk maakt dat de bestuurder nog steeds de eind-controle heeft. Auto pilot impliceert meer dat de auto alles zelf doet, iets wat momenteel nog niet het geval is. Ze zijn weliswaar goed op weg, maar om het Auto Pilot te noemen is het nog te vroeg.

Tesla heeft hier zeker niet de volledige schuld, een bestuurder moet immers altijd zelf blijven opletten. Maar een naam kan, al dan niet onbewust, een ander beeld geven van de functie met als resultaat dat mensen deze fout gaan gebruiken.

[Reactie gewijzigd door n9iels op 22 juli 2024 17:23]

Auto pilot impliceert helemaal niets, het impliceert dat het bepaalde zaken zelf kan ja, net zoals cruisecontrol.. De eerste autopilot bij vliegtuigen deed ook niets meer dan het vliegtuig op een bepaalde koers houden, niets meer niets minder..
En je krijgt bij het ophalen van de Tesla een uitgebreide uitleg over hoe het systeem werkt, en inmiddels weet elke persoon die een Tesla koopt dat Autopilot gewoon een driveassist is..
Naam van de functie is hier niet het probleem..
Waar ik vooral benieuwd naar ben zijn volledige cijfers: het gaat soms inderdaad heel pijnlijk mis zoals bij deze Apple developer die in zijn Model X in feite op een dunne stalen/betonnen paal reed, maar vaak zal Autopilot ook levens redden vermoed ik.

Dat is echter niet zomaar te zien en daarvoor moet je statistieken en wetenschap gebruiken. Ik hoop dat men dit ook doet en dat men niet op losse incidenten bijvoorbeeld nieuwe wetgeving gaat ontwikkelen, die uiteindelijk meer kwaad dan goed doet.
Tuurlijk, weer een mooie titel. Weetje wat een mooie titel was geweest? "Bestuurder rijd op betonblok omdat hij een spelletje aan het doen was!" Maarja dat is geen clickbait, want daar staat geen Tesla en Autopilot in.

Admin-edit:Bedankt voor je feedback. Commentaar voor de redactie hoort echter thuis in Geachte Redactie. Hier staat het de inhoudelijke discussie niet in de weg en kan de redactie het eenvoudig terugvinden.

[Reactie gewijzigd door Bor op 22 juli 2024 17:23]

De titel klopt toch gewoon met het nieuwsbericht. Klik eens het rapport aan en kijk naar de bevindingen. Het rapport noteert zeven veiligheidskwesties. De eerste en voornaamste is de afgeleide bestuurder. Maar daarna volgen drie tekortkomingen aan de Autopilot van Tesla, een tekortkoming over regulering van zelfrijdende systemen, een tekortkoming rondom de toegang tot data van zelfrijdende auto's en een infrastructurele tekortkoming.

Dan mag je toch gerust koppen dat de Autopilot van Tesla een deel van de oorzaak was. Dat is ook het meest nieuwswaardige hieraan.

[Reactie gewijzigd door AronB op 22 juli 2024 17:23]

Maar daarna volgen drie tekortkomingen aan de Autopilot van Tesla,
Om deze samen te vatten:
  • Autopilot deed niet voldoende om de aandacht van de bestuurder uit te lezen en de bestuurder op tijd te alarmeren.
  • Autopilot heeft geen beperking die voorkomt dat het gebruikt kan worden in situaties waarvan Tesla aangeeft dat het niet gebruikt moet worden.
  • Het systeem dat botsingen herkent en automatisch ingrijpt (remmen) is niet ontworpen om op zulke hoge snelheden te werken.
De primaire verantwoordelijke blijft de bestuurder, maar aan Autopilot zijn nog voldoende verbeteringen te maken om het veiliger te kunnen gebruiken. Qua dat schoot het net als de bestuurder tekort.

Andersom geredeneerd:
  • De bestuurder had kunnen voorkomen dat de Tesla zou crashen.
  • Autopilot had kunnen voorkomen dat de Tesla zou crashen.
Beiden hebben dat niet gedaan door hun gebreken, dus beiden zijn oorzaak van de crash. De titel van het artikel is correct.

Brakke bestuurders zijn geen excuus om technologische ontwikkelingen te stoppen. Sterker nog, technologische ontwikkelingen zijn vaak nodig om tekortkomingen van de mens te compenseren. De tekortkomingen in Autopilot zijn aangetoond en kunnen verbeterd worden. Daar is niets mis mee.

Als de gepolariseerde partijen (Tesla fanboys en technofoben) even de strijdbijl begraven in plaats van meteen op hun achterste benen te staan om hun standpunt tot in het oneindige te verdedigen, dan zien zij dat dit juist een goede ontwikkeling is. De crash is betreurenswaardig, maar door de genoemde kwesties (ook die gerelateerd aan regulatie, toegang tot data en infrastructuur) aan te pakken kan dit in de toekomst voorkomen worden.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 17:23]

Maar het is en blijft een hulpmiddel, dat Autopilot. Ik ga toch ook niet on-oplettend van alles en nog wat doen wanneer de auto op adaptive-cruise control staat met lane-keeping assist? Het zijn hulpmiddelen die je in nood kunnen helpen. Bij een uber-test voor self-driving met Volvo's was ook iets als dit gebeurt. Een mevrouw werd dood gereden door een op auto-pilot staande Volvo (van Uber, in testfase). De tester in de Volvo was niet aan het opletten en de emergency-braking system van de Volvo ging niet af. Nou, fijn dus. Schuldige? De bestuurder.

Zulke hulpmiddelen zijn nog altijd in ontwikkeling. Tesla werkt daar aan en het systeem heeft keer op keer bewezen dat het verre van af is. Ook Tesla geeft aan dat het een functie is dat in ontwikkeling is. Hoe ik het zie is dat de enige schuldige de bestuurder is en die heeft het alleen aan zichzelf te verwijten.

Leuk en aardig dat uit de onderzoeken blijkt dat Tesla nog moet werken aan hun AutoPilot system. Dat weet Tesla ook en daar zijn ze nog altijd al mee bezig. Ook hun willen dat het systeem beter werkt, want hoe veiliger des te beter. Mensen schijnen nooit van hun fouten, of fouten van anderen te leren, maar machines kunnen dat wel. Maar dat kost veel tijd en gebeurt niet over nacht.
Hoe ik het zie is dat de enige schuldige de bestuurder is en die heeft het alleen aan zichzelf te verwijten.
Oorzaak, schuldige en aansprakelijke kunnen allemaal los van elkaar staan.
Anoniem: 63072 @AronB26 februari 2020 10:29
Die NTSB zijn ook vrij nutteloos dus:
Apple treft blaam want de telefoon moet beperkt worden. Hoe gaat Apple bepalen of de telefoon door de bestuurder of door een passagie wordt gebruikt? Gaan we dan boven een bepaalde snelheid maar elke telefoon blokkeren? Zal de CEO met privé chauffeur blij mee zijn, of treinreizigers. Nee, de conclusie hier is dat Appl egeen enkele blaam treft, de chauffeur had gewoon met zijn tengels van de telefoon moeten blijven.

Tesla treft blaam? Tesla is vrij duidelijk over wat autopilot wel en niet is en dat je altijd allert moet blijven omdat het systeem niet perfect is en niet volledig autonoom kan en mag rijden. De chauffeur heeft dit genegeerd, zelfs ondanks eerdere problemen op dezelfde locatie. Vrij duidelijk dat de blaam volledig bij de chauffeur ligt.

Wat mij betreft mag deze chauffeur genomineerd worden voor een Darwin award, die heeft hij dik verdiend!
Tenzij de telefoon via Bluetooth of CarPlay verbonden was met de auto. Lijkt me een prima controle optie.
Anoniem: 63072 @mrdemc26 februari 2020 11:02
Ik kan twee telefoons verbinden met bluetooth. Ook mijn passagier kan van de ingebouwde hands free installatie gebruik maken. En vorige week nog tijdens de wintersport heeft mijn passagier mijn telefoon gebruikt om een kaart tevoorschijn te toveren.

We zeggen toch ook niet dat de makers van bestek verantwoordelijk zijn als iemand het steakmes gebruikt voor een moord? Laten we alsjeblieft niet die idiote Amerikaanse claim cultuur hier introduceren.

Gebruikers van producten zijn verantwoordelijk voor hoe, hoe, waar en hoe veilig ze de producten gebruiken, fabrikanten zijn verantwoordelijk dat het product zelf veilig is te gebruiken en werkt.
Tenzij de bijrijder zijn telefoon gebruikt om te navigeren of muziek af te spelen. Lijkt me geen gewenste optie...
In de handleiding van een Magnetron in Amerika staat dat er geen hond of kat in mag. Toch zijn er mensen die dat gedaan hebben om hun huisdier sneller te kunnen drogen. Het resultaat was fataal en erg treurig. Als je een mens zegt om niet naar links te gaan, dan zijn er altijd mensen die alsnog naar links gaan. Dan heb je mensen die alles negeren en doen wat ze willen.

Een systeem wordt altijd fool-proof gemaakt, maar er is altijd weer een case waaruit blijkt dat fool-proof niet fool-proof genoeg is. Keer op keer gebeurt dat. Hoe voorkom je dat iemand een hond in de magnetron doet? Stickers werken niet. Waarschuwingen werken niet. Het zulke mensen dat aangeven werkt niet. Wat dan?

Dit blijft ook waar voor alle andere dingen in het leven waaronder ook het gebruik van een telefoon in de auto.

Wat ga je zeggen tegen iemand die even een medicijn vanwege medische reden inslikt tijdens het auto-rijden en dan een fatale ongeluk veroorzaken? Medicijnen verbieden? Kom op zeg.

Hoe erg bedrijven, en alle mensen die gaan over veiligheid hun best doen, er zijn altijd mensen die weten te bewijzen dat er dommere mensen bestaan op de planeet.
Die NTSB zijn ook vrij nutteloos dus:
Apple treft blaam want de telefoon moet beperkt worden. Hoe gaat Apple bepalen of de telefoon door de bestuurder of door een passagier wordt gebruikt?
Let wel: in het rapport zelf wordt Apple (op pagina 2) aangesproken op haar verantwoordelijkheid als werkgever, omdat volgens NTSB
"Strong company policy, with strict consequences for using portable electronic devices while driving, is an effective strategy in helping to prevent the deadly consequences of distracted driving."
Daarom is één aanbeveling van NTSB ook gericht op Apple Inc als werkgever, en een andere aanbeveling op alle manufacturers van mobiele electronica.

NTSB maakt onderscheid tussen enerzijds de probable causes (Autopilot stuurde een verdrijvingsvlak op én de bestuurder was afgeleid door zijn spelletje én had teveel vertrouwen in de Autopilot) en anderzijds de contributing factors die het ongeluk niet hadden kunnen voorkomen maar de ernst ervan wel hadden kunnen verminderen (niet-effectieve monitoring door de auto of de bestuurder nog alert is en kapotte rimpelbuisobstakelbeveiliger).

Al met al dus best een genuanceerd rapport als ik het zo lees, waarin de rol van Apple toevallig dubbel meespeelt: als werkgever én als bouwer van mobiele electronica. Hoe die functie 'driving mode' zou moeten worden ontwikkeld laat NTSB (volgens mij terecht) aan de industrie over, maar er ligt met dit rapport wel moreel extra druk op Apple om met een werkbare oplossing te komen.

[Reactie gewijzigd door ZwolschBalletje op 22 juli 2024 17:23]

Die driving mode gaat hem nooit worden, dat is totaal onwerkbaar. Een telefoon kan niet zien/voelen of hij door een bestuurder of passagier wordt gebruikt, dus een non starter.

Dan krijg je van die non-functies als dat je boven een bepaalde snelheid (maar dan moet GPS wel aan staan) een extra waarschuwing door moet voor je de telefoon kan gebruiken, net als die idiote schermen op mijn ingebouwde navigatie systeem.

En dat de werkgever een beleid moet hebben dat je niet iets mag doen wat ook de Amerikaanse verkeerswet verbiedt, de telefoon gebruiken tijdens het besturen van een voertuig, is wel een heel erg zwakte bod. 'Wij kunnen de wet niet handhaven, dus leggen we de verantwoordelijkheid bij de werkgever'
Apple treft blaam omdat ze slechte richtlijnen heeft voor het gebruik van de mobiel van de zaak. Bij mijn bedrijf zijn we er erg streng in, en terecht! Je mag niet bellen of appen als je aan het verkeer deelneemt (ook niet handsfree). Het is even wennen en soms lastig, maar als het leven van je werknemers je lief is moet je hier echt wat mee, zeker mbt zakelijk reizen. Het is gewoon bewezen dat er een hoog risico op ongevallen en dus letsel of dood als je afgeleid bent door bijv het gebruiken van een telefoon.
Anoniem: 63072 @mjl26 februari 2020 11:36
Zoals ik al elders zeg, waarom moet een werkgever een beleid opstellen die iets verbiedt dat de wet al verbiedt?

Mijn werkgever heeft dus wel zo'n beleid, staat in mijn contract in één enkele zin: Ik heb mij bij het uitoefenen van mijn werk aan de wet- en regelgeving te houden.

En wat ik privé doe is mijn verantwoordelijkheid zolang het de naam van de werkgever niet schaadt. (Een ander zinnetje in mijn contract).

Het is diep en diep triest dat werkgevers zich door de moraal ridders gedwongen zien om dit soort onzin zaken in hun richtlijnen op te nemen. Misschien moet men zich eens met nuttige zaken bezig houden!
Het gaat ook alleen over werk gerelateerd reizen, wat je in je eigen tijd uitspookt moet men zelf weten.
Anoniem: 63072 @mjl26 februari 2020 18:19
Maar dat bedoel ik ook: als je werkt geldt gewoon de wet voor jou, het is dan ook totaal overbodig om in bedrijfsregels wettelijke regels te herhalen. De wet overtreden tijdens werktijd zou afhankelijk van de ernst een officiele waarschuwing of ontslag op staande voet moeten opleveren. Niet omdat je een bedrijfsregel overtreedt, maar omdat je de wet overtreedt!
Dan mag je toch gerust koppen dat de Autopilot van Tesla een deel van de oorzaak was.
De term die hier gebruikt wordt is 'limitations' = beperkingen en niet tekortkomingen. Als je leest wat er wordt geschreven in de bron voelt het aan alsof dit het Amerikaanse equivalent is van waarschuwingsstickers met "Stop geen baby of kat in de magnetron!". Als iemand denkt een paraplu te gebruiken als parachute omdat dit ook gedaan is in verschillende onrealistische films/series is dat geen tekortkoming van de paraplu, maar toch echt van de persoon die er gebruik van maakte...

Daarnaast maakt het rapport verschillende adviezen aan verschillende organisaties en bedrijven, geen daarvan zijn direct gericht aan Tesla.
To the National Highway Traffic Safety Administration:
<snip>
2.Evaluate Tesla Autopilot-equipped vehicles to determine if the system’s operating limitations, foreseeability of driver misuse, and the ability to operate the vehicles outside the intended operational design domain pose an unreasonable risk to safety; if safety defects are identified, use applicable enforcement authority to ensure that Tesla Inc. takes corrective action.

[Reactie gewijzigd door Cergorach op 22 juli 2024 17:23]

Er staan zeker wel aanbevelingen gericht aan Tesla in
To Tesla Inc.:
Incorporate system safeguards that limit the use of automated vehicle control
systems to those conditions for which they were designed. (H-17-41)
Safety Recommendation H-17-41 is reclassified from “Open―Await Response” to
“Open―Unacceptable Response.”
Develop applications to more effectively sense the driver’s level of engagement and
alert the driver when engagement is lacking while automated vehicle control systems
are in use. (H-17-42)
Safety Recommendation H-17-42 is reclassified from “Open―Await Response” to
“Open―Unacceptable Response.”
Onder het kopje: Previously Issued Recommendations Reiterated and Reclassified in The Report
Wat een onzin, meneer weet heus wel dat het niet bedoeling is spelletjes te gaan zitten spelen, zeker als het al eerder misgegaan is op dat punt.

Autopilot herinnert je letterlijk elke 10 seconden dat je het stuur vast moet houden als je deze loslaat.

Maar nee, Als Tesla nou dit, en Apple nou dat, en wegbeheer nou dat, DAN had hij niet dood geweest.

Als ie gewoon normaal had gedaan, geen spelletje had gespeeld en gewoon voor zich uit had gekeken, DAN was hij niet dood geweest.
Hooguit zwaar gewond, het spelen van het spelletje was op conto van de bestuurder. Zonder de afleiding was het waarschijnlijk met een schrik afgelopen.

Gewoon een goed rapport waar alle betrokkenen (direct en indirect) van kunnen leren om het in de toekomst zo veel mogelijk te voorkomen.

[Reactie gewijzigd door mjl op 22 juli 2024 17:23]

Van een techniek genaamd Autopilot mag je verwachten dat het ook daadwerkelijk je auto goed kan besturen. Maar in principe is het gewoon lane assist en adaptive cruise control, maarja dat is niet hyperig genoeg voor Musk.

Maar uiteindelijk is het dus een hele opstapeling van fouten, maar in eerste instantie is de bestuurder natuurlijk verantwoordelijk.

[Reactie gewijzigd door Abom op 22 juli 2024 17:23]

Van een techniek genaamd Autopilot mag je verwachten dat het ook daadwerkelijk je auto goed kan besturen. Maar in principe is het gewoon lane assist en adaptive cruise control, maarja dat is niet hyperig genoeg voor Musk.
Quote Wikipedia wat Autopilot is:
An autopilot is a system used to control the trajectory of an aircraft, marine craft or spacecraft without constant manual control by a human operator being required. Autopilots do not replace human operators, but instead they assist them in controlling the vehicle. This allows them to focus on broader aspects of operations such as monitoring the trajectory, weather and systems.
De term autopilot is hiermee dus correct gekozen. En als de bestuurder de Trajectory van het voertuig had gemonitord was er geen crash geweest.
Met de nuance dat piloten worden getraind op het gebruik van autopilots van vliegtuigen, inclusief de beperkingen daarvan.
Anoniem: 63072 @Abom26 februari 2020 19:59
Iets wat van mij dan ook onderdeel mag worden van het theorie examen voor het rijbewijs.

En voor de bestaande rijbewijshouders geld net als voor elke andere verkeersregel dat zij zelf de verantwoordelijkheid hebben om de kennis op peil te houden.

Dat niemand dat doet is laakbaar, maar niet de schuld van bijvoorbeeld het CBR; alleen de nalatige zelf draagt hiervoor verantwoordelijkheid.
Maar wat zal de gemiddelde persoon op straat aangeven als je vraagt naar de definitie van een "Autopilot"? Ik denk dat daar toch een heel ander beeld heerst dan de exacte definitie van zo'n dergelijk systeem in de professionele omgeving van een vliegtuig, waardoor je toch een onduidelijkheid schept voor je klanten door het systeem zo te noemen.
Maar wat zal de gemiddelde persoon op straat aangeven als je vraagt naar de definitie van een "Autopilot"?
Ik verwacht dat de definitie in Nederland nogal afwijkt van de definitie in engelstalige landen.

Hoewel piloten worden getraind in het gebruik mag je van een bestuurder in een tesla verwachten dat hij de informatie op het scherm en voorwaarden te harte neemt en deze voor het gebruik ook daadwerkelijk leest. Er staat letterlijk in de info:
Similar to the autopilot function in airplaines, you need to maintain control and responsibility of you vehicle while enjoing the convenience of autopilot
De bestuurder is en blijft verantwoordelijk.

[Reactie gewijzigd door thijssie83 op 22 juli 2024 17:23]

De gemiddelde persoon heeft geen idee. De persoon dat een auto koopt met als selling-point "Autopilot" zal dat wel weten of die geluisterd heeft naar het verkoop praatje, of die de brochure gelezen heeft, of die het verkoopstikkertje op de auto gelezen heeft, of die de website waar de auto op staat gezien heeft, of die de handleiding gezien heeft, of die de melding op het scherm in de tesla gezien heeft (meerdere keren zelfs), of die de waarschuwing dat Tesla aangeeft gezien en gehoord heeft...tja...dan hoort een koper het dus wel te weten. Je wordt er bijna mee gehersenspoelt. En toch zijn er altijd mensen die er de laars aan lappen.

Als je als koper meer dan 15 maal het woord assistent hoort dan moet het wel duidelijk zijn toch? Zelfs tijdens Autopilot, als je ook maar 10s je handen van het stuur hebt dan piept de auto al en dat is verdomde irritant. Naja, ook dat kan een bestuurder blijven negeren totdat de auto in alarm slaat en de bestuurder autopilot vervolgens straft door autopilot te verbieden. Maargoed, wat als je een spelletje speelt, voordat de auto automatisch stopt je crasht? Dan heb je dus de huidige case. Wat een flapdrol is 't toch ook.
Van een techniek genaamd Autopilot mag je verwachten dat het ook daadwerkelijk je auto goed kan besturen.
In de luchtvaart bewaakt de automatische piloot doorgaans alleen je hoogte en richting, en is de piloot nog ook nog steeds in controle en verantwoordelijk, dus je verwachting is allerminst redelijk.
Maar in principe is het gewoon lane assist en adaptive cruise control
Dat is het niet.
[...]
In de luchtvaart bewaakt de automatische piloot doorgaans alleen je hoogte en richting, en is de piloot nog ook nog steeds in controle en verantwoordelijk, dus je verwachting is allerminst redelijk.
Het probleem is dat (veel) mensen te dom zijn om te realiseren dat dergelijke systemen beperkingen hebben, net zoals autopilots van vliegtuigen beperkingen hebben maar piloten worden daarop getraind.
Dat is het niet.
Leg uit. Er zijn legio filmpjes waarin het falen van autopilot te zien is. Ja, ze ontwikkelen het continu, wat natuurlijk heel erg goed is. Maar dit gaat over een voorval uit 2018.
Het is een systeem dat als in BETA wordt geadverteerd. Zelfs in de naamgeving staat dat het in ontwikkeling is. Het is immers een assistent en zo wordt het ook verkocht en geeft het systeem dat aan de gebruiker aan.

Mensen dromen vaak van een zelf-rijdende auto, maar zo ver zijn we nog niet. Ik bedoel maar, mijn auto heeft automatische emergency-braking en remt ook automatisch af als ik te dicht op een andere auto kom, maar wat als ik dat systeem blindelings ga vertrouwen en stop met remmen? Wat als het een keer fout gaat? Tja, dat is mijn eigen schuld, net als deze Tesla bestuurder.

Rijd je op de weg? Opletten dan. Staat in de theorie en in de wet en daar moet je als bestuurder je dan ook aan houden, ongeacht hoe mooi welk functie dan ook op een auto klinkt.
Laten we ook even meenemen dat dit in 2018 gebeurd is. Rond die tijd kwam er een update om de auto in het midden van de weg te laten rijden. Hiervoor werkte dat niet altijd even goed. Sinds die tijd is het natuurlijk al wel veel verbeterd
Staat toch gewoon in de titel dat de bestuurder was afgeleid.

Is toch zeker wel relevant om te weten dat ook die autopilot fouten maakt. Niks clickbait aan die titel. Is gewoon interessante opkomende technologie en daarover wil ik graag weten als het een keer fouten maakt.
Nee het is niet OK om de schuld zelfs deels op Tesla af te schuiven, want ze zijn erg duidelijk in dat je ten alle tijde moet blijven opletten omdat de autopilot geen level 5 systeem is.

Het is dus niet de oorzaak van de crash; dat is dat de bestuurder niet oplette en niet ingreep. Net zoals bij een gewone auto als je niet oplet en niet stuurt, dan is het toch ook niet de schuld van de auto.
Tesla kan haar verantwoordelijkheid in deze niet geheel op de bestuurder afschuiven. Natuurlijk staat overal dat je zelf moet blijven opletten. Maar als je tegelijk een systeem maakt waarmee je met 1 druk op de knop dat toch mogelijk maakt, nodig je als het ware mensen uit om het toch als zodanig te gebruiken. De slapende chauffeur van een Tesla is al bijna een cliché aan het worden.

Als je de deur van je huis open zet als je je huis verlaat blijft een inbreker schuldig maar telt tegelijk je eigen gedrag ook mee in de zin van aansprakelijkheid.
Anoniem: 63072 @HDoc26 februari 2020 10:41
Dus moet tesla het systeem maar niet gebruiken, omdat sommige mensen te dom zijn om er verantwoordelijk mee om te gaan? Dat is de wereld op zijn kop zetten.

Bovendien heeft Tesla geen systeem gemaakt dat dit met 1 druk op de knop mogelijk maakt, claimt Tesla ook niet dat ze dit gemaakt hebben en waarschuwen ze zelfs dat dit niet is wat ze gemaakt hebben. Daarmee heeft Tesla gewoon alles gedaan wat ze kunnen doen, anders dan het systeem niet op de markt brengen.

Niet in dit geval, maar autofabrikanten kunnen er ook weinig aan doen dat er mensen actief hun systemen omzeilen en gewichten aan het stuur hangen om het systeem te doen denken dat ze het stuur vast hebben. Wat mij betreft mag je die mensen als je ze betrapt ermanent het rijbewijs afpakken. Ze hebben niet de intelligentie om met dit soort systemen om te gaan en kunnen de verantwoordelijkheid van autorijden duidelijk niet aan.

edit: Mooi hoe je op Tweakers gedownmod wordt als je durft te suggereren dat mensen 'misschien' zelf verantwoordelijk zijn voor hun acties. Lekker makkelijk hoor schuld afschuiven op bedrijven, weet in ieder geval met wat voor volk ik hier van doen heb...

[Reactie gewijzigd door Anoniem: 63072 op 22 juli 2024 17:23]

Jammer dat je gedownmod wordt.

Tegelijk ben ik het echt niet met je eens.

Het systeem is kennelijk te verleidelijk om niet op een juiste manier te gebruiken.

Vuurwapens doden geen mensen maar mensen met vuurwapens doden mensen. Als iedereen verantwoordelijk met een vuurwapen om zou gaan, zouden er nooit problemen mee zijn. Tegelijk zijn vuurwapens in de meeste landen verboden omdat ze nu eenmaal toch meer gebruikt worden als er veel in omloop zijn.

Een verbod op deze autopilot zoals dat op dit moment werkt lijkt me dan ook zinvol.
Anoniem: 63072 @HDoc26 februari 2020 18:16
Mooi voorbeeld.

Om een auto te mogen rijden heb je een rijbewijs nodig, waarmee je vaardigheid aantoont in het besturen van een auto.

Om een verlof voor een vuurwapen te krijgen oest ik niet alleen vaardigheid, maar ook geschiktheid kunnen (doorlopend blijven kunnen) tonen.

Wat mij betreft is er geen enkel verschil, als mensen laten zien dat ze niet met zo'n systeem om kunnen gaan, dan zouden ze het recht moeten verliezen om in een auto met zo'n systeem te rijden. In extreme gevallen (zoals deze, wanneer de man het had overleefd) zelfs het rijbewijs geheel verliezen. Maar net als vuurwapens niet de verantwoordelijkheid bij de fabrikant neerleggen. Want dat vergeet je even in je voorbeeld, wapens zijn aan de gebruikers kant gereguleerd, niemand legt de verantwoordelijkheid voor misbruik bij de fabrikant.
Dan zou elke auto ook gelimiteerd op 100 moeten zijn. Want de autofabrikanten maken het nu ook mogelijk heel hard te rijden.
Veel auto's zijn ook al gelimiteerd al heb je dat niet door. Alle BMW's die theoretisch harder dan 250 kmh zouden kunnen rijden zijn toch hierop gelimiteerd. En ook kleinere auto's zijn gelimiteerd tot de snelheid waar ze nog veilig kunnen worden bestuurd.
Anoniem: 604938 @12_0_1326 februari 2020 10:17
In het artikel worden heel veel zaken benoemd die deels verantwoordelijk zijn. De bestuurder, de wegbeheerder, Apple. Autopilot heeft niet gemerkt dat de bestuurder niet aan het opletten was en heeft de auto in een niet bestaande rijbaan gemanoeuvreerd. Er is dus deels verantwoordelijkheid bij Autopilot.

Dat wil niet zeggen dat de schuld of aansprakelijkheid bij Tesla ligt, maar Tesla had zaken kunnen doen dit te voorkomen. Dat is alles wat dit artikel stelt.

Als jij een fietser aanrijdt zonder licht ben jij aansprakelijk maar heeft de fietser ook niet voldaan aan zijn verantwoordelijkheid.

Altijd jammer dat bij elk bericht over Tesla wat maar enigszins negatief opgevat kan worden er meteen een boel mensen met het vingertje komen wijzen.
Als die chauffeur eerder had gemeld dat de autopilot daar de fout in ging bij Tesla hadden ze wellicht de oorzaak kunnen achterhalen en autopilot kunnen verbeteren. Dat heeft deze idioot dus niet gedaan, maar is gewoon doorgereden met gebruik van autopilot zonder opletten. Dan is er maar één verantwoordelijk voor het dodelijke ongeluk, hijzelf.

Zonder licht rijden is op van zonsopkomst en ondergang afhankelijke tijden verboden, dan ben je dus strafbaar, helemaal los van of de fietser zich mischien wel zelf voor de auto heeft geworpen. Als de aanrijding komt doordat jij de fietser in het donker niet kon zien, dan is dat een volkomen onvergelijkbare situatie. In deze situatie is namelijk degene die de fout maakt/zich niet aan de verkeersregels houdt, dezelfde persoon als het slachtoffer. Een éénzijdig ongeluk dat volledig te voorkomen was geweest a;s de chauffeur geen idioot was geweest.
Anoniem: 63072 in 'nieuws: Onderzoek: Tesla's autopilot en afgeleide bestuurde...
Als die chauffeur eerder had gemeld dat de autopilot daar de fout in ging bij Tesla hadden ze wellicht de oorzaak kunnen achterhalen en autopilot kunnen verbeteren.
Als hij bij 1 van de eerdere keren een ruk aan het stuur had gegeven (ingrijpen) dan had elke Tesla er van kunnen leren
Dus als iemand een hond in de magnetron doet en er gebeurt wat, zul jij dus de Mangetron aanklagen evenals de persoon die de daad verricht heeft? Opmerkelijk.

Zo een case is eerder gebeurd in Amerika. De magnetron kreeg niet de schuld. De persoon die dat gedaan heeft wel.

Een recent artikel: https://people.com/crime/...friend-put-dog-microwave/

Hier een andere case waarbij een vrouw een kitten van 10 weken in de magnetron gekookt heeft:
https://www.bbc.com/news/uk-england-devon-15856146
De vrouw is schuldig bevonden, de magnetron niet.

Dus, waarom vind jij het raar dat menig mensen de bestuurder de schuld geven en beiden Apple en Tesla vrij spreken? Ik vind het nogal absurd in ieder geval. Zelfs de onderzoeken wijzen geen vingers, maar jij wel.
Het ligt ook vrijwel volledig aan de bestuurder die niet op heeft zitten letten.
De enige maar die ik kan bedenken is dat het misschien niet handig is van Tesla om een niet level 5 systeem "autopilot" te noemen, dat schept verkeerde verwachtingen. Al klinkt het wel goed natuurlijk.
De enige maar die ik kan bedenken is dat het misschien niet handig is van Tesla om een niet level 5 systeem "autopilot" te noemen, dat schept verkeerde verwachtingen. Al klinkt het wel goed natuurlijk.
De naam maakt geen zier uit. Mensen gebruiken zo'n functie, en als ze ervaren dat het goed gaat, dan gaan ze er vanuit dat het altijd goed zal gaan, en zullen ze gaan vertrouwen op het gedrag dat ze zien. Niet het gedrag dat geadverteerd wordt.

Feitelijk moet Tesla dus een functie inbouwen waardoor de autopilot regelmatig correctie nodig heeft :-) Als mensen de perceptie hebben dat de autopilot regelmatig gecorrigeerd moet worden, dan zullen ze beter opletten. Vraag is hoe Tesla dat kan doen zonder er een slecht produkt van te maken...

Overigens: in vliegtuigen heet het ook autopiloot. En dat is al decennia lang zo. En daar moeten de piloten ook gewoon goed opletten. Verschil is natuurlijk dat die daarop intensief getraind zijn.
Ik ben bekend met echte autopilots. En mensen hebben er ook geen benul van van wat een autopilot wel en niet kan.
Daarom, waarom zou je het in hemelsnaam Autopilot noemen? |:(
Jan met de pet associeert dat met wat jij en ik level 5 zouden noemen.
Ik ben bekend met echte autopilots. En mensen hebben er ook geen benul van van wat een autopilot wel en niet kan.
Daarom, waarom zou je het in hemelsnaam Autopilot noemen? |:(
Jan met de pet associeert dat met wat jij en ik level 5 zouden noemen.
Ik denk dus dat het in feite niet uitmaakt wat je het noemt. De menselijke natuur is zo, dat als ze merken dat iets vanzelf gaat, ze op een gegeven moment aan zullen nemen dat dat altijd zo is, zelfs als ze eigenlijk weten dat het niet zo is. Mensen zijn heel slecht in het omgaan met gebeurtenissen met een hele kleine kans, maar hele grote gevolgen. Die kunnen ze gewoon niet inschatten. Feitelijk kunnen we in het dagelijks leven risico's alleen goed inschatten als de gebeurtenissen zich af en toe voordoen.
[...]

De naam maakt geen zier uit. Mensen gebruiken zo'n functie, en als ze ervaren dat het goed gaat, dan gaan ze er vanuit dat het altijd goed zal gaan, en zullen ze gaan vertrouwen op het gedrag dat ze zien. Niet het gedrag dat geadverteerd wordt.
Alleen had deze peroon al vaker meegemaakt dat zijn Tesla op dat stuk weg, de weg niet goed begreep.
helemaal mee eens, dit is een gevalletje "idioot gebruikt tech op een manier die afgeraden wordt door de fabrikant, met alle gevolgen van dien"
Jij bent het blijkbaar niet eens met het onderzoek. Dat is prima, maar dat maakt het onderzoek nog niet fout. En de headline en het artikel ook niet.
EN tesla heeft systemen die hier op letten en die gefaald hebben, je kan het ene niet loskoppelen van het andere en doen also het hier om een auto ging zonder autopiloot.
Zo lees ik het ook..en ook de dingen die aan de autopilot fout gingen schijnen (als ik het lees) meer te komen doordat er geen eisen aan zijn gesteld, dan aan daadwerkelijke tekortkomingen.
Het enige wat ik er uit haal wat dan aan het systeem van Tesla ligt, is dat ie de rimpelbuisobstakelbeveiliger niet herkende (wat een leuk scrabblewoord trouwens...is dit echt 1 woord??)
Als een systeem als geheel faalt, treffen de onderdelen altijd deelschuld. Immers gebeurt er (bijna) nooit een ongeluk als er maar 1 factor aanwezig is. Of een van die factoren een andere verkeersdeelnemer is of een computer in je eigen auto, maakt niet zo heel veel uit. Het is een factor die de bestuurder niet verwacht maar vaak nog wel kan opvangen als hij oplet. Dus niet iets dat hij actief veroorzaakt.

Dat betekent niet dat de bestuurder niet verantwoordelijk was, want dat is hij per definitie. Het betekent wel dat andere onderdelen van het systeem ook blaam treffen, want die schiepen de voorwaarden voor de bestuurder om te falen. Erg duidelijke voorwaarden in dit geval. De autopilot maakte een forse fout, en die kon tot een ongeluk leiden omdat de bestuurder niet oplette. Je kunt de schud proberen te verdelen, maar als je die zin leest zou duidelijk moeten zijn dat er minstens twee factoren meespeelden en dan komen we weer op de eerste alinea uit.

[Reactie gewijzigd door mae-t.net op 22 juli 2024 17:23]

Maar de verantwoordelijkheid blijft bij de bestuurder. Er wordt duidelijk gewaarschuwd dat je bij het gebruik van autopilot je handen aan het stuur moet houden en moet blijven opletten. Deze bestuurder was met alles behalve autorijden bezig, hij zat immers een spelletje te spelen. Ja, de autopilot heeft een fout gemaakt maar als je foto's van de locatie ten tijde van het ongeluk bekijkt is het zelfs voor mensen vrij onduidelijk dat de rijbaan daar ophoudt. Daarbij had het ongeluk met een simpele ingreep van de bestuurder kunnen worden voorkomen. Steker nog, uit onderzoek blijkt dat in de weken daarvoor met zijn Tesla al een paar keer bijna fout gegaan was. Dan zou je denken dat je op dat stuk weg beter oplet., en geen spelletje gaat zitten spelen.

edit: link werkte niet, screenshot gemaakt.
Anoniem: 604938 @ThomasG26 februari 2020 10:19
Het artikel stelt dan ook niet dat de schuld bij Tesla ligt. Alleen dat de autopilot deels oorzakelijk is aan het ongeval.
Net als de wind die ongunstig stond. Net als de weg met imperfecties. Net als de spirituele gedachten van anderen. Net als ehmmm....de handleiding van de auto die in de auto zat en het gewicht daar van net de auto iets heeft weten te beïnvloeden. Net als de banden van de auto die niet meer 100% nieuw zijn. Net als de Apple iPhone. Tja, wat nog meer? Tja, in de wetenschap mag niets uitgesloten worden tenzij er een zekerheid is van 100%. Helaas is dat zo goed als nooit het geval. Leuk om beiden Tesla en Apple te kunnen noemen in een onderzoek, want dat zijn beide grote namen, maar ehmm...tja, wat moeten we er mee?

Telefoons verbieden? Tesla's verbieden? Dan kunnen we gelijk ook de snelwegen verbieden want die heeft er ook mee te maken. Ik vind het maar dikke vette onzin en puur leuk voor wat propoganda.
Bestuurde heeft niet op het betonblok gereden dat heeft de auto die zichzelf stuurde. De kop is dus juist, de bestuurde was afgeleid ogen niet op de weg handen niet aan het stuur. De software heeft het probleem, de barrière niet gezien. De software heeft ook niet ingegrepen cq. gecontroleerd dat de bestuurder afgeleid was, handen niet aan het stuur had.

Dus ja in dit geval is de kop juist en geeft het artikel ook aan dat er meerdere zaken schuldig ware.

Het enige waar ik me niet in kan vinden is die:
Zijn telefoon was een iPhone en volgens de NTSB treft ook Apple enige blaam, omdat het bedrijf geen beleid had om het gebruik van mobiele telefoons tijdens het rijden te beperken.
De telefoon moet ten eerste weten dat de bezitter ook de chauffeur is. De bezitter kan de auto ook ontgrendelen en mij laten rijden, in dat geval moeten er geen beperkingen zijn. Als gps is uitgeschakeld weet de telefoon ook weer niet dat deze beweegt. Apple treft in dit geval weinig blaam. De NTSB moet toch uitleggen hoe men dit technisch zou mogelijk moet maken zonder dat de gebruiker op een knopje drukt en zegt ik ga nu autorijden.
Autopilot controleert wel degelijk of de bestuurder een hand (of ander object) aan het stuur heeft, hij controleert alleen niet of de bestuurder naar de weg kijkt. Ondanks dat blijft autopilot een hulpmiddel als aanvulling op een bestuurder die continue bezig is met het besturen van het voertuig en hoort het in de huidige staat nooit alleen een auto te besturen.
Hoe moeilijk is het dan als je een camera in de auto hebt die jou ogen volgt en ziet of ze niet op de weg gericht zijn. Dan bedoel ik niet 1 seconde wegkijken naar x seconden dan signaal.
Toevallig zit er in de Model 3 al wel een camera in het interieur die nog niet "actief" is ;). Ik verwacht dat als het interieur van de X/S een refresh krijgt hier ook een camera in komt.
Nou, dat heeft de Audi van mijn oom en toen viel mijn oom in slaap met als gevolg zijn auto total-loss moeten afschrijven. Nou, fijn dus zo een functie. Nooit vergeten dat zulke functies worden verkocht en geplaatst op de markt als een hulpmiddel. Het KAN en ZAL voor meer veiligheid zorgen en daar eindigt het ook.

Dat is een recente Audi A6 met alle veiligheidfuncties en toch ging het mis. Dus ach...
Maar met zo een titel zoals jij voorstelt leg je de schuld volledig bij de bestuurder zonder enige implicatie van het feit dat AP er ook mee te maken heeft. De bestuurder heeft de AP hier namelijk gebruikt op een locatie waar deze wel geschikt voor was.Ja, de bestuurder is hier in de fout gegaan, maar laat ons hier niet doen alsof Tesla hier zelf geen schuld treft. Tesla heeft de laatste jaren imho te weinig de nadruk gelegd op het feit dat AP geen autonoom systeem is en heeft bestuurders te veel vrijheid gegeven.

Hier in de EU is men al vroeger eisen gaan stellen en gaan de Tesla fans hier lopen klagen over het feit dat het systeem zo beperkt is. Ondanks dat Tesla zelf aangeeft dat het niet bedoeld is om op onze landwegen te gebruiken doen mensen dat toch (kom regelmatig filmpjes tegen op youtube). En terwijl die Tesla fans het dus oneerlijk vinden dat we hier zoveel beperkingen hebben op de AP komt men in de VS nu dus ook tot de conclusie dat het beter zou zijn als deze systemen verder beperkt worden en de aandacht van de bestuurder noodzakelijk blijft omdat het nog altijd slechts level 2 autonomie is en geen level 4 of 5 waarbij de bestuurder wel zijn aandacht op iets anders mag leggen.
"Maar met zo een titel zoals jij voorstelt leg je de schuld volledig bij de bestuurder zonder enige implicatie van het feit dat AP er ook mee te maken heeft."

Dus de titel die hij voorstelt is vlledig correct. Dit ongeluk heeft namelijk helemaal niets met autopilot te maken. Autopilot heeft namelijk precies gedaan waar het voor is gemaakt. De gebruiker assisteren naar beste kunnen. Dat is bekend niet altijd afdoende, daarom is het ook slechts een assistent; in dit geval van een volledig falende bestuurder.
Bestuurder heeft het idee dat hij een spelletje kon spelen vanwege de autopilot die geen autopilot was. Dit is niet zo eenvoudig zoals immers een officiele Amerikaanse instantie aangeeft. Het probleem ligt dan ook dieper, Tesla heeft hier een mooi marketing praatje waar zij hun auto's als "zelf sturend" / autopilot verkopen. Dit geeft leken zoals hier dan ook maar weer blijkt snel het gevoel dat ze veilig zijn en weinig hoeven te doen terwijl dit niet het geval is. Iets wat dan ook wederom wordt onderstreept door de Amerikanse overheid. Het zou Tesla dan ook sieren om hun producten net zoals andere autoleveranciers die precies dezelfde tech on board hebben heden ten dagen autopilot correcter te verwoorden zoals "geavanceerde cruise control" want meer is het niet. Grapjes die je vaker online ziet met name in Tesla's geeft de verkeerde indruk waar een Tesla tot in staat is. Maar laten we hier vooral Tesla maar weer niet de schuld geven terwijl notabene een overheids instantie de schuld daar wel deels legt.
? KLopt toch gewoon,? De bestuurder was aan het spelen omdat hij vertrouwde op het systeem.
Dit was niet een gewone auto zonder autopiloot waar iemand aan het spelen was neen dit was een tesla die hier reclame mee maakt dat dit een optie is.

EN ja, de bestuurder moet beter opletten daarom is dit OOK zijn fout wat zelfs de titel gewoon bevat.


DIt is dus eerder: je mag niet de feiten vermelden zoals ze zijn omdat er iets instaat wat ik niet leuk vind.
de titel klopt anders wel :-). Maar natuurlijk is een rant zoals de jouwe wel gemakkelijk als aandachttrekkerij, oh wacht....
Was dit met een Audi ook gebeurt? :Y) :+ (Ik spaar minnetjes)
Ziende hoe slecht de gemiddelde audi chaufeur is: zeer zeker.
Tweakers is juist erg clickbaiterig geworden, maar dat mag je niet hardop zeggen.
Hoe is dit een clickbait als de titel exact representeert wat het rapport van de NTSB aantoont? Wat was dan wel een juiste titel geweest?
Het heeft niks met de autopilot te maken, want de bestuurder was afgeleid.

Daarbij Tesla geeft altijd aan dat, ondanks dat de autopilot aan staat, je altijd zelf goed moet blijven opletten.

Juiste titel had geweest: Afgeleide bestuurder was oorzaak Model X crash
Maar die titel representeert niet de conclusie van het rapport, want daarin vinden de onderzoekers juist wel dat de auto pilot een oorzaak is. Dus volgens mij ben jij het eerder niet eens met de conclusie van het rapport, en heeft dat als gevolg dat je de titel van dit artikel ook niet goed vindt.
Dan had het nog moeten zijn Afgeleide bestuurder, Tesla autopilot, infrastructuur en telefoon zijn oorzaak crash maar dat is nog wat te generaliserend. Uiteindelijk was de bestuurder de oorzaak van het ongeluk, de andere zaken hadden alleen de falende bestuurder kunnen corrigeren of de ernst van het ongeluk kunnen beperken.
Ik ben het met je eens dat al die factoren meespeelden, maarhet gaat me wat ver om de bestuurder de oorzaak te noemen. Immers heeft de bestuurder geen onverwachte beslissing genomen maar de autopilot. De bestuurder heeft die 'alleen maar' over het hoofd gezien. Intuitief gezien is de belangrijkste oorzaak iets dat actief gebeurt, als er keuze is zoals hier. Niet opletten op de fout van een ander (ook als die ander een computer is, kennelijk) is in het verkeer nog best een belangrijke oorzaak van het 'niet vermijden' van een ongeluk, maar in principe nooit de oorzaak van het ongeluk zelf.

Nou is het in dit geval wat verwarrend, omdat hetzelfde soort ongeluk ook gebeurd had kunnen hebben als de bestuurder niet had opgelet in een auto zonder autopilot, maar dit was geen auto zonder autopilot dus die situatie was niet van toepassing.

[Reactie gewijzigd door mae-t.net op 22 juli 2024 17:23]

Aangezien de bestuurder al eerder had opgemerkt dat Autopilot in deze situatie faalt is het niet echt een onverwachte beslissing van Autopilot. In mijn ervaring is Autopilot juist zeer voorspelbaar en zijn er inderdaad wegsituaties (denk aan spitsstroken met lijnen erover) die gewoon niet te verwerken zijn voor Autopilot. Als je als bestuurder gaat zitten gamen op je mobiel terwijl je je ervan bewust bent dat je een traject rijd waar Autopilot voorspelbaar een fout maakt ligt de schuld wat mij betreft 100% bij de bestuurder.
Dit is niet waar, het rapport zegt dat met aanvullende controles het waarschijnlijk had kunnen worden voorkomen, evenals de wegbeheerder als die eerder had gerepareerd, evenals Apple als die de telefoon had geblokkeerd. De eerste en hoofdfout ligt bij de bestuurder, daarna gaat het rapport in op oplossingen en aanpassingen van wetgeving.

Waarom staat er niet in de title iets over Apple, of over de wegbeheerder? Ik ben geen voor of tegenstander van Tesla, voor mij mag Opel of Renault ook, maar het is duidelijk dat berichtgeving over Tesla leidt tot twee soorten reacties: fanboy of hateboy. Er botsen wel meerdere auto's op de basis cruise control, toch lees ik niet: Onderzoek: Volkaswagen cruise-control en afgeleide bestuurder zijn oorzaak VW Passat-crash.
Volkaswagen noemt zijn cruisecontrol geen autopilot. Dat Tesla dat wel doet met zijn wat geavanceerdere cruise control, is een deel van het probleem. Dat verdient dus om benoemd te worden. Tesla's rol hierin is zeer merkwaardig. Ze schijnen iedereen te waarschuwen dat het geen autopilot is, maar op hun eigen website noemen ze het kreng heel duidelijk "autopilot" waardoor mensen denken "oh, die waarschuwing is voor de wet maar eigenlijk menen ze het niet".

[Reactie gewijzigd door mae-t.net op 22 juli 2024 17:23]

Zo kun je recht praten wat krom is. Het heet inderdaad autopilot, er zijn duizenden berichtgevingen dat de hedendaagse autopilot nog lang niet autonoom zijn en je krijgt heel duidelijk elke keer een waarschuwing als je het activeert. Je weet en je hoort dat appen ook niet mag als je zelf rijdt of is dat ook alleen voor de wet?
Klopt, maar als ik sensatienieuws wil lezen dan ga ik wel naar shownieuws.
Daarom ben ik abonnee, maar als dit soort sensatie-onzin blijft dan ga ik mijn geld wel ergens anders uitgeven.
Ik betaal dan ook jaarlijks voor Tweakers.net...
Tja, hoe meer de auto van je overneemt hoe minder alert je bent en hoe minder snel je zelf reageert omdat je bijvoorbeeld je voeten niet meer op/bij de pedalen hebt zitten. Des te meer je geneigd bent om andere dingen te gaan doen, hoe fout dat ook is. Daarom ben ik ook geen voorstander van autopilot achtige technieken totdat deze het volledig over kunnen nemen.

[Reactie gewijzigd door Caayn op 22 juli 2024 17:23]

Naja, dit beperkt zich niet tot rij-assistentie. Er zijn zat ouwe barrels op de weg waarvan de bestuurder rustig wegappt op de snelweg, omdat die het stuur niet hoeft aan te raken om rechtdoor te gaan.

Hoeveel levens heeft autopilot wél gered? Wat is de balans? Als er gemiddeld tig mensen per idioot die zichzelf dood rijdt, uit benarde situaties worden gered door computersystemen, lijkt het mij zeer wenselijk dat juist wel te gebruiken. Die ene idioot hou je toch altijd, hoe waterdicht en idioot-proof je de systemen ook maakt.
Het probleem is dat er de komende jaren steeds meer van dit soort systemen in auto's gaat komen, level 2 of 3 zal ook in goedkopere auto's komen. Zonder controle op misbruik zal de kans op ongelukken alleen maar toenemen. Bij level 5 zijn we als het goed is op een niveau waar het risico extreem klein zal moeten zijn.
Dus ja tot die tijd moeten fabrikanten er gewoon voor zorgen dat dit soort hulpsystemen niet misbruik kunnen worden, c.q dat je je aandacht niet op de weg hebt, handen niet aan het stuur.
Het punt is juist dat de automatiseringssystemen nu al te makkelijk toelaten dat mensen het autorijden volledig aan het systeem overlaten. Daar is autopilot simpelweg nog niet klaar voor. Het is dus fantastisch als de computersystemen levens redden, door automatische noodremmen en dergelijke, maar de systemen moeten nog niet zo ingericht zijn dat mensen de neiging hebben om andere dingen te gaan doen.
Ik rij al 5 jaar in autos met assistance systemen. Helaas moet ik toegeven dat de systemen uitnodigen om het rijden over te laten aan je auto. Ik ben er achter gekomen dat hoe beter het assistentiepakket werkt, hoe meer je over laat aan de auto en hoe makkelijker je iets anders doet.

Mijn huidige auto rijdt iets minder strak tussen de lijnen, waardoor de auto je dwingt om regelmatig je ogen op de weg te houden. Mijn vorige auto reed veel strakker tussen de belijning, waardoor ik regelmatig 10 minuten op mijn telefoon aan het kijken was, waardoor ik geen idee had wat er op de weg om mij heen gebeurde.

[Reactie gewijzigd door Abom op 22 juli 2024 17:23]

Mijn huidige auto rijdt iets minder strak tussen de lijnen, waardoor de auto je dwingt om regelmatig je ogen op de weg te houden
Dat is dus een feature. Geen gebrek !
Ik had pas een idioot die vol in de remmen ging op de snelweg, 2 auto's voor me, omdat hij z'n afrit zou missen.

Doordat er een vrij grote SUV voor me zat had ik dit niet door, maar de Tesla wel. Hier was in ieder geval een crash voorkomen.
het gevaar zit 'm in de gemakzucht.
10 jaar geleden hadden mensen nog landkaarten in de auto en stratenboeken. Kon je de weg niet vinden, dan zat je of met een boek op schoot, of je moest stoppen en een route uitstippelen of je had thuis een route uitgeprint.
Nu hoef je alleen een nav app te draaien en je weet waar je bent. En zelfs daarmee rijden mensen bochten om die niet in de weg liggen.
Wat ik bedoel te zeggen: Als mensen een gevoel van veiligheid hebben (al dan niet terecht), dan gaan ze dusdanig vertrouwen op dit soort systemen dat ze zelf niet meer opletten.
Ook kan ik me niet voorstellen dat er veel gebruikers zijn die exact weten wat het systeem wel herkent en wat niet en wat de limieten zijn van dergelijke systemen. En toch durven ze hun leven ervoor in de waagschaal te leggen.

Ik ben het daarom wel met Caayn eens...dit soort systemen moet je pas uitrollen als ze compleet fool proof zijn en hoewel ze daar steeds dichterbij komen, zijn ze het nog niet, dus is mijn mening dat de systemen er ook nog niet zouden moeten zijn.
Of je houd je gewoon aan de regels zoals deze zijn opgelegd.
hoe minder snel je zelf reageert omdat je bijvoorbeeld je voeten niet meer op/bij de pedalen hebt zitten.
Met dit argument zou je ook kunnen zeggen dat cruise control niet veilig genoeg is
Of je houd je gewoon aan de regels zoals deze zijn opgelegd.
Gewetensvraag: houd jij je altijd aan alle regels ? (Twee antwoorden mogelijk: 'ja', en 'nee' ! 'Ja, maar' en 'bijna altijd' zijn géén acceptabele antwoorden).

Het punt van Caayn is nu net dat het 100% te verwachten is dat mensen dat niet zullen doen. En dat geldt zeker in een situatie als deze waarin de mens niet gedwongen actief betrokken is.

En zelfs al houden ze zich aan de regels, en doen ze hun best goed op te letten, dan zullen ze nog 100% zeker vaker even afgeleid zijn, en dat zal gemiddeld ook langer duren, dan als ze zelf sturen, en ze zullen gemiddeld minder alert zijn. En aan dat alles kunnen ze helemáál niets doen. Jij kan dat ook niet. Jij kunt ook niet bijv. een uur lang geconcentreerd opletten in een situatie waar je verder niets hoeft te doen, en waar niets bijzonders gebeurt, en even alert zijn als wanneer je zelf reed. 10 minuten is wellicht zelfs al meer dan de meeste mensen kunnen. Dat kunnen mensenhersenen gewoon niet. Daar zijn ze niet voor gemaakt. Behalve misschien als je autistisch bent, maar dat zijn de meeste mensen niet.
Met dit argument zou je ook kunnen zeggen dat cruise control niet veilig genoeg is
Overdrijven is ook een kunst. Ze zijn (ongetwijfeld) minder veilig. Je reactietijd is beslist wat langer als er een noodsituatie is. Gezien de ervaringen tot nu toe blijkt dat de veiligheid in ieder geval voldoende is.
Er is een duidelijke trend de afgelopen jaren sinds de smartphone. Eerst hadden we mensen die afgeleid waren met de telefoon aan hun oor en niet goed opletten en nu is het de smartphone, waarop mensen allemaal handelingen uitvoeren waarbij ze de ogen zelfs niet op de weg hebben. Telefoon aan je oor is in mijn ogen zelfs minder kwalijk.

De autopilot of rijassistant helpt wel degelijk bij dit soort ... mensen die dit soort "handelingen" uitvoeren, om schade te beperken. Zoals in dit geval (hoe lullig ook) is hij op een barierre geklapt. Dit soort mensen doen dit ook zonder een Tesla/rijassistent auto, ik zie ze dagelijks zwalken op de snelweg richting mijn rijstrook manouvreren of met rokende banden een kop/staart ongeluk voorkomen (of veroorzaken).

Het probleem is dat we nu Autopilot/rijassistenten als oorzaak van dit soort ongelukken gaan benomen, terwijl dit juist de oplossing kan zijn voor mensen die gewoon... verslaafd, onder invloed van hun smartphone rijden.

Heb liever (hoe lullig ook) dat zo iemand vol op een bariere knalt, afgrond inrijdt, dan vol op een file inrijdt. Ja het is niet perfect, maar deze meneer wist heel goed de beperkingen.
Uiteindelijk heb je je eigen leven in de hand. Enige terughoudendheid is verstandig.
Dus dan ook maar geen 'ouderwetse' cruisecontrol meer, en geen laneassists meer.. Hier ging het dan ook nog eens om iemand die zelf al bij Tesla geklaagd had dat het systeem niet naar behoren werkte.....
rimpelbuisobstakelbeveiliger
Wat een mooi woord :D

Maar in absolute vorm, wat is nu de conclusie? Schuld is semi-3 partijen, maar zwart/wit zeg ik dan dat als een systeem 'iets' niet kan herkennen, dit toch het grootste probleem kan opleveren, of de bestuurder nu wel of niet oplet (ik ga er niet vanuit dat mensen direct ingrijpen bij een actie van een autopilot, wat direct tot het punt van 'te laat' kan aankomen).

Als jij autopilot richting een stoplicht gaat, je verwacht de auto te stoppen, maar de auto herkent de scooter voor hem niet, grote kans dat je dan alsnog te laat bent om zelf nog te remmen.
De situatie die jij beschrijft heeft dan eigenlijk weer niets met autopilot te maken .Het zit immers als op heel veel auto's die geen autopilot hebben en is ook heel veel simpeler dan een autopilot.
De term autopiloot werkt een bepaalde verwachting.
Probleem is dat het geen autopiloot is maar een ondersteund iets.
Probleem is dat dat systeem niet perfect is in het herkennen van dit en misschien zelfs andere obstakels.
Probleem is dat de Bestuurder dus zijn aandacht altijd op de weg moet houden
Probleem is dat de software in de tesla de bestuurder niet voldoende in de gaten houd of hij handen aan het stuur heeft en het systeem dus verkeerd gebruikt.

Als je weet dat het systeem op grote schaal verkeerd gebruikt wordt zul je daar dus iets aan moeten doen.
Zolang we in Europa niet MILJARDEN gaan steken in infrastructuur die automatisch rijden faciliteert, gaat automatisch rijden een fabeltje blijven.
Een paar ritjes op B- en c-wegen maakt dat snel duidelijk, met afwijkende en ontbrekende wegmarkeringen alsook ontiechelijk slecht aangegeven drempels en wegversmallingen. Op snelwegen (vooral in Nederland) zijn het dan weer de asocialen die invoegen recht voor je zodat je autopilot vol in de ankers moet... terwijl achter je zeeen van ruimte is.

[Reactie gewijzigd door matthewk op 22 juli 2024 17:23]

Op basis van een paar ongelukken concluderen dat Autopilot een fabeltjes is?
Ik kan op basis van héél veel meer ongelukken en uitgebreide statistieken concluderen dat mensen in het algemeen totaal ongeschikt zijn als automobilist.
Neen op basis van eigen rijervaring. Je kunt die conclusie overigens niet trekken op basis van brakke, niet op autopilot afgestelde infrastructuur.

Als driver moet ik echt vaak ingrijpen, en dat ligt meestal aan infrastructuur. Tot die aangepast wordt is het een fabeltje.
<cynische mode> je hebt gelijk, met een soort metalen stroken, waar de auto dan niet vanaf kan, een soort trein.. Dan zal dat niet gebeuren.</cynische mode>

Wat een onzin conclusie, de infrastructuur is het gegeven, ik kan daar uitstekend op rijden. Als een autopilot dat niet kan dan ligt het aan de autopilot die toch niet zo auto is.
Een oplettend mens is 2 keer beter dan een autopilot ooit zal zijn door een dynamisch inschattingsvermogen.
Laat dat eerste nou net het probleem zijn :p
Maareh, een computer zal met de huidige hardware altijd referentiepunten nodig hebben. Dat kunnen we niet oplossen met lidars die alle kanten uitstralen. Dat kunnen we enkel door EINDELIJK eens een uniforme infrastructuur te hebben. Door, net zoals in België, enkel drempels neer te zetten waar je met x snelheid over kunt rijden. Door, zoals in Denemarken, te zorgen dat je wegbelijning altijd duidelijk zichbaar is, door zoals in Zweden te werken met sensoren in de wegen die informatie doorspelen.
Klopt. Mensen zijn ook het probleem. Echter maken we nog steeds wegen waar bijvoorbeeld het midden slechts impliciet wordt aangegeven. Voor een systeem als dit natuurlijk niet logisch. Die verwacht gewoon twee witte of gele lijnen en daar blijft ie dan binnen. Ook wegen waar de scheiding is aangegeven met een stoeprandje of verhoging is voor automatisch rijden echt niet handig. Ik zit er serieus aan te denken om bij mij in de straat een pot witte verf open te trekken.

Zolang wegbeheerders inconsistente signalering aanbrengen gaat het em niet geheel worden. Dan houd je zo’n snelweg ondersteuning.
Ik denk dat het grote verschil tussen jou en mij is dat ik er heilig van overtuigd ben dat de ontwikkelingen in AI niet vandaag zullen stoppen. De vooruitgang in de autopilotsystemen de laatste jaren is bijna voelbaar en ik heb geen enkele reden om aan te nemen dat die ontwikkeling stopt. Met andere woorden: ja, nu is het nog een probleem, maar als wij pubers van 17 jaar kunnen leren om zonder brokken van A naar B te rijden, dan kan een Autopilot dat (straks) ook.
Oh zeker. Ik ben alleen bang dat wet en regelgeving roet in het eten gaat gooien en de voortgang enorm remt. Ik ben me nu heel erg bewust van de beperkingen van autopilot (ritsende rijstrook snapt ie niet dus gaat ie rechtdoor) en dat dit grotendeels door wetgeving komt (baanwissel mag hier bijvoorbeeld alleen als de bestuurder dit aangeeft), maar andere dingen komen gewoon puur doordat het een amerikaans bedrijf is. Rotondes kennen ze daar nagenoeg niet.

Voor de rest is AI de beste manier van transport.
Volgens de raad hebben de fabrikanten van elektronische apparaten de mogelijkheid om zeer afleidende functies op draagbare apparaten te vergrendelen als ze tijdens het rijden worden gebruikt. Zo'n functie moet in de ogen van de NTSB standaard op alle apparaten komen.
Hoe zit het dan met kinderen op de achterbank? Of de bijrijder? Worden die telefoons dan ook standaard geblokkeerd?
Inderdaad een idiote eis van de NTSB. Ik snap best dat men zoekt naar maatregelen waardoor dit soort ongelukken straks niet of nauwelijks nog voorkomen, maar de bestuurder van een dergelijke auto mag zelf ook nog wel wat verantwoordelijkheid dragen. Dit autodrive systeem is niet volledig autonoom en moet ook als dusdanig worden behandeld, cq gebruikt. Als een piloot niet met zijn werk bezig is, is het ook pilot-error. Dit moet ook gelden voor dergelijke onverantwoordelijke chauffeurs. In dit geval heeft die al de ultieme straf gekregen, hoe cru dat ook klinkt. Maar om dan een statement te maken dat de telefoon maar moet blokkeren in de auto, is ridicuul. Daar valt trouwens makkelijk omheen te werken indien nodig. (flightmode, gps uit, enz enz.
Apple heeft deze functie er gewoon in zitten hoor, als mijn iPhone met bluetooth in de auto verbind gaat hij automatisch op stil. Kun je zo instellen. Wil je de telefoon toch unlocken? Kan, maar dan moet je specifiek aantikken: "Ik ben niet aan het rijden".
Denk niet dat de NTSB dat bedoelt. ;) Zal wel een daadwerkelijke verplichte stand worden die er dan niet af te halen is, als je aan het rijden bent. Maarja dan zorg je ervoor dat BT en Wifi uitstaat. Dan verbindt die niet. GPS uit en dan weet ie ook niet dat je aan het rijden bent. Genoeg manieren om om een dergelijke blokkade heen te werken als je het persé wil. Daarom ook een, in mijn ogen, onzin maatregel.

Bestuurders moeten zich gewoon bewust blijven dat je met een paar ton met een hoge snelheid aan het verplaatsen bent en zolang het geen betrouwbare volledig autonome functie is, zal je moeten blijven opletten.
Volgens mij wilt ment graag naar een systeem zoals Pokemon Go dat ook heeft. Dus een melding met een text als: "Het lijkt erop dat je je in een voertuig bevind, ga enkel verder als je bijrijder bent"

Volledig blokkeren is onmogelijk, want dan zou navigeren met Google Maps ook erg lastig worden.
Maar dat zit er al in. Sterker nog dat zit er al jaren in en je moet expliciet aangeven dat je niet aan het rijden bent anders kan je niks zien of doen, anders dan hoelaat het is.
Ja dat snap ik ook nog steeds niet. Heb de redenatie al vaker gehoord om telefoons te blokkeren boven bepaalde snelheden enzo, maar het is gewoon met een kanon op een mug schieten.

Hoe ga je voorkomen dat bijrijders, (bus)passagiers, treinreizigers etc hier geen hinder aan ondervinden zonder het een gedocht te maken?

Voor de trein zou je nog iets met GPS kunnen doen, maar dan moet je dus allerlei kaartinformatie gaan vergelijken om te bepalen of je op de rails bent. En gps wil wel eens onnauwkeurig zijn, met name als je bijvoorbeeld trein en weg naast elkaar hebt.

Je zou een "ik zweer dat ik bijrijder ben" knop kunnen maken, maar dan druk iedereen daar gewoon op en ben je nog nergens.

En heb ook wel eens de oplossing gehoord dat je altijd 1 geblokkeerd toestel moet hebben in de auto, de rest hoeft dan niet. Maar dan moet je gaan bijhouden welke apparaten zich in welke auto bevinden, dingen koppelen aan de systemen van de auto en je bent verplicht om een smartphone bij je te hebben.

Het is allemaal onwerkbaar
En heb ook wel eens de oplossing gehoord dat je altijd 1 geblokkeerd toestel moet hebben in de auto, de rest hoeft dan niet. Maar dan moet je gaan bijhouden welke apparaten zich in welke auto bevinden, dingen koppelen aan de systemen van de auto en je bent verplicht om een smartphone bij je te hebben.
En dan zullen er altijd mensen zijn die een tweede dummy telefoon kopen (of hun oude telefoon daarvoor gebruiken), en die blokkeren. Zodat ze hun eigen telefoon wel kunnen gebruiken.

Vrij zinloze beperking dus.

Op dit item kan niet meer gereageerd worden.