Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Onderzoeksraad VS wijt oorzaak Tesla-crash aan menselijke fouten en autopilot

Door , 138 reacties

De National Transportation Safety Board heeft geconcludeerd dat het ongeluk in mei 2016 in de VS, waarbij een Tesla Model S tegen een vrachtwagen botste en de bestuurder om het leven kwam, is te wijten aan zowel fouten van beide bestuurders als de hoge mate van automatisering van de Tesla.

De Amerikaanse onderzoeksraad voor transportveiligheid heeft geen nieuwe ontdekkingen gedaan ten opzichte van een eerder verschenen rapport met technische details over de crash. Het definitieve rapport wordt in de komende dagen gepubliceerd, maar de onderzoeksraad heeft alvast naar buiten gebracht dat de crash is veroorzaakt doordat de bestuurder van de truck geen voorrang gaf, terwijl de bestuurder van de Tesla te veel vertrouwde op de autopilot en daardoor zelf niet actief aan het rijden was, en mede daardoor er niet in slaagde om op tijd in te grijpen.

De NTSB geeft daarbij duidelijk aan dat het ontwerp van de autopilot van Tesla het mogelijk maakte dat de bestuurder te veel kon vertrouwen op het systeem, zich te lang niet hoefde bezig te houden met het besturen van de auto, waardoor er een situatie ontstond die niet in lijn was met de richtlijnen en waarschuwingen van Tesla. Gegevens van de autopilot over het rijgedrag van de bestuurder van de Tesla wijzen erop dat hij onvoldoende kennis had van de beperkingen van de autopilot.

De onderzoeksraad stelt dat als het systeem niet automatisch zijn eigen werking beperkt in het geval dat het wordt gebruikt onder omstandigheden waar het niet voor is ontworpen en bedoeld, dat het risico op verkeerd gebruik door de bestuurder aanwezig blijft. Verder was de manier waarop de autopilot reageerde op de interactie van de bestuurder met het stuur, onvoldoende om de bestuurder te betrekken bij het besturen van de auto. De onderzoeksraad constateert dat Tesla na het ongeluk al verbeteringen heeft doorgevoerd, zoals verbeterde waarschuwingen als de bestuurder zijn handen niet op het stuur heeft.

Moeheid, een slechte weg of mechanische fouten speelden geen rol in de crash. Mogelijk heeft marihuanagebruik van de chauffeur van de vrachtwagen een rol gespeeld, maar dat kon niet worden aangetoond aan de hand van het beschikbare bewijs. Ook was er geen bewijs dat telefoongebruik van de truckbestuurder een rol heeft gespeeld bij het ongeluk.

Bij het ongeluk in Florida stak een truck met oplegger voor een Tesla Model S de weg over, wat niet werd opgemerkt door de autopilot of de bestuurder van de Tesla Model S. Volgens Tesla werd de witte truck niet gedetecteerd tegen de witte lucht erachter. De autofabrikant benadrukt nog altijd dat de bestuurder verantwoordelijk blijft en zijn aandacht bij het rijden moet houden, ondanks de activatie van autopilot. Volgens een woordvoerder van Tesla maakt de autopilot nog geen autonoom voertuig van de auto.

Voor de bevindingen was de NTSB afhankelijk van gegevens van Tesla, omdat het systeem in de auto niet toegankelijk is voor anderen. De NTSB kan alleen aanbevelingen doen en geen verplichtingen opleggen. De onderzoeksraad gaat aanbevelingen doen voor fabrikanten om nieuwe voertuigen bij bijvoorbeeld crashes data te laten verzamelen en die aan te leveren in gestandaardiseerde vorm. Ook moeten fabrikanten het gebruik van autopilots beperken als ze op verkeerde wijze worden gebruikt, en moeten er programma's worden ontwikkeld die beter in staat zijn om de mate van betrokkenheid van de bestuurder bij het rijden en besturen van de auto te meten.

Joris Jansen

Nieuwsredacteur

13 september 2017 07:40

138 reacties

Linkedin Google+

Reacties (138)

Wijzig sortering
Ik heb een Tesla met de eerste autopilot (AP1). Dat is hardwarematig hetzelfde als waar de crash mee gebeurd is. De software is inmiddels aanzienlijk verder en het gedrag duidelijk anders, dus eigenlijk is het niet hetzelfde systeem meer. Ik heb er nu +/-25.000km op staan met verschillende trips naar Frankrijk en Oostenrijk. Op die lange trips rijd ik 98% op autopilot.

Wat doet autpilot precies? Het is echt meer dan alleen adaptive cruise control met lane assist:
  • Kijkt meerdere voertuigen vooruit (doen meeste CCs niet)
  • Heeft fleet learning (dat heeft bijna geen enkele ander merk)
  • Kan van rijstrook verwisselen. De chauffeur moet dit inzetten maar AP voert uiteindelijk het maneuver uit. Ik gebruik dit zeer veel, dit is geen gimmick.
  • Hij wijkt uit bij lane-intrusion. Dus als iemand je afsnijdt dan onderneemt AP ontwijkende actie. De overleden bestuurder heeft daar een filmpje van online gezet.
  • Past snelheid aan bij verkeersborden/kaartgegevens
  • Past snelheid aan bij scherpe bochten. Ik heb em losgelaten op bergweggetjes en dat deed ie opmerkelijk goed. n.b. Hele scherpe bochten kan ie niet aan en dan moet je het snel overnemen.
  • AP lijkt echt een soort mentaal plaatje maken van waar het verkeer ongeveer is, dat merk je o.a. bij het wisselen van rijvak. Dat wil hij pas wisselen als ie denkt voldoende ver voorbij de laatst gedetecteerde auto te zijn.
Wat doet AP1 niet?
  • Stoplichten
  • Voorrangsregels (m.n. voorrang van rechts)
  • Afslagen (er is geen enkele koppeling met je satnav route)
Wat doet AP1 slecht?
  • Hoe kleiner de weg, hoe slechter het werkt. Hij rijd effectief tegen een stoeprand als je niet oplet.
  • Motoren/fietsers detectie is niet 100%. Meestal ziet ie ze, maar als een motor komt filteren en vlak voor je invoegd dan moet je echt opletten of de AP mee is.
  • Zelfde probleem bij auto die 1/3 ofzo op een rijstrook staan (bijv. half op de stoep voor een tijdelijk stop). Daar durft ie met volle vaart tegenaan te rijden!
  • Rotondes, verkeerseilanden, etc. doet ie zelden goed. Hoe kleiner ze zijn hoe slechter het gaat.
  • Bruggen. Er een moment waarop je bijna boven of bijna beneden bent waarop hij het overzicht kwijt is (ziet alleen lucht of alleen grond) en dan begint ie af te wijken. Hoe steiler de helling hoe erger het effect.
    Meestal corrigeert ie wel tijdig, maar soms moet je ingrijpen
Mijn mening over dit ongeluk: De trucker heeft zich niet aan de regels gehouden, de Tesla bestuurder heeft zich niet aan de regels gehouden (reed te hard en lette gedurende 10s voor geen meter op) en dan krijg je een ongeluk. Tesla is heel er heel duidelijk over dat AP op dit moment een rijhulp en dat je op elk moment moet kunnen ingrijpen. Er bestaat (nog) geen systeem dat foolproof is en deze meneer was gewoon een fool op dat moment. De conclusie dat AP heeft bijgedragen aan het ongeluk vind ik bizar. Dat kan je nl. van elke betrokken technologie stellen (t.e.m. dat als we geen auto's zouden hebben, dan ook geen auto ongelukken). Volgens mij was dit simpelweg een voorrangsfout waaraan die trucker schuldig is. Dat AP de situatie niet kon redden was omdat het (op dat moment) buiten de mogelijkheden (en zeker de verantwoordelijkheden!) van het systeem lag. Inmiddels zou AP deze situatie beter moeten kunnen afhandelen (door meer de radar te gebruiken).

Dit was de eerste dode, het zal de laatste niet zijn. Dat is jammer, maar uiteindelijk sterven er aanzienlijk minder mensen/km mét AP dan zonder AP. Ik gebruik het graag en met de gepaste mate van vertrouwen.

[Reactie gewijzigd door TeunSegers op 13 september 2017 09:57]

De conclusie dat AP heeft bijgedragen aan het ongeluk vind ik bizar.

De redenering is als volgt:
- Autopilot kan constateren dat je je niet aan de voorafgestelde regels houdt (namelijk langdurig geen enkele input van de bestuurder, geen contact met het stuur, etc).
- Echter doet AP hier vervolgens niets mee en laat je straffeloos doorgaan met de regels doorbreken.

Vandaar dus dat ze zeggen dat de technologie zoals die op dat moment was geďmplementeerd bijgedragen heeft aan het roekeloze gedrag van de bestuurder, wat op zijn beurt weer bijgedragen heeft aan het ongeluk. En ze zeggen er ook bij dat restrictie van dergelijke functionaliteit zodra het systeem opmerkt dat je je niet aan de regels houdt een goede oplossing is.

Verder goede opsomming van de sterke en zwakke punten, maar ik denk dat het sowieso verstandiger is om de Autopilot meer te gebruiken voor langere afstanden op rechte voorspelbare wegen en niet op het systeem te vertrouwen in druk stadsverkeer? Ik dacht dat iedereen dat dat voor iedereen wel duidelijk was, of ben ik te negatief over de mogelijkheden van AP (zoals die op dit moment bestaat) en vind jij dat het wel degelijk verantwoord is om AP in te schakelen in stadsverkeer?

[Reactie gewijzigd door Eskimo0O0o op 13 september 2017 10:23]

Het wordt zeer duidelijk aangedragen voor snelweg gebruik. Op secundaire wegen werkt het ook uitstekend maar dan moet je veel meer opletten vanwege de meer dynamische verkeerssituaties. Als een voorligger hebt dan gaat het al gemakkelijker (omdat ie dan bijv. ook automatisch stopt bij een stoplicht).

In de stad is het vooral handig als je in de file staat. Dan doet ie het zeer goed. Je moet vooral opletten dat je niet een kruispunt staat te blokkeren. De voorligger geeft AP meestal voldoende hints om correct te handelen. In rijdend verkeer, zeker in smalle straten en al helemaal zonder voorligger is het niet aan te raden. Ik zet het wel vaak aan als experiment maar dan echt handen aan het stuur en mijn volle aandacht. Je weet dat het ding er niet echt geschikt voor is, maar hij doet het vaak opmerkelijk netjes.
/offtopic

Ik krijg plots zin om eens een experiment te zien waarbij 10 Tesla auto's een rondje rijden door een stad of op een circuit, met enkel in de eerste wagen een chauffeur. De rest volgt gewoon op AP :+
Hoe kijkt die computer eigenlijk meerdere auto's vooruit? Lijkt me knap lastig om te programmeren en kan er niks over vinden.
Met de radar. Hier wordt het uitgelegd: https://electrek.co/2016/...-the-car-in-front-of-you/ Op het scherm (wat zeker niet alles weergeeft) zie ik soms tot 3 auto weergegeven voor me (in mijn rijstrook).

Dit werkt super goed. Vorige week nog rijd ik achter een busje in de stad. De auto gaat opeens in de remmen. Ik erger me, maar dan gooit opeens het busje alles dicht. De radar had gezien dat de (onzichtbare) auto voor het busje aan het remmen was (er stak iemand de straat over) en greep in. Ik had anders zeer mogelijk het busje aangetikt. AP stond niet aan op dat moment btw.
Dan zat je te dicht op het busje voor je ;)
Hoe dan ook, interessant leesvoer. :) Elektrisch rijden daar gelaten vind ik de snufjes in de auto wel leuk. Bedankt voor het linkje.
> Dan zat je te dicht op het busje voor je ;)
Helemaal waar! Het was zo'n typische compacte verkeerssituatie waarop iedereen veel te dicht op elkaar zit en elke marge onmiddellijk misbruikt wordt om en er nog een auto tussen te duwen.
Wat dan ook weer waar is, is dat deze radar het mogelijk maakt om wat meer ruimte te creeren door iets dichter op elkaar te zitten. Heb bijna dagelijks wel een situatie waarin ik denk: als je nou ietsje naar voren gaat kan ik er ook bij met m'n Twingo :p
Een gesprek tussen Tesla en Twingo eigenaar, wat een verschil in werelden :+
Tsja, als beginnend werkende en als eerste eigen auto is een Tesla niet voor mij weggelegd. Niks mis met een Twingo, maar op een radar moet ik niet rekenen :P
Ik rijdt zelf ook een Twingo, een prima auto, goedkoop in onderhoud, gaat lang mee.
Het contrast vond ik wel geinig; een goedlopend en vriendelijk gesprek tussen uitersten, dat wil ik vaker zien :)
volgens mij werkt rader alleen op reflectie en kan deze niet achter het voorwerp kijken wat daar achter zit.
dus vraag ik me af hoe kijkt de tesla daar over heen?
Via teruggekaatst signaal op de grond onder de voorliggende auto.
in een hoek???? dat is dan stealth technologie maar dan heb je volgens mij te maken met ingaande hoek is gelijk aan uitgaande hoek en dan gaan het rader signaal terug naar boven zit je al gauw boven de hoogte van je auto
Het is niet 1 signaal wat weerkaatst.

Zal net een beetje als het menselijk oor zijn, dankzij de weerkaatsingen van het geluid op alles om ons heen, kunnen we daarmee de afstand tot de bron inschatten, doordat dezelfde geluidsgolf op net wat andere momenten via omwegen je oor binnen komt.

De Tesla zal ook wel infrarood de hele wereld ingooien en afhankelijk van welke of hoe het de signalen terug krijgt, een vrij goed overzicht kunnen maken, zonder dat alles direct in het zicht hoeft te wezen.
Radar kijkt alleen door poreuze materialen heen als deze niet te dik zijn!
Maar wat ik niet snap waarom is de vrachtwagen niet gezien door de Radar? Mijn idee is dat er alleen gebruik word gemaakt van visuele detectie(camera)en niet van radar of ir(eventueel laser in de toekomst)
Deze technieken hadden de vrachtwagen wel gedetecteerd misschien te laat ivm de snelheid.
De radar had de vrachtwagen wel gezien. Echter in de vorige software versie, was de visuele camera de baas. Die kon het object niet visueel confirmeren vanwege de verblinding door de zon en heeft toen geen actie ondernomen. Nu is de radar de baas, omdat ze verder staan met de beeldverwerking van de radar aan 10fps. False positives waar ze vroeger last van hadden zijn nu veel minder. Het ongeluk zou met de huidige software vermeden kunnen worden.
https://www.youtube.com/watch?v=mbCLmF4a79o
Zo dus, er schijnt een radar onder de auto voor je door te kunnen kijken.
Daar had je dus geen radar voor nodig en dus is het ook geen bewijs voor de radar lijkt mij.

Je ziet de stoplichten door de ramen van de voorganger aangaan 'lang' voor de Tesla gaat bleepen. Alleen is die voorganger net aan't spiegelen om weer in te voegen waardoor deze dat niet heeft gezien.

Of gebruikt een tesla geen gewone camera's?
Het ligt er maar net aan of de radar/front camera de auto er voor kan zien. Het is niet zo dat tesla door de voorgaande auto kan kijken.

Je kent vast dit filmpje wel : https://www.youtube.com/watch?v=om3z1yLQtwo
Zodra de roze auto opzij gaat, en de auto's er voor in beeld komen, gaat de piep af en remt de auto. Hij trackt dus meerdere objecten en ook hun relatieve snelheid tot elkaar, maar is daarin wel gelimiteerd door het eigen 'zicht'.

Het is misschien nog mogelijk dat de twee voorwaardse camera's remlichten door de ramen van de voorgaande auto kunnen spotten, maar dit lijkt me heel gevoelig voor false positives. Ik betwijfel dus of ze dit zouden gebruiken, zeker aangezien de auto maar uit gaat van wat hij op radar ziet tov de camera's.
Dus kort samengevat, enkel (voorlopig) geschikt voor snelweggebruik? (Zeker in Be en Nl?)

Lijkt me dat het slechtoffer het ook gebruikte op de gewone weg, aangezien er een vrachtwagen dwarste :/
Ik ken het systeem niet, maar kan je overal autopilot inschakelen? (Of het goed werkt is anders). Mss kunnen ze het beter koppelen aan gps en enkel toelaten op autosnelwegen?
Vraag me af wat die autopilot doet als die aan een peage in Fr komt :D
Het systeem werkt op elke belijnde weg en elke weg waarbij er een voorligger is. In dat tweede geval volgt AP een beetje als een schaap de voorligger en kan ie rijden zonder belijning. Ook hier geldt dat de voorligger geen al te scherpe bocht mag maken, dan aborteert AP.

Ik heb geen voorstander voor GPS koppelingen: Wegen verandered snel en onverwacht. Denk aan wegwerkzaamheden. Vertrouwen op live data ondersteund door fleet learning werkt imho erg goed.

Bij de péage vertraagd AP omdat er borden staan en/of de voorliggers vertragen. Als je geen voorligger hebt dan aborteert hij waarschijnlijk omdat er geen lijnen meer zijn. Hoe dan ook: Op dat moment moet je het overnemen. De kans dat ie netjes door een tolpoortje gaat is zeer klein. Hij stopt mogelijk niet eens voor de slagboom (nooit geprobeerd).
Hij stopt mogelijk niet eens voor de slagboom (nooit geprobeerd).
Ik wel, niet doen, lol. Hij reed wel zelf de 'sluis' binnen overigens. Bij de nieuwe 30 km hokjes werkt het dus wel.

Verder geef je een prima omschrijving van wat een Tesla kan. Veel mensen denken dat AP alleen een veredelde cruise control is zoals in veel andere auto's maar het is werkelijk meer. Zoals je schreef, op lange ritten 95% van de tijd op AP, maakt rijden bijzonder plezierig en een heel stuk veiliger.
Ik gebruik het systeem zelf het meest op de lange saaie N-wegen, waar het doorgaans al 'treintje rijden' is.
Het betrof een snelweg met kruising... Dat kennen we gelukkig in Nederland niet.
De lane change functie kan mij totaal niet bekoren. Heb je geen last van de gigantische veiligheidsmarge die hij neemt bij het terug gaan naar de rechterrijstrook na een inhaalactie?
De onnodige vertraging op de voorligger is gelukkig al een stuk beter geworden maar was ook ooit een frustratiepunt.
Ja en nee. Per update zijn er nogal verschillen in gedrag geweest. Het werkte op een gegeven moment bijna niet meer, maar nu werkt het vrij goed imho. Je merkt wel dat het erg gevoelig is aan hoeveel "vertrouwen" het systeem heeft. Als het flink regent (slechtere waarneming -> minder vertrouwen) dan werkt het nauwelijks.

In druk verkeer is het idd niet aan te raden omdat mensen het maneuver gewoon veel sneller uitvoeren. Maar als je dwars door FR of DE rijdt dan vind ik het meestal prima werken. Telkens AP uit en weer aanzetten vaak veel storender (al was het maar door de chime).
Apart dat je zo een heel rapport van een onderzoeksraad naast je neerlegd die zich hier maanden mee bezig hebben gehouden.

Je legt hier de schuld volledig bij de truck en gebruiker iets wat het rapport duidelijk weerspreekt. Het probleem is ook dat zoals je zelf aangeeft, het is ter ondersteuning. Het is glorified cruisecontrol iets wat ondanks wat je beweert, onderhand ieder fatsoenlijk automerk wel heeft inclusief een nieuw Golfje. En dat is het, meer niet. Echter Tesla verkoopt het als "autopilot", dit is het niet, er is niets autopilot aan je moet nog steeds met je hoofd erbij blijven je kunt niet relaxed achterover leunen. Tesla moet stoppen dit marketingtechnisch mooi te verkopen want dit geeft letterlijk ongelukken. Verder zou het systeem ook intern goed moeten kijken. Het heeft talloze sensoren buiten wat geweldig is en zeker het aantal ongelukken zal reduceren, waarom heeft het intern niet wat sensoren dat ziet of de chauffeur er wel bij is of niet met zijn mobieltje bijvoorbeeld speelt?

Verder is het inderdaad zo dat dit de eerste dode is en zeker niet de laatste. Maar als Tesla zo onzorgvuldig met de gebruikers omgaat lopen we straks het risico met dat daadwerkelijke auto pilots worden verboden. Niet vanwege dat het technisch niet mogelijk is maar omdat de toezichthouders een vieze smaak in de mond krijgen bij deze term. En komt het wederom terug bij het verschil tussen daadwerklijk auto pilot of cruise control.
maar uiteindelijk sterven er aanzienlijk minder mensen/km mét AP dan zonder AP.
Ik denk juist meer, tbh. Aangezien indien AP het niet detecteerd, de AP gewoon tegenaan vlamt en daardoor doden vallen. Misschien dat het aantal ongevallen zal verminderen, maar procentueel zie ik meer doden. Overigens zijn we met genoeg idioten op de baan ;)
Waar zie je dat dan? Volgens de NHTSA zijn er 40% minder accidenten door AP.
https://electrek.co/2017/...ash-rate-autopilot-nhtsa/
Lees mijn reactie en reageer opnieuw ;)

Ik zeg niet meer ongevallen, ik zeg meer doden per ongeval.
Ok, maar waar baseer je dat dan op?
Ik denk juist meer, tbh.
Eigen denkvermogen + mijn interpretatie van uw reactie. Nogmaals, lees mijn reactie.

Moet er altijd een bron zijn die alles bevestigd?
Prima. Ik denk dat een systeem dat o.a. automatisch stopt (nu ook voor die kruisende vrachtwagen als het goed is) aanzienlijk meer levens zal redden dan het zal kosten. Niets is perfect, maar mensen zijn vaak een stuk minder betrouwbaar/voorspelbaar als computers.

FYI het heeft ook voetgangersdetectie. https://www.youtube.com/watch?v=xkDOX8mZp3Y
Ik denk dat @JeroenED bedoeld dat áls er een ongeluk gebeurt met een AP gedreven voertuig de kans op een dodelijk ongeval groter is aangezien de auto waarschijnlijk niet (genoeg) afremt en gewoon vol 'gas' doorrijdt.
De conclusie dat AP heeft bijgedragen aan het ongeluk vind ik bizar
De AP heeft er in die zin aan bijgedragen, dat de bestuurder volledig vertrouwde op de AP en dus zelf niet meer oplette. Zoals je zelf al terecht constateerde: hij was een fool in een niet-foolproof-systeem: zonder AP had hij waarschijnlijk wel opgelet (want had hij deelgenomen aan het verkeer).
zonder AP had hij waarschijnlijk wel opgelet (want had hij deelgenomen aan het verkeer).
Tja, van alles is mogelijk. Hoeveel mensen zitten te spelen op hun telefoon aan >100km/u? Is dat de schuld van de telefoon? De auto? De weg? De app? De 4G mast?

Het feit is dat de bestuurder verantwoordelijkheid draagt. Misbruik van technologie is onvermijdelijk, maar de aansprakelijkheid daarvoor is duidelijk.
Ben ik helemaal met je eens, PEBCAK geldt ook voor auto's. Neemt niet weg: hoe meer gadgets de fabrikanten inbouwen, hoe groter de kans op afleiding voor de bestuurder.
Ze stellen niet dat Tesla schuldig is. Ze stellen dat Tesla's technologie op dat moment te weinig kon doen om die bestuurder weer bij de les te krijgen. Je stelt zelf dat de Teslabestuurder 10 seconden lang niet op de weg lette. Dus de vraag is waarom staat het systeem dat toe?
Dus de vraag is waarom staat het systeem dat toe?
Hoe ga je dat afdwingen? Pechstrook is er in vele gevallen niet ;)

[Reactie gewijzigd door JeroenED op 13 september 2017 13:44]

Een hele duidelijke omschrijving van de werking en daardoor geeft het me een nog onveiliger gevoel als fietser
Motoren/fietsers detectie is niet 100%.
Al moet ik eerlijk zeggen dat veel automobilisten ook niet 100% zijn wat dat betreft. Ik hoop dus maar op verbetering van de AP
Het blijft een automatische machine die zelf beslissingen neemt, waarbij de betalende gebruiker door de fabrikant als beta tester wordt gebruikt. Men kan als fabrikant er niet van uitgaan dat een gewone gebruiker zich houdt aan procedures/waarschuwingen: hij is namelijk geen betaalde testgebruiker. Tot nu toe werd dit principe voornamelijk gebruikt bij materiaal waar het ergste wat kon gebeuren was dat je je toestel kwijst was. Nu wordt het gebruikt bij een machine die ettelijke doden kan veroorzaken.
Als jij bij een populatie van 1 person al op zoveel fouten/problemen kan komen, dan kan je zelfs nog niet eens van beta product spreken. Er is een reden waarom fabrikanten zoals Volvo deze functies nog niet activeren ondanks dat hun hardware hetzelfde kan, zij betalen mensen om te testen om te zien hoe goed de functies werken, van hen kan je verwachten dat zij zich tijdens momenten van verveling ook braaf gedragen zoals het hoort.
Tesla probeert op een snelle manier aan veel gegevens te geraken om zo hun software sneller te kunnen verbeteren, dat mogen zij, maar dan zijn ze wel degelijk een stuk verantwoordelijk als het fout gaat.
Je kan wel leuk in Scifi land leven met je tesla, maar als de pc in die auto niet het verschil weet tussen witte lucht en een witte vrachtwagen , dan doe je weinig.
Ook al zit je met je handjes aan het stuur moet je dan toch op het laatste moment ingrijpen
Straks vind autopilot dat oranje pionnen gelijk zijn met de ondergaande zon.
Sorry hoor maar deze wereld is nog lang niet klaar voor dit soort technieken en het zou alleen op trajecten gebruikt mogen worden die ook intelligent zijn en niet op basis van een radar of infrarood camera.
Kijk naar het land waar de tesla gemaakt word ze hebben binnen een jaar 4 hypermoderne marine schepen gesloopt door foutjes.
Super interessant. Dank je voor de read.
Wat ik bizar vindt is dat je Tesla nodig hebt om essentiële gegevens uit te lezen. Het zou gewoon beschikbaar moeten zijn voor een 3rd party. Op deze manier kan Tesla altijd gegevens achterhouden die ze in een slecht daglicht zouden plaatsen.
Er moet een zeer ernstig tot dodelijk ongeval plaatsvinden eer Tesla de gegevens "vrijgeeft".
Als je een ongeluk hebt gehad waarbij je niet precies snapt hoe en wat er fout ging kan je op de meest basale vragen erover al geen antwoord krijgen. "Doen wij niet meneer, we geven die informatie aan niemand door, ook niet aan de politie bijvoorbeeld". Terwijl als het een ongeluk is waarmee zij in een slecht daglicht kunnen komen te staan er meteen in de krant staat hoe hard de auto ging en of AP aan stond of niet.
Dus als je vermoed dat het een glitch was heb je dikke pech, het bewijsmateriaal zal je zelf moeten aanleveren.

P.S. Ik ben een enorme fan van Tesla en mijn Model S, maar heb geen oogkleppen op en heb helaas op harde wijze de (on)mogelijkheden moeten leren, zowel van de auto als de organisatie.

[Reactie gewijzigd door Coromoto op 13 september 2017 10:59]

Dit stoort mij ook. Ik vind bijv. dat ik het recht heb om mijn eigen gegevens op te vragen; dat kan ik niet. Heeft de EU niet zo'n richtlijn?
Als je bij autopilot nog steeds je handen aan het stuur moet hebben, is het dan niet gewoon een uitgebreidere cruise control die zelf ziet hoe hard ie moet gaan? (ben een beginnende rijder dus vergeef me als ik het verkeerd zie :+ ) Ik denk dat als ik dit artikel lees, dat ze beter de autopilot functie automatisch kunnen laten uitschakelen als de auto binnen de bebouwde kom rijdt, dat is toch een stuk 'moeilijker' dan een recht stuk snelweg, en zodra de software verder is ontwikkelt kan het misschien ook binnen de bebouwde kom aan staan.
Ik zie ook niet waarom het de fout zou zijn van auto-pilot (technologie)
Een gebruiker hoord nieuwe technologie goed te kennen voor hij ze gebruikt.
Stel je voor dat je toch de schuld gedeeltelijk zou leggen bij de technologie, dan kan je je ook afvragen of je hetzelfde niet kan zeggen over de tijd dat cowboys moesten overstappen van paarden naar wagens.
Ik ben zeker dat cowboys die een wagen niet goed konden gebruiken ook meer accidenten veroorzaakten dan dat ze met hun paard hadden en dus maar beter hun paard blijven gebruiken tot ze goed met een wagen kunnen rijden.
Stel dat je nu toch zou zeggen dat auto-pilot mee schuldig is, dan hadden we nu nooit wagens gehad zoals we ze nu kennen
De NTSB ziet het toch heel anders dan jij en die versie van de NTSB is een hele goede.
De NTSB geeft daarbij duidelijk aan dat het ontwerp van de autopilot van Tesla het mogelijk maakte dat de bestuurder teveel kon vertrouwen op het systeem, zich te lang zich niet hoefde bezig te houden met het besturen van de auto, waardoor er een situatie ontstond die niet in lijn was met de richtlijnen en waarschuwingen van Tesla. Gegevens van de autopilot over het rijgedrag van de bestuurder van de Tesla wijzen erop dat hij onvoldoende kennis had van de beperkingen van de autopilot.
Je hele voorbeeld cowboys wagen slaat totaal nergens op en is geen goede vergelijking. Feit blijft dat tesla in de versie toen niet ingreep als iemand het systeem als autopiloot gebruikte. Dat kon onbeperkt aan blijven staan. Tesla maakte dat mogelijk.

Wat mij echter nog het meeste stoort is dat ondanks een uitspraak van de NTSB toch blijft volhouden dat alle schuld bij de gebruiker ligt.
De autofabrikant benadrukt nog altijd dat de bestuurder verantwoordelijk blijft en zijn aandacht bij het rijden moet houden, ondanks de activatie van autopilot. Volgens een woordvoerder van Tesla maakt de autopilot nog geen autonoom voertuig van de auto.
Ze roepen wel leuk het is geen autonoom voertuig. De naam autopiloot geeft een andere indruk en in de 2016 versie kon je het systeem ook zo gebruiken zonder dat er ingegrepen werd. Tesla wist dat dit zo gebruikt kon worden, gaf de mogelijkheid maar zegt ja maar het mag niet.
Sterker nog alle data die tesla heeft kan duidelijk laten zien of iemand het systeem zo gebruikt. Ondanks die data heeft men niet ingegrepen tegen dit in hun ogen misbruik.
Een automatische piloot in een vliegtuig houdt enkel een gegeven koers vast en moet uit of opnieuw geprogrammeerd worden wanneer er "verkeer" in de buurt is.
Er zijn meerdere mogelijkheden in een vliegtuig mbt de automatische piloot , maar die zijn wel heel goed beveiligd , maar alle vliegtuigen hebben een transponder , en hoeveel fietsers autos motoren bussen vrachtwagens hebben een transponder.
Dus dat autopilot werkt puur op basis van zijn radar niet op actuele informatie
Stel:
Je auto kan 220 km/u. Als je met 220 tegen een boom rijdt en je rijdt jezelf dood is het toch niet de schuld van de auto? Of ligt de schuld dan bij de fabrikant "omdat de auto 220 kan"
Je kunt iemand met een keukenmes ombrengen. Dat je dat ook daadwerkelijk doet is toch niet de schuld van het mes, of van de zaak die jou dat mes heeft verkocht?

Dus dat een autopilot volledig automatisch gebruikt kon worden maakt het nog niet schuldig.

Leg de schuld maar weer bij een ander. JIJ als bestuurder let niet op.
Waar is toch de "common sense" en het overlevingsmechanisme (goed op jezelf passen) gebleven...

Hoe meer wij als samenleving mensen beperken om iets te kunnen, hoe minder mensen voor zichzelf gaan denken. En zo wordt de mensch steeds dommer...

edit: typos

[Reactie gewijzigd door alingebruik1978 op 13 september 2017 09:52]

Daar komen de zinloze vergelijkingen weer.

De NTSB die gaat over veiligheid is er duidelijk over.
De NTSB geeft daarbij duidelijk aan dat het ontwerp van de autopilot van Tesla het mogelijk maakte dat de bestuurder te veel kon vertrouwen op het systeem, zich te lang zich niet hoefde bezig te houden met het besturen van de auto, waardoor er een situatie ontstond die niet in lijn was met de richtlijnen en waarschuwingen van Tesla. Gegevens van de autopilot over het rijgedrag van de bestuurder van de Tesla wijzen erop dat hij onvoldoende kennis had van de beperkingen van de autopilot.
NTSB is gewoon duidelijk in haar uitspraak dat de bestuurder te veel kon vertrouwen op het systeem.
Je kan met 100 vergelijkingen komen Tesla is hiet gewoon deel schuld door een systeem op de markt te brengen dat misbruikt kon worden zonder waarschuwing.

Sterker nog tesla logt alles, analyseert data en kan dus ook zien over gebruikers het systeem verkeerd gebruikten. Desondanks hebben ze gebruikers die het verkeerd gebruikten niet gewaarschuwd of ingegrepen.

Maar goed stel je dan de vraag waarom er nu wel een systeem is dat kijkt of je handen aan het stuurt zitten, zo niet autopiloot mode uit en niet meer tijdens de rit te gebruiken. Als het voor die update allemaal zo goed mooi en veilig was waarom dan de update voor controle ?

Het was niet goed voor de update en dat zegt de NTSB dus gewoon duidelijk. Natuurlijk mag je andere mening hebben de ntsb gaat over veiligheid en als die deze uitspraak doen lijkt het me heel duidelijk.
NTSB is gewoon duidelijk in haar uitspraak dat de bestuurder te veel kon vertrouwen op het systeem.
Je kan met 100 vergelijkingen komen Tesla is hiet gewoon deel schuld door een systeem op de markt te brengen dat misbruikt kon worden zonder waarschuwing.
Wat is er mis met zijn 220km/u vergelijking? BMW brengt ook een auto op de markt waarmee je 220km/u kunt gaan zonder waarschuwingen. Dan is BMW nog steeds niet verantwoordelijk als je een ongeluk veroorzaakt.

Sterker nog, ik verwacht dat zelfs de adaptive cruisecontrol het nog doet op hoge snelheden. Wat als je daarmee een ongeluk veroorzaakt? Er gaan vast geen lampjes branden dat adaptive cc niet werkt als je 100km/u harder rijdt dan je voorganger. Is BMW dan wel schuldig?
Leuk verhaal maar de vergelijking gaat niet op.

Je kan met een hamer iemand op zijn kop slaan, met een mes iemand doodmaken, allemaal jou beslissing jou handeling.

Cruiscontrol wil nog steeds zeggen handen aan het stuur dus je bent actief bezig te sturen.

Tesla 2016 systeem. Je zet knop om en hoeft niet meer te kijken, auto doet alles. Mag n iet maar het kon. Geen waarschuwing. Jij doet niets de auto doet alles.

Verschil, jij neemt een beslissing, auto neemt een beslissing.
"Sterker nog tesla logt alles, analyseert data en kan dus ook zien over gebruikers het systeem verkeerd gebruikten. Desondanks hebben ze gebruikers die het verkeerd gebruikten niet gewaarschuwd of ingegrepen."
De autofabrikant benadrukt nog altijd dat de bestuurder verantwoordelijk blijft en zijn aandacht bij het rijden moet houden, ondanks de activatie van autopilot.
Natuurlijk krijg je mensen die teveel vertrouwen op zo'n systeem. Maar je implicatie is dat zulke systemen dan maar niet moeten bestaan. Dat lijkt me geen goede zaak. Er zijn genoeg situaties te verzinnen waarin systemen (kunnen) worden misbruikt uit naiviteit of gemakzucht, maar dat lijkt me geen reden om die systemen te verbieden of in zoverre in te perken dat ze niet erg nuttig meer zijn.
Mijn implicatie is dat als je een systeem maakt dat misbruikt kan worden en jij dit weet je moet ingrijpen.
Tesla heeft dat nu gedaan door controle handen op het stuur, actief kijken. zo niet systeem uit.

Als je een automatisch systeem maakt moet je dus veiligheden inbouwen om misbruik of verkeerd gebruik te voorkomen. doe je dat niet ben je als fabrikant verkeerd bezig. Zeker als het gaat om systeem als automatisch besturen van een auto.
Feit blijft dat tesla in de versie toen niet ingreep als iemand het systeem als autopiloot gebruikte.
Volgens mij bedoel je daar niet "autopiloot" maar "autonoom rijden", gigantisch verschil!

Waar komt toch het idee vandaan dat "automatische piloot" betekent "je hoeft zelf niets te doen en alles gaat goed"!? De meest bekende automatische piloot is die in verkeersvliegtuigen. Die dient alleen voor lange, saaie, routine-onderdelen van de vlucht, niet voor start en landing. En zelfs met auto pilot aan, zitten er continu twee personen mee te kijken of alles inderdaad wel goed gaat. Dus, waarom denken mensen dat ze lekker kunnen powernappen terwijl hun auto zichzelf rijdt...?
Wat mij echter nog het meeste stoort is dat ondanks een uitspraak van de NTSB toch blijft volhouden dat alle schuld bij de gebruiker ligt.
Dat is toch ook zo? Ja, ze hadden het nog verder dicht kunnen timmeren, maar waar leg je dan de grens? Moeten alle magnetrons een bewegingssensor van binnen krijgen zodat ze weigeren te starten als iemand zijn kat wil drogen? Mijns inziens zeggen ze duidelijk "doe dit niet!" en als een gebruiker denkt "toch gewoon doen; ik kan zelf veel beter inschatten of iets een goed idee is dan de fabrikant zelf", dan lijkt het me inderdaad volledig de schuld van de gebruiker. Want als je wilt beweren dat producten misbruik onmogelijk moeten maken, dan stel ik voor dat je nog wat oude afleveringen van Jackass bekijkt; domme gebruikers kunnen hele rare dingen doen met producten, dat ga je nooit allemaal kunnen detecteren en blokkeren.
De term autopiloot is en blijft een term die het idee geeft dat je automatsich kan rijden. de NTSB verklaard dit ook gewoon duidelijk. Alleen tesla fans zien het anders. De werkelijkheid ook in dit geval is dat de man, net als vele het zo zien en tesla te weinig gedaan heeft om duidelijk te maken dat het niet zo is.
Wederom de ntsb verklaard ook dat je het systeem zonder ingrijpen door tesla ook zo kon gebruiken.

De ntsb is heel duidelijk. Tesla had geen veiligheden ingebouwd om te controleren of het systeem als autopiloot gebruik werd. Dat hebben ze nu wel Het feit dat ze nu wel controleren hand aan het stuur, zo niet autopiloot uit voor die rit zegt genoeg. Als het zo perfect was als vele hier doen voorkomen waarom dan nu wel een controle inbouwen.

Je voorbeeld van kat in de magnetron. Leuk en goed om het in het belachelijke te trekken. Zo kun je nog vele belachelijke voorbeelden bekenden. Alles heeft met een leerproces te maken en tesla stelt simpel autopiloot is geen autonoom rijden maar praktijk was dat het zo gebruikt kon worden. De techniek was nieuw voor veel mensen en wat doe je als iets nieuws is, je gaat proberen te kijken wat het allemaal kan. Dat zit in de menselijke aard.
Tesla had dit moeten weten en de veiligheden die ze nu wel hebben ingebouwd toen ook al inbouwen. Dat is en was gewoon een domme inschattingsfout van tesla. Daarbij kan tesla alles zien aan de hadn van de data dus ook of mensen het systeem zo gebruikten. Desondanks hebben ze toen niet ingegrepen maar pas na druk wel veiligheidssystemen ingebouwd.

Tesla blijft echter anders volhouden, typisch nooit schuld bekennen terwijl het gewoon duidelijk is. Het is een domme inschattingsfout geweest
De ntsb is heel duidelijk.
Dat ze heel duidelijk zijn betekent nog niet dat ze gelijk hebben / dat ik het met ze eens moet zijn.
Als het zo perfect was als vele hier doen voorkomen waarom dan nu wel een controle inbouwen.
Je hebt mij niet horen zeggen dat autopiloot perfect is; ik zeg alleen maar dat Tesla zeer duidelijk aangegeven heeft dat het géén autonoom rijden is. Dat ze nu overstag gegaan zijn en extra beveiligingen ingebouwd hebben betekent wat mij betreft niet dat het hun fout is, ik zie dit als Tesla die andermans rotzooi (domheid en gebrek aan inschattingsvermogen van gebruikers) voor ze opruimt.
Je voorbeeld van kat in de magnetron. Leuk en goed om het in het belachelijke te trekken. Zo kun je nog vele belachelijke voorbeelden bekenden. Alles heeft met een leerproces te maken en tesla stelt simpel autopiloot is geen autonoom rijden maar praktijk was dat het zo gebruikt kon worden.
Ja, dat is een belachelijk voorbeeld. Maar ik denk dat je niet begrijpt dat het hele gedoe rondom autopiloot in mijn ogen ook belachelijk is. Mijn magnetron stelt simpel dat het geen manier is om je huisdieren te drogen, maar de praktijk is dat je het wel zo kunt gebruiken; er is geen enkele technische maatregel die dat voorkomt (terwijl dat wel zeer goed mogelijk zou zijn).

Maar leg mij eens uit: waarom moet in het ene geval het apparaat zelf het probleem voorkomen, terwijl we in het andere geval vinden dat mensen toch echt even zelf moeten nadenken!? Met andere woorden: stel ik maak een nieuw apparaat dat (zoals zo'n beetje elk apparaat) met voldoende domheid op een compleet idiote manier misbruikt kan worden, hoe weet ik of het (volgens jou) voldoende is om een waarschuwing in de handleiding te zetten, of dat ik een beveiliging in moet bouwen die misbruik kan detecteren en voorkomen?
De techniek was nieuw voor veel mensen en wat doe je als iets nieuws is, je gaat proberen te kijken wat het allemaal kan. Dat zit in de menselijke aard.
Nieuwsgierigheid kan ik me iets bij voorstellen, maar er is ook zoiets als voldoende gezond verstand om je nieuwsgierigheid niet tot in het roekeloze door te voeren. Als iemand je voor de eerste keer een paintball-geweer geeft en zegt "*nooit* vanaf minder dan X meter schieten", en je bent nieuwsgierig wat er gebeurt als je vanaf 1 cm schiet, dan zou ik dat toch echt jouw inschattingsfout noemen en geen gebrek aan beveiliging in het geweer.
Tesla blijft echter anders volhouden, typisch nooit schuld bekennen terwijl het gewoon duidelijk is.
Hoe duidelijk is het als de meningen er zozeer over verschillen...? Ik vind het namelijk net zo duidelijk dat je natuurlijk geen schuld gaat bekennen (zeker niet in de sueing states of america...) als je niets fout gedaan hebt.
Je hoeft het niet met de ntsb eens te zijn. Of ze gelijk hebben is jou mening. de ntsb is verantwoordelijk voor veiligheid namens de overheid en doet dus in naam van die overheid een uitspraak over dit ongeval.

Je kan het met een uitspraak van rechter ook niets eens zijn maar toch heeft hij gelijk en dat is ook bij uitspraak van ntsb wat mij betreft van toepassing.

De rest van je verhaal moet in zeker in jip en janneke modus doen.

Waarom steek je je hand niet in vuur en waarom staat niet niet bij een gasfornuis, dat zijn de vragen die jij ook stelt.

Maar waarom in het ene geval een apparaat zelf het probleem moet voorkomen, omdat het kan en omdat het voor de veiligheid gewenst is en omdat je in het geval van een auto andere personen er bij kan betrekken. Je hond in de magnatron dat betrek je geen andere onschuldige mensen bij.

Maar waarom heeft tesla dan nu wel die veiligheden ingebouwd die jij schijnbaar niet nodig acht. Het zijn die veiligheden waarop de ntsb zich nu betrekt. Is tesla nu fout bezig want ze doen iets wat ze helemaal niet hoeven doen als ik jou mening moet volgen.

en over je paintbal geweer als dat nu eens een op afstand bestuurbare versie was met doelmeting (afstand). De eisen zijn niet schieten op minder dan 3 meter. Toch laat het geweer jou toe op 1 meter te schieten terwijl de afstandmeting weet dat het doel op 1 meter staat. Wederom daar kan de fabrikant niets aan doen volgens jou mening.
Of toch wel als deze weet en kan meten dat de afstand 1 meter was en het geweer eigenlijk niet afgeschoten mocht worden.
Maar waarom in het ene geval een apparaat zelf het probleem moet voorkomen, omdat het kan en omdat het voor de veiligheid gewenst is en omdat je in het geval van een auto andere personen er bij kan betrekken. Je hond in de magnatron dat betrek je geen andere onschuldige mensen bij.
Met andere woorden, we gaan deze discussie vervolgen zodra iemand zijn baby in de magnetron probeert te drogen...?
Is tesla nu fout bezig want ze doen iets wat ze helemaal niet hoeven doen als ik jou mening moet volgen.
Iets doen wat je niet hoeft te doen is niets mis mee. Mijn punt is dat, zelfs als Tesla nu extra beveiligingen inbouwt, dat ze daarmee niet toegeven dat het hun schuld is.
paintbal geweer [vs. auto pilot]
Je vergelijking mist één heel belangrijk punt. Bij een paintball-geweer (met afstandsmeting) is het inderdaad heel makkelijk om te zeggen "doelwit te dichtbij, niet schieten". Bij auto pilot ligt dat veel lastiger. Op het moment dat je detecteert dat de bestuurder niet oplet kun je niet zomaar de auto stilzetten (midden op de snelweg). Ik kan me prima voorstellen dat je als programmeur uitgaat van enige competentie en voorzichtigheid, in plaats van simpelweg kwade opzet, bij de bestuurder. In dat geval is "de bestuurder let niet op; we proberen hem weer bij de les te krijgen, maar tot die tijd is het het veiligste om op auto pilot door te rijden" prima te verdedigen. Als je serieus rekening moet houden met gebruikers die het systeem willens en wetens proberen te misbruiken, tja, dan zit er eigenlijk niets anders op dan de gebruiker "straf te geven", maar daarvoor moet je dan wel de (veel complexere!) code schrijven om, op auto pilot, van baan te wisselen net zolang totdat je op de vluchtstrook zit, zodra je daar bent af te remmen, met lage snelheid de berm in te rijden en uiteindelijk te stoppen. Moet je voor de gein eens tellen op hoeveel manieren die oplossing fout kan gaan (probleem 1: wat doe je als er simpelweg geen vluchtstrook is!?). Nogal wiedes dat ze in eerste instantie voor de simpele oplossing kozen. Want laten we wel wezen, als auto pilot probeert de berm in te sturen als ie toevallig op een brug zit, waardoor ie over het randje heen gaat en in het water klapt, dan wordt er over tien jaar nog steeds geklaagd, terwijl het risico op dat soort blunders simpelweg het gevolg is van de keuze voor een veel complexere oplossing.
Bij de autopiloot ligt dat veel lastiger. Echt waar ?

Hoe komt het dat tesla nu wel actief kijkt en blijft waarschuwen handen aan het stuur en als je dat niet doet autopiloot uit ? Is tesla nu gevaarlijk bezig ? Want nu kan het ineens wel en recent nog niet, hoewel het toen ook al kon maar men niets deed, precies daar gaat het nu om.

Straf geven leuk bedacht, het is geen straf, je mag het systeem niet zo gebruiken dus verhinder je dat, is dat straf ?

NTSB beoordeeld het oude tesla systeem zonder controle. De controle zit er nu wel op. rara waarom

Wat betreft baby in de magnetron, kunnen we meteen op iedere uitlaat ook stikkers hangen niet met je mond aan de uitlaat, handen niet tussen de spaken steken, geen baby in de droger wat logischer is om te drogen. Of kindje wassen in de wasmachine, maar vooruit je blijft maar hangen aan die magnetron, heb je er iets mee.

Feit blijft tesla kan nu wel; controleren maar volgens jou is dat eigenlijk overbodig.
Hoe komt het dat tesla nu wel actief kijkt en blijft waarschuwen handen aan het stuur en als je dat niet doet autopiloot uit ? Is tesla nu gevaarlijk bezig ?
Ik heb geen Tesla (en ben niet mateloos onverantwoord), dus kan het niet testen, maar wat gebeurt er als je, op het moment dat autopilot uit gaat, nog steeds je stuur niet vastpakt? Ga je dan met 120 km/u over alle rijbanen zwalken, komt je auto opeens random ergens stil te staan? Of blijft autopilot "actief genoeg" om de situatie nog enigszins onder controle te houden? Alles behalve die laatste aanpak zou ik inderdaad ontzettend gevaarlijk vinden.

Ik heb geen details kunnen vinden over wat "autopilot gaat uit" exact betekent, weet jij dat toevallig wel?
Want nu kan het ineens wel en recent nog niet, hoewel het toen ook al kon maar men niets deed, precies daar gaat het nu om.
Vanwege de bij-effecten die deze oplossing veroorzaakt! Het is een slechte oplossing, maar iedereen roept dat ze het moeten doen, dus nu zijn ze gezwicht voor de druk en hebben iets gedaan wat nog veel dommer is dan ze aanvankelijk hadden ontworpen.
Straf geven leuk bedacht, het is geen straf, je mag het systeem niet zo gebruiken dus verhinder je dat, is dat straf ?
"Je luistert niet naar onze regeltjes, dus de rest van deze rit mag je deze hippe feature niet gebruiken" is inderdaad een soort van straf (van niveau jengelende kinderen op de basisschool, maar toch).
Wat betreft baby in de magnetron, kunnen we meteen op iedere uitlaat ook stikkers hangen niet met je mond aan de uitlaat, handen niet tussen de spaken steken, geen baby in de droger wat logischer is om te drogen. Of kindje wassen in de wasmachine, maar vooruit je blijft maar hangen aan die magnetron, heb je er iets mee.
Alleen dat het een makkelijk voorbeeld is waarvan in elk geval niemand kan zeggen "och kom aan, niemand is zo stom". Maar een boel van de problemen die je noemt zouden met een paar extra sensoren opgelost kunnen worden. Waarom moet Tesla dat van jou wel doen, maar heb je er geen enkel probleem mee dat de fabrikanten van huishoudelijke apparaten (om maar even de grootste categorie te pakken) geen bewegingssensor en/of temperatuursensor gebruiken om te voorkomen dat ze ingeschakeld kunnen worden als er een baby in zit?

Je blijft maar reageren "wat een absurd voorbeeld", maar een daadwerkelijk antwoord op de vraag "je bent met twee maten aan het meten; wanneer geldt de ene regel en wanneer geldt de andere?" heb ik nog niet gezien.
Feit blijft tesla kan nu wel; controleren maar volgens jou is dat eigenlijk overbodig.
Ehm ja, wat is je vraag? Ik vind de huidige situatie inderdaad raar (en, afhankelijk van wat "autopilot uit" precies betekent, mogelijk ongewenst), dat was inmiddels toch wel duidelijk!?
Als je geen tesla piloot bent, zoek op google en je krijgt je antwoord. Het is niet aan mij om jou daarop antwoord te geven als je hier wil reageren maar zelf niet wil zoeken hoe het werkt.
Als je geen tesla piloot bent, zoek op google en je krijgt je antwoord.
Dat wou in eerste instantie niet zo lukken. Had gehoopt dat jij het misschien uit je hoofd wist.

Heb nog een nieuwe poging gedaan en ik denk gevonden te hebben wat de nieuwste versie van autopilot doet als je botweg weigert om je stuur vast te pakken (of een hartaanval hebt gehad...): "goh, deze linkerbaan van de snelweg is een prima parkeerplekje" (in het filmpje zelf *) stopt ie letterlijk midden op een kruising, zodat je een ideaal doelwit bent om van opzij aangereden te worden).

Ga je me nu serieus vertellen dat je dát een goede, verstandige, laat staan veilige oplossing vindt...!? Of begrijp je in ieder geval waarom (met dit als beste alternatief), de ontwerpers van de vorige versie van autopilot (net zoals ik) dachten "ehm ja, dat kunnen we beter niet doen"?

*) Ja, dit is dus het soort idioot die het op de openbare weg uitprobeert ("luckily there was no car behind me" in plaats van "I waited until there was no car behind me" :X ). Bij mijn eerste poging om een antwoord te googlen heb ik pagina's met dat soort titels opzettelijk overgeslagen, om dit soort onverantwoord gedrag niet te belonen met extra views. Uiteindelijk heb ik mijn zoektocht naar tests in een gecontroleerde omgeving op moeten geven; voor zover ik kan inschatten is er niemand verstandig genoeg om dit op een afgesloten circuit te testen. :(

ps. Leuk dat je klachten hebt over mijn google-fu, maar in je haast om daarover te klagen ben je vergeten om op de gehele rest van mijn post te reageren...

[Reactie gewijzigd door robvanwijk op 16 september 2017 13:37]

Wat alles laat zien is dat de functie dus eigenlijk totaal niet marktrijp is en er nog te veel kinderziektes in zitten.

Juist om die reden zie je weinig andere merken die nu aanbieden. Nee ze lopen achter roepen de tesla boys dan of zijn ze gewoon voorzichtiger.
Wat alles laat zien is dat de functie dus eigenlijk totaal niet marktrijp is en er nog te veel kinderziektes in zitten.
Het lijkt erop dat Tesla denkt dat de beste manier om die kinderziektes (in autonoom rijden) eruit te krijgen is om heel erg veel kilometers te maken (met autopilot). Hoe ga je anders de één-op-een-miljoen rare uitzonderingssituaties vinden? Ikzelf kan ook geen beter alternatief verzinnen. Heb jij wel een beter voorstel?

Roepen "de techniek is nog niet klaar (en ik ben tegen de enige manier om de techniek volwassen te krijgen)" levert als enige realistische conclusie dat we tot in lengte der dagen zelf moeten blijven rijden. Daarbij zullen jaar in, jaar uit, talloze slachtoffers blijven vallen, puur omdat we niet weten hoe we van de huidige situatie (menselijke bestuurders) in de objectief significant betere situatie (automatische besturing, zonder kinderziektes) kunnen komen. Dat vind ik geen acceptabele oplossing.

Dat menselijke bestuurders nog niet eens het verschil tussen rij-ondersteuning en automatisch rijden begrijpen is juist een reden om volle bak te werken aan het afschaffen van menselijke bestuurders; dat soort stompzinnigheid is het zoveelste bewijs dat een te grote groep geen flauw idee heeft waar ze mee bezig zijn. Wat doet de politie met iemand die geblinddoekt achter het stuur zit en zich door zijn bjirijder laat vertellen hoe ie moet sturen en remmen? Kunnen we niet gewoon dezelfde straf zetten op mensen die autopilot misbruiken (dus óók als ze goed wegkomen en geen ongeluk veroorzaken)? Het is immers ongeveer even onverantwoord en roekeloos. En als Tesla nu toch die extra beveiliging ingebouwd heeft, dan is de pakkans ook meteen 100% (Tesla kan de telemetrie doorsturen; "privacy is sooo last century"...) dus dan zullen mensen het erg snel leren).

[Reactie gewijzigd door robvanwijk op 16 september 2017 17:04]

De techniek is idd nog niet klaar. Terug naar de crash. De camera herkend bij een lage zon, lees lichte witte achtergrond de witte vrachtwagen niet. Lijkt me dus heel duidelijk techniek is niet klaar.

Je zou in dit geval verschillende sensoren moeten gebruiken.
Normale camera, radar, thermisch infrarood eventueel nog laser. Voeg 4 samen en je hebt een beeld. Faalt1 of 2 heb je er nog 2 over.

Probleem dat is nu nog te duur, zal nog een paar jaar duren. Dus ja de techniek is nu nog niet klaar. Je kan de techniek trouwens ook gewoon laten rijden zonder dat het functies inschakelt. ie manier leer je toch zonder dat je iets verkeerd kan doen. (antwoord op jou vraag dus van tot einde der dagen)
Ik denk dat dat niet een goede vergelijking is. Je kan het beter vergelijken met een cowboy op een paard waarbij het paard keurig weet waar hij heen moet en ook op let. Als het paard nu na een paar uur een fout maakt merk je dat niet op omdat je naar de omgeving kijkt. Het probleem met de 'autopilot' is dat de auto niet volledig autonoom is maar wel genoeg om je gedachten te laten afdwalen en als het fout gaat ben je er weer te laat bij.
Hij houdt de juiste afstand tot de voorganger, maar ook de auto binnen de lijnen. Dus ja het is een veredelde cruis-control.
En tegelijk beweert Musk dat je auto in principe zelfstandig de VS kan doorkruisen. Daar wordt een verwachting gewekt die dus kennelijk niet waargemaakt kan worden.
Dat betreft een implementatie van AutoPilot 2.0 die op dit moment nog niet openbaar beschikbaar is, dus dat heeft niets te maken met dit voorval.
Kernbegrip hier is 'in principe' .
Musk weet ook dat er nog teveel probleemsituaties voordoen.
Dit was een aaneenschakeling van non-standaard situaties. Truckchauffeur zonder aandacht voor verkeer, kleur truck tov achtergrond, teslabestuurder die niet oplet, niet-volleerde autopilot. Tesla heeft gelijk aanpassingen gedaan in autopilot, heeft truckchauffeur hier ook iets van geleerd ?
Cruise Control is ook een risico heb ik ervaren. Hulpmiddelen zijn nuttig maar wel op de juiste manier.

Mijn auto heeft Cruise Control op twee manieren: ofwel zelf de snelheid volledig regelen zodat ik mijn voet van het gaspedaal moet halen, ofwel de limiter die de maximale snelheid beperkt maar waarbij je wel het pedaal ingedrukt moet blijven houden.

Bij die eerste vorm is het comfortabeler maar ook risicovoller: omdat je rechtervoet geen functie heeft ga je daar andere dingen mee doen. Ik heb mezelf wel eens betrapt met mijn voet bijna onder de stoel waar ik op zat. Snel ingrijpen is er dan niet meer bij.

De laatste tijd gebruik ik uitsluitend de limiter. Van de buitenkant is het gedrag hetzelfde: constante snelheid, maximum beperkt. Maar het houdt me wel actiever betrokken bij het rijproces. Daarnaast merk je ook als je wat moe begint te worden waardoor je het pedaal niet ver genoeg indrukt: tijd voor een pauze. Met CC ontgaan dat soort signalen.

Afstandcorrectie van de Tesla zou wat mij betreft irritante alarmsignalen laten horen en niet of pas heel laat autonoom ingrijpen. Zo hou je de bestuurder betrokken: niemand zit graag in een piepende auto. Ook rijstrookcorrectie zou op die manier moeten zijn. De chauffeur moet ten alle tijde ervaren dat hij de verantwoordelijke is. Totdat dat écht het geval niet meer is en de auto volledig autonoom rijdt.
Hoezo heeft je rechtervoet geen functie meer bij Cruise Control?? Als jij geen Adaptieve cruise control hebt, dan hou je je rechtervoet toch gewoon op de rem?? En zelfs met ACC hou je je voet toch gewoon in de buurt van de rem voor het geval dat er iets gebeurd...

Ik rij deze week toevallig met een auto die ACC heeft, maar ik zit nog steeds de hele tijd met mijn voet bij de rem voor het geval er iets gebeurd wat de auto mist.

Als je met een auto rijdt, dan moet je gewoon je aandacht bij het rijden/verkeer houden. Zelfs als je (A)CC of een autopilot hebt. Als je niet je aandacht bij het verkeer wilt hebben of je verliest je aandacht als je (A)CC of een autopilot aan hebt staan, dan moet je het misschien maar gewoon niet gebruiken...

Of je neemt maar de trein of een taxi. :+
Je voet bij het rempedaal houden voelt nutteloos want meestal gebruik je hem niet. Ik probeer dat wel maar als je honderden kilometers snelweg voor je hebt gaat dat wel eens wat minder netjes. Met de limiter heb ik wel de voordelen van cruise control, maar niet de nadelen. Ik vind het ideaal en het voelt voor mij veel veiliger.
Het gaat toch niet om nutteloosheid, het gaat er om dat je alert blijft bij het auto rijden. En als mensen daar niet mee omkunnen gaan, dan moeten ze het niet gebruiken. Je brengt namelijk niet alleen jezelf in gevaar maar ook anderen.

En het is niet dat ik mijn voet ook de hele tijd bovenop de rem houdt. Maar onder de stoel komt ie niet ;) Past bij mij ook niet ;)

Ik bedoelde het overigens niet persoonlijk, maar in zijn algemeen. En het is goed dat jij er een oplossing voor hebt met de limiter.
Alleen is het probleem dat als je een lange rit hebt van een paar uur dat je je dan overbodig voelt en gaat vervelen waardoor je andere dingen gaat doen. Ik denk dat madegg dat bedoeld.
Speedlimiter kan levensgevaarlijk zijn. Soms moet je gas bij geven om een gevaarlijke situatie te vermijden. Veel succes als je delimiter aan hebt staan.
Vaak kan je de speedlimiter wel overschrijden als je de gaspedaal krachtig induwt, juist om dit soort situaties te voorkomen, bijvoorbeeld bij volvo:
De snelheidsbegrenzer is ook met het gaspedaal stand-by te zetten, bijvoorbeeld om in noodgevallen snel te kunnen accelereren: Trap het gaspedaal volledig in.
Veel auto's kunnen niet snel genoeg accelereren om in een critische situatie met een dot gas het gevaar te kunnen vermijden. Vaak moet je op z'n minst terugschakelen om überhaupt een beetje te kunnen accelereren (of bij een automaat het pedaal volledig intrappen). Maar dan nog moet de motor voldoende reserve hebben. De kans is groot dat je in een echt gevaarlijke situatie alleen met remmen of sturen het gevaar kunt vermijden.
Ik ben blij dat mijn auto genoeg reserve vermogen heeft.
Afgelopen zondag nog een idioot die met zijn telefoon zat te spelen en ineens van rijbaan wisselde bij een splitsing.
Natuurlijk vlak voor mijn wielen terwijl ik een stuk harder reed.
Ik schoof maar snel door naar de linkse strook (na de spiegels gecheckt te hebben) & kickdown. Een fijn gevoel dat je auto indien nodig snel kan accelereren van 100 naar 130+
Haha, dat zelfde heb ik nu ook. Ik heb een tijdje terug een aygo gekocht, en cruise control was een (dure) optie. Speed limiter was standaard, dus heb ik die genomen. Bevalt me eigenlijk beter dan een 'echte' cruise control.
Ik rij dagelijks van Utrecht naar Amsterdam en terug. CC is ideaal: je stelt de snelheid in op 104, pakt de derde of 4e rijstrook en hoeft je geen zorgen te maken over bekeuringen. Degenen die sneller willen kunnen je inhalen, degenen die langzamer gaan haal je vanzelf in.
Daarnaast is het (behalve het ontspannener rijden) ook nog eens een stuk zuiniger.

natuurlijk blijft het opletten met de figuren die vanaf de linkerrijstrook over 5 banen heen nog even rechts uit willen voegen of degenen die op de rijstrook naast je een voorligger in willen halen! Maar per saldo ben ik ondertussen aardig gek op mijn CC!
Geweldig...
Je weet dat je hier een situatie beschrijft die nummer 5 staat in de verkeersergernissen?

En met onnodig links blijven rijden zorg je ook nog eens gewoon voor files. Elke manoeuvre die mensen moeten doen zorgt namelijk voor een zekere vorm van vertraging. En aangezien mensen jou niet rechts mogen inhalen kan het dus zo zijn dat ze 1,2 of zelfs 3 rijstroken naar links moeten voordat ze jou legaal voorbij mogen.

Ook beschrijf je een situatie waarbij jij blijkbaar te lui bent (ontspannen is niet het juiste woord in deze context) om voldoende op het verkeer te letten en dus maar een rijstrook pakt, de cc op 104 zet en er klaar mee bent. Zodat iedereen dus op jou moet letten. Reden van veel ongelukken is dat beide bestuurders niet alert genoeg waren, jij bent volgens mij al de helft van die twee...

Ja, hier spreekt frustratie. Maar het feit dat mensen dit gewoon doodleuk zo zeggen irriteert me gewoon. Totdat in NL wordt toegestaan dat je rechts mag inhalen en ook niet meer uiterst rechts hoeft te rijden dien je gewoon de linker rijstrook te pakken. En als jij dan af en toe op de rem moet voor iemand die langzamer rijdt, of (God verhoede) in je spiegeltje moet kijken of je wel naar links kunt of (ondenkbaar!) zelfs moet wachten totdat een paar auto's je links zijn gepasseerd dan zij dat zo.

Ik stel voor dat je de bus/trein pakt. Dan kun je gewoon totaal ontspannen. Niks alert zijn op "ontspannen" medeweggebruikers.

[Reactie gewijzigd door Mecallie op 13 september 2017 20:25]

Onnodig links blijven rijden? Zeker lang geleden dat je van Utrecht naar Amsterdam gereden hebt? Dat is tegenwoordig 5 rijstroken, dus als ik op 3 of 4 zit, harder rij dan toegestaan (max is 100), waar veroorzaak ik dan fikes? :?

Ja, je bent gefrustreerd, doe daar eens iets aan in plaats van te oordelen! Of misschien dat je zelf beter met de trein of bus kan gaan, want blijkbaar heb je een kort lontje wat óók oorzaak is van de (on-)nodige ongelukken...
Nee want de auto kan altijd ingrijpen om ongelukken te verkomen en kan dat in theorie sneller en beter dan de bestuurder. Deze video is erg indrukwekkend.

Het alarm in de auto gaat een halve seconde af voor dat we een crash zien! Hoe kan dat? Electromagnetisch golven die weerkaatsen via het wegdek onder de auto die voor je rijd en zo ook de auto daarvoor kan zien. Nou, dat kan een mens dus niet zo zien en daar dus ook niet op reageren. Zo'n Tesla auto dus wel, en was bijna een seconde voor de menselijke bestuurder het zou doen al op de rem aan het trappen.

[Reactie gewijzigd door Kain_niaK op 13 september 2017 09:45]

Hoezo indrukwekkend ?
De grijze auto die dichter achter de veroorzaker rijdt dan de Tesla camera remt al voordat het ongeluk plaatsvindt en wijkt uit en kan door in de berm te rijden het ongeluk ontwijken.
De reactie van een mens zal langzamer zijn dan een machine maar reactiesnelheid is niet alles. Inzicht, creativiteit en ervaring zijn voor een chauffeur minstens zo belangrijk.

Twee filmpjes verder op youtube zie je een Tesla die tegen een beton blok rijdt.
https://www.youtube.com/watch?v=-2ml6sjk_8c

[Reactie gewijzigd door (id)init op 13 september 2017 10:50]

Interessant. Is dit een eerste uitspraak in een mens vs machine schuldvraag? Nu zijn ze nog allebei schuldig. Over een paar jaar delft ook in de rechtzaal de mens waarschijnlijk meestal het onderspit. Misschien wel doordat de rechter zelf dan ook een machine is geworden...
Nee, dit is geen rechterlijke uitspraak. Dit is een uitspraak van een onderzoeksraad, een adviesorgaan van de industrie. Deze uitspraak heeft daarmee geen juridische waarde.

De juridische schuldvraag is een hele andere. Die gaat over het volgen van wetten. En daar wordt in deze uitspraak niets mee gedaan. Hier wordt alleen gekeken naar wat er beter had gekund, niet wie er wettelijk aansprakelijk is.
[...]een adviesorgaan van de industrie.[...].
De NTSB is een adviesraad van de Amerikaanse federale overheid, zeker niet van de industrie. De mening van zo'n raad als dit heeft zeker waarde in een rechtbank.
Een dergelijke raad wordt echter niet gehinderd door de wet. De disclaimer van Tesla was dan al voldoende geweest.
Het grote risico met gebrekkige autopilots. Tesla's waarschuwingen zijn terecht maar het verbaasd me niets dat daar niet naar geluisterd wordt. Een auto besturen is een verantwoordelijke taak waar je actief mee bezig moet zijn. Hoe meer de auto van je overneemt, hoe meer het een saai klusje wordt waarbij je het gevoel hebt als mens eigenlijk geen rol te hebben en je dus maar andere dingen gaat doen en op de autopilot vertrouwt.

Autonome auto's kunnen een uitkomst zijn, maar mijns inziens niet op deze manier. De mens moet er dan volledig tussenuit gehaald worden en daarmee ook geen aansprakelijkheid dragen. Zolang de mens geacht wordt het over te nemen in gevaarlijke situaties zullen dit soort dingen blijven gebeuren.

Dat het in vliegtuigen wel werkt heeft te maken met een veel strengere selectie en zware opleiding van piloten. En natuurlijk veel minder verkeer en dus veel minder idiote medeweggebruikers die blijkbaar al bellend wiet zitten te roken achter het stuur.
En dat is de reden dat Google meteen voor Level 5 Autonoom gaat. Ik denk dat dat de goede manier is, in plaats van stap voor stap een level hoger, precies om de reden die je noemt. Het wordt alleen maar gevaarlijker als de mens soms in moet grijpen. Of actief bezig zijn met het verkeer, of helemaal niet. Half kan niet, want dan ga je toch andere dingen doen.
[...]
Autonome auto's kunnen een uitkomst zijn, maar mijns inziens niet op deze manier. De mens moet er dan volledig tussenuit gehaald worden en daarmee ook geen aansprakelijkheid dragen. Zolang de mens geacht wordt het over te nemen in gevaarlijke situaties zullen dit soort dingen blijven gebeuren.

Dat het in vliegtuigen wel werkt heeft te maken met een veel strengere selectie en zware opleiding van piloten. En natuurlijk veel minder verkeer en dus veel minder idiote medeweggebruikers die blijkbaar al bellend wiet zitten te roken achter het stuur.
Hoe kom je erbij dat het niet werkt in auto's? Het gaat hier om één ongeval waarbij 2 personen niet oplette en waarbij een tekortkoming aan het veiligheidssysteem aan het licht is gekomen. We weten helemaal niet hoeveel ongelukkig zijn voorkomen door deze systemen.

Ik heb ook een auto met adaptive cruise control en lane assist. Ik kan je vertellen dat het systeem beter werkt dat je denkt. Hoewel mijn auto met radar en camera's werkt, dat lijkt mij betrouwbaarder dan alleen camera's. Bij mijn auto dwingt de software mij om constant mijn handen op het stuur te houden, doe ik dat niet dan schakelt de auto lane-assist uit. Cruise control werkt wel constant maar de auto remt niet met 100% van de remkracht. Wanneer er een noodstop vóór mij wordt gemaakt, dan detecteert de radar dat wel en waarschuwt mij dat ik bij moet remmen. Het ontslaat je nooit van de plicht om op te letten.

Hoewel ik niet meteen een situatie kan herinneren dat de front-assist echt nodig was, kan het waarschuwen door de computer geen kwaad.
Een auto besturen is een verantwoordelijke taak waar je actief mee bezig moet zijn.
En mensen zijn daar gewoon niet erg goed in. De meeste mensen zijn slechts 65% van de tijd werkelijk aan het rijden. De rest van de tijd zijn ze afgeleid en zullen trager reageren dan 'normaal'.

Het simpele feit ligt er dat meer dan voldoende bewijs is dat zelfs de huidige Tesla systemen de veiligheid enorm verhogen. Per kilometer heeft een Tesla gewoon minder kans op een ongeluk. Afhankelijk van het land (nooit goed begrepen) ligt dat tussen de 50 en 70%. Ik zie dat in mijn verzekering, ik betaal minder dan mijn dochter in haar Fiat 500 (zelfde condities, geen jeugd boete etc).
Zelfs met een gedeeltelijke autopilot is het niet meer mogelijk je volledige aandacht erbij te hebben. Dit is nu juist het probleem als je de verantwoordelijkheid deelt tussen een computer en de mens. Fabrikanten zullen altijd een slag om de arm willen houden om de aansprakelijkheid af te schuiven naar een zogenaamde bestuurder van de auto.
In een vliegtuig kan dat wel: de autopilot kan daar op tijd signaleren dat ingrijpen nodig is. Bij een vliegtuig heb je namelijk veel meer tijd om te reageren dan in een auto.
En bij een vliegtuig heb je een veeeel strengere opleiding van intelligente mensen. Geen weekcursus en je hebt je rijbewijs voor je leven lang....

En zelfs daar gaat het nog wel eens mis natuurlijk.
dat is overigens niet waar. De autopilot in een vliegtuig word geconfigureerd door de piloot. die voert de radio, gegevens in landingsgevens zwaarte van het vliegtuig (sommige kunnen voelen hoe zwaar ze zijn middels sensoren in het landingsgestel) brandstof, of de runway nat of droog is, altimeter, dat zijn allemaal dingen die goed ingesteld moeten worden wil je het vliegtuig uberhaupt van de grond krijgen (een vliegtuig word altijd geconfigureerd voor pre - flight / take-off / landing / het enigste wat vliegtuigen tegenwoordig zouden kunnen doen is landen ( in de goede condities ) en opstijgen ( in de goede condities ) eenmaal op cruise hoogte en snelheid enigste wat het vliegtuig zou doen is van bijvoorbeeld take-off trim naar cruise trim gaan om op koers te blijven. maar dat doet ie ook alleen omdat jij het in de computer gezet hebt waar en hoe die moet vliegen.
Voor de bevindingen was de NTSB afhankelijk van gegevens van Tesla, omdat het systeem in de auto niet toegankelijk is voor anderen.
Dit is natuurlijk eng. Dit soort instanties moeten gewoon toegang hebben tot deze data en niet afhankelijk zijn van de fabrikant zelf. Hopelijk dus dat dit snel gestandaardiseerd wordt. Spreekt alleen weer boekdelen dat men hierop weer achterloopt.
Dat is eigenlijk automatisch zo, je kunt niet alles tot in detail van te voren bedenken en in wetgeving gieten. Doordat je nooit alle ins en outs kent voordat iets echt bestaat. Dat is ook precies wat er mis gaat bij ALLE grote aanbestedingen, zowel bij bedrijven als de overheid. Er sluipen tegenstrijdigheden is of er zitten hiaten in en vaak worden nieuwe betere mogelijkheden uit gesloten omdat die nog niet bekend zijn.

Hierbij moet het ook breed gedragen en uitvoerbaar zijn dus er moeten meerdere bedrijven om tafel om een standaard af te spreken. Dat kan dan tot standaard worden verheven en vast gelegd.
Spreekt alleen weer boekdelen dat men hierop weer achterloopt.
Hoezo weer achterloopt? Dit is de eerste keer dat een dergelijk onderzoek wordt uitgevoerd. Het probleem van de toegankelijkheid van data van een autopilot in een auto is tot dusverre niet aan de orde geweest, simpelweg omdat die autopilot en de rol daarvan bij een verkeersongeval een nieuw fenomeen zijn.
Eigenlijk is op het moment het grootste probleem met Tesla's autopilot hoe goed het werkt als het werkt. Het wekt zo'n gevoel van vertrouwen op, niet normaal. Pas als het (een keer) (bijna) fout is gegaan leer je de onmogelijkheden die er nu nog in zitten echt goed in te schatten. En dan nog, je zet het aan en vergeet al gauw weer dat het nog niet alles aankan.
Maar dat doen mensen ook al bij een auto met lane assist en adaptive cruisecontrol. De oplossing is simpel: handen van het stuur is systeem uit.

Het zelfde geld trouwens voor andere systemen zoals AWD waarbij mensen denken dat ze in winterse omstandigheden gewoon 150 kunnen blijven rijden. Dat gaat inderdaad 9/10x goed, alleen die ene keer dat er plots hard geremd moet worden of de auto op alle 4 de wielen geen grip meer heeft...
Zelfs met de handen aan het stuur kan het foutgaan als je niet oplet of het systeem teveel vertrouwt, dus dat zal niet helpen. Ik heb in het begin zo vaak met handen aan het stuur gezien dat de autopilot het goed deed, dat de keren dat het niet goed ging ik toch verrast werd met mijn handen aan het stuur.
Het enige verschil is dat je handen al aan het stuur zitten om in te grijpen, maar verder kan het je bij onoplettendheid volledig verassen.
Dus handen niet aan het stuur - systeem uit is niet de oplossing voor de gewenning.

Eigenlijk zou de auto op je instrumentenpaneel een opdracht moeten geven, welke je met een druk op 1 van de vier knoppen op het stuur moet beantwoorden, bijv. "Volume Up", "Next Track". Doe je die handeling niet, dan waarschuwt het systeem dat ie uitgaat. De handeling zelf wordt dan overigens genegeerd, en alleen als antwoord op de opdracht gezien (het volume wordt dus niet daadwerkelijk verhoogd of de track geskipt).
Hiermee wordt getest of je nog bij bent of niet.
Sorry hoor, maar AP2 werkt gewoon kut en ik geloof nooit dat Tesla mijn X tot level 5 krijgt. Elke keer ik het probeer gaat er wel iets mis.
Hoe betrouwbaarder een systeem is hoe meer je er op gaat vertrouwen en eigenlijk verplichte of sterk aan te raden handelingen achterwege laat.
Wanneer ik in Word of Powerpoint een document/presentatie maak dan druk ik ongeveer na elke zin op command-s om te bewaren, want de kans op een crash is relatief groot. (Het is iets verbeterd met nieuwere versies maar niet echt veel.) Hetzelfde met bijvoorbeeld het muzieknotatieprogramma Capella.
Met echt betrouwbare programma's vergeet ik soms urenlang om tussentijds te bewaren. Tot de stroom uitvalt... of er toch een uitzonderlijke crash optreedt... en dan ben ik veel bozer dan wanneer een van die programma's crasht die toch elke paar minuten crashen... Slechte kwaliteit went, helaas.
Zo gaat het dus ook met de autopilot. Hoe beter die wordt hoe meer mensen erop gaan vertrouwen. Het zou echter een fout signaal naar de makers zijn om hen te vertellen dat de autopilot zo slecht moet worden dat de gebruiker er nooit op gaat vertrouwen...

[Reactie gewijzigd door pauldebra op 13 september 2017 09:10]

Wanneer ik in Word of Powerpoint een document/presentatie maak dan druk ik ongeveer na elke zin op command-s om te bewaren, want de kans op een crash is relatief groot. (Het is iets verbeterd met nieuwere versies maar niet echt veel.)
Is elke minuut automatisch opslaan niet goed genoeg? Typ je zo snel?
Dat kan je gewoon instellen via bestand/opties/opslaan
Het gedoe met die "recovery" bestanden is lastig. Wat was er ook al weer bewaard? Wat nog niet?
In een minuut heb ik vaak een aantal veranderingen aangebracht verspreid over verschillende pagina's en in een recovery bestand terugvinden wat de laatste bewaarde verandering ook weer was is lastig.
En in andere programma's (zoals Capella) is er niet eens zo'n automatische bewaarmogelijkheid.
Wat ik wel eens zou willen weten en wat volgens mij pas echt interessant is, is de verhouding tussen het aantal ongelukken van een auto mét autopilot en een vergelijkbare auto zónder autopilot. Dus bijvoorbeeld een Tesla Model S en een BMW 5. Prijzen en verkoopaantallen zijn (volgens mijn informatie) enigszins vergelijkbaar. Daarnaast zou je ook nog eens kunnen kijken naar de ongelukken van een Model S waarbij de autopilot aan en uit stond. Hoe verhoudt zich dat?

Met dit soort cijfers kun je een idee krijgen of autopilot beter of slechter rijdt dan een mens.

Ongelukken zullen altijd blijven gebeuren en het blijft altijd triest wanneer daarbij doden of gewonden zijn te betreuren.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone X Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*