Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Onderzoeksraad VS publiceert technische details Tesla-crash in Florida

Door , 286 reacties

De Amerikaanse onderzoeksraad voor transportveiligheid, de National Transportation Safety Board, heeft technische details gepubliceerd over een ongeluk in mei 2016 in de VS waarbij een Tesla Model S tegen een vrachtwagen botste en de bestuurder om het leven kwam.

Uit een onderzoek van de twee laptops van de bestuurder is niet gebleken dat ze in gebruik waren tijdens de crash. Eerder werd gespeculeerd dat de bestuurder een film aan het kijken was tijdens de rit. Daarnaast blijkt op basis van de elektronische data dat er niet is geremd, noch door de bestuurder noch door het automatische remsysteem. Deze bevindingen bevestigen een eerder rapport van de National Highway Traffic and Safety Administration, waarin al werd geoordeeld dat er geen gebreken waren en dat het automatische remsysteem niet kapot was. De Nhtsa concludeerde ook al dat de bestuurder zelf geen actie ondernam door bij te sturen of te remmen.

De NTSB stelt dat de bestuurder gedurende een periode van 37 minuten zijn handen aan het stuur had moeten houden, maar hij deed dit slechts voor de duur van 25 seconden. De Autopilot stond een groot deel van de rit aan. Het systeem gaf de bestuurder meer dan eens een visuele waarschuwing om zijn handen aan het stuur te houden, maar deze werden genegeerd.

De vrijgegeven informatie vormt nog geen eindrapport en de NTSB heeft over de oorzaak van de crash ook nog geen conclusies naar buiten gebracht. Zo is er nog geen duidelijkheid over de vraag waarom de bestuurder niet probeerde om de besturing van de autopilot over te nemen tijdens de fatale crash. De truck moet minstens zeven seconden zichtbaar zijn geweest.

Bij het ongeluk in Florida stak een truck met oplegger voor een Tesla Model S de weg over, wat niet werd opgemerkt door Autopilot of de bestuurder van de Tesla Model S. Volgens Tesla werd de witte truck niet gedetecteerd tegen de witte lucht erachter. De autofabrikant benadrukt nog altijd dat de bestuurder verantwoordelijk blijft en zijn aandacht bij het rijden moet houden, ondanks de activatie van Autopilot. Volgens een woordvoerder van Tesla maakt de Autopilot nog geen autonoom voertuig van de auto.

Voor de bevindingen was de NTSB afhankelijk van gegevens van Tesla, omdat het systeem in de auto niet toegankelijk is voor anderen. De NTSB kan alleen aanbevelingen doen en geen verplichtingen opleggen. Wanneer de onderzoeksraad het eindrapport publiceert, is onduidelijk.

Reacties (286)

Wijzig sortering
Bij het ongeluk in Florida stak een truck met oplegger voor een Tesla S de weg over, wat niet werd opgemerkt door Autopilot of de bestuurder van de Tesla S. Volgens Tesla werd de witte truck niet gedetecteerd tegen de witte lucht erachter.
Da's wel interessant als je dit combineert met een ouder artikel, waarin staat:
Tesla-topman Elon Musk zei onlangs tijdens de TED-conferentie dat het Tesla Model 3 waarschijnlijk in juli in productie zal gaan en een autopilot krijgt die enkel camera's en GPS gebruikt; lidar of een radarsysteem wordt niet toegepast. In feite wordt een passief systeem toegepast dat overeenkomt met wat een persoon ziet.
Daarmee wordt denk ik dus eigenlijk gesteld dat die aankomende autopilot in Model 3 dus net zo goed/slecht zal werken: een witte truck met witte achtergrond blijft dus een probleem, lijkt mij.
Ik vraag me eerder af waarom lidar of radar de vrachtwagen niet kon zien.
Ieder detectie systeem heeft natuurlijk zijn beperkingen. Hoe vaak heb je zelf niet de situatie dat je verblind wordt door een laagstaande zon?
Dat de camera dat niet gezien/gedetecteerd heeft kan ik goed ik komen. De verklaring die op twitter is gegeven door Musk (Link bij reactie van Crp https://twitter.com/artem_zin/status/748623772056428544) is dat het radar deze waarschijnlijk gezien heeft als overhang (lees brug) is een plausibele verklaring.

Zoals bij elk geautomatiseerd proces is de computer/PLC afhankelijk van zijn sensoren. We kunnen deze natuurlijk uitbreiden met andere sensoren. (b.v. ander kleurenspectrum, warmte camera, intelligente kruisingen, etc) Maar er zal altijd wel een situatie zijn die niet af te vangen is.

Wij als mens hebben alleen geluid en beeld vooruit. Dus de sensoren op een auto is een uitbreiding hierop. Naar mijn mening blijft dit voorlopig een hulpmiddel. In de tijd zal dit natuurlijk beter worden, maar helaas dergelijke lessen zullen in dit leerproces horen.
Als je meerdere sensoren hebt, radar, thermisch infrarood, laser, camera zul je uiteindelijk in alle situaties een systeem hebben dat herkennig geeft.

Waar ik eerder van schrik is dit:
De NTSB stelt dat de bestuurder gedurende een periode van 37 minuten zijn handen aan het stuur had moeten houden, maar hij deed dit slechts voor de duur van 25 seconden. De Autopilot stond een groot deel van de rit aan. Het systeem gaf de bestuurder meer dan eens een visuele waarschuwing om zijn handen aan het stuur te houden, maar deze werden genegeerd.
De autofabrikant benadrukt nog altijd dat de bestuurder verantwoordelijk blijft en zijn aandacht bij het rijden moet houden, ondanks de activatie van Autopilot. Volgens een woordvoerder van Tesla maakt de Autopilot nog geen autonoom voertuig van de auto.
Hier gaat tesla dus de mist in. Ondanks waarschuwingen wordt het systeem niet uitgeschakeld. De beste man zat 25 seconden handen aan het stuur van de 37.

Waarom schakelt tesla de autopiloot niet uit.
Telsa kan herkennen dat waarschuwing niet wordt opgevolgd maar doet er niet mee. Wat mij betreft zijn ze gewoon medeverantwoordelijk omdat ze een systeem op de markt brachten dat wel degelijk gebruikt werd voor autonoom rijden en dat ook toestonden. Waarschuwingen vrijwaren tesla niet voor een verantwoordelijkheid die ze als fabrikant hebben.
Ten tijde van de crash was het systeem nog niet zo streng.
Met de huidige software krijg je vrij snel een waarschuwing als het systeem het vermoeden heeft dat je je handen niet op het stuur hebt / afgeleid bent. Als je niet reageert krijg je een rode en aukoestische waarschuwing. Reageer je daar niet op dan wordt autopilot uitgeschakeld en kan je deze gedurende de rit niet meer inschakelen. Reageer je helemaal niet meer dan probeert de tesla de auto gecontroleerd stil te zetten (met alarmlichten aan).
Disclaimer: ik heb voor een andere autofabrikant aan zulk soort waarschuwingen naar de bestuurder gewerkt.

Als ik voor de beslissing verantwoordelijk was om enkel visueel en niet akoestisch te waarschuwen in zo'n situatie en er valt een dode zou ik heel slecht slapen. Dit is namelijk het scenario dat (afgezien van kwade wil) vermeden kan worden door de waarschuwing multimodaal en dringend genoeg te maken. De afweging 'hoe dringend moet een waarschuwing zijn om veilig maar niet onnodig irritant te zijn' is essentieel bij het ontwerpen van zulke systemen en lijkt in de eerste versie van Tesla (nalatig?) verkeerd te zijn genomen.
Gelukkig heeft tesla dat veranderd. Dat doet echter niets af aan het feit dat ze eerder niet zo streng waren en dus mede verantwoordelijk aren voor de crash omdat ze autopiloot ondanks waarschuwingen aan lieten staan.

Dat laatste stilzetten met alarmlichten aan lijkt me op een snelweg niet echt wenselijk. Dan eerder vluchtstrook opzoeken, die er in de usa vaak aan beide kanten is.
Dit is natuurlijk een gevalletje 'nooit goed'. Zomaar uitzetten was ook niet goed, de snelweg automatisch af gaan is ook niet goed, stilzetten is niet goed enz.

Achteraf is het vrij eenvoudig om te zeggen dat wat er nu is beter is dan wat te doen was maar als het echt zo simpel was, dan hadden ze het toen al wel geïmplementeerd.
Nou ja, stilzetten met alarmlichten is niet echt super nee. Maar ik kan me eigenlijk weinig andere situatie voorstellen dan dat dit gebeurt wanneer de bestuurder overleden is, in coma ligt, mega dronken is of gewoon erg vast slaapt. In principe zijn dat situaties waarbij je ook wil dat er direct van buitenaf actie wordt ondernomen om de man te helpen of te beboeten voor zijn acties.

Zet je hem op een vluchtstrook, dan heb je het risico dat hij daar lang staat te staan, terwijl dat wellicht het verschil kan maken tussen een succesvolle reanimatie en een overleden persoon.

Tuurlijk is het absoluut niet wenselijk dat iemand stil gaat staan op de snelweg met alarm lichten, maar stel iemand zou nu op de snelweg rijden en een hartaanval krijgen dan heb je grote kans dat hij tegen een andere auto aan knalt met alle gevolgen van dien. :)
Ik heb al jouw reacties gelezen op deze thread, jij gaat nogal kort door de bocht met je conclusies. Tesla zegt meermaals dat het geen autonoom systeem is en de bestuurder moet steeds kunnen ingrijpen, uit dit verslag blijkt duidelijk dat de bestuurder niet van zinnens was tussen te komen, jij zegt daarop dat Tesla maar luider had moeten roepen, mss zelfs met rode lichten en een luide sirene ? Komaan zeg wat een gelul. En dat ze hun systeem in tussentijds strenger hebben gemaakt is toch maar normaal, nee ? Mijn auto (Renault) geeft in de spiegel aan dat er een object in de dode hoek zit, als ik dat negeer en toch opzij schuif en ik knal tegen een andere wagen dan is ook dat de schuld van Renault ? Jij leeft wel in een eenvoudige wereld moet ik zeggen.
Dat sprookje tesla roept hoor ik keer op keer het is geen autonoom systeem.

Probleem is dat het in de praktijk wel zo gebruikt kon worden en dat tesla dit ook toestond. Sterker nog namen als autopiloot geven ook een verwachting. Dat ze ping zegden als je handen niet aan het stuur had leuk. Maar in dit voorbeeld bleef het systeem gewoon aanstaan 37 minuten lang met 25 seconden aan het stuur.

Tesla komt er nu zelf achter dat mensen het ook zo gebruiken en pas nu komen er extra zaken als handen aan het stuur, autopiloot uit als je dat niet doet.

Hoeveel mensen lezen een handleiding van een auto ?
De meest kopen auto, he leuk autopiloot, leuke functie, ach handen van het stuur en het ding kan zelf rijden. Hij piept wel maar verder gebeurt er niets dus ach dat kan ik negeren. Dat is als mens gewoon de praktijk.
Simpel roepen het mag niet, denk je echt dat dat gaat werken. Kom op in welke wereld leef jij, fantasie met brave mensen.
Dus ja tesla had toen al mensen moeten beschermen omdat de functie zo gebruikt kon worden. Kon en kan had niet gemogen. Nu kan het niet en daar heeft tesla dus schijnbaar uit geleerd en reden toe gehad.
Je moet in Amerika gaan wonen, daar kun je anderen de schuld geven van je eigen stommiteit en ze nog aanklagen ook.

Als je fietst en je houdt je handen niet aan het stuur kun je op je bek gaan. Wat moet de fabrikant dan doen? Handvatten met lijm? Handboeien aan het stuur?

Je eigen verantwoordelijkheid staat voorop. Als je te stom bent om auto te rijden moet je het laten. Tesla waarschuwt de bestuurder die dit 36 minuten en 35 seconden keihard negeert. Als je dan overlijdt heeft Darwin gewoon gelijk.
Leuk verhaal waarom veranderd tesla dan nu het systeem waarbij na waarschuwing autopiloot uit gaat. Wat zou daar nu de reden voor zijn. Als er een reden is waarom hebben ze dat niet eerder gedaan.

Fietsen zonder stuur je kan tig voorbeelden bedenken die totaal niet vergelijkbaar zijn.

Feit blijft tesla verkocht toen een systeem als autopiloot, dat zo ook gebruik kon worden maar het mocht niet. Als je het zo gebruikte greep tesla afgezien van een waarschuwing niet in en liet jou en het systeem gewoon zijn gang gaan.Nieuw systeem grijpt in als je niet wil luisteren.

Mensen zoeken grenzen van systemen op. Simpel regeltje je mag het niet zus en zo gebruiken werkt niet bij veel mensen. Dus moet je je systeem zo maken dat het ook niet anders als bedoeld gebruikt kan worden. Mensen moeten tegen zichzelf beschermd worden. Dat kun je onzin vinden, onze hele wetgeving zit vol van het beschermen van mensen tegen zichzelf.

Vergelijk het met je sluit een contract waarin in de kleine lettertjes iets staat, niet begrepen, pech gehad. Daarom zijn er wetten die bepaalde zaken uitsluiten om jou te beschermen.
Een automatische piloot in een vliegtuig is trouwens ook geen autonoom systeem.
Zonder piloot gaat het vliegtuig nergens heen. Daar is het ook een hulpmiddel.
Vliegtuigen van tegenwoordig kunnen van airport tot airport vliegen met de hulp van een usb stick die in de FMC wordt gestoken. De tijd dat piloten zelf de calculaties deden is grotendeels al voorbij ( licht aan welk vliegtuig, type, bestemming etc ).
Onzin. Er is geen verkeersvliegtuig waar de piloten een USB stick in prikken en dan achterovergaan zitten tot ze er zijn. Bepaalde (deel) functies kan de autopiloot overnemen maar hij moet nog steeds goed in de gaten worden gehouden. De autopiloot vliegt nog steeds tegen een berg aan of de grond in als je hem de verkeerde opdrachten geeft. Het is een handig maar 'dom' systeem.
Ik heb ook nooit gezegd dat ze een usb stick erin prikken en achterover kunnen leunen.

De boeing 787, 747-8/9i de 737 ngx en de opkomende 777 hebben een systeem waarbij route informatie ingeladen wordt via een usb stick.

Vroeger moesten de piloten van top tot teen het vliegtuig controleren ( bij het starten ), programmeren en vliegen. Tegenwoordig
Voordat ze de 10.000 voet voorbij zijn wordt de automatische piloot meestal al ingeschakeld voor de hele gedurende vlucht ( tot eindbestemming ) nu ligt het eraan welke categorie ILS systeem er bij een vliegveld ligt. Is het cat lll dan mogen de piloten het navigatie systeem omschakelen op NAV. Radio omschakelen op NAV 1 en het vliegtuig doet de rest ( behalve gear en flaps naar benee ) en lekker achterover leunen want CAT III kan het vliegtuig vertellen wat de X,Y,Z waarde is waarna de autopilot de koers en snelheid aanpassen.

Bij de minder modernere vliegtuigen moesten de piloten in de FMC zelf alle waypoints, gewicht, hoeveelheid brandstof, etc invoeren.

Dit hoeft bij sommige maatschappijen ( KLM is er 1 van ) niet meer.

Er zijn tegenwoordig mensen die berekeningen voor je doen en op een speciale usb stick in programmeren waarna de piloot de usb stick in het vliegtuig doet en alle gegevens upload in de FMC en controleert.

Op sommige aiports wordt je na aankomst door een tow wagen opgehaald die je naar je gate brengt. Dat zou prima autonoom gedaan kunnen worden.

De bagage hal waar alles wordt gesorteerd is ook grotendeels geautomatischeerd en wordt alleen stopgezet bij een error of onderhoud.

Vliegtuigen zouden prima zonder piloot kunnen vliegen ( mits er niet geanticipeerd most worden ) en de meeste fouten die gemaakt worden in de luchtvaart komen meestal door menselijke falen of door FOD.

Ook zijn er sytemen die kunnen waarschuwen wanneer je te laag of richting een object vliegt ( F22 ).

Maar je begrijpt dat he natuurlijk makkelijker is om te bewegen met een vliegtuig van 19.700 kilo in plaats van 439,985 kilo van de 747. Dit soort systemen nemen tijd in beslag om over te zetten van een militaire technologie naar commerciele technologieen ( internet infrastructuur GPS, mobiel bellen etc )

[Reactie gewijzigd door l99030607l op 20 juni 2017 20:24]

Een USB stick? Dat lijkt me niet zo waarschijnlijk, zover ik weet is het mogelijk om via de FMS een bestemming en wat andere gegevens in te voeren, al kan het ook via ACARS naar de FMS worden gestuurd. Dat er USB's gebruikt zouden worden is vooral onwaarschijnlijk vanwege het (enorme) beveiligingsrisico, al is er misschien een piloot die het een en ander kan verduidelijken. Tenzij dat gebeurt of je met een mooie bron kan komen die jouw stelling onderbouwt ga ik er maar vanuit dat het onzin is, en anders snap ik niet dat ze zo dom zouden zijn ;) .

[Reactie gewijzigd door Ultrapc op 20 juni 2017 19:04]

Zie mijn reactie op Ultrapc
Is het nu stom om wel te geloven dat Tesla een autopilot heeft, of niet?

Want in andere threads praat iedereen van 'veel minder ongelukken', 'reageert sneller', 'de mens is te primitief om met zulke snelheden te rijden' etc. Maar waarom het dan de bestuurder kwalijk nemen als hij op het systeem vertrouwt?
Dus jij zegt, omdat in de praktijk de meeste mensen de waarschuwingen negeren, de fabrikant er dus bij voorbaat meer aan moet doen om idioot gedrag te voorkomen. Mag ik dan voorstellen dat er op alle auto's een verplichte snelheids beperking komt van +10% de maximaal toegestane snelheid plus voor 10 seconden maximale prestatie voor de speciale situaties (voordat iemand met de opmerking komt dat dit soms nodig is)
De maximale snelheid is namelijk algemeen bekend en wordt door even zoveel mensen genegeerd. Wat jij dus nu verteld, is dat je de bestuurder niet te vertrouwen is, want die negeert de regeltjes, dus de beperking moet maar in de auto ingebouwd worden
Persoonlijk heb ik daar niet zoveel problemen mee, ik rijd overal op mijn adaptive cruise control, maar ik denk dat velen hier daar toch een probleem mee zullen hebben, en vinden dat sommige dingen de verantwoording van de bestuurder zelf is
Wat jij dus nu verteld, is dat je de bestuurder niet te vertrouwen is
Technisch was de Tesla op dat moment de bestuurder. Zo gebruikte die man het systeem. En aangezien dat 'in principe' werkt is dat ook te verwachten.

Zelf lijkt het me beter als ze, totdat het systeem écht autonoom is, de rollen omdraaien. De bestuurder moet zelf rijden en alleen als die het dreigt te verprutsen grijpt de computer in. Dan houden mensen eerder hun aandacht bij de weg denk ik.

EDIT: -1? Thanks man! Waarom post ik eigenlijk nog hier? -1 was bedoeld voor spam, scheldpartijen, dat soort dingen.

[Reactie gewijzigd door OddesE op 20 juni 2017 19:54]

die -1 krijg je omdat je negatief bent over tesla, valt mij nog me dat ik zie nog niet heb.

Maar idd je kan het ook zo zien dat de autopiloot op dat moment het voertuig bestuurde, daar was het niet voor bedoeld, mocht ook niet, het waarschuwde daarvoor maar desondanks bleef het systeem gewoon doorgaan. Sterker nog of het nu 35 minuten waren het kom ook 3 minuten of 3 uur autopiloot zijn. De autopiloot schakelde zichzelf toen gewoon niet uit ondanks waarschuwingen.
Bij vrachtauto's noemen ze dat ja een begrenzer en die staat op 88 km.
Bij auto's geen slecht idee, probleem ga je de grens over Duitsland mag je dus wel op sommige stukken 200. Dan moet er dus een systeem komen met met gps. Kan allemaal maar kost natuurlijk geld en politiek wil er denk ik niet aan.

Maar vooruit er is een verschil tussen vertrouwen op een autopiloot die dat niet is maar mensen denken dat het wel zo is en jou voorbeeld.
Deze flapdrol heeft zijn eigen dood veroorzaakt want hij sliep hoogst waarschijnlijk achter het stuur. Het fijt dat hij het stuur niet meer dan seconden heeft aan geraakt , alle waarschuwingen heeft genegeerd en niet heeft ingegrepen omdat hij in dromen land was ipv een auto besturen zegt genoeg. Tesla heeft wel geleerd mensen zijn niet te vertrouwen. Huisdieren in magnetrons ovens was machines.....
Tevens als mensen inslaap vallen achter het stuur van een normale auto is de fabrikant van die auto zeker ook aansprakelijk als er een dodelijk ongeluk gebeurd?
Tesla heeft geleerd mensen niet te vertrouwen, wat raar dat ze daar nu pas achter komen of zijn ze gewoon te naïef geweest.

Dat hij waarschuwingen heeft genegeerd klopt maar waarom is de auto blijven doorrijden ondanks deze waarschuwingen ? De nieuwere versies doen dat niet meer en dus zal er een reden voor zijn.

De oude versie kon gebruikt worden als autopiloot terwijl het daarvoor niet bedoeld was en ja mensen gebruiken het dan ook zo. Als mens moet ook jij weten dat niet iedereen zich aan de regels houdt en grenzen opzoekt. Tenzij jij zo braaf bent dat je alles volgens de regels doet.
Reasonably foreseeable misuse wordt dat genoemd. Toen ik nog bij een fabrikant van medische apparatuur werkte moesten we bij het ontwerp altijd rekening houden met methodes waarop het systeem verkeerd gebruikt kan worden. Ook de uitspraak "if you make something idiot-proof, nature will make a bigger idiot" kwam geregeld langs. :)
Zeker in een land als de usa met aansprakelijkheden mag en moet je misuse verwachten en dat zo veel mogelijk zien uit te sluiten.

Tesla doet het nu wel, system uit als je niet wil luisteren dus hebben ze daaruit geleerd. Dat konden ze echter al hebben voorzien maar wilden het niet zien.
Die dode-hoekspiegel is net iets anders. Die gebruik je op een specifiek moment, terwijl je actief ergens mee bezig bent.

De autopilot van Tesla maakt het mogelijk da de auto voor langere tijd zelfstandig rijdt, zonder handelen van de bestuurder (in dit geval minimaal 37 minuten). Tesla zegt wel dat het geen autonoom systeem is en dat de bestuurder zijn aandacht bij de weg moet houden, maar de mens zit niet zo in elkaar dat het zo lang op kan blijven letten zonder iets te doen. M.a.w. Tesla stelt een voorwaarde bij het gebruik van autopilot waar geen normaal mens aan kan voldoen.
Leuke bijdrage. Zet hij hem dan gewoon ter plekke stil of gaat die naar de kant rijden of dergelijk? Dat laatste lijkt me namelijk niet zo simpel.
Als je meerdere sensoren hebt, radar, thermisch infrarood, laser, camera zul je uiteindelijk in alle situaties een systeem hebben dat herkennig geeft.
[...]
De beste man zat 25 seconden handen aan het stuur van de 37.
In 37 minuten dus 25 seconden handen aan het stuur. Dus gewoon aangezet en krantje gaan lezen of zo.. Misschien muziekje er bij dat het gepiep kan overstemmen.

Feitelijk is deze bestuurder op een dwaalspoor gezet door het autopilot-systeem. Hij had kennelijk echt het idee dat het zo goed zou werken dat hij echt niet meer op hoefde te letten. En dat er waarschuwingen zijn uitgegaan waar hij niet op reageerde.

Het is de vraag waar we nu naar toe moeten. Je kan technische vragen stellen of in hoeverre een systeem zou moeten vaststellen of een bestuurder nog aan het opletten is. En je kan natuurlijk altijd met heel veel vingers wijzen.

De hele opzet geeft een dubbel signaal: je biedt een autopiloot, en die werkt eigenlijk verrekte goed. Maar je zegt er vervolgens bij: jaaa maar je moet wel even goed blijven opletten en handen aan het stuur en let op: je bent eindverantwoordelijk. Hoe dubbel wil je het hebben?

Nu is het een witte vrachtwagen, de volgende keer een kind met een wit bloesje. Mijn idee zou zijn om van autofabrikanten te eisen dat er een deugdelijke prospectieve risico-inventarisatie van tevoren wordt getoetst voordat een systeem (ook in zogenaamde beta) wordt losgelaten op onze wegen. Dus van tevoren bewijzen dat de autopiloot slechts in 1 op de 10 miljoen KM een dergelijke fout maakt. Kan je beargumenteren dat dat veel strenger is dan wat we gewend zijn bij mensen maar bij de invoering van een dergelijke techniek mag je ook best wel eens wat eisen. En dan kan je ook gewoon los gaan met je autopiloot!
[...]
Nu is het een witte vrachtwagen, de volgende keer een kind met een wit bloesje. Mijn idee zou zijn om van autofabrikanten te eisen dat er een deugdelijke prospectieve risico-inventarisatie van tevoren wordt getoetst voordat een systeem (ook in zogenaamde beta) wordt losgelaten op onze wegen. Dus van tevoren bewijzen dat de autopiloot slechts in 1 op de 10 miljoen KM een dergelijke fout maakt. Kan je beargumenteren dat dat veel strenger is dan wat we gewend zijn bij mensen maar bij de invoering van een dergelijke techniek mag je ook best wel eens wat eisen. En dan kan je ook gewoon los gaan met je autopiloot!
Zolang de autopilot het per kilometer nog altijd beter doet in de verkeersveiligheid dan dronken bestuurders die tóch achter het stuur stappen, zou ik zo'n systeem gisteren al op de auto willen.

Computers kunnen al beter rijden dan bestuurders. Waarom worden er dan zulke overdreven eisen aan computers gesteld, die je niet aan een mens stelt? Mensen zijn niet onfeilbaar, en computers worden gemaakt door mensen. Like it or not, maar computers maken dus ook fouten.

Ze wanen zich alleen niet onkwetsbaar of de baas op de weg zoals bepaalde bestuurders en waardoor juist huftergedrag ontstaat.
Computers kunnen al beter rijden dan bestuurders.
Hoe kom je daarbij? Alle bewijs wijst toch op het tegendeel? De enige auto pilots die we hebben moet je allemaal babysitten. Als ze echt zoveel beter zijn, waarom moet de 'bestuurder' dan zijn handen aan het stuur houden?

Of hij is beter, en dan is het belachelijk dat de Tesla stops als de mens het stuur niet grijpt, of hij is gewoon nog niet beter.

EDIT: -1?

Mag men niet kritisch zijn over Tesla?

Stoney3K levert 0 bewijs voor zijn stelling dat de autopilot beter is dan mensen. (Dit kunnen we ook niet weten aangezien we geen data hebben; autopilot mag immers alleen gebruikt worden terwijl er mensen over waken, dus stats zijn combinatie mens + autopilot) maar krijgt +2. Ik stel dat er geen bewijs voor is en scoor prompt -1.

Vraag blijft waarom het logisch is dat een inferieure bestuurder (de mens volgens stoney) verplicht een superieure bestuurder moet bewaken. Terwijl als de autopilot niet superieur is, het super logisch is dat het niet zonder toezicht kan.

[Reactie gewijzigd door OddesE op 20 juni 2017 19:32]

Omdat ze nog altijd fouten maken en niet alles detecteren. De systemen zijn nog niet perfect en zullen dat de volgende jaren ook niet zijn. Mocht morgen iedereen met een autopilot rijden krijg je een ander verhaal.

Het is trouwens de bestuurder die hier het autopilot systeem heeft ingezet op een weg waarvan Tesla duidelijk heeft aangegeven dat het daarvoor niet geschikt is net vanwege dit soort uitzonderingssituaties.
Ik snap het niet.

'De weg is niet geschikt, dus laat de inferieure bestuurder maar rijden'.

Klinkt niet logisch toch??

Waarom is de weg eigenlijk niet geschikt? Wellicht omdat auto pilot stiekem toch niet zoveel beter is dan een mens?
Zolang de autopilot het per kilometer nog altijd beter doet in de verkeersveiligheid dan dronken bestuurders die tóch achter het stuur stappen, zou ik zo'n systeem gisteren al op de auto willen.
Zeg je nu dat je zelf altijd slechter rijdt als een dronken bestuurder of dat ben je gisteren onder invloed een voertuig bestuurd hebt ???
Feitelijk is deze bestuurder op een dwaalspoor gezet door het autopilot-systeem.
Hij misbruikte het ook.
Ik las elders dan hij de snelheid van de Tesla had ingesteld op 74 mph.
Opzettelijk 9 mph (of 15 km/uur) boven de geldende maximum snelheid van 65 mph.
Lekker is dat. Slaap je achter het stuur (mag niet, maar gebeurd vast wel) wordt je autopiloot uit gezet. Lijkt me sowieso niet heel handig om zomaar de autopiloot uit te schakelen. Doe dan eerder een mega irritante piep, die je niet kunt wegklikken.
Lekker is dat zit je te slapen achter het stuur, mag niet blijft je autopiloot aan staan, herkend een vrachtwagen niet en ja hoor je bent dood.

Maar zoals je zegt, irritante piep, geluid en nog een mogelijkheid, autopiloot zet de auto netjes stil op de pechstrook.
Ja idd. Blijkbaar zit er wel al zoiets in.
Ben benieuwd of ze weten wat de bestuurder had (was hij al dood?/hartaanval/beroerte)
En als je ziet hoe die auto precies tussen de wielkasten door is gereden kan ik me voorstellen dat de sensoren dachten dat er niets op de weg was op dat moment.
Maar het moment dat de vrachtwagen de weg op draait, dat moet die auto toch gezien hebben? Hoe ver kan zo'n auto vooruit kijken?
Hoe ver kan zo'n auto vooruit kijken?
Het lijkt er op dat hij niet bijster ver kijkt. Let op hoe laat hij pas remt.

Offtopic want? Dit is een topic over Tesla toch? Oh wacht, kritische geluiden...

[Reactie gewijzigd door OddesE op 20 juni 2017 19:52]

Dit werd door tesla dan ook aangepast na dit ongeval. Als je de waarschuwingen lange tijd negeert gaat autopilot uit, krijg ke duidelijke meldingen dat het uitgaat, en kan je het enkel terug aanzetten na eerst tot een volledige stop gekomen te zijn.
Gelukkig dat het aangepast werd. Neemt echter niet weg dat ze in dat geval gewoon medeverantwoordelijk waren omdat ze een systeem op de markt gebracht hebben dat autopiloot toestond. Aan waarschuwingen zat geen consequentie.
Ook toen kon je bedenken dat het systeem als autopiloot gebruikt zou worden, tesla dacht met een regeltje het mag niet er vanaf te zijn.
Mensen hebben ook nog zoiets als eigen verantwoordelijkheid. Zo kan mijn auto prima door rood rijden, met 180 over de snelweg kachelen en zebrapaden negeren. Dat rekent niemand mijn auto aan. Ik ben als bestuurder verantwoordelijk voor wat mijn auto doet.

Het enige dat ik Tesla zou kunnen verwijten is dat de naam “autopilot” verkeerde verwachtingen schept. Maar tegelijkertijd denk ik dat zelfs de meest terughoudende naam sommige mensen er niet van zou weerhouden het systeem te misbruiken.
Autopiloot wekt idd verwachtingen.
De juiste naam is eerder assistent systemen.
In het nieuwe systeem zit er wel degelijk een consequentie aan het niet vasthouden van je stuur, die zat er eerst niet. Schijnbaar komt men nu tot een andere conclusie dan toen.
Wat mij betreft zijn ze gewoon medeverantwoordelijk omdat ze een systeem op de markt brachten dat wel degelijk gebruikt werd voor autonoom rijden en dat ook toestonden. Waarschuwingen vrijwaren tesla niet voor een verantwoordelijkheid die ze als fabrikant hebben.
De verantwoordelijkheid voor het besturen van een auto ligt volledig bij de bestuurder. Net zoals het mogelijk is om op je telefoon bezig te zijn e.d. terwijl dat niet mag en overduidelijke risico's met zich meebrengt.

Simpel voorbeeldje: in een clan van een spelletje wat je op de mobiel speelt zitten enkele vrachtwagenchauffeurs. Hoe vaak ik inmiddels niet tegen hun heb gezegd dat ze alsjeblieft NIET moeten aanvallen tijdens hun rit, ook al verliezen we dan is al niet meer te tellen op de vingers van twee handen. Ze lachen en wuiven het weg, naar hun mening hebben ze voldoende overzicht en kan het allemaal geen kwaad.

Ligt de verantwoordelijkheid hiervoor bij:
A. De vrachtwagenfabrikant die het mogelijk maakt de vrachtwagen te laten rijden terwijl de chauffeur aan het spelen is?
B. De telefoonfabrikant die het mogelijk maakt de telefoon te gebruiken tijdens een rit?
C. De chauffeur die een chauffeursdiploma heeft gehaald en zich bewust hoort te zijn van de risico's?

Ik denk dat er maar weinigen zijn die NIET voor C zouden kiezen.
Je komt met een voorgeprogrammeerde stelling en antwoord.
Weer de zoveelste vergelijking die geen vergelijking is met een autopiloot die jou auto bestuurd.

Auto's vrachtauto's die geen autopiloot hebben is de bestuurder altijd verantwoordelijk.
Zodra een systeem een autopiloot heeft die het mogelijk maakt zonder handen te rijden ja zelfs in slaap te vallen ziet het er anders uit. Tesla bracht zo een systeem op de markt, riep het mag niet maar het kon wel, de nadruk op kon wel zo gebruikt worden.

Er zijn systemen die bijv al waarschuwen als je in slaap valt, assistent systemen die geen autopiloot functie hebben.

Tesla heeft er voor gekozen alleen te waarschuwen en het autopiloot systeem geactiveerd te laten. Dat hebben ze nu veranderd, tja waarom zou dat zijn ?

Dus ik herhaal tesla is mede verantwoordelijk, heeft er uit geleerd en het systeem gewijzigd. Alleen verantwoordelijkheid daar doen ze niet aan.
Je komt met een voorgeprogrammeerde stelling en antwoord.
Er is niets voorgeprogrammeerd aan, ik heb geen Tesla, heb geen autopilot of wat dan ook. Dit is gewoon een nutteloos argument puur op de man. Laten we het even op de inhoud houden. Als je dat niet kunt, laat dan alsjeblieft je reacties achterwege.
Weer de zoveelste vergelijking die geen vergelijking is met een autopiloot die jou auto bestuurd.

Auto's vrachtauto's die geen autopiloot hebben is de bestuurder altijd verantwoordelijk.
Zodra een systeem een autopiloot heeft die het mogelijk maakt zonder handen te rijden ja zelfs in slaap te vallen ziet het er anders uit.
Vrachtwagens worden al jaren uitgerust met Lane Departure Warning Systems, Adaptive Cruise Control, Predictive Cruise Controle en Vehicle Stablity Control. Eenmaal op de snelweg hoef je als vrachtwagenchauffeur niet veel meer zelf te doen. Men noemt het dan weliswaar geen Autopilot zoals Tesla dat doet, maar het komt er verdomd dichtbij.
Tesla bracht zo een systeem op de markt, riep het mag niet maar het kon wel, de nadruk op kon wel zo gebruikt worden.
De marketingafdeling roept natuurlijk altijd waarom het zo geweldig is. Noem mij één commercieel bedrijf wat de nadruk legt op de eigen verantwoordelijkheid van een gebruiker bij het gebruiken van de geweldige functies. Dat staat altijd in de kleine lettertjes.

Een Bugatti Veyron haalt ook 400km/h. Dáármee wordt geadverteerd. Dat het aan de bestuurder zelf is om te beslissen of de situatie zich daarvoor leent wordt echt niet van de daken geschreeuwd. Ik vraag me zelfs af of het wel in het instructieboekje staat. Men wéét gewoon dat het de eigen verantwoordelijkheid is, dat spreekt voor zich.
Tesla heeft er voor gekozen alleen te waarschuwen en het autopiloot systeem geactiveerd te laten. Dat hebben ze nu veranderd, tja waarom zou dat zijn ?
Omdat men continu verbetert aan de hand van de praktijk. Dat is toch prima? Zoniet, dan zouden we nu ook geen rembekrachtiging, ABS en Brake Assist hebben. Die dekselse autofabrikanten toch, hoe durfden ze vroeger remmen zonder die verbeteringen op de markt te brengen? En hoe kan het toch dat er ooit auto's waren zonder kooiconstructie, gordels, airbags, etc.?

Onzin natuurlijk, auto's worden continu veiliger gemaakt. Tesla's net zo goed als andere auto's.
Dus ik herhaal tesla is mede verantwoordelijk, heeft er uit geleerd en het systeem gewijzigd. Alleen verantwoordelijkheid daar doen ze niet aan.
N.m.m. zijn ze niet verantwoordelijk. Het enige wat je ze kunt verwijten is dat ze de marketingterm Autopilot hebben gebruikt in plaats van "Drive Assistent" ofzo. Maar je wordt (en werd!) in de handleiding en tijdens het gebruik ervan afdoende gewaarschuwd.

@ je reactie 15:49: op zulke onzin ga ik niet verder in. Blijkbaar, gezien je whopping 22 reacties in dit bericht, ben je bijkans bezig met een kruistocht tegen Tesla. Ga lekker je gang, maar ik ga dan ook niet meer tegen dovemansoren argumenteren als je toch al bij voorbaat elk argument naast je neerlegt.

[Reactie gewijzigd door Ger op 21 juni 2017 15:53]

Voorgeprogrammeerde stelling.

Je geeft zelf het antwoord al:
Ik denk dat er maar weinigen zijn die NIET voor C zouden kiezen.
Andere merken hebben zoals ze dat noemen assistent systemen, de nadruk ligt op assistent, geen autopiloot. Je kan het marketing noemen maar daarmee zijn ze gewoon te ver gegaan. autopiloot heeft verwachtingen gewekt die men niet weer kon maken c.q men verkoopt autopiloot en zegt in de kleine lettertjes ja maar dat is het niet. Je kan het echter wel zo gebruiken maar het mag niet.

Dat jij er een verhaaltje van maakt dat de wijziging van tesla een verbetering is en dan komt met abs en dergelijke. Het is geen verbetering in die zin het is zoals het altijd had moeten zijn.
Maar wederom je kan abs en je andere voorbeelden niet vergelijken met autopiloot. Autopiloot zelf rijden vraagt sowieso om wijziging van de wet. abs, kooi, airbags noem het maar ok heeft geen wetswijziging nodig.

Autopiloot grijpt in op de hele auto, besturing door computer, dat kun je niet vergelijken met jou voorbeelden.
Ik heb al kansloze vergelijkingen voorbij zien komen maar zal je er nu eentje geven.

Je bent inbreker, breekt in een winkel in (dat mag niet maar je doet het toch)
Je bent lekker bezig tv's in de auto in te laden.
Politie komt en zegt wilt u daarmee stoppen.
Nee zeg je loopt naar binnen en pakt de volgende tv.
Buiten roept de agent weer wilt u daarmee stoppen, maar behalve te roepen dat het niet mag doet de agent niets.
Dit gaat 35 minuten lang door totdat jij je busje vol met tv's hebt.
Je rijd lekker weg.

Omstanders hebben gezien dat de agent daar alleen waarschuwde maar niets deed.
De agent had in moeten grijpen maar deed dit niet, hij waarschuwde alleen maar.
Vul dan zelf maar in wat er gebeurt en wie er mede schuldig is.

Tesla is in het voorbeeld gewoon mede schuldig.
Waarom schakelt tesla de autopiloot niet uit.
Telsa kan herkennen dat waarschuwing niet wordt opgevolgd maar doet er niet mee. Wat mij betreft zijn ze gewoon medeverantwoordelijk omdat ze een systeem op de markt brachten dat wel degelijk gebruikt werd voor autonoom rijden en dat ook toestonden. Waarschuwingen vrijwaren tesla niet voor een verantwoordelijkheid die ze als fabrikant hebben.
Sorry hoor maar het is niet de fout van Tesla, wat edn kinderachtig antwoord, het is PUUR EN PUUR de schuld van de bestuurder
Sorry hoor maar het is niet de fout van Tesla, wat een kinderachtig antwoord, het is PUUR EN PUUR de schuld van de bestuurder
Ok. Stel ik ga daarin mee.
De autopilot is dan dus geen echte autopilot.
Dit terwijl iedereen roep dat het een zoveel betere chauffeur is dan mensen.

Waarom moet de mens de handen aan het stuur houden? Wat als ik als mens naar links stuur en de (semi-)autopilot naar rechts? Wie heeft gelijk? Moet ik als inferieure chauffeur dan gelijk krijgen?

Kunnen we vaststellen dat de autopilot functie van Tesla vooralsnog een MINDER goede chauffeur is dan mensen?

En wat te denken van Summon? Bij die functie zit er niemand in de auto. Veilig?

En wanneer gaan we échte autopilot krijgen? Dus dat de mens het stuur niet vast hoeft te houden, sterker nog niet eens een rijbewijs hoeft te hebben? Ik zeg dat duurt nog 20 jaar.
Waarom heeft tesla de software nu veranderd als je je handen te lang van het stuur neemt.

Feit blijft autopiloot wekte de indruk dat het echt een automatsiche piloot was, dit was het feitelijk niet.
Je kon het echt zonder dat het uitgeschakeld werd gewoon wel als autopiloot gebruiken, waarschuwingen leuk maar ze deden verder niets. Helaas werkte het in dit geval dus niet.
Als je meerdere sensoren hebt, radar, thermisch infrarood, laser, camera zul je uiteindelijk in alle situaties een systeem hebben dat herkennig geeft.
In theorie heb je een punt.
Praktijk is ander verhaal. Als eerste moeten alle sensoren werken, daarna moet interpretatie plaatsvinden.
Hier gaat tesla dus de mist in. Ondanks waarschuwingen wordt het systeem niet uitgeschakeld. De beste man zat 25 seconden handen aan het stuur van de 37.
Waarom gaat Tesla de mist in ?
Het was zijn eigen keuze om niet zijn handen aan het stuur te houden.

Zou me niets verbazen als hij gewoon dutje aan het doen was.

Het zou Tesla wel sieren zolang autonoom niet toegestaan is auto zichzelf ergens veilig gaat parkeren als mensen hun handen niet aan het stuur houden.

Anders krijg je dit soort situaties:

http://www.geenstijl.nl/m...w_twee_maal_overrede.html
Waarom gaat Tesla de mist in ?
Het was zijn eigen keuze om niet zijn handen aan het stuur te houden.
De mist in omdat er geen consequentie zat aan het zeg 34 minuten niet je handen aan het stuur houden. Die consequentie zit er nu in de nieuwste software wel. Waarom nu wel toen niet ?
Bij mijn weten is dit inmiddels al aangepast. Wanneer de waarschuwingen genegeerd worden zal de auto zichzelf rustig tot stilstand brengen. Correct me if I'm wrong :)
Gelukkig als het aangepast is. Probleem wat ik blijf houden is dat tesla nog steeds roept niet verantwoordelijk te zijn maar wel het systeem nu veranderd heeft.
Natuurlijk waren ze verantwoordelijk omdat ze toestonden dat het systeem als autopiloot werd gebruikt en er niets met waarschuwingen gedaan werd.
Beetje kort door de bocht niet? (om toch maar in auto-termen te blijven)
Als jij in een auto stapt en besluit de gordel niet te gebruiken - waarbij je bewust audiovisuele waarschuwingen negeert - en je veroorzaakt vervolgens een ongeluk, dan is niet ineens de fabrikant van de auto verantwoordelijk omdat zij de auto niet hebben laten stoppen of starten?!
De fabrikant van de auto heeft voldoende inspanning gepleegd om een (mogelijk) gevaarlijke situatie te signaleren. Het is uiteindelijk de verantwoordelijkheid van de gebruiker om daar mee om te gaan.
Dat Tesla het systeem nadien heeft aangepast geeft mogelijk aan dat zij zich verantwoordelijk VOELEN, maar dat is niet hetzelfde als verantwoordelijk ZIJN.
Als jij het niet dragen van de gordel wil vergelijken met een autopiloot zijn we denk ik snel uitgepraat.
En morele verantwoordelijkheid is ook niet hetzelfde als wettelijke. Maar ik vind dat Tesla de morele verantwoordelijkheid moet nemen om voorzichtiger met een beta feature om te gaan, vooral omdat ook de levens van anderen in gevaar kunnen komen. En om beter voor te lichten. En om Summon te verwijderen, want die wekt wel heel verkeerde verwachtingen; je moet *altijd* je handen aan het stuur houden, *behalve* bij gebruik van Summon... Geen goed idee.
Als de bovenstaande situatie was geweest met enkel een cruise control was dan de fabrikant ook verantwoordelijk geweest?
Alle fabrikanten mogen wijzigingen doorvoeren die de veiligheid van hun producten verbeteren, dat maakt ze niet direct verantwoordelijk.
Verschil is dat bij cruise control de mens expliciet de verantwoordelijkheid houdt. Hij blijft bestuurder.

Autopilot neemt *alle* taken over. Hij neemt dus gewoon de controle over. De mens wordt gereduceerd tot 'bewaker' van de autopilot.
Autopilot is een systeem van adaptive cruise control en waarschijnlijk een beetje lane assist.
Waarom is dan de bestuurder opeens niet meer verantwoordelijk?

Zolang autopilot niet volledig autonoom van A naar B kan rijden met netjes gebruik van richtingaanwijzers zou ik niet weten waarom het juridisch of wettelijk gezien meer zou moeten zijn dan een geupgrade cruise control.

Als je met 120km/u op de philip morris bocht afgaat in Bergen op Zoom met autopilot vraag ik me af in hoeverre de software de auto netjes op de juiste weghelft houdt. Of dat je met 120km/u op de A59 rijdt door knooppunt hooipolder terwijl het stoplicht op rood gaat zonder dat er een auto voor je rijdt om jouw Tesla af te remmen. De mens is niet de bewaker maar blijft gewoon de bestuurder van de auto.

Tesla is verantwoordelijk voor een goede cruise control maar moet niet verantwoordelijk zijn voor oneigenlijk gebruik ervan en de gevolgen die daar uit voortvloeien. Als iemand in een Audi met adaptive cruise control en lane assist de cruise op 120km/u zet in een woonwijk en dan een ongeluk veroorzaakt lijkt het me niet wenselijk dat Audi verantwoordelijk is, anders kun je alle cruise controls wel uit gaan zetten op elke auto.

Waar ik Tesla het meest voor verantwoordelijk zou houden is de keuze van de term autopilot, dat geeft de indruk dat het systeem veel meer is dan wat het is en dan wat andere fabrikanten in hun auto's plaatsen.
Autopilot is een systeem van adaptive cruise control en waarschijnlijk een beetje lane assist.
Waarom is dan de bestuurder opeens niet meer verantwoordelijk?

Zolang autopilot niet volledig autonoom van A naar B kan rijden [...]
Tot hier ga ik helemaal met je mee.

Alleen vanaf hier gaan we hier op tweakers een heel vreemd fenomeen zien. Eén waarin Tesla een autonoom rijdend voertuig heeft dat al beter rijdt dan mensen, terwijl het tegelijkertijd nog steeds grote fouten maakt en daarom niet onbeheerd kan/mag rijden.

Spreekt men Tesla aan op de fouten krijgen we de adaptive cruise control versie, maar zodra het gesprek verder gaat moet ik weer horen dat de autopilot beter rijdt dan mensen. Die discrepantie blijft maar terugkomen.

En eerlijk gezegd vind ik dat in de marketing hype er gewoon veel te ongenuanceerd gesproken wordt over deze adaptive cruise control. Door de media, maar ook door Tesla zelf. Kijk als iedereen roept dat het autonoom is dan gaan mensen het ook zo gebruiken. Een functie als Summon is wat dat betreft geen goed signaal. Technisch rijdt de auto helemaal zelf tijdens Summon. De bestuurder zit niet eens in de auto! Het verbaast me dat dit mag, eerlijk gezegd. Hoe zit het met aansprakelijkheid. Wat als die Tesla met 10 Km/u tegen een Ferrari aanrijdt en 25000 aan schade veroorzaakt?

Ik neem het Tesla dus een beetje kwalijk dat ze niet eerlijker zijn over de beperkingen van autopilot, en de Tweakers hier die de mythe in stand houden door (niet gehinderd door feiten) te beweren dat autopilot beter presteert dan menselijke bestuurders. Statistieken daarover door Tesla zijn ook zoiets dat ik ze een beetje kwalijk neem; die zijn namelijk oneerlijk omdat men de data cherry picked; zodra het te moeilijk wordt moet de mens het overnemen.

Misschien denk je nu dat ik een hekel heb aan Tesla. Maar niets is minder waar. Ik vind het een fantastisch bedrijf! Maar daardoor stel ik ook hele hoge (morele) eisen aan ze. Als Ford er een potje van maakt zal me dat worst wezen maar Tesla is mijn grote voorbeeld van hoe het wel moet. Dat maakt het extra pijnlijk als ze oneerlijk/onethisch/onverantwoord bezig gaan. Niet doen Tesla, dat hebben jullie helemaal niet nodig!

EDIT

"Alleen vanaf hier": hiermee bedoel ik eigenlijk niet jouw post, maar de stemming hier op tweakers in het algemeen. jij lijkt je zeer goed bewust van de beperkingen van autopilot, maar hopelijk ben je met me eens dat er hier velen in de comment section rondwaren die echt geloven dat autopilot al (bijna) volledig autonoom is en dat die al beter rijdt dan mensen. Een gevaarlijk bijgeloof wat mij betreft, maar wordt dus wel keihard aangewakkerd door o.a. Tesla zelf.

[Reactie gewijzigd door OddesE op 21 juni 2017 21:02]

Ben het helemaal met je eens. Dit soort hulpmiddelen zijn de toekomst en de mensen die vinden dat ze hun auto beter onder controle hebben zonder dit soort systemen zijn de mensen die ik op de openbare weg niet wil tegenkomen. Maar specifiek over autopilot moeten we het niet overdrijven, het is wat het is en niet meer dan dat. Er zit denk ik een groot verschil tussen een Tesla met autopilot en de autonome auto zoals bijvoorbeeld Google aan het testen is. Tesla is gewoon met productie tests bezig ipv laboratorium tests.

Zelf zie ik op langere termijn meer toekomst in de opvolger/alternatief van accu technieken zoals bijvoorbeeld brandstofcellen, want met het gebruik van accu's zie ik de auto industrie veranderen naar een industrie waar je nu tot 20 jaar met een auto kan doen en in de toekomst veel vaker na 7 jaar een complete auto vervangt. We hebben al een enorme wegwerpmaatschappij wat heel sterk te zien is in de mobiele telefonie, maar als we dat met complete auto's gaan doen gaan we opeens veel sneller door alle natuurlijke grondstoffen heen. Tesla laat in ieder geval wel zien hoe snel een industrie op zijn kop gegooid kan worden.
25 seconden van de 37 minuten, ja. 25 van de 37 seconden is nog ruim 67%, maar in dit geval had hij zijn handen slechts 1,13% van de periode dat hij zijn handen aan het stuur moest houden, aan het stuur gehouden.
Als je meerdere sensoren hebt, radar, thermisch infrarood, laser, camera zul je uiteindelijk in alle situaties een systeem hebben dat herkennig geeft.

Waar ik eerder van schrik is dit:


[...]


[...]


Hier gaat tesla dus de mist in. Ondanks waarschuwingen wordt het systeem niet uitgeschakeld. De beste man zat 25 seconden handen aan het stuur van de 37.

Waarom schakelt tesla de autopiloot niet uit.
Telsa kan herkennen dat waarschuwing niet wordt opgevolgd maar doet er niet mee.
En wat denk je dat er gebeurt als de bestuurder zijn handen van het stuur heeft, en spontaan de autopilot wordt uitgeschakeld? Dan zou de bestuurder het stuur over moeten nemen, maar als die dat niet doet, dan rijdt de auto gewoon stuurloos door.

Wat de Tesla nu (in de nieuwe software) als reactie doet is gewoon juist: Stoppen.
Een persoon is zelf verantwoordelijk voor zijn eigen veiligheid. De auto gaf waarschuwingen gedurende 37 minuten! Hier kan Tesla niet verantwoordelijk voor gehouden worden, anders moeten we overal nog meer stickers gaan opplakken dat je je kat niet in de magnetron mag doen. Je kunt best verwachtingen stellen van mensen binnen redelijkheid, want je eigen veiligheid blijft je eigen verantwoordelijkheid en niet die van Tesla.
Inderdaad een hulpmiddel.
Maar Tesla stimuleert het automatisch rijden op deze manier wel en wat je krijgt is mensen blindelings gaan vertrouwen, en daar gaat het mis.
Ik heb een auto met radar voorin, adaptive cruise control en lane assist.
Werkt fantastisch, ik vertrouw er niet blind op, maar merk wel dat ik makkelijker wordt.
Hoewel dit niet te vergelijken is met auto-pilot, is (kan) de mentaliteit van de bestuurder wel hierdoor beinvloed worden (lees gemakkelijker omgaan met / ervan uitgaan dat...)

Mensen moeten zich realiseren dat het een hulpmiddel is en geen autonoom iets, wat de Tesla natuurlijk wel soort van is. Maarja, geef je de controle uit handen is het risico dat de computer iets over het hoofd ziet, grijp je dan niet in ja....
Dat ligt eraan hoe hoog het zichtveld van de lidar/radar is. De auto is tegen een oplegger gereden, en gezien de foto van het wrak er bijna heel onderdoor Als het een hoge (en vrij lange) oplegger is geweest kan ik mij wel voorstellen dat de lidar/radar onder de trailer door scheen en dus de hele trailer niet heeft gezien.

//edit: Dit moet de trailer zijn geweest:
https://cdn.vox-cdn.com/u...845931/Williston-f2.0.JPG

Dezelfde vraag met reactie van Musk:
https://twitter.com/artem_zin/status/748623772056428544

[Reactie gewijzigd door Crp op 20 juni 2017 10:59]

Dat ligt eraan hoe hoog het zichtveld van de lidar/radar is. De auto is tegen een oplegger gereden, en gezien de foto van het wrak er bijna heel onderdoor Als het een hoge (en vrij lange) oplegger is geweest kan ik mij wel voorstellen dat de lidar/radar onder de trailer door scheen en dus de hele trailer niet heeft gezien.
Lijkt me onwaarschijnlijk dat een Lidar dit niet zou zien. Nu snap ik dat er verschillende lidar systemen zijn. Maar zover ik nu inzie hebben deze lidars een redelijk grote kijkhoek (vertikaal gezien dat).
Hier een voorbeeltje : https://www.youtube.com/watch?v=nXlqv_k4P8Q

Zoals je kunt zien staan er gebouwen, bomen, mensen en andere auto's van top tot teen op. En dat heb je natuurlijk ook wel nodig om objecten betrouwbaar te kunnen herkennen.
In dat voorbeeld is het een lidar die bovenop een auto staat. De beelden komen mij bekent voor en zijn volgens mij van een Google auto. Wat ik zo kan vinden heeft een Tesla alleen een radar in de bumper zitten voor de lange afstand detectie(op korte afstand sensoren rondom de auto net als parkeersensoren) zover ik kan vinden werkt deze horizontaal en beperkt verticaal.
Tesla gebruikt geen Lidar en had dus aangenomen dat je Lidar in het algemeen bedoelde.

Tesla heeft wel die radar, maar de technieken zijn totaal verschillend.

Die Radar zal wel een dopler radar zijn en vindt het raar dat die niet het voortuig gezien heeft aangezien de zijkant van metaal lijkt en niet van canvas of ander zacht materiaal...

Nou ja, ik ouw me handen aan het stuur in mijn gewone auto :)
In de reactie van Musk kun je lezen dat de radar automatisch elementen eruit filtert waarvan het denkt dat het borden zijn die boven de weg hangen. Dat is waarschijnlijk in het geval van de trailer ook gebeurt (de trailer reed boven op een heuvel, de tesla reed heuvelopwaarts)
Waarschijnlijk wel gezien, maar geen actie ondernomen omdat het ook een verkeersbord zou kunnen zijn. In Nederland hebben we bescherming voor fietsers aan de zijkant van vrachtwagens, in Amerika zijn ze vrij hoog, open en rijden ze overal (keep lane).
De autopilot 2.0 hardware (sinds ~ november 2016 in Model S, en in de Model 3 tijdens introductie) is veel beter dan de lidar. Het systeem heeft namelijk camera's en ziet dus wat de bestuurder ziet maar dan overal om de auto, zonder zijn hoofd te draaien. Er zit nog wel 1 radar en ultrasonic in, dus hij kan ook wel meer zien dan de camera kan zien.
https://electrek.co/2016/...mera-nvidia-tesla-vision/
Door de camera's kan hij niet alleen zien dat er een object is, maar door de Nvidia Drive PX2 ook interpreteren wat het object is.
Dus paal, fietser, hond, vrachtwagen etc... zal hij allemaal herkennen zoals mensen dat ook doen.
Daardoor kan hij veel beter een beslissing maken om ergens onderdoor te rijden, of bijvoorbeeld af te remmen.
En ook bijvoorbeeld stoppen voor rood en rijden bij groen.

[Reactie gewijzigd door xmenno op 20 juni 2017 14:08]

Radar & ultrasoon zit er, denk ik, NIET in.
Jouw link is van oktober 2016, maar Elon Musk heeft in april 2017 een TED-talk gegeven waarbij hij om 14:02 zei:
Yeah, so this is using only cameras and GPS. So there's no LIDAR or radar being used here. This is just using passive optical, which is essentially what a person uses. The whole road system is meant to be navigated with passive optical, or cameras, and so once you solve cameras or vision, then autonomy is solved. If you don't solve vision, it's not solved. So that's why our focus is so heavily on having a vision neural net that's very effective for road conditions.
Ik vind het zelf licht verontrustend, enkel op camera en slimme software afgaan - radar als backup had mij verstandig geleken.
Ik vind het zelf licht verontrustend, enkel op camera en slimme software afgaan - radar als backup had mij verstandig geleken.
Wat eigenlijk een idiote gedachte is, want een bestuurder moet het ook met 2 camera's en een hoop slimme software doen.

Het enige verschil is dat die slimme software dan op een stoel zit en de servo's handen en voeten zijn.

Zelfs met alleen camera's kan een auto al meer zien, want een bestuurder heeft nou eenmaal geen ogen in zijn rug zitten. Met camera's rondom heb je al minder dode hoeken dan met alleen ruiten en spiegels.

[Reactie gewijzigd door Stoney3K op 20 juni 2017 15:21]

Ik denk dat de slimme software die in de mens zit nog een stuk geavanceerder is dan wat er in een Tesla zit.

Mensen kunnen veel meer anticiperen op onverwachte situaties, denk ik. Als er vuil op m'n bril of voorruit zit en ik zie niets, dan kan ik deduceren wat er aan de hand is en hoe ik daar mee om moet gaan. Of als ik verblind wordt door laagstaande zon.

Op dat punt wint een mens het denk ik nog: anticipatievermogen op compleet onverwachte situaties, waarbij dat in software nog niet zo'n hoog niveau zal hebben. En dat komt echt wel, maar tot die tijd zou ik het prettig vinden als er nog een backup-systeem in zou zitten.
https://www.tesla.com/nl_NL/autopilot
Acht omgevingscamera's bieden 360-gradenzicht rond de auto en tot 250 meter bereik. Twaalf bijgewerkte ultrasone sensoren vullen dit beeld aan. Zo worden in vergelijking met het vorige systeem zowel harde als zachte objecten op een bijna twee keer zo grote afstand gedetecteerd met een twee keer grotere nauwkeurigheid. Een verbeterd radarsysteem aan de voorzijde biedt extra informatie over de omgeving via een eigen golflengte, ongehinderd door hevige regenval, stof en zelfs de auto voor u.

https://electrek.co/2017/...ot-2-0-camera-8-1-update/
Until this week, Tesla was only trying to recreate the capabilities on ‘Tesla Vision’ using equivalent hardware, a front-facing camera, radar, and also GPS data, but we were able to confirm that for the update 8.1, Tesla added another front-facing camera in order to improve Autosteer performance – especially at high-speed.
Da's wel overtuigend genoeg: je hebt gelijk. :)

En Musk heeft dat radar-detail in z'n TED-presentatie dus vergeten te melden.
Op zich gebruikt een menselijke bestuurder ook geen radar, sonar, lidar of techniek anders dan visuele input. Dat beschouwen we als goed genoeg.
Eigenlijk zegt dit artikel het heel duidelijk. De Tesla autopiloot is nog niet geschikt voor 100% autonoom rijden, dat systeem meldt dat ook aan de gebruiker. De gebruiker echter beschouwt dat systeem wel als goed genoeg en laat het werken en ondanks dat de bestuurder de aanwijzingen van het systeem negeert rijdt de wagen wel gewoon door. Je kunt je afvragen of dat wel correct is.
De mens is ook niet geschikt voor 100% autonoom rijden. Gezien de vele ongelukken per dag.
En toch word dat wel geaccepteerd, Je kunt je afvragen of dat wel correct is :)
Inmiddels is men er wel achter dat dat niet correct is en zijn we er aan gaan werken dat computers dat gaan overnemen ;)
Je krijgt een situatie vroeg of laat tussen volledig autonoom en manueel bestuurde auto's.

Als alle auto's autonoom zijn zal aantal incidenten veroorzaakt door autonoom systeem nihil zijn, echter wat een systeem doet bij lekke band of andere technische problemen die invloed hebben op weggedrag zullen we wel merken.

Maar tussen autonomen auto's een dronken automobilist zal "interessante" resultaten geven.

Zelflerende systemen krijgen te weinig input om te anticiperen op a-sociaal/niet rationeel gedrag van anderen. Als je vaak op de weg zit, zie je dagelijks wel situaties waarvan ik dan denk hoe zal een autonoom systeem daarop reageren. (recht inhalen met afsnijden, door rood rijd rijders etc..)

Zelf zal je door je observatie en ervaring snel zien of iemand voor je of achter je aan het bellen is, dronken is etc... en houd je automatisch rekening mee...

[Reactie gewijzigd door totaalgeenhard op 20 juni 2017 15:21]

Een snelheidsmeter geeft bijv 120Km/u aan terwijl de limiet 80 is. De chauffeur negeert de aanwijzing en veroorzaakt een ongeluk.
Wie is hier schuldig?
Het is de verantwoordelijkheid van de bestuurder dat een voertuig aan alle regels voldoet - en dat is niet het geval. De bestuurder is dus schuldig.
Mocht de snelheid de enige oorzaak zijn dan is het nog de vraag of de autoverzekering gaat uitkeren, omdat de polisvoorwaarden voorschrijven dat een correct functionerende auto wordt bestuurd.
De bestuurder is ten alle tijden verantwoordelijk voor naleving van geldende wetgeving en daarbij horende maximale snelheid. Dit zowel bij autonoom als niet autonoom rijden.

Echter lijkt mij meer de vraag hoe ver de strekking autonoom rijden gaat. Wanneer is men bestuurder als je alleen nog achterin instapt en de auto je volledig van A naar B brengt? Wie is dan de bestuurder? Als eigenaar van een voertuig ben ik ook altijd verantwoordelijk voor het voertuig, ongeacht of ik deze al dan niet 100% alleen bestuur (uitlenen e.d.).

Specifiek in dit ongeluk is de vraag in welke hoedanigheid de 'autonomiteit' van de Tesla is gecommuniceerd met de klant. Als Tesla duidelijk heeft gecommuniceerd dat de functie een hulpmiddel is, kan het niet vermeden worden dat de bestuurder zelf nalatig is geweest in het besturen van de Tesla ( 25 sec van 37 minuten = 1.13%). Uitkomst van een (mogelijke) rechtszaak is voer voor juristen en het aannemelijk maken van zaken.
Is wel behoorlijk makkelijk geroepen.
Een auto fabrikant kan echt niet op dat moment zien wat er daar toegestaan is (live). Dat kan op elk moment wijzigen, en wie is er dan schuldig?
Heb al een paar keer mee gemaakt dat een 130 weg werd gereduceerd naar 100 :o
Niet makkelijk geroepen. Als jij dat kan zal een camerasysteem ook borden moeten kunnen herkennen. Als jij 100 ziet wegens bijv werkzaamheden kan een camera dat ook zien.
Ik heb z'n auto die dat moet kunnen. Leuk op simpele basiswegen of goed uit leesbare borden. Je zult mee maken dat toch 20% van de border/wegen niet herkent wordt.

Iemand met Cartech karma, moet dat wel weten :)
Naast het feit dat ze kaartendata hebben met alle standaard snelheden van de wegen, zijn ze over het algemeen ook prima in staat om snelheidsborden te identificeren en uit te lezen.
Een auto fabrikant kan echt niet op dat moment zien wat er daar toegestaan is (live).
De auto wel? Waar denk je dat al die camera's voor gebruikt worden? Er zijn erg veel modellen die al gebruik maken van traffic sign recognition.
Dus de fabrikant is verantwoordelijk voor verkeerd gebruik?
Laat ik een ander wat duidelijker voorbeeld geven. Jij slaat je buurman de hersens in met een hamer. Wie is er verantwoordelijk?
spoiler:
De hamerfabrikant natuurlijk, volgens jouw logica.
In zijn tweets heeft Elon Musk juist bevestigd dat Tesla Model 3 ook volledig zal beschikken over de Auto Pilot versie 2 die nu op de Model S en X aanwezig zijn mits er tot die tijd niet een nog nieuwere variant komt. Niks gezegd over het feit dat er minder hardware pre installed zal zijn!

Kan helaas de tweet niet zo snel vinden. Was vrij recent nog!

[Reactie gewijzigd door Nimac91 op 21 juni 2017 03:19]

Hier wordt volgens mij nogal snel geoordeeld, of toch geinsinueerd, dat de bestuurder in fout is omdat hij zijn handen niet aan het stuur hield. Maar weining nagedacht over de verantwoordelijkheid van Tesla. Die een feature AutoPilot, waarbij de naam toch ook verwachtingen schept, aanbiedt en zich dan gaat wegsteken achter "maar je moet nog steeds je handen aan het stuur houden". Het lijkt mij gewoon een menselijke reactie. Het is als verwachten dat iedereen z'n voet op de pedaal houdt bij cruisecontrol, maar met een veel hevigere impact.

Mijn mening is dat het niet zou mogen om een beta feature (want dat is het toch, autonoom maar niet autonoom genoeg) aan consumenten geven met als doelj e eigen productontwikkeling te gaan versnellen (door het sneller vergaren van realistische data) en je dan wegsteken achter "maar zo mocht je het niet gebruiken".
Die feature "AutoPilot" waar jij naar verwijst wordt door Tesla benoemd als "Auto Assist" en dus helemaal niet als volledig zelfstandig rijdende auto gezien mag worden.
Dus blijft over dat de verongelukte bestuurder zelf fout was bij zijn fatale ongeluk.
Was hij ook gedaan heeft, in mijn ogen heeft hij letterlijk of figuurlijk zitten slapen en was totaal niet bezig met autorijden.
https://www.tesla.com/autopilot

"All Tesla vehicles produced in our factory, including Model 3, have the hardware needed for full self-driving capability at a safety level substantially greater than that of a human driver."

[Reactie gewijzigd door Robby517 op 20 juni 2017 11:12]

Precies en NIET de software. Er wordt heel duidelijk in de auto aangegeven wat verwacht wordt van de bestuurder en bij de eerste keer activeren van autosteer (daar gaat het hierom) moet je ook toelichting accepteren die wordt gegeven op grote scherm in auto.

Wat jij doet (en wat veel media ook doen en zeer kwalijk is in mijn ogen) is enkel op basis van de naam van een functie, bepalen wat men mag verwachten en vervolgens zeggen dit moet wel zelfrijdend zijn. NEE, Tesla heeft altijd aangegeven dat het een hulpsysteem is. Reacties zoals die van jou (en van bepaalde media) zorgen juist voor misvattingen.
Nee, hij doet dat heel duidelijk NIET op naam van de functie.
Hij doet dat op de BESCHRIJVING van Tesla over die functie. " full self-driving capability at a safety level substantially greater than that of a human driver "

Als je de boel op die manier beschrijft dan VRAAG je er om dat mensen 12 seconden hun handen aan het stuur houden in een rit van 37 min.

Oh het is misschien nog niet perfect, maar veiligheid is "substantially greater than that of a human driver" Dus altijd nog veiliger dan dat ik zelf rijd.

Met dergelijke marketing is het volledig Tesla aan te rekenen als bestuurders doen wat Tesla claimed dat met hun autos mogelijk is.
Nee. Begin eens met de volledige quote ipv een stukje. "All Tesla vehicles produced in our factory, including Model 3, have the hardware needed for full self-driving capability at a safety level substantially greater than that of a human driver". Ik heb het stuk dik gedrukt wat jij voor het gemak weglaat. Kijk eens naar de design studio en de beschrijving die wordt gegeven voor "verbeterde autopilot" en "zelfrijdende functie": https://www.tesla.com/nl_NL/models/design

Dan heb ik het nog niet over de waarschuwingen die geaccepteerd moeten worden bij het voor het eerst activeren, laat staan bij de melding (dat je je handen aan het stuur moet houden en moet opletten) die ELKE keer dat je autosteer activeert op het instrumentarium wordt getoond.

Volgende keer even zorgvuldig de originele bron lezen voordat je de discussie aangaat. Scheelt een hoop gedoe.
Een normale consument weet niet dat je zowel de hardware als software nodig hebt voor een autonome auto.
Normaal gesproken worden onderdelen van een auto ook niet als software gezien. (je hebt het dan eerder als firmware behorend bij de hardware dan over software) De beschrijving van Tesla is gewoon ontzettend misleidend.

De waarschuwingen zijn vervolgens zodanig geïmplementeerd dat ze heel makkelijk genegeerd kunnen worden zonder dat ze irritant worden. Ook dat weet Tesla van tevoren.

Uiteindelijk kun daaruit maar één conclusie trekken:
Tesla communiceert bewust op een zodanige manier naar hun klanten, dat ze er vanuit kunnen gaan dat een groot aantal klanten denkt dat hun systeem klaar is voor autonoom rijden.
Maar Tesla heeft vervolgens gezorgd dat zij juridisch gezien niet aansprakelijk zijn.

Wat mij betreft is dat moreel verwerpelijk.
Bij de nieuwe link die je geeft word ook een duidelijk verschil tussen autopilot en zelfrijdende functie gegeven.
Bij de goedkopere autopilot staat duidelijk: De verbeterde Autopilot moet echter worden beschouwd als een assistentiefunctie voor de bestuurder. De bestuurder blijft altijd verantwoordelijk voor het onder controle houden van de auto
Bij de duurdere zelfrijdende functie word dat echter NIET verteld.
Daar staat een vage tekst: Houd er rekening mee dat de functionaliteit voor Autopilot afhankelijk is van uitgebreide softwarevalidatie en wettelijke goedkeuring. Deze goedkeuring verschilt per rechtsgebied. Het is niet mogelijk om precies aan te geven wanneer elk element van de hierboven beschreven functionaliteiten beschikbaar zal zijn, omdat de beschikbaarheid sterk afhangt van de lokale wettelijke goedkeuring
Geen enkele waarschuwing dat je je handen aan het stuur moet houden of dat je zelf verantwoordelijk blijft voor de controle over je auto.

Dan weet je zeker dat er eindgebruikers zijn die de conclusie trekken dat je bij de zelfrijdende functie je handen niet aan het stuur hoeft te houden.

Volgende keer niet mensen ten onrechte er van beschuldigen dat ze de bron niet gelezen hebben. Dan kom je wat minder dom en arrogant over.

[Reactie gewijzigd door mjtdevries op 21 juni 2017 12:04]

Jij noemt mij dom en arrogant, dat vind ik jammer en is onterecht.

Jij beweert: "De waarschuwingen zijn vervolgens zodanig geïmplementeerd dat ze heel makkelijk genegeerd kunnen worden zonder dat ze irritant worden. Ook dat weet Tesla van tevoren."
Hoe kom je daarbij? De waarschuwingen zijn inderdaad te negeren, maar vervolgens stopt de auto wel... Is dat niet irritant? Ik vind van wel.

Je geeft gelukkig al aan dat bij de "verbeterde autopilot" keurig wordt vermeld dat het een assistentiefunctie is. Daar zijn we het dus over eens dat het in orde is. Jij beweert echter dat bij de "zelfrijdende functie" niet wordt vermeld dat het een assistentiesysteem is. Dat klopt, want dat is het ook niet! Het is een zelfrijdend systeem. De volgens jou "vage" omschrijving geeft duidelijk aan dat implementatie afhangt van wet- en regelgeving en dat het niet duidelijk is wanneer deze functionaliteit beschikbaar komt voor de klant. Hoe kun je hieruit als klant opmaken dat je auto deze functie sowieso heeft? Dan heb je echt een gebrek aan leesvaardigheid.

Conclusie, mijn "beschuldiging" is gegrond en jij blijkt totaal niet te weten waar je het over hebt, ondanks dat je de tekst aangereikt kreeg waar het allemaal instaat. Beetje jammer om dan zo op mij af te geven.
Je geeft gelukkig al aan dat bij de "verbeterde autopilot" keurig wordt vermeld dat het een assistentiefunctie is
Wel op de tweede link die je gaf. Op de eerste link staat dat niet.

En dat de auto stopt als je de meldingen negeert was duidelijk niet het geval bij de crash waar we het hier over hebben. Pas als het kalf verdronken is dempt men de put.
Hoe kun je hieruit als klant opmaken dat je auto deze functie sowieso heeft?
om dat je de functionaliteit gewoon kunt kopen. Er staat niet: "nog niet beschikbaar voor Nederland". Je kan het gewoon aanvinken à ¤ 3500 en dan gaat je leasebedrag omhoog.
Conclusie van een normale consument: "Het is blijkbaar al wel beschikbaar voor Nederland".

Maar als fanboy zul jij dat uiteraard anders zien.
Ik heb maar 1 link gegeven in deze discussie en dat is naar de design studio waar de auto wordt samengesteld. Dat het om een assistentie functie gaat staat keurig vermeld bij het samenstellen en bestellen van de auto. Daar gaat het om. Je kunt niet op de frontpage alle toelichtingen plaatsen. Of wel soms?

Er staat dat onduidelijk is wanneer deze functionaliteiten beschikbaar komen. Dat jij moeite hebt met lezen, betekent niet dat Tesla het niet keurig vermeld op de site. Tesla noemt notabene "software validatie" als een van de redenen waar beschikbaarheid van de zelfrijdende functie van afhankelijk is.

Als je de waarschuwingen negeert dan stopt de auto, dit was al voor dit ongeluk plaatsvond geïmplementeerd: https://www.youtube.com/watch?v=Z7ojb2x2R28

En je argument dat het beschikbaar is omdat je het kunt aanvinken is ronduit bizar, aangezien bij de omschrijving staat vermeld dat beschikbaarheid van deze functie afhankelijk is van regel- en wetgeving en het dus niet duidelijk is wanneer deze functie beschikbaar komt. Je betaalt vooraf voor de software/functie die je op een later moment krijgt.

Ik ben geen fanboy en begrijp ook niet waarom jij denkt dat ik dat zou zijn. Ik ben fan van Tesla en alle andere elektrische auto's en bovenal fan van de waarheid en feiten.

[Reactie gewijzigd door Aardmens op 22 juni 2017 15:40]

Laten we even kijken wat er begin 2016 stond dan:
https://web.archive.org/w...ps://www.teslamotors.com/
Autopilot

Automatic steering, speed, lane changing and parking
Dat lijkt me duidelijk: die wagen kan gewoon vanzelf rijden zolang er geen kruispunten zijn.

Daar staat niet eens een sterretje of een link naar kleine lettertjes. Tesla heeft een systeem wat weliswaar geavanceerd is, maar eigenlijk niet veel meer kan dan systemen op andere vooruitstrevende modellen. Vervolgens hebben ze de marketing afdeling los laten gaan en die deden uitschijnen dat Tesla iets revolutionair had, met 10 jaar voorsprong op de rest.

De andere fabrikanten waren voorzichtiger: ze noemen het hulpjes en veiligheidssystemen. Nu blijkt dus dat Tesla beter wat voorzichtiger was geweest met hun benamingen, want ze hebben het zelf al hernoemd.

Dat neemt niet weg dat die systemen van meerdere fabrikanten misschien al veiliger zijn dan de gemiddelde automobilist (dat beweert Tesla toch, en dat zou best kunnen in bepaalde situaties). Alleen aanvaarden we dat mensen fouten maken, en van computers (los van waar de fout zit: software of hardware) aanvaarden we dat niet.
Waarom niet bij kruispunten? Of is dat jouw interpretatie van een simpel stukje taal op de frontpage en kijk je niet naar uitleg die gegeven wordt bij bestellen auto?

Heeft Tesla het systeem hernoemd? Hoe heette het dan voorheen? Ze noemen het nog steeds "autopilot" met als specifieke functie "autosteer" waar het in dit artikel over gaat. Zijn de waarschuwingen veranderd sinds het begin? Ja, tijdens het rijden komt nu sneller melding, meer niet. Je kreeg altijd al melding bij activeren en bij eerste keer activeren moet je ook "kleine lettertjes" accepteren.

Niemand beweert dat de huidige systemen beter zijn dan mensen (dat zou ook raar zijn, want dat zijn ze nog niet). Waar lees jij dat Tesla beweert dat hun huidige systeem beter werkt dan een mens?

[Reactie gewijzigd door Aardmens op 20 juni 2017 22:04]

Waarom niet bij kruispunten? Of is dat jouw interpretatie van een simpel stukje taal op de frontpage en kijk je niet naar uitleg die gegeven wordt bij bestellen auto?
Dat is inderdaad mijn interpretatie van dat stukje taal (aangezien ze niet zeggen dat voorrang automatisch is ga ik ervan uit dat het niet of nog niet betrouwbaar genoeg werkt op kruispunten waar je voorrang moet verlenen). De uitleg bij een bestelling zou ik niet weten, ik heb nog nooit een Tesla besteld. Dat stukje taal is ook het enige wat ik zo snel kon vinden op de website van die periode. Doorklikken of zo gaat niet. Als Tesla nog enorm belangrijke informatie had in verband met de veiligheid dan hadden ze dat mijn inziens er wel ergens mogen bij zetten.
Niemand beweert dat de huidige systemen beter zijn dan mensen (dat zou ook raar zijn, want dat zijn ze nog niet). Waar lees jij dat Tesla beweert dat hun huidige systeem beter werkt dan een mens?
Hier: http://www.telegraph.co.u...cidents-50pc-less-likely/
En hier: https://twitter.com/elonm...ech-safer-nhtsa-report%2F

Nog bronnen nodig? Ik wil gerust nog 2 minuten verder zoeken. Heb jij trouwens een bron waarom die systemen niet beter zouden zijn dan mensen? Dat interesseert mij namelijk wel. Ik zeg trouwens ook niet dat zelfrijdende auto's beter zijn, ik betwijfel dat zelf ook. Ik zeg alleen dat Tesla dat beweert, en dat ze mogelijk gelijk kunnen hebben.

Wat het hernoemen van autopilot betreft had ik het inderdaad mis. Onder meer Duitsland en Californië willen dat het hernoemd wordt, maar Tesla gaat er niet op in.
Je eerste punt over het erbij zetten van belangrijke info, dat staat keurig vermeld in de design studio. Alle communicatie vanuit Tesla heeft ALTIJD keurig vermeld dat bestuurder verantwoordelijk blijft en moet opletten. Dus dat Tesla het er volgens jouw bij had moeten zetten: dat doen ze ook.

Je tweede punt, je hebt gelijk. Musk heeft aangegeven dat voor specifieke situatie waarvoor systeem bedoelt is, het systeem de kans op een ongeluk verlaagt met 50%. Immers, het systeem is niet bedoelt als zelfrijdend systeem. Het is bedoelt voor op snelwegen met duidelijke lijnmarkeringen en ter ondersteuning.

Waar het hier om gaat is dat een bestuurder die wordt ONDERSTEUND door autopilot, een flink lagere kans heeft op een ongeluk. Dat is iets anders, dan dat het systeem beter is dan mensen. Alleen in specifieke gevallen kan dat opgaan (snelweg, duidelijke lijnen).
AutoPilot is een adequate benaming, als je het vergelijkt met de autopilot die we al jaren in de luchtvaart hebben. Het is echt niet zo dat als je die aanzet, de piloot en copiloot beiden volledig overbodig zijn, en de vliegtuigen net zo goed zelf kunnen vliegen.

Ja, het neemt een deel van de functies over voor het gemak dat daarbij komt. Maar je moet op elk moment alert zijn, handen op het stuur, ogen op de weg
Maar piloten worden net iets grondiger opgeleid, en met kennis van autopilot en de beperkingen.
Een automobilist heeft die opleiding niet gehad, gaat met zijn rijbewijs naar een Tesla verkoper en die verkoopt hem mooi een "zelfrijdende" auto.
Maar piloten worden net iets grondiger opgeleid, en met kennis van autopilot en de beperkingen.
Een automobilist heeft die opleiding niet gehad, gaat met zijn rijbewijs naar een Tesla verkoper en die verkoopt hem mooi een "zelfrijdende" auto.
En is dat iets wat Tesla te verwijten valt of moeten we dat probleem zoeken bij de instanties die rijbewijzen uitgeven en ze handhaven?
Als je mijn mening vraag: beiden.

Tesla, omdat hun marketing onrealistische verwachtingen schept. Tesla communiceert 2 verschillende dingen. Een goed artikel hierover:
http://www.reuters.com/ar...lot-drivers-idUSKCN0ZH64O
Musk himself has retweeted news reports showing drivers using Autopilot with no hands on the wheel.
Onze instanties, omdat ze het toelaten een product in beta door consumenten te laten testen. Met mogelijks fatale gevolgen.
Het is heel simpel. Als bestuurder heb je de eindverandwoordelijkheid, en er kan geen fuck gegeven worden over of je wel of geen autopilot aan stond. Tenzij je remmen opeens kapot gaan en je niets kan, ben je schuldig. En zo hoort het. Jij was degene die het zo nodig vond om de computer en zijn beta-software over het lot te bepalen van anderen op de weg.
Neen het leven in onze maatschappij is niet zo simpel als jij het voorstelt. En gelukkig zien onze beleidsmakers dit wel in, in tegenstelling tot de kort-door-de-bocht reacties van de gemiddelde mens.
Een autobouwer hoeft zich aan wettelijke verplichtingen te houden met betrekking to minimale veiligheid. Zo kun je geen wagen de weg opsturen die volkomen onveilig is met als disclaimer "enkel te gebruiken tot 25km per uur, anders zakt ie in. En zo mag je ook geen huis bouwen met brandbare materialen om vervolgens te verhuren met een disclaimer "Veilig, zolang je geen elektrische aparaten in huis haalt". Dit gaat zo verder hoor in onze maatschappij, zo mag je ook niet zomaar alles in een contract opnemen en dan roepen "eigen schuld, dikke bult" omdat je iemand kon laten ondertekenen.

Zie je waar ik naartoe wil? Ik hoop dat je toch gaat inzien dat sommige discussies genuanceerder kunnen.
Het feit dat Tesla waarschuwingen inbouwt om te zorgen dat je toch je handen aan het stuur houdt, hoort je als bestuurder genoeg bewust te maken dat je je klauwen aan het stuur hoort te houden, ondanks dat autopilot actief is.

Verder zijn je voorbeelden niet relevant. De auto dient veilig genoeg te zijn voor het gebruik zoals die bedoeld is voor de betreffende auto. Daarvoor hebben we europese goedkeuringen, anders komt je auto hier de weg doodgewoon niet op, want je krijgt er dan geen kenteken bij. Functies als autopilot en adaptive cruise control zijn actieve veiligheidssystemen die ook worden goedgekeurd door bijvoorbeeld het rdw, echter blijven het tot er anders besloten wordt, hulpsystemen.

Dat wil zeggen dat een chauffeur altijd eindverantwoordelijk blijft voor de gedragingen van de auto en de inzittenden. In dit geval is de chauffeur grote blaam te treffen door de waarschuwingen te negeren en misschien zelfs met een handigheidje te voorkomen dat de auto veilig het voertuig aan de kant heeft gezet. Helaas heeft hij deze beslissing met zijn leven moeten bekopen.

Op het moment dat dergelijke systemen leading worden en auto's volledig autonoom gaan rijden, zal er nog een discussie gevoerd moeten worden wie er straks verantwoordelijk zijn in geval van ongelukken, schade en andere calamiteiten. Wordt dat straks de fabrikant die daar waarborg voor dient te dragen? De chauffeur deels om te zorgen dat bijvoorbeeld camera's en andere sensoren goed schoon houdt? Of misschien zelfs de overheid omdat die vinden dat de claims laag genoeg zullen zijn om dit op te vangen of omdat de weg niet goed is voor een dergelijke auto ivm werkzaamheden?

We komen nu in een tijdelijke gevaarlijke tijd waar steeds meer taken worden overgenomen door techniek. Maar er zijn ook nog genoeg haken en ogen aan dergelijke techniek en de gaten die soms nog vallen in de scenario's die niet door de techniek worden herkend of bekend zijn. Daar is menselijk ingrijpen nog steeds een must. Echter door de techniek wordt de aandacht steeds minder voor de wegsituatie, omdat die heel vaak goed wordt opgepikt door de techniek. En daar ligt dus het gevaar. Een chauffeur die alles moet doen zal een dergelijke situatie goed beoordelen en snel genoeg handelen, omdat die anticipeert. Echter de chauffeur die 95% van de tijd niets meer hoeft te doen, zal daar minder mee bezig zijn en niet alert meer zijn. En als de techniek faalt en de mens niet tijdig ingrijpt, gaat het snel van foutje naar potentieel dodelijk ongeval.

De techniek in de auto gaat erg hard momenteel en zeker zal het in de (nabije) toekomst onze wegen veiliger gaan maken. Maar tot die tijd moeten chauffeurs van semi-autonome auto's gewoon erg bewust zijn van het feit dat de techniek nog niet onfaalbaar is. Als fervente autorijder ben ik in dubio over de huidige ontwikkelingen. Aan de ene kant wil ik zelf nog kunnen rijden, want dat vind ik erg gaaf. Aan de andere kant is straks de "persoonlijke taxi met electronische chauffeur" ook wel erg fijn.
Persoonlijk vind ik dat een redelijk onzinnige opmerking. Je zou hetzelfde kunnen argumenteren voor een 'automaat', want ja, die maakt het rijden toch automatisch? Je bent als autobestuurder bevoegd na het behalen van je rijbewijs, wat betekent dat je verantwoordelijk met zulke zaken om kunt gaan. Als jij een nieuwe auto koopt/krijgt/leent/whatever en gewoon bedenkt dat "auto pilot" betekent "oh ik hoef niets meer te doen" terwijl er duidelijk overal waarschuwingen staan, in de handleiding staat hoe het werkt, meerdere keren waarschuwingen komen dat je je handen aan het stuur moet houden, dan behoor je niet bevoegd te zijn de auto te besturen en is het je eigen fout. 25 seconden van de 37 minuten je handen aan het stuur? Kom op zeg...
Je zou hetzelfde kunnen argumenteren voor een 'automaat', want ja, die maakt het rijden toch automatisch?
Als we zo gaan redeneren.. Dan mogen we automobiel eigenlijk nog steeds niet zo noemen ;)
Verder heb je uiteraard volkomen gelijk. Maar ik vond wel dat @Robby517 een punt heeft, de naam autopiloot schept verwachtingen die Tesla op dit moment nog niet helemaal kan waar maken. Maar goed dat mijn automatische airconditioning ook niet. De gebruiker zou moegen weten dat de marketing vaak net wat optimischer is dan de realiteit.
Precies! Ik dacht ook al aan automobiel als voorbeeld maar wist dat dat misschien nog op meer weerstand zou kunnen verwachten. Ziggo "Complete" en "Max" (sorry, maar waarom is compleet minder dan max?) of een Hoverboard, of FairTrade, of Organic... al deze dingen zijn absoluut niets waard zonder context, en helaas is het aan de consument om dit uit te vogelen.
Wanneer dit geldt voor ontbijtgranen is het tot daar aan toe, maar wanneer jij een 2000kg apparaat met 120kmh de weg opduwt en dus een gevaar kan zijn voor anderen, behoor je je redenering niet te laten berusten op een marketingterm. Daar kom je gewoon niet mee weg.
helaas is het aan de consument om dit uit te vogelen.
Wanneer dit geldt voor ontbijtgranen is het tot daar aan toe, maar wanneer jij een 2000kg apparaat met 120kmh de weg opduwt en dus een gevaar kan zijn voor anderen, behoor je je redenering niet te laten berusten op een marketingterm. Daar kom je gewoon niet mee weg.
Je kan die stelling ook wel doortrekken naar de fabrikant. Als je een wagen op de markt brengt, dien je net iets anders om te gaan met marketingtermen als wanneer je ontbijtgranen op de markt brengt.

Verder wil ik nog eens benadrukken dat ik helemaal niet alle schuld in de schoenen van Tesla wil schuiven, ik wou enkel reageren op de "eigen schuld dikke bult" berichten.
Ik ben het met je eens dat een deel van de verantwoordelijkheid bij de fabrikant ligt, maar dat speelt in deze discussie, naar mijn mening, gewoonweg geen rol. Tesla heeft tenslotte meerdere waarschuwingen geplaatst; niet alleen voordat men de auto start, maar ook tijdens het rijden! Dus het is echt geen kwestie van "Ja, maar we moeten ook kijken naar de rol die de fabrikant speelt", want als je dat doet in dit geval zie je dat de fabrikant zijn rol goed vervulde, en dus de schuld compleet bij de bestuurder lag.
Conclusie: berichten dat de bestuurder verantwoordelijk is.
25 seconden van de 37 minuten je handen aan het stuur? Kom op zeg...
Wij wonen in het nuchtere Nederland, dit incident is gebeurd in de VS.

Daar hebben ze nogal eens de neiging om bewust de grenzen op te zoeken van wat er precies wel en niet in de handleidingen staat. Denk aan katten in de magnetron om ze droog te krijgen, of (in dit geval) filmpjes op YouTube waarin de bestuurder gitaar zit te spelen om te patsen wat die auto-pilot wel en niet kan.

Om vervolgens bij een crash alleen maar te gaan zeuren over "Ja, maar dat het niet mocht stond natuurlijk niet in het instructieboekje!". Dit is dus niets anders dan een gevalletje Darwin Award, elke persoon met gezond verstand en genoeg kennis in zijn hoofd om een rijbewijs te halen weet gewoon dat ie zijn handen aan het stuur moet houden.

Het helpt ook niet mee dat je in de VS een rijbewijs praktisch bij een pakje boter krijgt. In Nederland zijn de eisen voor een rij-examen extreem streng als je het met de Amerikaanse rij-examens vergelijkt.
Je hebt deels gelijk. Maar overal wordt gezegd dat dit enkel voor gebruik is op snelwegen. Niet in de stad en dat je inderdaad ten alle tijden zélf verantwoordelijk bent over het voertuig. In de stad dien je gewoon zélf te rijden. Ze hebben het misschien een verkeerde naam gegeven maar als je de handleiding leest doet het precies dat wat daarin staat. Ik houd ook met cruisecontrol aan altijd mijn voet bij de bedalen niet zozeer erop maar wel erbij.

Nu heb ik een paar weken terug eens in een Tesla kunnen rijden op zowel de snelweg als in de stad. Het is zeker even wennen met remmen etc maar dat went eigenlijk behoorlijk snel. Gas loslaten en je begint te remmen(als dat zo ingesteld staat) De autopilot is inderdaad gewoon en meer geavanceerde cruisecontrol. En ik kan indenken dat het op lange stukken snelweg echt heerlijk is. Dat was het al op een klein stuk. Al die kleine stuurbewegingen die je normaal zelf maakt al dan niet onbewust neemt de auto voor zich. Maar je moet op blijven letten. Dat doe ik ook al als ik naast iemand anders zit trouwens. Misschien doet niet iedereen dat maar ja ik let ook nog graag op.
Dat gehele autopilot houd prima zijn baan en snelheid, remt af als je voorligger dat doet en versnelt ook weer.

Ze steken zich echter niet weg maar het is gewoon 'common sense' dat je blijft opletten. In sommige landen heb je bij een magnetron ook de waarschuwing staan dat je daar geen dieren in mag stoppen. Op plastic zakken staat dat het verstikkingsgevaar kunt geven. Steken die zich dan ook weg of is dat gewoon logisch?
Ik kan best geloven dat dat enorm aangenaam rijdt, heb trouwens ook cruise control, lane assist en adaptive break. :)
Ik ben ook echt voorstander van autonoom rijden en Tesla AutoPilot vind ik een leuke feature. Maar ik hekel de spontane buikgevoel reacties van zovelen "eigen schuld dikke bult".
Dat ben ik met je eens. Misschien was die man effectief buiten bewustzijn. Ik denk niet dat we die onderste steen boven zullen krijgen. het is een tragisch ongeluk dat voortkomt uit verschillende dingen die falen.

Nog een punt van die Tesla wat me iets tegenstaat is hoe breed hij wel niet is! Hij is breder dan de Lancia Voyager waar ik ook geregeld in rij en dat zegt wel iets. Natuurlijk is hij minder lang maar in oud europese steden zou ik daar niet mee willen rijden net als vele franse parkeer garages moet je maar mijden. Daarin ga je problemen krijgen. Daarnaast is het een super mooie auto en ben ik echt wel overtuigd van het hebben van een elektrische auto. Ook als fietser zie ik dat in, niet meer achter een rokende auto staan wachten etc. Helaas moest ik wel weer terug naar België in mijn eigen auto :( Een een range van 450/500 km is goed genoeg als de laad infra er is. Je moet toch ergens pauze nemen en met een minuut of 30 heb je weer een paar honderden KM erbij geladen voor het laatste stuk van je reis. Dan kijk ik hoe ik zelf rij met vakantie etc. Niet meer dan een 500-700 km op een dag en lekker op het gemak, ben immers op vakantie :) Dat zou dus prima gaan.
Je vergeet dan wel een belangrijk detail. Dat is dat de bestuurder visueel meerdere keren gewaarschuwd is om de besturing (handen aan het stuur) over te nemen, hierop heeft de bestuurder volgens het rapport niet op gereageerd.

lostaande van andere mogelijke technische redenen, je kan Tesla niet verwijten dat Tesla de bestuurder niet of niet op tijd gewaarschuwd heeft zijn handen aan het stuur te houden/ controle over te nemen.

Mogelijk kan een vergelijking worden getrokken van een dodelijk ongeluk met een bestuurder zonder riem om, terwijl moderne auto's meerdere malen waarschuwen om je riem om te hebben. Dan wordt de fabrikant ook niet verweten mede verantwoordelijk te zijn voor een dodelijk ongeluk.
Visueel waarschuwing helpt weinig als de bestuurder de krant aan het lezen is...

Een visuele waarschuwing is een slechte waarschuwing. Waarom denk je dat autos een biep geven als je je gordel niet om doet? Omdat die zo irritant is dat je 'm na een minuut wel om doet.
Een visuele waarschuwing helpt niet. Dat weet Tesla ook donders goed.
Ik denk dat het niet anders kan dan met min of meer grootschalige praktijkproeven. De chaos en onvoorspelbaarheid van de echte wereld zijn niet zomaar in het lab te simuleren.
Ik versta zeker de nood aan realistische data. Ben ook developer en testen met productiedata zou handig zijn :) .

Enkel bij het in handen geven aan consumenten van een beta feature heb ik serieuze bedenkingen. De manier waarop Google er wat conservatiever mee omgaat lijkt mij verstandiger.
Volgens het artikel heeft het systeem heeft de gebruikers meermaals gemaand om met de hand controle te nemen en de bestuurder heeft dat expliciet nagelaten.

Verder is 7 seconden een eeuwigheid om in te grijpen als je als bestuurder een mogelijk probleem situatie signaleert. Waarom deed de bestuurder dat niet.
Zat hij misschien iets heel anders te doen
Of was hij door het aandachtig op de weg turen terwijl de auto automatisch het werk deed in een soort trance geraakt, waardoor hij niet meer door had wat hij zag.
Een mens moet prikkels krijgen om ergens zijn aandacht op gevestigd te kunnen houden. Zonder die prikkels gaat de aandacht weg.
Ahja, dus als de piloot van een vliegtuig de autopilot laat vliegen, en hij ziet ineens een kruisend vliegtuig dan hoeft hij niet in te grijpen maar mag de botsing gewoon door laten gaan? Want bij een automatische piloot mag je verwachten dat je zelf niets hoeft te doen?

Of in de auto: je hoeft je automatische versnellingsbak nooit in neutraal, park of achteruit te zetten, want hij is toch automatisch?
Waarschuwingen van je boordcomputer negeren = dom. Ongeacht wat.

Een automatische piloot in vliegtuigen bestaat al járen, toch landen ze praktisch nóóit op de autopiloot, juist om dit soort zaken te voorkomen.
Waarschuwingen van je boordcomputer negeren = dom. Ongeacht wat.

Een automatische piloot in vliegtuigen bestaat al járen, toch landen ze praktisch nóóit op de autopiloot, juist om dit soort zaken te voorkomen.
Ze doen dat om verschillende redenen:

1) om te blijven oefenen op de manuele landing
2) omdat de meest accurate autoland systemen niet gebruikt worden

Interessant stukje:

https://en.wikipedia.org/wiki/Autoland#Civil_aviation
Een mens moet prikkels krijgen om ergens zijn aandacht op gevestigd te kunnen houden. Zonder die prikkels gaat de aandacht weg.
In de luchtvaart zijn de meeste waarschuwingen ook voorzien van geluidsignalen. Er zijn genoeg voorbeelden waarin (bijna) ongelukken zijn gebeurd omdat twee piloten in de cockpit een half uur of langer een melding of waarschuwingslampje over het hoofd zagen. Dat kwam niet doordat die piloten niet op zaten te letten, maar omdat een mens maar beperkt zijn aandacht ergens bij kan houden wanneer hij niet geprikkeld wordt. De eerste vijf minuten ben je gefocust en let je goed op, de uren daarna ben je in een trance en denk je dat je oplet, maar kan er van alles gebeuren zonder dat je het opmerkt.
Yep. Ook de reden dat militaire vliegers vrouwelijke stemmen op de computers hebben. Niet alleen duidelijker qua articulatie, maar ook omdat het simpelweg meer ópvalt.

Feministen komt u er maar in.

[Reactie gewijzigd door DigitalExcorcist op 20 juni 2017 15:42]

Feministen zullen hier geen problemen mee hebben, maar eerder vereerd worden.

Het gaat niet om zwoele vrouwen stemmen die bedoeld zijn om macho piloten scherp te krijgen
Hogere toonhoogtes vallen beter op dan lagere toonhoogtes en vrouwenstemmen zijn hoger dan mannenstemmen.
Als je al 36 man continu pratend in je headset hebt en dan ook nog een mannenstem hebt die waarschuwingen sputtert vanuit de computer(s) van je vliegtuig snap ik heel goed dat het niet meer opvalt ;)

Was ook geen kritiek of zo hoor. Een vrouwenstem valt dan direct meer op, en articulatie is over het algemeen genomen ook beter.
Typisch is dan wel da tmen juist de autolanding gebruikt in lastige situaties.
When I do use it (and in my experience this is true of my colleagues as well), it's because I'm required to due to low visibility, and in those situtations I'm very happy I have it. Visibility is essentially the only factor (i.e. not snow, rain, wind, etc) that drives the decision to autoland. In fact, other than visibility, there are more restrictions with respect to an autoland than there are for a manual landing. For example, the runway must not be contaminated by snow or standing water, and the maximum crosswind allowed is significantly lower.
Piloot A320

[Reactie gewijzigd door SED op 20 juni 2017 11:17]

Daar dacht ik ook al aan. Was de bestuurder nog wel in leven kort voor de crash? Of heeft hij het misschien zo gewild. Ik vind het wel vreemd dat de autopilot de auto niet gewoon stil zet als de bestuurder de handen niet aan het stuur wil houden.

(reactie NxCpu.) Ik drukte op verkeerde knop. 8)7

[Reactie gewijzigd door Jiskefet296 op 20 juni 2017 10:32]

Doet de Autopilot ook.

https://www.youtube.com/watch?v=R_jcl0Lk-1w

In een latere versie gaat zelfs de gehele rand van de interface steeds sneller knipperen tezamen met een piezo geluid die mee dingt op het ritme.

(En als je dit negeert wordt ie netjes met knipperlichten stil gezet. Echter als jij dan de handen aan het stuur doet; wordt dit gereset want de auto weet dan dat je gewoon wakker / bij bewustzijn bent waardoor de waarschuwing weer gedempt wordt.

[Reactie gewijzigd door xoniq op 20 juni 2017 10:35]

En als je drie keer achter elkaar te laat reageert kun je autopilot zelfs niet meer aan zetten. Die wordt pas gereset als je ergens stil gaat staan.
En goed ook. Dat houdt in dat je begint in te kakken en het niet meer verantwoord is. Iedereen heeft wel eens dat ie bijna thuis is, en toch merkt dat ie begint te knikkebollen. Ik heb dan een verantwoordelijkheidsgevoel en zet 'm stil bij de eerstvolgende pomp. Dan even de auto uit, rondje lopen, sigaretje opsteken, en dan laatste kilometers afronden. Echter, dat gebeurt vaker niet dan wel, waardoor dit soort systemen nodig zijn. Je zou maar zo'n slaap-mongool voor je kiezen krijgen die op de verkeerde helft komt.
Sommige Volvo's hebben toch ook een detectie/cameraatje die in de gaten houdt of jij je ogen wel op de weg houdt?

Laat maar, was ooit een PoC maar bleek niet betrouwbaar genoeg..
( https://www.media.volvoca...media/pressreleases/12130

[Reactie gewijzigd door DigitalExcorcist op 20 juni 2017 11:08]

Volgens mij is een camera nog niet toegepast, alleen in demo's. De meeste auto's baseren dit op basis van de tijd die je al rijd, daglicht en de mate en snelheid van correcties aan het stuur.
Ja daar dacht ik ook aan. Wellicht is de bestuurder in slaap gevallen tijdens het rijden. Dat gebeurt ook met standaard auto's.
Als dat zo is was die in een standaard auto al een stuk eerder dood geweest!
Beter nog, tegenwoordig zet de Tesla je op verantwoorde manier aan de kant (mits autopilot het verkeer goed inschat) en overleef je het dus omdat de auto je veilig wegzet tot je weer in staat bent de boel over te nemen.
Ja dat klopt! Erg mooi wat tesla's tegenwoordig kunnen. En met de model 3 ook nog eens voor een mooie prijs.
En tegen een laaghangende zon in rijden als je erg vermoeid bent helpt daar zeker niet bij.
Daar dacht ik ook aan. We weten mischien allemaal wel hoe lastig het kan zijn na een drukke werkweek wakker te blijven als je ver moet rijden. Als je dan blind gaat vertrouwen op je auto maakt dat het natuurlijk een stuk onveiliger.
Als in me niet vergis was deze persoon bekend om YouTube filmpjes waarin hij allerlei taken uitvoerde terwijl de Autopilot geactiveerd was. Zoals gitaar spelen en dergelijke...
Dat is dus nu ook aangepast bij de nieuwere versie, hou jij niet netjes je handen op het stuur na herhaaldelijke waarschuwingen, dan neemt de auto maatregelen.
Dit klinkt als een bestuurder fout die gewoon onverantwoordelijk was (naar zich zelf maar ook andere weggebruikers) door de waarschuwingen te negeren. Helaas heeft hij zijn onbenulligheid met de dood moeten bekopen.

Hopelijk leert Tesla hiervan om hun systeem no veiliger te maken, en andere mensen dat ze waarschuwing niet moeten negeren.

[Reactie gewijzigd door japie06 op 20 juni 2017 10:26]

Maar misschien had de bestuurder wel een medische aandoening die zich nog nooit heeft geopenbaard. Epelepsie of een toeval? Helaas zullen we dat nooit te weten komen denk ik.
Ga daar maar niet van uit, deze bestuurder had namelijk ook al vaker al op youtube video's gepost van zijn 'stunts' met de autopilot..
Of hij was gewoon onverantwoord bezig. Dus dat weten we al.

Waarom moet je er een niet te verifiëren mogelijke oorzaak bij gaan verzinnen?
Dat is dus het punt dat weten we niet 100 % zeker. Als je buiten bewust bent. Reageer je ook niet meer opwaarschuwingen. Of je handen aan het stuur.
Nee, dat is dus niet het punt.
Waarom wil je ervan uitgaan dat de bestuurder buiten bewustzijn was terwijl er niets is wat daarop wijst?

Misschien waren het wel aliens. Dat is net zo'n onzinnige stelling.
De waarschuwingen waren zo:

https://www.youtube.com/watch?v=R_jcl0Lk-1w

Ze zijn in latere versies veel prominenter met een luid geluid om je wakker te houden. Negeer je het nog steeds, gaat het systeem er vanuit dat je in slaap valt of wellicht een andere reden hebt om niet bij bewustzijn te zijn. En gaat ie zelf een op een veilige manier met knipperlichten aan de auto tot stilstand brengen.
Leuk midden op de snelweg stilstaan.
Als het goed is (ik heb zelf geen ervaring ermee) gaat ie in recente versies naar de kant. In latere versies zal het wel mogelijk zijn dat ie doorrijd en een pompstation of vluchthaven opzoekt. Het is in ieder geval een stuk beter als een automobilist die als een ongecontroleerd projectiel door het verkeer baant terwijl ie slaapt.
Gezien alle mogelijkheden met autonoom besturen en remmen en rijden (zoek maar eens de uitwijkmanouvres van de automatische systemen op op youtube) neem ik aan dat ze ook wel in kunnen programeren dat dan de vluchtstrook opgereden moet worden.
Liever midden op de snelweg stilstaan, dan met honderdtwintig eraf vliegen.
"met een luid geluid om je wakker te houden"

Zien mensen nu echt niet wat hier verkeerd gaat?.... Hebben we het nu echt over wakker houden/maken IN HET VERKEER?!
Ja dat zien we we. Maar het gebeurt toch. Die ene slaaprijder die op de verkeerde baan komt en een gezin dood rijdt. De vrachtwagenchauffeur die op een file inrijdt door half te slapen. Het gebeurt, en nu wordt er op geanticipeerd. Goede zaak.

Ja de morele kwestie is dat het het überhaupt niet zou mogen, maar wie controleert er of jij te vermoeid achter het stuur kruipt? Mensen die oververmoeid zijn zijn vaak hyperactief en overmoedig. Dat is het gebrek aan reëel denken, en ineens kan men dan wegvallen.
Jij snapt toch ook wel dat dit alleen maar minder oplettendheid in de hand werkt?
Deels, maar er wordt wel vereist dat je je handen aan het stuur houdt anders kapt de hele auto ermee. Bij slaaprijders is het zonder zulke features een ongeleid projectiel wat op terreur uit is. Dus de slaaprijders worden hier wel mee wakker geschud, wat anders niet zou zijn gebeurt. En ja, het werkt minder oplettendheid in de hand, maar aan de andere kant maakt het je ook minder vermoeid. Hoe normaal autorijden is, het continu concentreren en anticiperen is best een aanslag op je alertheid na een dag klanten op en neer.
Nou nee, want zo'n geluid zal dermate hinderlijk zijn dat je minder snel van zins zult zijn te gaan rijden als je in slaap denkt te vallen.

Of anders gesteld: zouden er na het invoeren van de dodemansknop op treinen, meer of minder machinisten slordig rijden?

[Reactie gewijzigd door mae-t.net op 20 juni 2017 12:57]

Tja dat krijg je als het leven je te makkelijk wordt gemaakt en het 99.9% van de keren toch wel goed gaat.

Gelukkig zijn Tesla crashes per jaar op 1 hand te tellen (voor zover ik het nieuws heb gevolgd), dit is dan ook een heel klein deel vergeleken met alle andere dodelijke ongelukken.

Wat mij betreft zo snel mogelijk volledig autonome auto's (die dit soort problemen niet meer hebben), en niet meer deze halve oplossingen.
Wat mij betreft zo snel mogelijk volledig autonome auto's (die dit soort problemen niet meer hebben), en niet meer deze halve oplossingen.
Natúúrlijk !!!

Maar het probleem is dat de techniek nog niet zo ver is. Hoe zuur ook, maar dit zijn de situaties waarvan geleerd moet worden. Ervaringen die nu in de praktijk opgedaan worden zullen in de toekomst nog vele ongelukken voorkomen.

Een 'early adopter' zijn is leuk en stoer, maar je bent ook wel de gene die de kinderziektes nog tegen komt. In dit geval helaas met dodelijke afloop.

Hopelijk vinden de nabestaanden nog enige rust in het feit dat de ervaringen met hun geliefde wellicht nog vele levens zal redden.
Een 'early adopter' zijn is leuk en stoer, maar je bent ook wel de gene die de kinderziektes nog tegen komt. In dit geval helaas met dodelijke afloop.
Een Tesla is niet een evolutie op elk vlak. Neem deze crash test, waarbij een Tesla Model S uit 2016 een 'acceptable' rating krijgt. Vergelijk dat met deze, waarbij een Saab 9-3 uit 2003 aan dezelfde test wordt onderworpen en een 'good' rating krijgt. Over de gehele linie is een 13 jaar oudere auto veiliger dan een Tesla Model S.

Je moet er inderdaad rekening mee houden dat iets wat nieuw is zich nog niet heeft bewezen, en daardoor de potentie heeft om slechter te zijn dan een vorig product. Een voorbeeld zijn alle technieken die gebruikers verleiden om zich niet te concentreren op de weg. Neem dit artikel: voor een periode van 37 minuten had de gebruiker slechts 25 seconden zijn handen aan het stuur. Dat is nalatigheid van de bestuurder. Met een conventionele auto had een gebruiker dit nooit 37 minuten volgehouden. Wellicht is het een idee dat als men op automatische piloot rijdt en geacht wordt de handen aan het stuur te houden en dit niet doet, om de auto automatisch te laten stoppen op een veilige plaats.

[edit]
Even wat corrigeren: volgens de IIHS site zitten de Tesla en de Saab niet ver uit elkaar (veel 'good', een enkele 'acceptable'). Het was niet slim om een enkele test eruit te pikken ter vergelijking.

Wel blijft mijn punt staan: in een rijdende Saab 9-3 (of elke andere 'domme' auto) houdt een bestuurder het gegarandeerd niet 37 minuten vol met slechts 25 seconden met de handen aan het stuur. Daar worden bestuurders ook niet op getraind, noch worden zij geprikkeld om dat te doen. Kennelijk is dat bij Tesla's anders.

[Reactie gewijzigd door The Zep Man op 20 juni 2017 13:19]

De Saab test is uit 2010 en de Tesla test uit 2016. Ratings worden met grote regelmaat aangepast. Dat maakt eindconclusies lastig vergelijkbaar. Een 5 sterren auto van twee jaar geleden zonder actieve safety zal maximaal 4 sterren halen nu. Dezelfde auto met eenzelfde resultaat vwb de schade maar met verschillende ratings.
@Aardmens
Hebben jullie de video's wel gezien?
Beide auto's ramde een blok op de linker voorzijde met 40mph.
Het je zelf de videos wel gezien?
De Tesla video is een:
"2016 Tesla Model S small overlap IIHS crash test" evaluation Acceptable.

De Saab video is een moderate overlap met evaluation Good

Eén seconde nadenken en je zoekt even op YouTube op Tesla moderate overlap IIHS en dan krijg je:
"2016 Tesla Model S moderate overlap IIHS crash test " evaluation Good

Het gevaar van appels met peren vergelijken...
Je snapt duidelijk niet hoe dat soort testen werken.
Goed bezig Amped. |:(
Als je de video's naast elkaar afspeelt in twee browsers is het verschil alles behalve groot te noemen..
Dat komt doordat de natuurwetten in 13 jaar weinig veranderd zijn.

Of je nou een 13 jaar oude auto tegen een muur ramt, of een 1 jaar super moderne auto die tjokvol electronica zit maakt bar weinig uit. Uiteindelijk is het niet meer dan een blok massa wat je afremt met behulp van een beperkte kreukelzone.
Totaal niet boeiend of dat oude of moderne massa is.

Grootste probleem voor die Tesla is dat de massa veel hoger is en de kreukelzone net zo groot. M.a.w. veel moeilijker af te remmen zonder letsel voor de inzittenden.
Dus dan is het juist belangrijk dat Tesla met nieuwe manieren komt om zijn kooi constructie sterker te maken. Of dat voldoende gedaan is blijkt uit deze tests. Wel vind ik het opvallend dat het visueel weinig verschilt. Dat is een duidelijke plus puntje voor Saab hoe je het ook went of keert.
Het heeft geen zak te maken met de kooi constructie. Het is heel simpel om een stevige kooi te maken. Het probleem is echter dat alle energie dan naar de inzittenden gaat, zodat die alsnog door de klap dood gaan terwijl de kooi intact is. (Dat is het grote probleem bij kleine autootjes zoals een Smart die weinig ruimte hebben voor een kreukelzone)
De cruciale factor bij deze tests, is zorgen dat je zoveel mogelijk energie absorbeert, door dingen te kreukelen.
Dit soort tests zal altijd visueel weinig verschillen. Het gedeelte van de inzittenden moet zoveel mogelijk intact blijven en het gedeelte daarbuiten moet zoveel mogelijk kreukelen. Dat is precies wat je in beide tests ziet gebeuren.
Je vergelijkt een test uit 2016 met die van 2003...Heb je de toelichting gelezen over de oorzaak en hoe dit wordt aangepast?
Ik neem toch aan dat de "zelfbewuste" Tesla het blok tijdens de crash wil ontwijken?
Misschien daarom Small Overlap, omdat de Tesla probeerde weg te sturen }>
Inderdaad

We zitten in de periode van trail & error. Bedrijven als Tesla zijn pioniers op dit gebied.
Over een jaar of 20 is mogelijk te concluderen dat als een bedrijf als Tesla niet haar 'drammerighedi' had ingezet om (semi) autonoom rijden er door te drukken dit vele levens extra had gekost.
Imo is het er niet doorheen gedrukt of gedramd. Het is een beta feature die gebruikt mag worden maar waar je wel zelf verantwoordelijk bent.
Het wordt niet aanbevolen om het te gebruiken door Tesla zelf.
Tesla krijgt veel commentaar, maar geeft niet toe aan de druk. Ze laten de (beta) functie in de auto, ook al is er veel controversie over.

"Be the change you want in this world" wordt door Elon Musk erg goed uitgevoerd.
Dat is een beetje dubbel. Aan de ene kant van Tesla staan ze de auto-pilot te promoten en te pushen dat je het gebruikt. Immers, dan de data kunnen ze leren.
Aan de andere kant staan de Tesla juridische adviseurs met een EULA dat het een proef feature is en dat je het beter niet kan doen vanwege de risico's.
Daarom staat het ook tussen '...' Vind het zelf ook niet. Volgens mij had concurrent Mercedes of BMW nog recent aangegeven dat het veel te vroeg is om dit soort functionaliteit in auto's in te bouwen.


Dat het niet wordt aanbevolen heeft natuurlijk ook een juridische reden.
Inderdaad

We zitten in de periode van trail & error. Bedrijven als Tesla zijn pioniers op dit gebied.
Over een jaar of 20 is mogelijk te concluderen dat als een bedrijf als Tesla niet haar 'drammerighedi' had ingezet om (semi) autonoom rijden er door te drukken dit vele levens extra had gekost.
Er zitten nog altijd enkele grootte-ordes verschil tussen het jaarlijks aantal doden als gevolg van dronken bestuurders, en het aantal doden als gevolg van een falende Autopilot.

Daarom durf ik te stellen dat elke Autopilot die we de weg op helpen ervoor zorgt dat levens worden gered, niet dat het levens kost. Laat die zatlappen maar verplicht op de autopilot rijden als ze het alcoholslot niet open krijgen.
I.d.d. Ik denk ook niet dat het nog tientallen jaren gaat duren dat zelf rijden concequenties gaat hebben voor je (premie) verzekering.

Autonoom rijden opent overigens naast het veiligheidsaspect een hele nieuwe manier van prive vervoer en logischerwijs een veel grotere markt. Als de ontwikkeling verder is, heb je in principe geen rijbewijs meer nodig, en zal het ook van grote invloed zijn op autobezit, want dat is eigenlijk niet meer nodig (die kan op bestelling autonoom komen voorrijden.)
De vele extra veiligheidsmaatregelen in de auto's maakt dat mensen steeds onbewuster worden van de gevaren op de weg. Er wordt steeds meer vanuit gegaan dat "de techniek" hen wel helpt in een (nood)situatie. Door meer betrokkenheid en verantwoording kunnen die (nood)situaties veelal voorkomen worden. Helaas lijkt anticiperen een woord dat langzaam uit verantwoordelijkheid in het verkeer verdwijnt.

Als je ziet hoe vaak mensen al in paniek raken bij een veranderde verkeerssituatie en hun TomTom compleet andere informatie geeft. En dat terwijl er enorme borden staan met toelichtingen en bewegwijzering. Blind de techniek vertrouwen en niet meer zelf nadenken...

Autonome auto's is nog een lange weg om te gaan, zeker binnen de bebouwde kom. En ook hiervoor geldt dat de menselijke factor het nog lang zal blijven winnen van techniek. Een praktijkvoorbeeld: Stromende regen en voetgangers willen oversteken bij een oversteekplaats zonder zebrapad. Mijn zegen hebben ze om eerst te gaan, ik zit warm en droog. Niet conform de regels maar fatsoen en gedrag prevaleren nog altijd boven de regels.
True, maar met veiligheidsfeatures als ABS ben ik toch heel blij.
Je eerste schrikreactie is toch echt het rempedaal vol in trappen.
De laatste keer dat ik het nodig had zag ik een ongeluk +/- 800M voor me gebeuren op de snelweg.
Direct vol in de ankers en de versnelling in neutraal. Na een paar seconden greep de ABS in......
Wat mij betreft zo snel mogelijk volledig autonome auto's (die dit soort problemen niet meer hebben), en niet meer deze halve oplossingen.
Ach, mensen zijn in dat kader ook "halve oplossingen" en dat gebruiken we al decennia.

Overigens kunnen we ook pragmatisch zijn en gewoon iets aanpassen aan de trucks en de auto's. Ik denk bijv. aan een gekleurde / reflecterende strip erop plakken. Gewoon met tape dus...
Precies. Ik geloof dat als we overstappen op autonome auto's er zoveel minder ongelukken zullen gebeuren dan nu met menselijke bestuurders.

Ik denk ook dat het beter is als niet alleen de auto's verder verbeterd worden, maar ook het wegennet ( dmv van elektronische signalen ) en inderdaad ook mede-weggebruikers door strips te verplichten op vrachtwagens. ( Dit zijn maar voorbeelden ).
Ik ben er van overtuigd dat wanneer we nu overstappen op autonoom rijden (zelfs met de stand van de techniek zoals die nu is) dat enorm veel ongelukken gat schelen. Veel menselijke bestuurders gedragen zich echt als idioten.

Het lullige zal alleen zijn dat de paar ongelukken die dan nog zullen gebeuren in situaties zullen zijn waarin een menselijke bestuurder deze makkelijk hadden kunnen voorkomen. Puur omdat wij de zaken anders waarnemen, anders inschatten en anders reageren.
Mee eens, het zal me niks verbazen als er slachtoffers gaan vallen in naam van het autonome rijden. Alleen denk ik dat vandaag de dag de weg opgaan veel gevaarlijker is dan in de toekomst.

Hoe mooi zou het zijn als die honderden verkeersdoden per jaar (alleen al in Nederland. Bron: https://www.cbs.nl/nl-nl/...n-stijgt-naar-621-in-2015) kunnen verminderen naar nog geen 10 (als het meezit) ?

[Reactie gewijzigd door Oerdond3r op 20 juni 2017 16:41]

Deze amerikaanse verzekeraar denkt toch anders over dat beperkte aantal crashed
Interessant. Ik had altijd het idee dat dankzij alle veiligheidsmaatregelen Tesla's veel minder crashten, en als dat wel gebeurde, het ook meteen wereldnieuws was ( waarschijnlijk alleen de ongelukken met een dodelijke afloop in dat geval ).

Misschien dat Tesla rijders juist veel te overmoedig worden, wie weet.
Je zal maar zo'n zwaar ding van 2000kg in de achterkant van je auto krijgen door iemand die alle signalen negeert. Overigens vraag ik mij de veiligheid af van de accu. Die van Richard Hammond vloog spontaan in brand, weliswaar een ander merk, maar toch.
weliswaar een ander merk
Redelijk belangrijk detail wat je daar eventjes wegschrijft. Het valt te discussiëren of het veilig is om met 80 liter brandbare vloeistof rond te rijden, maar omdat accu's zo "nieuw" zijn gaat iedereen zich daar zorgen om maken.
Het is wel zo dat de brandbare vloeistof lang niet zo makkelijk ontvlambaar is als mensen denken, ook zijn er heel veel regelementen voor de plaatsing en bescherming van de brandstoftank. In het geval van accus kan een kleine aanrijding op een ongelukkige plek al zorgen voor een kortsluiting en dit kan eenvoudig over gaan in een brand. Ja het is beide gevaarlijk, maar electrische auto's kunnen nog een stuk veiliger worden gemaakt.
Bijna elke auto heeft een accu aan boord waarbij kortsluiting voor een brand kan zorgen. Dit is niet voorbehouden aan elektrische auto's.
Tuurlijk, de accu’s in een elektrische auto zijn groter, maar ik verwacht niet dat de stroom vele malen hoger zal liggen bij een kortsluiting; het accu management bij het type accu’s in elektrische voertuigen is veel uitgebreider en beter dan bij voertuigen met “simpele” loodaccu’s.
500 tot 1.000 Volt lijkt me niet niks, kun je maar beter niet mee in aanraking komen zoals de brandweer in dit artikel ook uitlegt :
http://www.hln.be/hln/nl/...let-is-hij-verkoold.dhtml
Hier nog eentje :
https://tweedehands.auto/elektrische-auto-levensgevaarlijk/

[Reactie gewijzigd door TaranQQ op 20 juni 2017 12:54]

Interessante artikelen. Misschien zeg ik nu wat geks, maar als de brandweer nou een hele stevige kabel aanlegt tussen de geleiderail en de auto, dan is er toch geen kans meer op electrocutie? En als er geen geleiderail is, dan lijkt me een verkeersbord een mooie optie. Tuurlijk is het niet zo top als een echte aardepen, maar de stroom zal dan niet meer via het lichaam willen vloeien, maar via de kabel.
niet zo top als een echte aardepen
Dat is dus juist het probleem. Je hebt namelijk geen aardlekschakelaar, en dan mag er dus maar ~1 Ohm of minder van begin tot eindpunt zijn om veilig te kunnen werken.
De accu's in elektrische voertuigen kunnen een metaalbrand veroorzaken. Je loodaccu kan dat niet.
Bij electrische auto hebben die accu een veel hogere spanning.
Gelijk spanning is gevaarlijk van af 120V verbranden
Wissel van af 50V hart

Normale accu zijn start accu die kunnen kortstandig een hele hoge stroom leveren. En zijn daar specifiek voor geconstrueerd. Moderne accu voor startstop of hoge accesiorres gehalte moeten naast de extreme start last ook zwaardere duur last aankunnen. En daarbij ook op zwaardere en snellere manier ook weer geladen AGM accu's gewone accu gaan dan kapot in zo een laad systeem.

Electrische auto zal hoge stromen bij lage spanning bij duurlasten grote verliezen geven.
P= RxI^2 stroom is dus kwadratische invloed op verliezen in bedrading. Dus hoge spanning is efficienter kwa verliezen. En die hogere spanning maakt het gevaarlijker.

Werken aan electrische auto vereist VDE gereedschappen en uiteraard ook cursussen.

Een starter heeft vermogen van .8 tot meer dan 2KW voor Automotive.
Electrische auto met 25KW 50KW of meer motoren zal je bij 12V extreme stromen krijgen dat het gewoon niet meer praktisch is
Hoge spanningen zijn gevaarlijker, maar niet echt als het op het veroorzaken van brand aankomt. Dan moet je naar de totale hoeveelheid energie kijken (als het eenmaal mis is gegaan) en naar de stroom die er loopt (meer stroom geeft meer opwarming in slechte verbindingen of bij kortsluitingen). De stroom is bij hoge spanningen relatief lager. Maakt weinig uit omdat relatief laag, nog steeds even hoog is of hoger vergeleken met de stroom die een 12V loodaccu levert.
De huidige accuontwerpen zijn niet die simpele dingen zoals mensen denken. Er zitten zinsveel systemen in om catastrofaal falen te voorkomen of mitigeren, net als dat er veel wapening rond de accus zit om deze te beschermen. Je moet kortsluiting, een puncture en een behoorlijke externe container breach hebben over meerdere cellen om dit een probleem te maken (lees: ongecontroleerde brand). Ja, ze kunnen volledig falen, maar de manier waarop ze geplaatst worden en waarop ze falen zijn ze niet minder veilig dan een gemiddeld brandstofsysteem: Er zit namelijk ook nog 5-10 liter olie bij een apparaat dat 250+ graden is van binnen wat veel eerder vlam vat dan de brandstoftank/benzine/diesel. Laat staan de magnasium/alluminium onderdelen die dezelfde blusproblemen hebben als lithium accus (lees erger, exploderen bij contact met water).

Deze 1-op-1 'is gevaarlijker' vergelijking is nogal dubieus en berrust vooral op gevoel (wat niet genegeerd mag worden voor verkoop en publieke oppinie) maar niet op veel feiten.

Conclusie: onbeschermde cellen zijn makkelijk in de fik te zetten, maar dat is brandstof ook. De maatregelen om dat te mitigeren zijn niet slechter dan bij een brandstofauto.
Daartegen zijn ook al diverse beveiligingen aangebracht. Nadeel is dat die alleen door de garage gereset kan worden. Kortsluiting kun je niet zien totdat je er weer spanning op zet. En meten is ook niet altijd goed te doen. Bij brandstof is een lek eenvoudiger op te sporen zonder al te grote risico's. Brandstof zie je als vloeistof en ruik je best aardig als het verdampt.

Er zijn enorme ontwikkelingen gaande, mede dankzij de autosport. Vooral ontwikkelingen in de Formule-E en langzaam aan ook de touring car klasse zorgen voor een enorme stroomversnelling wat betreft ontwikkelingen voor gebruik en veiligheid. Regelgeving in de racerij is nu eenmaal vele malen strenger dan voor gebruik op straat.
Dan houd je helaas nog altijd de discussie van hoe blusbaar het is maar inderdaad.. het is nieuw dus mensen moeten er nog aan wennen.
Er wordt ook hard gewerkt aan veilige accu's, ook al houd je ook daarmee nog altijd het risico dat de auto onder stroom komt te staan bij een crash maar ook daar zijn oplossingen voor.
Kijk hier maar eens naar:
https://www.youtube.com/watch?v=CFM42sY_YWE

Laat zien wat voor maatregelen er gebruikt kunnen worden.


Deze bestuurder had blijkbaar wel flink vertrouwen in de Autopilot als hij slechts 25 seconden van de 37 minuten zijn handen aan het stuur hield.
Precies, deze vergelijking kan je ook maken over de Ferrari 458 die steeds spontaan in de fik vloog. Die hoeveelheid liters brandstof kunnen dan ook niet veilig zijn in een Nissan micra, weliswaar een ander merk, maar toch
De benzine of diesel is vrij eenvoudig te blussen en af te dekken met een schuim, de accu van een elektrische auto is niet zo eenvoudig te blussen en vereist grote hoeveelheden water. De accu kan later uit zichzelf weer ontbranden wanneer de temperatuur intern te ver oploopt, dit kan in minuten zijn, maar ook nog uren duren.
Voordeel is wel dat de verspreiding van brand wel beperkt is bij een accu, er zijn namelijk geen uitstromende vloeistoffen zoals bij een lekkende brandstoftank.
Een lekke tank betekend nog geen brand of explosie....dit is zeldzaam.

Een perforatie van een Li po accu is bijna altijd gevaarlijk ( zeker door geleidende materialen ). IVM accu ontlading. En de zeer grote hitte die daar bij vrijkomt. Thermal run away etc.
Een lekkende tank is ook bijna altijd gevaarlijk. Naast de kans op brand (zeker op parkeerplaatsen waar mensen roken) zal de lekkende vloeistof de weg gladder maken en de kans op ongelukken vergroten.
We weten ondertussen dat er ook in Nederland veel ongelukken gebeuren. Heb geen cijfers maar de aantal keren dat een auto in de brand vliegt zijn er niet echt veel.
Benzine taks zijn bovendien meestal vervormbaar.

De brandweer van tegenwoordig heeft echter wel probleem met blussen van elektrische auto's. Daarnaast ook groot probleem alle airbags. Zit iemand bekneld moet het dak er af maar is de bag in de deurstijl niet afgegaan = probleem.

Zo heeft moderne techniek voordelen maar vraag het ook om uitdagingen bij ongevallen. De kennis van brandweer moet steeds specialistischer zijn.
Los van de dramas met de Ford PInto die heel wat slachtoffers heeft gekost door spontaan in brand vliegende tanks.
Pinto's vlogen niet spontaan in brand, de tank was slecht geplaatst waardoor ze na een aanrijding makkelijker/sneller in brand vlogen.
Toch vinden er vrijwel dagleijsk autobranden plaats in nederland die door een brandstoftank meteen een groot probleem vormen. de lokale brandweer kan je daar meer over vertellen.
.. uit het artikel dat je linkt: De auto’s werden bijna allemaal in de brand gestoken, aldus Buis. „De verzekeraars zijn hier verontrust over.”
De oorzaak doet er niet zozeer toe, een brandstoftank is nou eenmaal net als een accu gevaarlijk als de auto eenmaal in brand raakt. Diesel en LPG zijn wat dat betreft sowieso veiliger dan benzine.
Een pyromaan kiest, conform artikel de weg van de minste weerstand, of in dit geval van de brandbaarste auto.
Je denkt werkelijk dat een pyromaan eerst gaat kijken wat voor een type motor er in een auto ligt voor hij hem in de fik steekt? Misschien, maar waarschijnlijk gaat het niet eens om een pyromaan, maar om ordinair vandalisme.
Ook die Pinto, blijft staan dat dankzij die tank er doden vielen.
Dat ontken ik ook niet, maar jij stelt dat ze spontaan in brand vliegen, en dat is gewoon onzin.
Geen idee wie hier -1 voor geeft trouwens. Iemand op zijn tenen gestaan?
Wellicht omdat je gewoon foute informatie verspreid, fake news :P

(ik mis een Trump smiley...)
Richard Hammond had ook een gloednieuwe Porsche gekocht waar hij niet in mocht rijden vanwege brandgevaar ;)

Hoe je het ook went of keert, elke auto heeft een gigantische hoeveelheid energie bij zich (in wat voor vorm dan ook). Die energie moet redelijk makkelijk beschikbaar kunnen komen. Dat zal altijd risico's met zich meebrengen; ik krijg niet de indruk dat de risico's bij electrische auto's significant groter zijn dan bij benzine-auto's.
Niet zo spontaan als de eerste berichten deden vermoeden. De accu van de Rimac Concept One is door de 'hill climb' enorm warm geworden. Door de crash is er olie gelekt uit de kleine motors die aandrijving verzorgen bij de wielen. De Rimac heeft 4 van deze units namelijk bij elk wiel een. De combinatie van een hete accu + bedrading en lekkende olie zijn de oorzaak van de brand.

De kans op brand bij een reguliere elektrische auto is dan vanwege de mindere belasting ook aanzienlijk kleiner. Neemt niet weg dat elke brand of ongeluk er een teveel is!
Liever een Tesla dan welke andere auto van 2000kg dan ook, omdat er geen motorblok in ligt heb je een geweldig lange kreukelzone.
Verschrikkelijk, hoe élke auto zomaar achterin jouw auto kan rijden. Soms wel vrachtwagens van meerdere tonnen.

De Tesla is evenzeer zo veilig als elke andere auto, en bouwt daarop verder. Alle onveiligheid wordt ingebracht door onwillige of onkundige bestuurders.
Dat zal dan dus wel meevallen, want jouw normale auto zal de tesla dus wel fatsoenlijk detecteren, hier ging het om dat er dus onder de truck geen railing zat (zoals in de EU dus wel verplicht is) en de tesla niets had om te detecteren.
Daarbij zijn de tesla accus voorzien van matriaal waardoor deze redelijk lastig branden.
De NTSB stelt dat de bestuurder gedurende een periode van 37 minuten zijn handen aan het stuur had moeten houden, maar hij deed dit slechts voor de duur van 25 seconden.
wordt de Autopilot niet uitgeschakeld na een paar minuten als je alle waarschuwingen negeert ??
Lijkt me niet, dat kan ook donders gevaarlijk zijn.
Volgens mij wordt de snelheid van de auto langzaam verminderd en uiteindelijk samen met de waarschuwingslichten tot stilstand gebracht.

Vanaf ongeveer 1:00
https://www.youtube.com/watch?v=fEZd2V1z3uw
Dat lijkt inderdaad de minst gevaarlijke manier om zoiets te doen. Ik vraag me wel af wat het systeem doet als je in een drukke tunnel zit bijvoorbeeld, want dan kan ook langzaam stoppen wel voor gevaarlijke situaties zorgen.
Gewoon stil gaan staan. Het kan ook zomaar zijn dat de bestuurder onwel is geworden. Moet het verkeer daar dan onnodig lang "gevaar" van hebben?
Veiligste zou zijn dat de auto dan uit de tunnel rijdt, de auto buiten de tunnel stil zet en de nooddienst belt.
Klopt, maar we hebben het nog steeds over een "assist" systeem en geen vol autonoom systeem. Het systeem mag dus zelf geen keuzes maken om door te rijden. Gevaar = Stoppen
Waarom niet? Het maakt een keuze om te stoppen, dus maakt het ook een keuze om juist niet door te rijden. Het kan (op dit moment) net zo min bepalen of stoppen veiliger is.
Tegenwoordig wel. Dit ongeval is als ik me niet vergis ook precies de reden waarom dat tegenwoordig zo werkt.
Tegenwoordig wel maar het zal niet in 1 keer zijn, baf autopilot uit. Ik denk dat de computer hem aan de kant zet of zoiets.
Voor de bevindingen was de NTSB afhankelijk van gegevens van Tesla, omdat het systeem in de auto niet toegankelijk is voor anderen
Zou een autoriteit als de NTSB of een andere autoriteit niet inzage in de data moeten kunnen hebben zonder dat Tesla de kans heeft om zaken te manipuleren? (Niet dat ze dit nu gedaan hebben, echter wanneer er wel een fout in de software van Tesla zou zitten dan kan men dit dus verbergen).
Zou het achterhalen van de data door Tesla niet onder supervisie van de NTSB zijn gebeurd denk je? Het gaat hier om een fatale crash, mag toch hopen dat een nationale organisatie dat wel doet.
Dat mag je hopen inderdaad, maar zo staat het niet in het artikel geschreven.
Er staat nu dat men afhankelijk is van "gegevens van Tesla", dus iets wat Tesla mag aanleveren blijkbaar.
Het is een beetje de vraag hoe nuttig die data nog is zonder hulp van Tesla. Ruwe data heeft niet veel betekenis, maar met de tooling van Tesla kun je daar nuttige informatie uithalen. Tesla kan dan wel wat manipuleren, maar als dat ooit uitkomt heeft dat grote gevolgen. Tesla heeft al toegegeven dat de autopilot een complete truck + trailer over het hoofd heeft gezien, wat valt er dan nog te verbergen?
Het is een beetje de vraag hoe nuttig die data nog is zonder hulp van Tesla. Ruwe data heeft niet veel betekenis, maar met de tooling van Tesla kun je daar nuttige informatie uithalen. Tesla kan dan wel wat manipuleren, maar als dat ooit uitkomt heeft dat grote gevolgen. Tesla heeft al toegegeven dat de autopilot een complete truck + trailer over het hoofd heeft gezien, wat valt er dan nog te verbergen?
Ik verzin het ter plekke, maar stel nu dat de autopilot de truck + trailer WEL gezien heeft en om een andere reden verzaakt heeft om te remmen? Dat zou erger zijn.

Het gaat er voornamelijk om dat gegarandeerd moet kunnen worden dat Tesla geen enkele kans heeft gehad om de data te manipuleren alvorens overhandigen aan de autoriteit.
Ik denk dat elke andere reden voor de crash minder gênant voor Tesla zou zijn geweest dan het over het hoofd zien van een metersgrote truck met oplegger.
Het NTSB laat bij vliegtuigen ook wel eens een zwarte doos uitlezen bij een fabrikant, als het ze zelf niet lukt.
Inmiddels als je de waarschuwingen negeert stopt de tesla na een korte tijd langs de weg en "banned" hij het gebruik van autopilot voor een bepaalde tijd.
Opstakels alleen kunnen opmerken als de kleur anders is? Dat lijkt me niet voldoende om een auto te kunnen besturen eerlijk gezegd.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*